JP2018042244A - Head-mounted display and image generation method - Google Patents

Head-mounted display and image generation method Download PDF

Info

Publication number
JP2018042244A
JP2018042244A JP2017182018A JP2017182018A JP2018042244A JP 2018042244 A JP2018042244 A JP 2018042244A JP 2017182018 A JP2017182018 A JP 2017182018A JP 2017182018 A JP2017182018 A JP 2017182018A JP 2018042244 A JP2018042244 A JP 2018042244A
Authority
JP
Japan
Prior art keywords
user
virtual space
positional relationship
users
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017182018A
Other languages
Japanese (ja)
Other versions
JP6487512B2 (en
Inventor
洋 大澤
Hiroshi Osawa
洋 大澤
洋一 西牧
Yoichi Nishimaki
洋一 西牧
山岸 建
Ken Yamagishi
建 山岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2017182018A priority Critical patent/JP6487512B2/en
Publication of JP2018042244A publication Critical patent/JP2018042244A/en
Application granted granted Critical
Publication of JP6487512B2 publication Critical patent/JP6487512B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a head-mounted display capable of improving a sense of immersion and operability of a displayed screen.SOLUTION: A user position/direction reception part 610 acquires information on the position of a user wearing a head-mounted display 100. A positional relation processing part 620 determines a positional relation between characters of a plurality of users on the basis of a positional relation between the plurality of users. A three-dimensional rendering part 640 arranges the characters of the plurality of users in a virtual space on the basis of the determined positional relation between the characters, and renders a virtual space. The positional relation processing part 620 determines a distance between the characters of the plurality of users in the virtual space in accordance with a real distance between the plurality of users. The three-dimensional rendering part 640 changes a form in which the character of each user appears in the virtual space in accordance with the real distance between the plurality of users.SELECTED DRAWING: Figure 6

Description

この発明は、ヘッドマウントディスプレイおよびヘッドマウントディスプレイに表示される画像を生成する方法に関する。   The present invention relates to a head-mounted display and a method for generating an image displayed on the head-mounted display.

ゲーム機に接続されたヘッドマウントディスプレイを頭部に装着して、ヘッドマウントディスプレイに表示された画面を見ながら、コントローラなどを操作してゲームプレイすることが行われている。ゲーム機に接続された通常の据え置き型のディスプレイでは、ディスプレイの画面の外側にもユーザの視野範囲が広がっているため、ディスプレイの画面に集中できなかったり、ゲームへの没入感に欠けることがある。その点、ヘッドマウントディスプレイを装着すると、ヘッドマウントディスプレイに表示される映像以外はユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。   A head-mounted display connected to a game machine is attached to the head, and a game is played by operating a controller or the like while viewing a screen displayed on the head-mounted display. In a normal stationary display connected to a game machine, the user's field of view extends outside the display screen, so it may not be possible to concentrate on the display screen or lack of immersion in the game. . On the other hand, when the head mounted display is mounted, since the user does not see any video other than the video displayed on the head mounted display, the feeling of immersion in the video world is increased and the entertainment property of the game is further enhanced.

また、ヘッドマウントディスプレイにパノラマ画像を表示させ、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると、360度のパノラマ画像や仮想空間が表示されるようにすると、さらに映像への没入感が高まり、ゲームなどのアプリケーションの操作性も向上する。   In addition, when a panoramic image is displayed on the head-mounted display and a user wearing the head-mounted display rotates his / her head, a 360-degree panoramic image and a virtual space are displayed. The operability of applications such as games will be improved.

ヘッドマウントディスプレイを装着したユーザの現実の位置関係や姿勢を仮想空間に反映させ、ヘッドマウントディスプレイに表示される画面への没入感および操作性を向上させることが求められている。   There is a need to improve the sense of immersion and operability in the screen displayed on the head mounted display by reflecting the actual positional relationship and posture of the user wearing the head mounted display in the virtual space.

本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイに表示する画像を効果的に生成することのできるヘッドマウントディスプレイおよび画像生成方法を提供することにある。   The present invention has been made in view of these problems, and an object thereof is to provide a head-mounted display and an image generation method capable of effectively generating an image to be displayed on the head-mounted display.

上記課題を解決するために、本発明のある態様のヘッドマウントディスプレイは、当該ヘッドマウントディスプレイを装着するユーザの位置の情報を取得する位置情報取得部と、複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理部と、決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリング部とを含む。前記位置関係処理部は、前記複数のユーザ間の現実の距離に応じて前記仮想空間における前記複数のユーザのキャラクタ間の距離を決定し、前記3次元レンダリング部は、前記複数のユーザ間の現実の距離に応じて、各ユーザのキャラクタが仮想空間に出現する態様を変える。   In order to solve the above problems, a head mounted display according to an aspect of the present invention is based on a positional information acquisition unit that acquires information on a position of a user wearing the head mounted display, and a positional relationship between a plurality of users. A positional relationship processing unit that determines the positional relationship of the characters of the plurality of users, and a three-dimensional rendering unit that arranges the characters of the plurality of users in the virtual space based on the determined positional relationship of the characters and renders the virtual space Including. The positional relationship processing unit determines the distance between the characters of the plurality of users in the virtual space according to the actual distance between the plurality of users, and the three-dimensional rendering unit is configured to determine the reality between the plurality of users. The manner in which each user's character appears in the virtual space is changed according to the distance.

本発明の別の態様は、画像生成方法である。この方法は、ヘッドマウントディスプレイにおいて画像を生成する画像生成方法であって、当該ヘッドマウントディスプレイを装着するユーザの位置の情報を取得する位置情報取得ステップと、複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理ステップと、決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリングステップとを含む。前記位置関係処理ステップは、前記複数のユーザ間の現実の距離に応じて前記仮想空間における前記複数のユーザのキャラクタ間の距離を決定し、前記3次元レンダリングステップは、前記複数のユーザ間の現実の距離に応じて、各ユーザのキャラクタが仮想空間に出現する態様を変える。   Another aspect of the present invention is an image generation method. This method is an image generation method for generating an image on a head mounted display, based on a positional information acquisition step for acquiring information on a position of a user wearing the head mounted display and a positional relationship among a plurality of users. A positional relationship processing step for determining the positional relationship of the plurality of user characters; and a three-dimensional rendering step for rendering the virtual space by arranging the plurality of user characters in the virtual space based on the determined positional relationship of the characters. Including. The positional relationship processing step determines the distance between the characters of the plurality of users in the virtual space according to the actual distance between the plurality of users, and the three-dimensional rendering step includes the reality between the plurality of users. The manner in which each user's character appears in the virtual space is changed according to the distance.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and the expression of the present invention converted between a method, an apparatus, a system, a computer program, a data structure, a recording medium, and the like are also effective as an aspect of the present invention.

本発明によれば、ヘッドマウントディスプレイに表示する画像を効果的に生成することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image displayed on a head mounted display can be produced | generated effectively.

ヘッドマウントディスプレイの外観図である。It is an external view of a head mounted display. ヘッドマウントディスプレイの機能構成図である。It is a functional lineblock diagram of a head mount display. 画像生成システムの構成図である。It is a block diagram of an image generation system. パノラマ画像生成装置の機能構成図である。It is a functional block diagram of a panoramic image generation device. 複数のヘッドマウントディスプレイにより映像を共有するシステムの構成図である。It is a block diagram of the system which shares an image | video by several head mounted displays. 仮想空間描画処理装置の機能構成図である。It is a functional block diagram of a virtual space drawing processing apparatus. 仮想空間描画処理手順を説明するシーケンス図である。It is a sequence diagram explaining a virtual space drawing process procedure. 図7の他ユーザとの位置関係処理の手順を詳しく説明するフローチャートである。It is a flowchart explaining in detail the procedure of the positional relationship process with the other user of FIG. 仮想空間に登場した第1のユーザのアバタを説明する図である。It is a figure explaining the avatar of the 1st user who appeared in virtual space. 仮想空間に登場した第2のユーザのアバタを説明する図である。It is a figure explaining the avatar of the 2nd user who appeared in virtual space. 仮想空間に登場した第3のユーザのアバタを説明する図である。It is a figure explaining the avatar of the 3rd user who appeared in virtual space. 仮想空間に登場した第4のユーザのアバタを説明する図である。It is a figure explaining the avatar of the 4th user who appeared in virtual space. 仮想空間にユーザのアバタを登場させる別の例を説明する図である。It is a figure explaining another example which makes a user's avatar appear in virtual space. ゲーム画面にユーザのアバタを登場させる例を説明する図である。It is a figure explaining the example which makes a user's avatar appear on a game screen. 仮想空間と実世界に地理的な相関関係がない場合における、ユーザの位置関係のスコア計算方法を説明する図である。It is a figure explaining the score calculation method of a user's positional relationship in case there is no geographical correlation between a virtual space and the real world. 仮想空間と実世界に地理的な相関関係がない場合における、ユーザの位置関係のスコア計算方法を説明する図である。It is a figure explaining the score calculation method of a user's positional relationship in case there is no geographical correlation between a virtual space and the real world. 仮想空間と実世界に地理的な相関関係がある場合における、ユーザの位置関係のスコア計算方法を説明する図である。It is a figure explaining the score calculation method of a user's positional relationship in the case where there is a geographical correlation between the virtual space and the real world. 仮想空間と実世界に地理的な相関関係がある場合における、ユーザの位置関係のスコア計算方法を説明する図である。It is a figure explaining the score calculation method of a user's positional relationship in the case where there is a geographical correlation between the virtual space and the real world.

図1は、ヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、本体部110、前頭部接触部120、および側頭部接触部130を含む。   FIG. 1 is an external view of the head mounted display 100. The head mounted display 100 includes a main body portion 110, a forehead contact portion 120, and a temporal contact portion 130.

ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。   The head mounted display 100 is a display device that is worn on the user's head and enjoys still images and moving images displayed on the display, and listens to sound and music output from the headphones.

ヘッドマウントディスプレイ100に内蔵または外付けされたGPS(Global Positioning System)などの位置センサによりユーザの位置情報を計測することができる。また、ヘッドマウントディスプレイ100に内蔵または外付けされた姿勢センサによりヘッドマウントディスプレイ100を装着したユーザの頭部の向きや傾きといった姿勢情報を計測することができる。   The position information of the user can be measured by a position sensor such as GPS (Global Positioning System) incorporated in or externally attached to the head mounted display 100. Further, posture information such as the orientation and inclination of the head of the user wearing the head mounted display 100 can be measured by a posture sensor built in or externally attached to the head mounted display 100.

本体部110には、ディスプレイ、位置情報取得センサ、姿勢センサ、通信装置などが含まれる。前頭部接触部120および側頭部接触部130には、ユーザの体温、脈拍、血液成分、発汗、脳波、脳血流などの生体情報を計測することのできる生体情報取得センサが含まれる。   The main body 110 includes a display, a position information acquisition sensor, a posture sensor, a communication device, and the like. The forehead contact unit 120 and the temporal contact unit 130 include a biological information acquisition sensor that can measure biological information such as a user's body temperature, pulse, blood component, sweating, brain waves, and cerebral blood flow.

ヘッドマウントディスプレイ100には、さらに、ユーザの目を撮影するカメラが設けられてもよい。ヘッドマウントディスプレイ100に搭載されたカメラにより、ユーザの視線、瞳孔の動き、瞬きなどを検出することができる。   The head mounted display 100 may further be provided with a camera that captures the eyes of the user. The camera mounted on the head mounted display 100 can detect the user's line of sight, pupil movement, blinking, and the like.

ここでは、ヘッドマウントディスプレイ100に表示される画像の生成方法を説明するが、本実施の形態の画像生成方法は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。   Here, a method for generating an image displayed on the head mounted display 100 will be described. However, the image generating method according to the present embodiment is not limited to the head mounted display 100 in a narrow sense, but a glasses, a glasses type display, a glasses type camera, The present invention can also be applied when headphones, headsets (headphones with microphones), earphones, earrings, ear-mounted cameras, hats, hats with cameras, hair bands, and the like are attached.

図2は、ヘッドマウントディスプレイ100の機能構成図である。   FIG. 2 is a functional configuration diagram of the head mounted display 100.

制御部10は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース20は、タッチパネルおよびタッチパネルコントローラから操作信号や設定信号を受け付け、制御部10に供給する。出力インタフェース30は、制御部10から画像信号を受け取り、ディスプレイに表示させる。バックライト32は、液晶ディスプレイにバックライトを供給する。   The control unit 10 is a main processor that processes and outputs signals such as image signals and sensor signals, commands and data. The input interface 20 receives operation signals and setting signals from the touch panel and the touch panel controller, and supplies them to the control unit 10. The output interface 30 receives the image signal from the control unit 10 and displays it on the display. The backlight 32 supplies a backlight to the liquid crystal display.

通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部10から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部10に出力する。   The communication control unit 40 transmits data input from the control unit 10 to the outside through wired or wireless communication via the network adapter 42 or the antenna 44. The communication control unit 40 also receives data from the outside via wired or wireless communication via the network adapter 42 or the antenna 44 and outputs the data to the control unit 10.

記憶部50は、制御部10が処理するデータやパラメータ、操作信号などを一時的に記憶する。   The storage unit 50 temporarily stores data, parameters, operation signals, and the like processed by the control unit 10.

GPSユニット60は、制御部10からの操作信号にしたがって、GPS衛星から位置情報を受信して制御部10に供給する。無線ユニット62は、制御部10からの操作信号にしたがって、無線基地局から位置情報を受信して制御部10に供給する。   The GPS unit 60 receives position information from a GPS satellite and supplies it to the control unit 10 in accordance with an operation signal from the control unit 10. The radio unit 62 receives position information from the radio base station and supplies it to the control unit 10 in accordance with an operation signal from the control unit 10.

姿勢センサ64は、ヘッドマウントディスプレイ100の本体部110の向きや傾きなどの姿勢情報を検出する。姿勢センサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。   The attitude sensor 64 detects attitude information such as the orientation and inclination of the main body 110 of the head mounted display 100. The posture sensor 64 is realized by appropriately combining a gyro sensor, an acceleration sensor, an angular acceleration sensor, and the like.

外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。   The external input / output terminal interface 70 is an interface for connecting peripheral devices such as a USB (Universal Serial Bus) controller. The external memory 72 is an external memory such as a flash memory.

時計部80は、制御部10からの設定信号によって時間情報を設定し、時間データを制御部10に供給する。   The clock unit 80 sets time information according to a setting signal from the control unit 10 and supplies time data to the control unit 10.

制御部10は、画像やテキストデータを出力インタフェース30に供給してディスプレイに表示させたり、通信制御部40に供給して外部に送信させることができる。   The control unit 10 can supply the image and text data to the output interface 30 to be displayed on the display, or can supply the image and text data to the communication control unit 40 to be transmitted to the outside.

図3は、本実施の形態に係る画像生成システムの構成図である。画像生成システムは、ヘッドマウントディスプレイ100、クラウドサーバ200、およびカメラ300を含む。   FIG. 3 is a configuration diagram of the image generation system according to the present embodiment. The image generation system includes a head mounted display 100, a cloud server 200, and a camera 300.

ヘッドマウントディスプレイ100は、ユーザが頭部に装着して静止画、動画などの画像鑑賞を行うことのできる頭部装着型表示装置の一例である。ヘッドマウントディスプレイ100は、有線LANや無線LAN、ブルートゥース(商標)、携帯電話回線などの通信機能を備え、外部とのデータ入出力が可能である。ヘッドマウントディスプレイ100は、ネットワーク400を介してクラウドサーバ200とデータ通信を行う。また、ヘッドマウントディスプレイ100に搭載されたGPSセンサによりユーザの位置を計測し、ユーザの位置情報をクラウドサーバ200に送信することができる。また、ヘッドマウントディスプレイ100に搭載された姿勢センサによりヘッドマウントディスプレイ100の向きや傾きを計測し、姿勢情報をクラウドサーバ200に送信することができる。   The head-mounted display 100 is an example of a head-mounted display device that a user can wear on the head and view images such as still images and moving images. The head mounted display 100 has a communication function such as a wired LAN, a wireless LAN, Bluetooth (trademark), and a mobile phone line, and can input and output data with the outside. The head mounted display 100 performs data communication with the cloud server 200 via the network 400. Further, the position of the user can be measured by a GPS sensor mounted on the head mounted display 100, and the user position information can be transmitted to the cloud server 200. In addition, the orientation and inclination of the head mounted display 100 can be measured by the orientation sensor mounted on the head mounted display 100, and the orientation information can be transmitted to the cloud server 200.

カメラ300は、2次元または3次元の静止画や動画を撮影することができる画像データ取得装置の一例である。カメラ300は、有線LANや無線LAN、ブルートゥース(商標)、携帯電話回線などの通信機能を備え、外部とのデータ入出力が可能である。カメラ300は、ネットワーク400を介してクラウドサーバ200とデータ通信を行う。また、カメラ300は、撮影時の露出やレンズ情報、姿勢などの機器情報を記録する機能を持ち、クラウドサーバ200に撮影画像データとともに機器情報を送信することができる。また、カメラ300は、内蔵もしくは外付けの超音波やレーザーを用いた距離センサによって撮影した被写体までの距離を計測する機能を有してもよく、クラウドサーバ200に撮影画像データとともに距離情報を送信することができる。   The camera 300 is an example of an image data acquisition device that can capture a two-dimensional or three-dimensional still image or moving image. The camera 300 has a communication function such as a wired LAN, a wireless LAN, Bluetooth (trademark), and a mobile phone line, and can input and output data with the outside. The camera 300 performs data communication with the cloud server 200 via the network 400. In addition, the camera 300 has a function of recording device information such as exposure, lens information, and posture at the time of shooting, and can transmit device information together with the shot image data to the cloud server 200. In addition, the camera 300 may have a function of measuring the distance to a subject photographed by a distance sensor using a built-in or external ultrasonic wave or laser, and transmits distance information to the cloud server 200 together with photographed image data. can do.

クラウドサーバ200は、カメラ300で取得した画像データをヘッドマウントディスプレイ100に表示するのに適した形態に加工してヘッドマウントディスプレイ100に送信する。   The cloud server 200 processes the image data acquired by the camera 300 into a form suitable for displaying on the head mounted display 100 and transmits the processed image data to the head mounted display 100.

たとえば、ハードウェア仕様の異なるヘッドマウントディスプレイに対応するように、クラウドサーバ200は、解像度、表示方法、画質など各ヘッドマウントディスプレイに最適化したデータに変換してもよい。クラウドサーバ200は、カメラ300で撮影された画像データをヘッドマウントディスプレイでの表示に最適となるように加工してもよい。クラウドサーバ200は、2次元画像を撮影する複数のカメラで撮影した複数枚の撮影画像から3次元表示可能な画像データに加工してもよい。クラウドサーバ200は、2次元画像を撮影する複数のカメラで撮影した複数枚の撮影画像から被写体までの距離データを計算してもよい。クラウドサーバ200は、距離センサで取得した距離データと画像データを組み合わせる事で2次元表示可能な画像データに加工してもよい。クラウドサーバ200は、カメラ300で撮影したデータをつなぎ合わせる事でパノラマ画像データを生成してもよい。   For example, the cloud server 200 may convert data optimized for each head-mounted display such as resolution, display method, and image quality so as to support head-mounted displays with different hardware specifications. The cloud server 200 may process the image data captured by the camera 300 so as to be optimal for display on a head-mounted display. The cloud server 200 may process image data that can be displayed three-dimensionally from a plurality of captured images captured by a plurality of cameras that capture a two-dimensional image. The cloud server 200 may calculate distance data from a plurality of captured images captured by a plurality of cameras that capture a two-dimensional image to a subject. The cloud server 200 may process the image data that can be displayed two-dimensionally by combining the distance data acquired by the distance sensor and the image data. The cloud server 200 may generate panoramic image data by connecting data captured by the camera 300.

このように、クラウドサービスを利用することでクラウドサーバ200側で画像にいろいろな処理を施すことができるため、ヘッドマウントディスプレイ100およびカメラ300のハードウェア構成を簡単かつ安価にすることができる。カメラ300が撮影した画像をクラウドサーバ200に送信し、ヘッドマウントディスプレイ100が最適化されたデータを受け取って表示することにより、ユーザはリアルタイムで遠隔地のパノラマ画像を見ることができる。   As described above, since various processes can be performed on the image on the cloud server 200 side by using the cloud service, the hardware configurations of the head mounted display 100 and the camera 300 can be made simple and inexpensive. By transmitting an image captured by the camera 300 to the cloud server 200 and receiving and displaying the optimized data by the head mounted display 100, the user can view a panoramic image of a remote place in real time.

図4は、パノラマ画像生成装置500の機能構成図である。パノラマ画像生成装置500の機能構成は、クラウドサーバ200に実装される。パノラマ画像生成装置500の機能構成の一部をヘッドマウントディスプレイ100またはカメラ300に実装することもできる。   FIG. 4 is a functional configuration diagram of the panoramic image generation apparatus 500. The functional configuration of the panoramic image generation apparatus 500 is implemented in the cloud server 200. A part of the functional configuration of the panoramic image generation apparatus 500 can be mounted on the head mounted display 100 or the camera 300.

撮影画像受信部510は、カメラ300から撮影方向の異なる複数の撮影画像を受信し、画像データ記憶部520に保存する。パノラマ画像処理部530は、画像データ記憶部520に記憶された撮影方向の異なる複数の撮影画像をステッチング処理によってつなぎ合わせてパノラマ画像を生成する。   The captured image receiving unit 510 receives a plurality of captured images having different shooting directions from the camera 300 and stores them in the image data storage unit 520. The panoramic image processing unit 530 generates a panoramic image by stitching together a plurality of photographed images with different photographing directions stored in the image data storage unit 520 by stitching processing.

フォーマット変換部540は、ヘッドマウントディスプレイ100の仕様に合わせて、パノラマ画像の解像度、アスペクト比(縦横比)、3次元表示データ形式などを変換する。   The format conversion unit 540 converts the resolution, aspect ratio (aspect ratio), 3D display data format, etc. of the panoramic image in accordance with the specifications of the head mounted display 100.

パノラマ画像送信部550は、フォーマット変換部540により変換されたパノラマ画像データをヘッドマウントディスプレイ100に送信する。   The panorama image transmission unit 550 transmits the panorama image data converted by the format conversion unit 540 to the head mounted display 100.

カメラ300がパノラマ撮影が可能な撮像装置である場合は、撮影画像受信部510はカメラ300からパノラマ画像を受信して画像データ記憶部520に保存する。この場合、ステッチング処理は不要であるから、フォーマット変換部540がパノラマ画像を画像データ記憶部520から読み出してヘッドマウントディスプレイ100の仕様に合わせて画像形式を変換すればよい。   When the camera 300 is an imaging device capable of panoramic shooting, the captured image receiving unit 510 receives a panoramic image from the camera 300 and stores it in the image data storage unit 520. In this case, since the stitching process is unnecessary, the format conversion unit 540 may read the panoramic image from the image data storage unit 520 and convert the image format in accordance with the specifications of the head mounted display 100.

カメラ300が被写体までの距離を測定する距離センサを備えている場合、撮影画像受信部510は、カメラ300から2次元パノラマ撮影画像とともに距離情報を受信し、画像データ記憶部520に2次元パノラマ撮影画像と距離情報を保存する。パノラマ画像処理部530は、画像解析を行い、2次元パノラマ撮影画像から距離情報を用いて視差を計算し、左目用画像と右目用画像を含む3次元パノラマ画像を生成する。フォーマット変換部540は、ヘッドマウントディスプレイ100の仕様に合わせて、3次元パノラマ画像の解像度、アスペクト比(縦横比)、表示データ形式などを変換する。パノラマ画像送信部550は、3次元パノラマ画像をヘッドマウントディスプレイ100に送信する。   When the camera 300 includes a distance sensor that measures the distance to the subject, the captured image receiving unit 510 receives distance information from the camera 300 together with the two-dimensional panoramic captured image, and stores the two-dimensional panoramic image in the image data storage unit 520. Save image and distance information. The panoramic image processing unit 530 performs image analysis, calculates parallax using distance information from the two-dimensional panoramic image, and generates a three-dimensional panoramic image including a left-eye image and a right-eye image. The format conversion unit 540 converts the resolution, aspect ratio (aspect ratio), display data format, and the like of the 3D panoramic image in accordance with the specifications of the head mounted display 100. The panoramic image transmission unit 550 transmits the three-dimensional panoramic image to the head mounted display 100.

また、クラウドサーバ200のパノラマ画像処理部530は、カメラ300により撮影された実写画像に各種のエフェクトを施してもよい。たとえば、コンピュータグラフィックス(CG)調、アニメーション調、セピア調などのエフェクトを実写画像に施す。また、パノラマ画像処理部530は、ゲームキャラクタなどのCGを生成し、カメラ300により撮影された実写画像に重ねてレンダリングしてもよい。これにより、クラウドサーバ200は実写画像とCGを合成した映像コンテンツをヘッドマウントディスプレイ100に配信することができる。   In addition, the panoramic image processing unit 530 of the cloud server 200 may apply various effects to the real image captured by the camera 300. For example, effects such as computer graphics (CG) tone, animation tone, and sepia tone are applied to a live-action image. Further, the panorama image processing unit 530 may generate a CG such as a game character and render it superimposed on a real image captured by the camera 300. Thereby, the cloud server 200 can distribute the video content obtained by combining the photographed image and the CG to the head mounted display 100.

図5は、複数のヘッドマウントディスプレイにより映像を共有するシステムの構成図である。映像共有システムは、複数のヘッドマウントディスプレイ100a、100bおよびクラウドサーバ200を含む。ヘッドマウントディスプレイ100a、100bはネットワーク400を介してクラウドサーバ200とデータ通信する。   FIG. 5 is a configuration diagram of a system for sharing a video by a plurality of head mounted displays. The video sharing system includes a plurality of head mounted displays 100 a and 100 b and a cloud server 200. The head mounted displays 100 a and 100 b perform data communication with the cloud server 200 via the network 400.

ヘッドマウントディスプレイ100a、100bは実世界におけるユーザの位置情報をクラウドサーバ200に送信する。クラウドサーバ200はユーザの位置関係を反映した画像データをヘッドマウントディスプレイ100a、100bに送信する。   The head mounted displays 100 a and 100 b transmit user location information in the real world to the cloud server 200. The cloud server 200 transmits image data reflecting the user's positional relationship to the head mounted displays 100a and 100b.

たとえば、複数のユーザが一つの部屋でテーブルを囲んで座っている場合、クラウドサーバ200は各ユーザの位置情報をもとに現実の位置情報を仮想世界のアバタの位置情報に反映させてアバタの位置を決めて仮想空間内に各ユーザのアバタを描画する。また、映画館内や展示物の前で複数のユーザがヘッドマウントディスプレイを装着した場合、ユーザの現実世界での位置に応じて、視点位置の異なる映像をユーザのヘッドマウントディスプレイに配信してもよい。また、複数のユーザが異なるロケーションにいる場合、ユーザのロケーション間の距離をアバタの位置関係やアバタの表示サイズに反映してもよい。   For example, when a plurality of users are sitting around a table in one room, the cloud server 200 reflects the actual position information on the position information of the avatar in the virtual world based on the position information of each user. Determine the position and draw each user's avatar in the virtual space. In addition, when multiple users wear head-mounted displays in front of a movie theater or an exhibit, videos with different viewpoint positions may be distributed to the user's head-mounted display according to the user's position in the real world. . When a plurality of users are at different locations, the distance between the user locations may be reflected in the positional relationship of the avatar and the display size of the avatar.

図6は、仮想空間描画処理装置600の機能構成図である。仮想空間描画処理装置600の機能構成は、クラウドサーバ200に実装される。仮想空間描画処理装置600の機能構成の一部をヘッドマウントディスプレイ100に実装することもできる。   FIG. 6 is a functional configuration diagram of the virtual space drawing processing apparatus 600. The functional configuration of the virtual space rendering processing device 600 is implemented in the cloud server 200. A part of the functional configuration of the virtual space rendering processing apparatus 600 can be mounted on the head mounted display 100.

ユーザ位置・向き受信部610は、ヘッドマウントディスプレイ100に内蔵されたGPSセンサにより取得されたユーザの位置の情報、およびヘッドマウントディスプレイ100に内蔵された姿勢センサにより取得されたユーザの頭部の向きの情報をヘッドマウントディスプレイ100から受信し、ユーザデータベース660にユーザの位置および向きの情報をユーザの識別情報に関連づけて保存する。   The user position / orientation receiving unit 610 includes information on the position of the user acquired by the GPS sensor built in the head mounted display 100 and the orientation of the user's head acquired by the posture sensor built in the head mounted display 100. Is received from the head mounted display 100, and the user position and orientation information is stored in the user database 660 in association with the user identification information.

位置関係処理部620は、ユーザデータベース660から複数のユーザの位置および向きの情報を読み出し、複数のユーザの位置関係を決定する。たとえば、現実世界において二人のユーザが向き合っているなら、仮想空間においても二人のユーザのアバタが向き合うようにアバタの位置と向きを決定する。また、現実世界におけるユーザAとユーザBの間の距離が、ユーザAとユーザCの間の距離よりも大きい場合、仮想空間においてもユーザAのアバタはユーザBのアバタよりもユーザCのアバタに近い位置に配置される。ユーザAとユーザBが向き合っている場合は、ユーザAのアバタとユーザBのアバタを向き合わせる。ユーザA、B、Cが一つの対象物を取り囲んで向き合っている場合は、ユーザA、B、Cのアバタも仮想空間におけるオブジェクトを取り囲んで向き合うように向きを決定する。   The positional relationship processing unit 620 reads information on the positions and orientations of a plurality of users from the user database 660 and determines the positional relationship between the plurality of users. For example, if two users face each other in the real world, the position and direction of the avatar are determined so that the two avatars face each other in the virtual space. In addition, when the distance between the user A and the user B in the real world is larger than the distance between the user A and the user C, the avatar of the user A is more avatar of the user C than the avatar of the user B even in the virtual space. It is arranged at a close position. When user A and user B face each other, user A's avatar and user B's avatar face each other. When the users A, B, and C surround one object and face each other, the avatars of the users A, B, and C also determine the directions so as to surround and face the object in the virtual space.

視線方向設定部630は、ユーザの現実の方向に応じて、各ユーザのカメラ位置、言い換えれば仮想空間における視線方向を設定する。たとえば、一つの対象物の周りを複数のユーザが取り囲んでいる場合、ユーザが現実の対象物に向かっている方向をユーザの仮想空間における視線方向とする。   The line-of-sight direction setting unit 630 sets the camera position of each user, in other words, the line-of-sight direction in the virtual space, according to the actual direction of the user. For example, when a plurality of users surround a single target object, the direction in which the user is facing the real target object is set as the line-of-sight direction in the user's virtual space.

3次元レンダリング部640は、仮想空間情報記憶部670から仮想空間の情報やキャラクタのデータを読み出し、各ユーザの視線方向から見た仮想空間の3次元レンダリングを行う。仮想空間には各ユーザのアバタが合成される。描画データ送信部650は仮想空間の描画データをヘッドマウントディスプレイ100に送信する。   The three-dimensional rendering unit 640 reads virtual space information and character data from the virtual space information storage unit 670, and performs three-dimensional rendering of the virtual space viewed from the line-of-sight direction of each user. Each user's avatar is synthesized in the virtual space. The drawing data transmission unit 650 transmits virtual space drawing data to the head mounted display 100.

図7は、仮想空間描画処理手順を説明するシーケンス図である。   FIG. 7 is a sequence diagram illustrating the virtual space drawing processing procedure.

ヘッドマウントディスプレイ100は、各種変数を初期化する(S10)。ヘッドマウントディスプレイ100に搭載されたGPSセンサや姿勢センサがユーザの位置と向きを測定する(S12)。ヘッドマウントディスプレイ100の通信制御部40は、ユーザの位置と向きの情報をクラウドサーバ200に送信する。   The head mounted display 100 initializes various variables (S10). A GPS sensor or posture sensor mounted on the head mounted display 100 measures the position and orientation of the user (S12). The communication control unit 40 of the head mounted display 100 transmits the user position and orientation information to the cloud server 200.

クラウドサーバ200の位置関係処理部620は、ユーザの位置情報にもとづいて、仮想空間内の位置にユーザのキャラクタをマッピングする(S14)。位置関係処理部620は、仮想空間内に既にマッピングされた他のユーザとの相対的な位置関係を計算し、当該ユーザのキャラクタを表示する位置と向きを決定する(S16)。視線方向設定部630は、当該ユーザのカメラ方向、すなわち仮想空間における視線方向を計算する(S18)。3次元レンダリング部640は、当該ユーザの視点方向から見た仮想空間の3次元レンダリングを行う(S20)。描画データ送信部650は、3次元レンダリングの描画データをヘッドマウントディスプレイ100に送信する。   The positional relationship processing unit 620 of the cloud server 200 maps the user character to a position in the virtual space based on the user position information (S14). The positional relationship processing unit 620 calculates the relative positional relationship with other users already mapped in the virtual space, and determines the position and orientation for displaying the user's character (S16). The line-of-sight setting unit 630 calculates the camera direction of the user, that is, the line-of-sight direction in the virtual space (S18). The three-dimensional rendering unit 640 performs three-dimensional rendering of the virtual space viewed from the viewpoint direction of the user (S20). The drawing data transmission unit 650 transmits three-dimensional rendering drawing data to the head mounted display 100.

ヘッドマウントディスプレイ100は、3次元描画データを表示する(S22)。終了条件を満たせば(S24のY)、終了し、終了条件を満たさない場合(S24のN)、ステップS12に戻って、それ以降の処理が繰り返される。   The head mounted display 100 displays the three-dimensional drawing data (S22). If the end condition is satisfied (Y in S24), the process ends. If the end condition is not satisfied (N in S24), the process returns to step S12 and the subsequent processing is repeated.

図8は、図7のステップS16の他ユーザとの位置関係処理の手順を詳しく説明するフローチャートである。   FIG. 8 is a flowchart for explaining in detail the procedure of the positional relationship process with another user in step S16 of FIG.

まず、仮想空間に既にアバタがいるかどうかを判定する(S30)。仮想空間にまだアバタがいなければ(S30のN)、仮想空間に当該ユーザのアバタを登場させる(S42)。   First, it is determined whether or not an avatar already exists in the virtual space (S30). If there is no avatar yet in the virtual space (N in S30), the avatar of the user appears in the virtual space (S42).

仮想空間に既にアバタが存在する場合(S30のY)、位置関係のスコア計算を行う(S32)。たとえば、実世界におけるユーザ間の距離をもとに、位置関係のスコアを求める。各ユーザの実世界における位置と方向の情報を用いて、アバタの相対的位置関係、すなわち、アバタ間の距離や、あるアバタが別のアバタに対して取る向きを決定する。   If an avatar already exists in the virtual space (Y in S30), a positional relation score is calculated (S32). For example, the position relationship score is obtained based on the distance between users in the real world. Using the information on the position and direction of each user in the real world, the relative positional relationship of avatars, that is, the distance between avatars and the direction that one avatar takes with respect to another avatar are determined.

図12〜図15を参照してステップS32の位置関係のスコア計算の一例を説明する。ここではスコア計算方法の一例を説明するが、スコア計算方法はこれに限定されるものではない。   An example of the positional relationship score calculation in step S32 will be described with reference to FIGS. Although an example of the score calculation method will be described here, the score calculation method is not limited to this.

図12および図13は、仮想空間と実世界に地理的な相関関係がない場合における、ユーザの位置関係のスコア計算方法を説明する図である。   12 and 13 are diagrams for describing a score calculation method for a user's positional relationship when there is no geographical correlation between the virtual space and the real world.

まず、各ユーザの実世界の位置の緯度経度データにもとづいて、各ユーザを基準とした他のユーザの距離および方向を求める。GPSデータを用いて実世界におけるユーザの位置を取得する。図12(a)は、ユーザ1、ユーザ2、ユーザ3の実世界の位置の緯度経度データを示す。   First, based on the latitude and longitude data of each user's real-world position, the distance and direction of another user based on each user are obtained. The position of the user in the real world is acquired using GPS data. FIG. 12A shows the latitude and longitude data of the real world positions of the user 1, the user 2, and the user 3.

図12(b)は、実世界におけるユーザ1を基準としたユーザ2およびユーザ3の距離と方向を示す。ユーザ1を基準としたユーザ2の距離はLr_12であり、方向はAr_12である。また、ユーザ1を基準としたユーザ3の距離はLr_13であり、方向はAr_13である。ここで、方向は緯線を基準とした時計回りの角度で定義する。   FIG. 12B shows the distance and direction of the user 2 and the user 3 with respect to the user 1 in the real world. The distance of the user 2 with respect to the user 1 is Lr_12, and the direction is Ar_12. The distance of the user 3 with respect to the user 1 is Lr_13, and the direction is Ar_13. Here, the direction is defined as a clockwise angle with respect to the latitude line.

同様に、図12(c)は、実世界におけるユーザ3を基準としたユーザ2およびユーザ1の距離と方向を示す。ユーザ3を基準としたユーザ2の距離はLr_32であり、方向はAr_32である。また、ユーザ3を基準としたユーザ1の距離はLr_31であり、方向はAr_31である。   Similarly, FIG.12 (c) shows the distance and direction of the user 2 and the user 1 on the basis of the user 3 in the real world. The distance of the user 2 with respect to the user 3 is Lr_32, and the direction is Ar_32. The distance of the user 1 with respect to the user 3 is Lr_31, and the direction is Ar_31.

なお、事前に仮想空間にいるアバタが一人だけである場合は、方向の計算は省略することができる。   If there is only one avatar in the virtual space in advance, the direction calculation can be omitted.

次に、各ユーザの仮想空間の位置の絶対座標にもとづいて、各ユーザを基準とした他のユーザの距離および方向を求める。図13(a)は、ユーザ1、ユーザ2、ユーザ3の仮想空間の位置の絶対座標を示す。   Next, based on the absolute coordinates of the position of each user in the virtual space, the distances and directions of other users based on each user are obtained. FIG. 13A shows absolute coordinates of positions of the virtual spaces of the user 1, the user 2, and the user 3.

図13(b)は、仮想空間におけるユーザ1を基準としたユーザ2およびユーザ3の距離と方向を示す。ユーザ1を基準としたユーザ2の距離はLv_12であり、方向はAv_12である。また、ユーザ1を基準としたユーザ3の距離はLv_13であり、方向はAv_13である。   FIG. 13B shows the distance and direction of the user 2 and the user 3 with respect to the user 1 in the virtual space. The distance of the user 2 with respect to the user 1 is Lv_12, and the direction is Av_12. The distance of the user 3 with respect to the user 1 is Lv_13, and the direction is Av_13.

同様に、図13(c)は、仮想空間におけるユーザ3を基準としたユーザ2およびユーザ1の距離と方向を示す。ユーザ3を基準としたユーザ2の距離はLv_32であり、方向はAv_32である。また、ユーザ3を基準としたユーザ1の距離はLv_31であり、方向はAv_31である。   Similarly, FIG.13 (c) shows the distance and direction of the user 2 and the user 1 on the basis of the user 3 in virtual space. The distance of the user 2 with respect to the user 3 is Lv_32, and the direction is Av_32. The distance of the user 1 with respect to the user 3 is Lv_31, and the direction is Av_31.

次に、実世界におけるユーザ間の距離・方向と、仮想空間におけるユーザ間の距離・方向とを比較し、相関係数を計算する。   Next, the distance / direction between users in the real world is compared with the distance / direction between users in the virtual space, and a correlation coefficient is calculated.

ユーザmとユーザnについての実世界と仮想空間の位置関係の相関係数Rmnは次式で定義される。
Rmn=|Lv_mn−Lr_mn|×|Av_mn−Ar_mn|
ここで、|a|は値aの絶対値を取る演算である。
The correlation coefficient Rmn of the positional relationship between the real world and the virtual space for the user m and the user n is defined by the following equation.
Rmn = | Lv_mn−Lr_mn | × | Av_mn−Ar_mn |
Here, | a | is an operation that takes the absolute value of the value a.

相関係数Rmnをユーザの位置関係のスコアとして用いて(相関係数が小さいほどスコアは高く、相関係数が大きいほどスコアは低いとする)、相関係数Rmnが事前に決めた閾値以下であれば、実世界と仮想空間の位置関係は同じであるとみなす。   The correlation coefficient Rmn is used as the score of the user's positional relationship (the smaller the correlation coefficient, the higher the score, and the higher the correlation coefficient, the lower the score), and the correlation coefficient Rmn is below a predetermined threshold value. If there is, it is considered that the positional relationship between the real world and the virtual space is the same.

図14および図15は、仮想空間と実世界に地理的な相関関係がある場合における、ユーザの位置関係のスコア計算方法を説明する図である。   14 and 15 are diagrams illustrating a score calculation method for a user's positional relationship when there is a geographical correlation between the virtual space and the real world.

まず、各ユーザの実世界の位置の緯度経度データおよび実世界の地理的な基準点の緯度経度データにもとづいて、実世界の地理的な基準点(ここでは東京)を基準とした各ユーザの距離および方向を求める。GPSデータを用いて実世界におけるユーザの位置を取得する。図14(a)は、ユーザ1、ユーザ2、ユーザ3、および東京の実世界の位置の緯度経度データを示す。   First, based on the latitude / longitude data of each user's real world location and the latitude / longitude data of the real world geographical reference point, each user's reference is based on the real world geographical reference point (here, Tokyo). Find the distance and direction. The position of the user in the real world is acquired using GPS data. FIG. 14A shows latitude and longitude data of the user 1, the user 2, the user 3, and the real world location in Tokyo.

図14(b)は、実世界における東京を基準としたユーザ2の距離と方向を示す。実世界の東京を基準としたユーザ2の距離はLr_02であり、方向はAr_02である。同様に、図14(c)は、実世界における東京を基準としたユーザ1の距離と方向を示す。実世界の東京を基準としたユーザ1の距離はLr_01であり、方向はAr_01である。図14(d)は、実世界における東京を基準としたユーザ3の距離と方向を示す。実世界の東京を基準としたユーザ3の距離はLr_03であり、方向はAr_03である。   FIG. 14B shows the distance and direction of the user 2 with reference to Tokyo in the real world. The distance of the user 2 with respect to Tokyo in the real world is Lr_02 and the direction is Ar_02. Similarly, FIG.14 (c) shows the distance and direction of the user 1 on the basis of Tokyo in the real world. The distance of the user 1 with respect to Tokyo in the real world is Lr_01, and the direction is Ar_01. FIG. 14D shows the distance and direction of the user 3 with reference to Tokyo in the real world. The distance of the user 3 with respect to Tokyo in the real world is Lr_03 and the direction is Ar_03.

次に、各ユーザの仮想空間の位置の絶対座標および仮想空間の地理的な基準点の絶対座標にもとづいて、仮想空間の地理的な基準点(ここでは東京)を基準とした各ユーザの距離および方向を求める。図15(a)は、ユーザ1、ユーザ2、ユーザ3、および東京の仮想空間の位置の絶対座標を示す。   Next, based on the absolute coordinates of the virtual space position of each user and the absolute coordinates of the geographical reference point of the virtual space, the distance of each user based on the geographical reference point of the virtual space (here, Tokyo) And seek directions. FIG. 15A shows the absolute coordinates of the positions of the user 1, the user 2, the user 3, and the virtual space in Tokyo.

図15(b)は、仮想空間における東京を基準としたユーザ2の距離と方向を示す。仮想空間の東京を基準としたユーザ2の距離はLv_02であり、方向はAv_02である。同様に、図15(c)は、仮想空間における東京を基準としたユーザ1の距離と方向を示す。仮想空間の東京を基準としたユーザ1の距離はLv_01であり、方向はAv_01である。図15(d)は、仮想空間における東京を基準としたユーザ3の距離と方向を示す。仮想空間の東京を基準としたユーザ3の距離はLv_03であり、方向はAv_03である。   FIG. 15B shows the distance and direction of the user 2 with reference to Tokyo in the virtual space. The distance of the user 2 with reference to the virtual space Tokyo is Lv_02, and the direction is Av_02. Similarly, FIG.15 (c) shows the distance and direction of the user 1 on the basis of Tokyo in virtual space. The distance of the user 1 relative to the virtual space Tokyo is Lv_01, and the direction is Av_01. FIG. 15D shows the distance and direction of the user 3 with reference to Tokyo in the virtual space. The distance of the user 3 relative to the virtual space Tokyo is Lv_03, and the direction is Av_03.

次に、実世界における基準点とユーザ間の距離・方向と、仮想空間における基準点とユーザ間の距離・方向とを比較し、相関係数を計算する。   Next, the distance / direction between the reference point and the user in the real world and the distance / direction between the reference point and the user in the virtual space are compared, and a correlation coefficient is calculated.

基準点とユーザmについての実世界と仮想空間の位置関係の相関係数R0mは次式で定義される。
R0m=|Lv_0m−Lr_0m|×|Av_0m−Ar_0m|
The correlation coefficient R0m of the positional relationship between the real world and the virtual space for the reference point and the user m is defined by the following equation.
R0m = | Lv — 0m−Lr — 0m | × | Av — 0m—Ar — 0m |

相関係数R0mをユーザの位置関係のスコアとして用いて(相関係数が小さいほどスコアは高く、相関係数が大きいほどスコアは低いとする)、相関係数R0mが事前に決めた閾値以下であれば、実世界と仮想空間の位置関係は同じであるとみなす。   The correlation coefficient R0m is used as a score of the user's positional relationship (the smaller the correlation coefficient, the higher the score, and the higher the correlation coefficient, the lower the score), so that the correlation coefficient R0m is equal to or less than a predetermined threshold. If there is, it is considered that the positional relationship between the real world and the virtual space is the same.

再び図8を参照する。実世界の位置関係と仮想空間内のアバタの位置関係が同じかどうかを判定する(S34)。これは、仮想空間内でアバタが移動することがあり、現実の位置関係から外れていくことがあるからである。ステップS32で求めた相関係数Rmn(またはR0m)について閾値Rthと比較する。すべてのユーザについて、Rmn<Rth(またはR0m<Rth)であれば、実世界の位置関係と仮想空間内のアバタの位置関係は同じであると判定する。実世界の位置関係と仮想空間内のアバタの位置関係が所定の範囲で保たれている場合(S34のY)、仮想空間に当該ユーザのアバタを登場させる(S42)。   Refer to FIG. 8 again. It is determined whether the real world positional relationship is the same as the avatar positional relationship in the virtual space (S34). This is because the avatar may move in the virtual space and deviate from the actual positional relationship. The correlation coefficient Rmn (or R0m) obtained in step S32 is compared with the threshold value Rth. If Rmn <Rth (or R0m <Rth) for all users, it is determined that the real world positional relationship and the avatar positional relationship in the virtual space are the same. When the positional relationship between the real world and the avatar in the virtual space is maintained within a predetermined range (Y in S34), the user's avatar appears in the virtual space (S42).

実世界の位置関係と仮想空間内のアバタの位置関係が保たれていない場合(S34のN)、ユーザ同士の現実の位置関係に近い場所が仮想空間にあるか判定する(S36)。ステップS34で行った相関係数と閾値の比較において、一人以上のユーザについてRmn<Rth(またはR0m<Rth)であれば、ユーザ同士の現実の位置関係に近い場所が仮想空間にあると判定する。ユーザ同士の現実の位置関係に近い場所が仮想空間内にある場合(S36のY)、その場所の中からスコアがもっとも高いものを最も近い場所に決定する(S38)。たとえば、ステップS34で行った相関係数と閾値の比較において、Rmn<Rth(またはR0m<Rth)を満たしているユーザのデータのみを使って位置を決定する。ユーザ同士の現実の位置関係に近い場所が仮想空間内にない場合(S36のN)、適当な場所、たとえばランダムな位置や最後方の位置を決定する(S40)。いずれの場合でも、決定された場所に当該ユーザのアバタを登場させる(S42)。   When the positional relationship between the real world and the avatar in the virtual space is not maintained (N in S34), it is determined whether there is a place in the virtual space that is close to the actual positional relationship between the users (S36). In the comparison between the correlation coefficient and the threshold value performed in step S34, if Rmn <Rth (or R0m <Rth) for one or more users, it is determined that there is a place close to the actual positional relationship between the users in the virtual space. . If there is a place in the virtual space that is close to the actual positional relationship between users (Y in S36), the place with the highest score is determined as the closest place (S38). For example, in the comparison between the correlation coefficient and the threshold value performed in step S34, the position is determined using only user data satisfying Rmn <Rth (or R0m <Rth). If there is no place close to the actual positional relationship between users in the virtual space (N in S36), an appropriate place, for example, a random position or the last position is determined (S40). In any case, the user's avatar appears at the determined location (S42).

図9A〜図9Dは、仮想空間にユーザのアバタを登場させる例を説明する図である。ここでは、4人のユーザA〜Dのアバタ700a〜700dを仮想空間に登場させる例を説明する。4人のユーザA〜Dは、現実世界において異なる場所にいるとする。   9A to 9D are diagrams illustrating an example in which a user's avatar appears in the virtual space. Here, an example will be described in which avatars 700a to 700d of four users A to D appear in the virtual space. Assume that the four users A to D are in different places in the real world.

図9Aに示すように、ユーザAが最初に仮想空間にログインし、アバタ700aが仮想空間内に登場したとする。   As shown in FIG. 9A, it is assumed that user A first logs in to the virtual space, and avatar 700a appears in the virtual space.

現実世界において、残りのユーザB、ユーザC、ユーザDはこの順でユーザAに対して近い位置にいるとする。たとえば、東京にいるユーザAに対して、ユーザBは横浜、ユーザCは神戸、ユーザDは香港にいるとする。   In the real world, it is assumed that the remaining users B, C, and D are close to the user A in this order. For example, for user A in Tokyo, user B is in Yokohama, user C is in Kobe, and user D is in Hong Kong.

ユーザB、ユーザC、ユーザDのアバタを仮想空間内に登場させる際、現実世界における位置関係を考慮して、図9Bに示すように、ユーザBのアバタ700bを先に登場させ、次に図9Cに示すように、ユーザCのアバタ700cを登場させ、最後に図9Dに示すように、ユーザDのアバタ700dを登場させる。このように最初にアバタを登場させたユーザに対して近くにいるユーザのアバタは先に出現し、遠くにいるユーザのアバタはゆっくり出現する。このように、ユーザ間の現実の距離に応じて各ユーザのアバタの出現速度を変えることによって、現実世界の距離感を仮想空間に反映させることができる。   When the avatars of the user B, the user C, and the user D appear in the virtual space, the avatar 700b of the user B appears first, as shown in FIG. As shown in FIG. 9C, the avatar 700c of the user C appears, and finally the avatar 700d of the user D appears as shown in FIG. 9D. As described above, the avatar of the user near the user who first appears the avatar appears first, and the avatar of the user far away appears slowly. Thus, by changing the appearance speed of each user's avatar according to the actual distance between users, the sense of distance in the real world can be reflected in the virtual space.

上記の説明では、ユーザA、B、C、Dが互いに離れた場所にいる場合を考えたが、ユーザA、B、C、Dがたとえば同じ部屋にいる場合は、ユーザA、B、C、Dの向きを仮想空間内のアバタ700a、700b、700c、700dの向きに反映させてもよい。たとえば、ユーザAとユーザBがテーブルを挟んで向かい合っている場合は、ユーザAのアバタ700aとユーザBのアバタ700bを仮想空間内のテーブルで向かい合う位置に配置される。   In the above description, the case where the users A, B, C, and D are located away from each other is considered. However, when the users A, B, C, and D are in the same room, for example, the users A, B, C, and D The direction of D may be reflected in the direction of the avatars 700a, 700b, 700c, and 700d in the virtual space. For example, when the user A and the user B face each other across the table, the user A avatar 700a and the user B avatar 700b are arranged at positions facing each other on the table in the virtual space.

図10は、仮想空間にユーザのアバタを登場させる別の例を説明する図である。図9A〜図9Dでは、最初にアバタ700aを仮想空間に登場させたユーザAに対するユーザB、C、Dの現実の位置関係にもとづいて、ユーザB、C、Dのアバタ700b、700c、700dを登場させる順序を決めたが、図10では、ユーザB、C、Dのアバタ700b、700c、700dは乗り物に乗って登場する。   FIG. 10 is a diagram illustrating another example in which a user's avatar appears in the virtual space. 9A to 9D, based on the actual positional relationship between the users B, C, and D with respect to the user A who first made the avatar 700a appear in the virtual space, the avatars 700b, 700c, and 700d of the users B, C, and D are displayed. In FIG. 10, the avatars 700b, 700c, and 700d of the users B, C, and D appear on the vehicle.

図10に示すように、ユーザAに対して最も近い位置にいるユーザBのアバタ700bは自転車に乗って登場し、次に近い位置にいるユーザCのアバタ700cは自動車に乗って登場し、最も遠い位置にいるユーザDのアバタ700dは飛行機に乗って登場する。このように最初にアバタを登場させたユーザとの距離に応じてアバタの乗り物を変えることで現実世界の距離感を仮想空間に反映させることができる。   As shown in FIG. 10, the avatar 700b of the user B closest to the user A appears on the bicycle, and the avatar 700c of the user C closest to the user A appears on the car. The avatar 700d of the user D who is far away appears on the plane. In this way, the sense of distance in the real world can be reflected in the virtual space by changing the avatar's vehicle according to the distance to the user who first introduced the avatar.

図9A〜図9Dおよび図10で説明したように、先に仮想空間にアバタを登場させたユーザに対する距離に応じて他のユーザのアバタの現れ方を異ならせることでユーザは現実の距離感をヘッドマウントディスプレイ100に表示された仮想空間の中でも感じることができる。なお、ユーザ間の現実の距離に応じて、アバタの出現速度と乗り物の種類の両方を変えるようにしてもよい。   As described with reference to FIGS. 9A to 9D and FIG. 10, by changing the appearance of other users' avatars according to the distance to the user who previously made the avatar appear in the virtual space, the user can feel the real sense of distance. It can be felt in the virtual space displayed on the head mounted display 100. Note that both the avatar appearance speed and the vehicle type may be changed according to the actual distance between users.

図11は、ゲーム画面にユーザのアバタを登場させる例を説明する図である。地球上のある基準点(たとえば東京)からユーザの現実の位置までの距離をゲームに反映させる。ただし、ユーザの現実の位置によってゲーム上、不利とならないように、基準点をランダムにしたり、条件によって変えるようにする。   FIG. 11 is a diagram illustrating an example in which a user's avatar appears on the game screen. The distance from a reference point on the earth (for example, Tokyo) to the actual position of the user is reflected in the game. However, the reference point is made random or changed according to conditions so as not to be disadvantageous in the game depending on the actual position of the user.

図11に示すように、ユーザA、B、C、Dの地球上の位置を、互いの位置関係をできるだけ保持しながら、ゲーム内の位置にマッピングすることでユーザA、B、C、Dのアバタ700a、700b、700c、700dを表示する。ゲーム内の位置は取りうる場所が限定されるため、ユーザA、B、C、Dの現実の位置関係を、アバタ700a、700b、700c、700dの仮想空間内の位置関係に厳密に対応させる必要はなく、現実世界におけるユーザ同士の距離感が仮想空間におけるアバタの位置関係にある程度反映するものであればよい。   As shown in FIG. 11, by mapping the positions of the users A, B, C, D on the earth to the positions in the game while maintaining the mutual positional relationship as much as possible, the users A, B, C, D The avatars 700a, 700b, 700c, and 700d are displayed. Since the locations where the positions in the game can be taken are limited, the actual positional relationship between the users A, B, C, and D needs to correspond exactly to the positional relationship in the virtual space of the avatars 700a, 700b, 700c, and 700d. There is no limitation as long as the sense of distance between users in the real world reflects to some extent the avatar's positional relationship in the virtual space.

以上説明したように、本実施の形態によれば、位置や姿勢検出可能なセンサを備えたヘッドマウントディスプレイをクラウドサービスに組み入れることによって、ヘッドマウントディスプレイを装着したユーザの現実の位置関係や姿勢を仮想空間に反映させ、ヘッドマウントディスプレイに表示される画面への没入感および操作性を向上させることができる。またクラウドサーバを利用することでクライアント側のヘッドマウントディスプレイのハードウェア構成を単純化することができる。   As described above, according to the present embodiment, by incorporating a head mounted display equipped with a sensor capable of detecting the position and orientation into the cloud service, the actual positional relationship and orientation of the user wearing the head mounted display can be determined. Reflecting in the virtual space, it is possible to improve the immersive feeling and operability of the screen displayed on the head mounted display. Moreover, the hardware configuration of the client-side head mounted display can be simplified by using a cloud server.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. . Such a modification will be described.

10 制御部、 20 入力インタフェース、 30 出力インタフェース、 32 バックライト、 40 通信制御部、 42 ネットワークアダプタ、 44 アンテナ、 50 記憶部、 60 GPSユニット、 62 無線ユニット、 64 姿勢センサ、 70 外部入出力端子インタフェース、 72 外部メモリ、 80 時計部、 100 ヘッドマウントディスプレイ、 110 本体部、 120 前頭部接触部、 130 側頭部接触部、 200 クラウドサーバ、 300 カメラ、 400 ネットワーク、 500 パノラマ画像生成装置、 510 撮影画像受信部、 520 画像データ記憶部、 530 パノラマ画像処理部、 540 フォーマット変換部、 550 パノラマ画像送信部、 600 仮想空間描画処理装置、 610 ユーザ位置・向き受信部、 620 位置関係処理部、 630 視線方向設定部、 640 3次元レンダリング部、 650 描画データ送信部、 660 ユーザデータベース、 670 仮想空間情報記憶部。   10 control unit, 20 input interface, 30 output interface, 32 backlight, 40 communication control unit, 42 network adapter, 44 antenna, 50 storage unit, 60 GPS unit, 62 wireless unit, 64 attitude sensor, 70 external input / output terminal interface 72 external memory, 80 clock unit, 100 head mounted display, 110 main body unit, 120 forehead contact unit, 130 side head contact unit, 200 cloud server, 300 camera, 400 network, 500 panoramic image generation device, 510 shooting Image receiving unit, 520 image data storage unit, 530 panoramic image processing unit, 540 format conversion unit, 550 panoramic image transmission unit, 600 virtual space rendering processing device, 610 User position / orientation receiving unit, 620 position relation processing unit, 630 line-of-sight direction setting unit, 640 three-dimensional rendering unit, 650 drawing data transmission unit, 660 user database, 670 virtual space information storage unit.

Claims (10)

ヘッドマウントディスプレイであって、
当該ヘッドマウントディスプレイを装着するユーザの位置の情報を取得する位置情報取得部と、
複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理部と、
決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリング部とを含み、
前記位置関係処理部は、前記複数のユーザ間の現実の距離に応じて前記仮想空間における前記複数のユーザのキャラクタ間の距離を決定し、
前記3次元レンダリング部は、前記複数のユーザ間の現実の距離に応じて、各ユーザのキャラクタが仮想空間に出現する態様を変えることを特徴とするヘッドマウントディスプレイ。
A head mounted display,
A position information acquisition unit for acquiring information of a position of a user wearing the head mounted display;
A positional relationship processing unit that determines the positional relationship of the characters of the plurality of users based on the positional relationship between the plurality of users;
A plurality of user characters arranged in a virtual space based on the determined character positional relationship, and a three-dimensional rendering unit for rendering the virtual space,
The positional relationship processing unit determines a distance between the characters of the plurality of users in the virtual space according to an actual distance between the plurality of users.
The three-dimensional rendering unit may change a manner in which each user's character appears in a virtual space according to an actual distance between the plurality of users.
前記ヘッドマウントディスプレイに搭載された姿勢センサにより取得された前記ヘッドマウントディスプレイを装着するユーザの頭部の向きの情報を受信する向き情報受信部をさらに含み、
前記位置関係処理部は、各ユーザの向きにもとづいて各ユーザのキャラクタの仮想空間内の向きを決定することを特徴とする請求項1に記載のヘッドマウントディスプレイ。
An orientation information receiving unit that receives information on the orientation of the head of the user wearing the head mounted display acquired by the attitude sensor mounted on the head mounted display;
The head-mounted display according to claim 1, wherein the positional relationship processing unit determines the orientation of each user's character in the virtual space based on the orientation of each user.
前記3次元レンダリング部は、先に仮想空間にキャラクタを登場させたユーザに対する各ユーザの現実の距離に応じて、各ユーザのキャラクタが仮想空間に出現する態様を変えることを特徴とする請求項1または2に記載のヘッドマウントディスプレイ。   The three-dimensional rendering unit is configured to change the appearance of each user's character in the virtual space according to the actual distance of each user to the user who has previously appeared in the virtual space. Or the head mounted display of 2. 前記3次元レンダリング部は、各ユーザのキャラクタが仮想空間に出現する態様として、各ユーザのキャラクタが仮想空間に出現する順序を変えることを特徴とする請求項1から3のいずれかに記載のヘッドマウントディスプレイ。   The head according to any one of claims 1 to 3, wherein the three-dimensional rendering unit changes the order in which each user's character appears in the virtual space as a mode in which each user's character appears in the virtual space. Mount display. 前記3次元レンダリング部は、各ユーザのキャラクタが仮想空間に出現する態様として、各ユーザのキャラクタが仮想空間に出現する速度を変えることを特徴とする請求項1から3のいずれかに記載のヘッドマウントディスプレイ。   The head according to claim 1, wherein the three-dimensional rendering unit changes a speed at which each user's character appears in the virtual space as an aspect in which each user's character appears in the virtual space. Mount display. 前記3次元レンダリング部は、各ユーザのキャラクタが仮想空間に出現する態様として、各ユーザのキャラクタが仮想空間に出現するときの乗り物の種類を変えることを特徴とする請求項1から5のいずれかに記載のヘッドマウントディスプレイ。   The said three-dimensional rendering part changes the kind of vehicle when each user's character appears in virtual space as a mode that each user's character appears in virtual space, The one of Claim 1 to 5 characterized by the above-mentioned. The head mounted display as described in. 前記位置関係処理部は、各ユーザの現実の位置関係を保持しながら各ユーザの現実の位置を仮想空間内の位置にマッピングすることにより、仮想空間における各ユーザのキャラクタの位置を決定することを特徴とする請求項1から6のいずれかに記載のヘッドマウントディスプレイ。   The positional relationship processing unit determines the position of each user's character in the virtual space by mapping the actual position of each user to a position in the virtual space while maintaining the actual positional relationship of each user. The head-mounted display according to any one of claims 1 to 6, 前記位置関係処理部は、現実の基準位置から各ユーザの現実の位置までの距離を反映させて仮想空間における各ユーザのキャラクタの位置を決定し、前記現実の基準位置をランダムに設定するか、所定の条件により変えることを特徴とする請求項7に記載のヘッドマウントディスプレイ。   The positional relationship processing unit determines the position of each user's character in the virtual space by reflecting the distance from the actual reference position to the actual position of each user, or sets the actual reference position randomly, The head mounted display according to claim 7, wherein the head mounted display is changed according to a predetermined condition. ヘッドマウントディスプレイにおいて画像を生成する画像生成方法であって、
当該ヘッドマウントディスプレイを装着するユーザの位置の情報を取得する位置情報取得ステップと、
複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理ステップと、
決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリングステップとを含み、
前記位置関係処理ステップは、前記複数のユーザ間の現実の距離に応じて前記仮想空間における前記複数のユーザのキャラクタ間の距離を決定し、
前記3次元レンダリングステップは、前記複数のユーザ間の現実の距離に応じて、各ユーザのキャラクタが仮想空間に出現する態様を変えることを特徴とする画像生成方法。
An image generation method for generating an image on a head mounted display,
A position information acquisition step of acquiring information of a position of a user wearing the head mounted display;
A positional relationship processing step for determining the positional relationship of the characters of the plurality of users based on the positional relationship between the plurality of users;
A three-dimensional rendering step of arranging the plurality of user characters in a virtual space based on the determined positional relationship of the characters and rendering the virtual space;
The positional relationship processing step determines a distance between the characters of the plurality of users in the virtual space according to an actual distance between the plurality of users.
In the three-dimensional rendering step, an aspect in which each user's character appears in a virtual space is changed according to an actual distance between the plurality of users.
ヘッドマウントディスプレイにおいて画像を生成する画像生成プログラムであって、
ヘッドマウントディスプレイを装着するユーザの位置の情報を取得する位置情報取得ステップと、
複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理ステップと、
決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリングステップとをコンピュータに実行させ、
前記位置関係処理ステップは、前記複数のユーザ間の現実の距離に応じて前記仮想空間における前記複数のユーザのキャラクタ間の距離を決定し、
前記3次元レンダリングステップは、前記複数のユーザ間の現実の距離に応じて、各ユーザのキャラクタが仮想空間に出現する態様を変えることを特徴とするプログラム。
An image generation program for generating an image on a head mounted display,
A position information acquisition step of acquiring information of a position of a user wearing the head mounted display;
A positional relationship processing step for determining the positional relationship of the characters of the plurality of users based on the positional relationship between the plurality of users;
Arranging the plurality of user characters in the virtual space based on the determined positional relationship of the characters, and causing the computer to execute a three-dimensional rendering step of rendering the virtual space;
The positional relationship processing step determines a distance between the characters of the plurality of users in the virtual space according to an actual distance between the plurality of users.
The three-dimensional rendering step changes the manner in which each user's character appears in a virtual space in accordance with an actual distance between the plurality of users.
JP2017182018A 2017-09-22 2017-09-22 Head mounted display and image generation method Active JP6487512B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017182018A JP6487512B2 (en) 2017-09-22 2017-09-22 Head mounted display and image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017182018A JP6487512B2 (en) 2017-09-22 2017-09-22 Head mounted display and image generation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016031165A Division JP6216398B2 (en) 2016-02-22 2016-02-22 Image generating apparatus and image generating method

Publications (2)

Publication Number Publication Date
JP2018042244A true JP2018042244A (en) 2018-03-15
JP6487512B2 JP6487512B2 (en) 2019-03-20

Family

ID=61626531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017182018A Active JP6487512B2 (en) 2017-09-22 2017-09-22 Head mounted display and image generation method

Country Status (1)

Country Link
JP (1) JP6487512B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019172303A1 (en) 2018-03-08 2019-09-12 日東電工株式会社 Electrically peelable adhesive sheet, joined body, and peeling method for joined body
JP2020036253A (en) * 2018-08-31 2020-03-05 株式会社バーチャルキャスト Content distribution server, content distribution system, content distribution method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283151A (en) * 1997-04-10 1998-10-23 Nippon Telegr & Teleph Corp <Ntt> Virtual space display method
JP2007133738A (en) * 2005-11-11 2007-05-31 Sony Corp Information processing apparatus and method, recording medium, and program
JP2009093478A (en) * 2007-10-10 2009-04-30 Yahoo Japan Corp Virtual space broadcasting apparatus
US20090164916A1 (en) * 2007-12-21 2009-06-25 Samsung Electronics Co., Ltd. Method and system for creating mixed world that reflects real state
WO2010143359A1 (en) * 2009-06-10 2010-12-16 日本電気株式会社 Avatar display system, device, method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283151A (en) * 1997-04-10 1998-10-23 Nippon Telegr & Teleph Corp <Ntt> Virtual space display method
JP2007133738A (en) * 2005-11-11 2007-05-31 Sony Corp Information processing apparatus and method, recording medium, and program
JP2009093478A (en) * 2007-10-10 2009-04-30 Yahoo Japan Corp Virtual space broadcasting apparatus
US20090164916A1 (en) * 2007-12-21 2009-06-25 Samsung Electronics Co., Ltd. Method and system for creating mixed world that reflects real state
WO2010143359A1 (en) * 2009-06-10 2010-12-16 日本電気株式会社 Avatar display system, device, method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019172303A1 (en) 2018-03-08 2019-09-12 日東電工株式会社 Electrically peelable adhesive sheet, joined body, and peeling method for joined body
JP2020036253A (en) * 2018-08-31 2020-03-05 株式会社バーチャルキャスト Content distribution server, content distribution system, content distribution method, and program
US11277585B2 (en) 2018-08-31 2022-03-15 Dwango Co., Ltd. Content distribution server, content distribution system, content distribution method, and program

Also Published As

Publication number Publication date
JP6487512B2 (en) 2019-03-20

Similar Documents

Publication Publication Date Title
JP5891131B2 (en) Image generating apparatus and image generating method
JP6216398B2 (en) Image generating apparatus and image generating method
KR101986329B1 (en) General purpose spherical capture methods
JP6353214B2 (en) Image generating apparatus and image generating method
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP2020156109A (en) Information processor, information processing method, program, and information processing system
JP6732617B2 (en) Information processing apparatus and image generation method
JP2017097122A (en) Information processing device and image generation method
JP2017215875A (en) Image generation device, image generation system, and image generation method
WO2018079557A1 (en) Information processing device and image generation method
JP2016015683A (en) Image generator and image generating method
JP6487512B2 (en) Head mounted display and image generation method
CN109791436B (en) Apparatus and method for providing virtual scene
JP6518645B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
US11187895B2 (en) Content generation apparatus and method
US20210058611A1 (en) Multiviewing virtual reality user interface
US10902617B2 (en) Data processing for position detection using optically detectable indicators
GB2558279A (en) Head mountable display system
JP2022015647A (en) Information processing apparatus and image display method
WO2023248832A1 (en) Remote viewing system and on-site imaging system
WO2022220305A1 (en) Video display system, information processing method, and program
JP2024031113A (en) Information processing device and image generation method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190221

R150 Certificate of patent or registration of utility model

Ref document number: 6487512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250