JP2017146651A - Image processing method and image processing program - Google Patents

Image processing method and image processing program Download PDF

Info

Publication number
JP2017146651A
JP2017146651A JP2016025733A JP2016025733A JP2017146651A JP 2017146651 A JP2017146651 A JP 2017146651A JP 2016025733 A JP2016025733 A JP 2016025733A JP 2016025733 A JP2016025733 A JP 2016025733A JP 2017146651 A JP2017146651 A JP 2017146651A
Authority
JP
Japan
Prior art keywords
virtual
image
terminal
display
reality space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016025733A
Other languages
Japanese (ja)
Inventor
元 紅林
Hajime Kurebayashi
元 紅林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016025733A priority Critical patent/JP2017146651A/en
Publication of JP2017146651A publication Critical patent/JP2017146651A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide, in a virtual reality space, a virtual object linked to a relative position between a user wearing a head-mounted display and a terminal gripped by the user.SOLUTION: A system according to one form of the present technology comprises a terminal information acquisition part 221, an object control part 222, and a visual field image creation part 223. The terminal information acquisition part 221 acquires information acquired from a terminal including a relative position of the terminal and a head-mounted display and the inclination of the terminal. The object control part 222 arranges a virtual object at the inclination of the terminal at a position in a virtual reality space specified on the basis of the position of a virtual camera in the virtual reality space and the relative position. The visual field image creation part 223 creates a visual field image in which the virtual object is arranged and outputs the visual field image to the head-mounted display.SELECTED DRAWING: Figure 3

Description

本技術は、画像処理方法及び画像処理プログラムに関する。特に、本技術は、ユーザの把持する端末に連動する、仮想現実空間に配置された仮想オブジェクトを表示する画像処理方法及び画像処理プログラムに関する。   The present technology relates to an image processing method and an image processing program. In particular, the present technology relates to an image processing method and an image processing program for displaying a virtual object arranged in a virtual reality space that is linked to a terminal held by a user.

ヘッドマウントディスプレイを用いたシステムにおいて、ユーザの視野範囲に入力デバイスの入力操作面をヘッドマウントディスプレイへ表示させる技術が知られている。例えば、特許文献1の技術では、歩行者の視野を確保するように、歩行者の視野範囲に入力操作面が配置されている。   In a system using a head-mounted display, a technique for displaying an input operation surface of an input device on a head-mounted display in a user's visual field range is known. For example, in the technique of Patent Document 1, an input operation surface is arranged in the pedestrian's visual field range so as to secure the pedestrian's visual field.

特開2013−125247号公報JP 2013-125247 A

ヘッドマウントディスプレイを装着しているユーザが没入する仮想現実空間においても、入力デバイスを現実空間における操作感で操作できる方法が求められる。
本技術は、仮想現実空間に対する没入感を向上し得る方法を提供する。
Even in a virtual reality space where a user wearing a head-mounted display is immersive, there is a need for a method that can operate the input device with a feeling of operation in the real space.
The present technology provides a method that can improve the immersion in the virtual reality space.

上記目的を達成するために、本技術の一態様は、ヘッドマウントディスプレイに対してユーザが没入する仮想現実空間を提供させる方法であって、前記仮想現実空間を定義するステップと、前記仮想現実空間のうち前記ユーザが視認する視界画像を定義する仮想カメラの、前記仮想現実空間における位置を特定するステップと、現実空間においてユーザに把持されている端末の傾きを取得するステップと、前記ヘッドマウントディスプレイと前記端末との相対位置を取得するステップと、前記仮想カメラの前記位置と前記相対位置に基づいて特定される仮想現実空間内の位置に、第1仮想オブジェクトの仮想タッチパネルを前記傾きに対応するように配置するステップと、前記第1仮想オブジェクトを含む前記視界画像を生成し、前記ヘッドマウントディスプレイへ出力するステップと、を備える方法に関する。   In order to achieve the above object, one aspect of the present technology is a method for providing a virtual reality space into which a user immerses a head mounted display, the step of defining the virtual reality space, and the virtual reality space A step of specifying a position in the virtual reality space of a virtual camera defining a view image visually recognized by the user, a step of acquiring a tilt of a terminal held by the user in the real space, and the head mounted display And a step of acquiring a relative position between the terminal and the terminal, and a virtual touch panel of the first virtual object corresponding to the tilt at a position in the virtual reality space specified based on the position and the relative position of the virtual camera. Arranging the step, generating the field-of-view image including the first virtual object, and the head And outputting the count display to a method comprising a.

本技術によれば、仮想現実空間に対する没入感を向上し得る。   According to the present technology, it is possible to improve an immersion feeling in the virtual reality space.

本技術の第1実施形態によるHMDシステムを示す図である。1 is a diagram illustrating an HMD system according to a first embodiment of the present technology. FIG. 仮想空間の一例を示すXYZ空間図である。It is an XYZ space figure which shows an example of virtual space. 本技術の第1実施形態に係るHMDシステムの機能を実現するための、画像処理装置の機能を示すブロック図である。It is a block diagram showing a function of an image processing device for realizing a function of an HMD system concerning a 1st embodiment of this art. 図4Aは、端末を把持するHMDを装着しているユーザを示す。図4Bは、HMDのディスプレイを介して図4Aのユーザに提示される視界画像の一例を示す。FIG. 4A shows a user wearing an HMD that holds the terminal. FIG. 4B shows an example of a visual field image presented to the user of FIG. 4A via the HMD display. 本技術の第1実施形態に係る画像処理装置の動作例を示すフローチャートである。6 is a flowchart illustrating an operation example of the image processing apparatus according to the first embodiment of the present technology. 本技術の第2実施形態によるHMDシステムを示す図である。It is a figure which shows the HMD system by 2nd Embodiment of this technique. 本技術の第2実施形態に係るHMDシステムの機能を実現するための、画像処理装置の機能を示すブロック図である。It is a block diagram which shows the function of an image processing apparatus for implement | achieving the function of the HMD system which concerns on 2nd Embodiment of this technique. 図8Aは、端末を把持するHMDを装着しているユーザを示す。図8Bは、HMDのディスプレイを介して図8Aのユーザに提示される視界画像の一例を示す。FIG. 8A shows a user wearing an HMD that holds the terminal. FIG. 8B shows an example of a visual field image presented to the user of FIG. 8A via the HMD display. 本技術の第2実施形態に係る画像処理装置200の動作例を示すフローチャートである。14 is a flowchart illustrating an operation example of the image processing apparatus 200 according to the second embodiment of the present technology. 本技術の第2実施形態に係るコンテンツ情報の構成例を示すThe example of composition of the contents information concerning a 2nd embodiment of this art is shown.

最初に、本技術の実施形態の内容を列記して説明する。本技術の一実施形態による情報処理方法、及びプログラムは、以下のような構成を備える。   First, the contents of the embodiments of the present technology will be listed and described. An information processing method and program according to an embodiment of the present technology have the following configuration.

(項目1)
ヘッドマウントディスプレイに対してユーザが没入する仮想現実空間を提供させる方法であって、
前記仮想現実空間を定義するステップと、
前記仮想現実空間のうち前記ユーザが視認する視界画像を定義する仮想カメラの、前記仮想現実空間における位置を特定するステップと、
現実空間においてユーザに把持されている端末の傾きを取得するステップと、
前記ヘッドマウントディスプレイと前記端末との相対位置を取得するステップと、
前記仮想カメラの前記位置と前記相対位置に基づいて特定される仮想現実空間内の位置に、第1仮想オブジェクトの仮想タッチパネルを前記傾きに対応するように配置するステップと、
前記第1仮想オブジェクトを含む前記視界画像を生成し、前記ヘッドマウントディスプレイへ出力するステップと、
を備える方法。
(Item 1)
A method for providing a virtual reality space for a user to immerse in a head-mounted display,
Defining the virtual reality space;
Identifying a position in the virtual reality space of a virtual camera defining a view image that the user visually recognizes in the virtual reality space;
Obtaining the tilt of the terminal held by the user in real space;
Obtaining a relative position between the head mounted display and the terminal;
Placing a virtual touch panel of a first virtual object at a position in a virtual reality space specified based on the position and the relative position of the virtual camera so as to correspond to the inclination;
Generating the field-of-view image including the first virtual object and outputting it to the head mounted display;
A method comprising:

(項目2)
前記相対位置は、前記端末のカメラにより撮影された前記ヘッドマウントディスプレイを含む画像に基づいて特定される、項目1に記載の方法。
(Item 2)
The method according to item 1, wherein the relative position is specified based on an image including the head mounted display taken by a camera of the terminal.

(項目3)
前記仮想タッチパネルに表示される画像は、前記端末のディスプレイに表示される画像に基づいてレンダリングされる、項目1または2に記載の方法。
(Item 3)
The method according to item 1 or 2, wherein an image displayed on the virtual touch panel is rendered based on an image displayed on the display of the terminal.

(項目4)
前記端末のタッチパネルに対するユーザのタッチ入力位置を特定するステップと、
前記仮想タッチパネルに対するポインタの位置を、前記タッチ入力位置に基づいて特定するステップと、をさらに備え
前記視界画像は、前記仮想タッチパネルに対する前記ポインタの位置に、更に前記ポインタを含む、項目1〜3のいずれかに記載の方法。
(Item 4)
Identifying a user's touch input position on the touch panel of the terminal;
The step of specifying the position of the pointer with respect to the virtual touch panel based on the touch input position, The field-of-view image further includes the pointer at the position of the pointer with respect to the virtual touch panel. The method according to any one.

(項目5)
前記端末のディスプレイに表示される画像に関連するコンテンツ情報を、前記システムに通信可能に接続されているサーバから取得するステップと、
前記コンテンツ情報に基づいて第2仮想オブジェクトを生成するステップと、
前記第2仮想オブジェクトを含む視界画像を生成し、前記ヘッドマウントディスプレイへ出力するステップと、
をさらに備える、項目1〜4のいずれかに記載の方法。
(Item 5)
Acquiring content information related to an image displayed on the display of the terminal from a server communicably connected to the system;
Generating a second virtual object based on the content information;
Generating a field-of-view image including the second virtual object and outputting to the head-mounted display;
The method according to any one of items 1 to 4, further comprising:

(項目6)
前記コンテンツ情報は、前記端末のディスプレイに表示される画像に基づく画像情報と、前記端末のディスプレイに表示される画像に基づく画像が前記仮想現実空間において配置される態様を特定する態様情報を含み、
前記第2仮想オブジェクトは、前記画像情報および態様情報に基づいてレンダリングされる、項目5に記載の方法。
(Item 6)
The content information includes image information based on an image displayed on the display of the terminal, and mode information specifying a mode in which an image based on the image displayed on the display of the terminal is arranged in the virtual reality space,
6. The method of item 5, wherein the second virtual object is rendered based on the image information and aspect information.

(項目7)
前記端末のタッチパネルに対するユーザのタッチ入力位置を特定するステップと、
前記仮想タッチパネルに対する入力受付領域の位置を、前記タッチ入力位置に基づいて特定するステップと、をさらに備え
前記第2仮想オブジェクトは、前記入力受付領域に関連付けて前記仮想現実空間にレンダリングされる、項目5または6に記載の方法。
(Item 7)
Identifying a user's touch input position on the touch panel of the terminal;
Further comprising: specifying a position of an input reception area with respect to the virtual touch panel based on the touch input position, wherein the second virtual object is rendered in the virtual reality space in association with the input reception area The method according to 5 or 6.

(項目8)
項目1〜7のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
(Item 8)
A program for causing a computer to execute the method according to any one of items 1 to 7.

〔第1実施形態の説明〕
以下、図面を参照しながら本技術の第1実施形態について説明する。なお、本技術はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
[Description of First Embodiment]
Hereinafter, a first embodiment of the present technology will be described with reference to the drawings. In addition, this technique is not limited to these illustrations, is shown by the claims, and is intended to include all modifications within the meaning and scope equivalent to the claims. In the following description, the same reference numerals are given to the same elements in the description of the drawings, and redundant descriptions are omitted.

図1は、本技術の一実施形態に係るHMDシステム100のハードウェア構成図である。HMDシステム100は、HMD110と、画像処理装置200と、端末300を備える。HMD110と画像処理装置200は、一例として有線ケーブル140によって電気的に接続され、相互に通信可能である。有線ケーブル140に代えて、無線接続(無線LANやBluetooth(登録商標)等)を用いてもよい。   FIG. 1 is a hardware configuration diagram of an HMD system 100 according to an embodiment of the present technology. The HMD system 100 includes an HMD 110, an image processing device 200, and a terminal 300. For example, the HMD 110 and the image processing apparatus 200 are electrically connected by a wired cable 140 and can communicate with each other. Instead of the wired cable 140, a wireless connection (such as a wireless LAN or Bluetooth (registered trademark)) may be used.

〔HMDシステム100の概要〕
〔HMD110〕
HMD110は、ユーザ150の頭に装着されて利用される表示デバイスである。HMD110は、非透過型のディスプレイ112と、センサ114を備える。HMD110は、その他用途に応じて任意のデバイスが搭載されていてもよく、例えばアイトラッキングデバイス(Eye Tracking Device:以下ETDと称する)116を備える。
[Overview of HMD system 100]
[HMD110]
The HMD 110 is a display device that is used by being worn on the head of the user 150. The HMD 110 includes a non-transmissive display 112 and a sensor 114. The HMD 110 may be mounted with any device according to other uses, and includes, for example, an eye tracking device (hereinafter referred to as ETD) 116.

ディスプレイ112は、HMD110を装着したユーザ150が没入する仮想現実空間のうち、ユーザ150が視認する視界画像を表示する。メモリ204には、ユーザが没入する仮想現実空間を定義する各種情報(背景画像に関する情報、および、仮想現実空間に配置される各種オブジェクトの画像・位置等に関する情報)が格納される。メモリ204に格納された情報はプロセッサ202に展開されることによって実行され、視界画像がディスプレイ112にレンダリングされる。   The display 112 displays a view image visually recognized by the user 150 in the virtual reality space in which the user 150 wearing the HMD 110 is immersed. The memory 204 stores various types of information (information on background images and information on images and positions of various objects arranged in the virtual reality space) that define the virtual reality space in which the user is immersed. Information stored in the memory 204 is executed by being developed by the processor 202, and a view image is rendered on the display 112.

ディスプレイ112は、右目用画像を提供する右目用サブディスプレイと、左目用画像を提供する左目用サブディスプレイを含んでもよい。これにより、ユーザ150は3次元の仮想現実空間を視認できる。また、右目用画像と左目用画像を提供できれば、1つの表示装置で構成されていてもよい。   The display 112 may include a right-eye sub-display that provides a right-eye image and a left-eye sub-display that provides a left-eye image. Thereby, the user 150 can visually recognize the three-dimensional virtual reality space. Moreover, as long as the image for right eyes and the image for left eyes can be provided, you may be comprised by one display apparatus.

センサ114は、HMD110の傾き及び、又は位置を検知する。センサ114は、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせである。センサ114は、HMD110に内蔵されることにより、HMD110の傾きや位置を特定するデータ(磁気、角速度、又は加速度の値)を出力する。センサ114からの出力データに基づいて、HMD110の傾きや位置が特定され、HMD110の動きが検知される。ディスプレイ112に表示される視界画像は、HMD110の傾きや位置に連動して更新されることが好ましい。例えば、ユーザ150が頭を右(又は左、上、下)に向けると、ディスプレイ112には、仮想現実空間においてユーザの右(又は左、上、下)方向にある視界画像が映し出される。これにより、ユーザ150は仮想現実空間に没入できる。   The sensor 114 detects the inclination and / or position of the HMD 110. The sensor 114 is, for example, any one of a magnetic sensor, an angular velocity sensor, an acceleration sensor, or a combination thereof. The sensor 114 is built in the HMD 110 and outputs data (magnetism, angular velocity, or acceleration value) that specifies the inclination and position of the HMD 110. Based on the output data from the sensor 114, the inclination and position of the HMD 110 are specified, and the movement of the HMD 110 is detected. The view image displayed on the display 112 is preferably updated in conjunction with the inclination and position of the HMD 110. For example, when the user 150 turns his head to the right (or left, up, down), a visual field image in the right (or left, up, down) direction of the user is displayed on the display 112 in the virtual reality space. Thereby, the user 150 can be immersed in the virtual reality space.

センサ114として、HMD110とは別体に設けられたセンサを適用してもよい。例えば、センサ114はポジショントラッキングカメラであり、HMD110の表面に設けられた赤外線発光体又は赤外線反射マーカーを検知する赤外線センサであり、現実空間の所定位置に設置されることによって、HMD110の動きを検知する。   As the sensor 114, a sensor provided separately from the HMD 110 may be applied. For example, the sensor 114 is a position tracking camera, and is an infrared sensor that detects an infrared light emitter or infrared reflection marker provided on the surface of the HMD 110, and detects the movement of the HMD 110 by being installed at a predetermined position in the real space. To do.

ETD116は、ユーザ150の眼球の動きを追跡して、ユーザ150の視線がどちらの方向に向けられているかを検出するように構成される。例えば、ETD116は、赤外線光源と赤外線カメラとを備える。赤外線光源は、HMD110を装着したユーザ150の目に向けて赤外線を照射する。赤外線カメラは、赤外線で照射されたユーザ150の目の画像を撮像する。赤外線はユーザ150の目の表面で反射されるが、瞳と瞳以外の部分とで赤外線の反射率が異なる。赤外線カメラで撮像されたユーザ150の目の画像には、赤外線の反射率の違いが画像の明暗となって現れる。この明暗に基づいて、ユーザ150の目の画像において瞳が識別され、更に、識別された瞳の位置に基づいて、ユーザ150の視線の方向が検出される。   The ETD 116 is configured to track the eyeball movement of the user 150 and detect in which direction the user 150's line of sight is directed. For example, the ETD 116 includes an infrared light source and an infrared camera. The infrared light source irradiates infrared rays toward the eyes of the user 150 wearing the HMD 110. The infrared camera captures an image of the eyes of the user 150 irradiated with infrared rays. Infrared rays are reflected on the surface of the eye of the user 150, but the reflectance of the infrared rays differs between the pupil and a portion other than the pupil. In the image of the eyes of the user 150 captured by the infrared camera, the difference in the reflectance of the infrared appears as the brightness of the image. Based on this contrast, the pupil is identified in the image of the eye of the user 150, and the direction of the line of sight of the user 150 is detected based on the position of the identified pupil.

HMD110には、スピーカ、マイクロフォンなどが備えられていてもよい。
〔画像処理装置200〕
画像処理装置200は、HMD110に接続されるコンピュータである。画像処理装置200はHMD110に搭載されていても、別のハードウェア(例えば公知のパーソナルコンピュータ、ネットワークを通じたサーバ・コンピュータ)として構成してもよい。また、画像処理装置200は、一部の機能をHMD110に実装し、残りの機能を別のハードウェアに実装してもよい。図1に示すように、画像処理装置200は、プロセッサ202と、メモリ204と、入出力インターフェイス206と、通信インターフェイス208を含む。
The HMD 110 may be provided with a speaker, a microphone, and the like.
[Image processing apparatus 200]
The image processing apparatus 200 is a computer connected to the HMD 110. The image processing apparatus 200 may be mounted on the HMD 110 or may be configured as another hardware (for example, a known personal computer or a server computer via a network). In addition, the image processing apparatus 200 may implement some functions in the HMD 110 and implement the remaining functions in different hardware. As shown in FIG. 1, the image processing apparatus 200 includes a processor 202, a memory 204, an input / output interface 206, and a communication interface 208.

プロセッサ202は、メモリ204に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。プロセッサ202がメモリ204に格納された画像処理プログラムを実行することによって、後述する画像処理装置200の各機能が実現される。プロセッサ202は、CPU(Central Processing Unit))やMPU(Micro-processing unit)、GPU(Graphics Processing Unit)等の演算装置を含む。   The processor 202 is configured to read a program stored in the memory 204 and execute processing according to the program. When the processor 202 executes an image processing program stored in the memory 204, each function of the image processing apparatus 200 described later is realized. The processor 202 includes arithmetic devices such as a CPU (Central Processing Unit), an MPU (Micro-processing unit), and a GPU (Graphics Processing Unit).

メモリ204には、後述する画像処理装置200の各機能および方法を実現コンピュータに実行させるためのプログラムが格納されている。メモリ204はまた、画像処理装置200の動作によって生成されるデータを一時的に記憶することもできる。メモリ204は、ROM(Read Only Memory)、RAM(Random Access Memory)といった揮発性記憶装置や、ハードディスク、フラッシュメモリ、光ディスク等といった不揮発性記憶装置を含む。   The memory 204 stores a program for causing a realization computer to execute each function and method of the image processing apparatus 200 described later. The memory 204 can also temporarily store data generated by the operation of the image processing apparatus 200. The memory 204 includes a volatile storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and a nonvolatile storage device such as a hard disk, a flash memory, and an optical disk.

入出力インターフェイス206は、画像処理装置200を操作するための入力を端末300やHMD110から受信する。また、入出力インターフェイス206は、画像処理装置200からの出力を、端末300や、HMD110へ送信する。   The input / output interface 206 receives an input for operating the image processing apparatus 200 from the terminal 300 or the HMD 110. Further, the input / output interface 206 transmits the output from the image processing apparatus 200 to the terminal 300 and the HMD 110.

通信インターフェイス208は、ネットワークを介して外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んで構成される。通信インターフェイス208は、LAN(Local Area Network)やインターネットを介して通信するための各種通信規格・プロトコルに適合するように構成されている。   The communication interface 208 includes various wired connection terminals for communicating with an external device via a network and various processing circuits for wireless connection. The communication interface 208 is configured to conform to various communication standards and protocols for communicating via a LAN (Local Area Network) or the Internet.

図2は、本技術の一実施形態に係る仮想現実空間の一例を示すXYZ空間図である。XZ平面は水平面を表し、Y軸は垂直方向に延びている。仮想現実空間6は、中心3を中心として、例えば天球状に形成される。仮想現実空間6を定義する情報(天球にレンダリングされることによって背景画像を構成する情報や、当該空間内に配置される各種オブジェクトの態様および位置情報)は画像処理装置のメモリ204に記憶されている。プロセッサ202は当該情報を読み出すことによって仮想現実空間6の背景情報およびコンテンツに関連するオブジェクトを定義し、視界画像を特定する。当該情報は、仮想現実空間6のうち、ユーザが視認する視界画像を、HMD110の動きに連動するように定義する仮想カメラ1を特定する。仮想カメラ1の動きは、ユーザ150の頭の動き(HMD110の動き)や、ユーザ150の視線の動きに追随して変化する。仮想カメラ1は、常に中心3に配置されてもよいし、HMDの動きに連動して移動してもよい。   FIG. 2 is an XYZ space diagram illustrating an example of a virtual reality space according to an embodiment of the present technology. The XZ plane represents a horizontal plane, and the Y axis extends in the vertical direction. The virtual reality space 6 is formed in, for example, a spherical shape with the center 3 as the center. Information that defines the virtual reality space 6 (information that forms a background image by being rendered on the celestial sphere, and aspects and position information of various objects arranged in the space) is stored in the memory 204 of the image processing apparatus. Yes. By reading the information, the processor 202 defines objects related to the background information and contents of the virtual reality space 6, and identifies the view image. The information specifies the virtual camera 1 that defines the view image visually recognized by the user in the virtual reality space 6 so as to be linked to the movement of the HMD 110. The movement of the virtual camera 1 changes following the movement of the head of the user 150 (movement of the HMD 110) and the movement of the line of sight of the user 150. The virtual camera 1 may always be arranged at the center 3 or may move in conjunction with the movement of the HMD.

視界領域5は、例えば図2に示すように基準視線4を中心とした所定の極角を含む範囲と、所定の方位角を含む範囲に設定される。基準視線4は、HMD110の傾き及び、又は位置によって特定される視界方向、及び/又はETD116によって検知されるユーザ150の視線方向に基づいて特定されることが好ましい。
〔端末300〕
端末300は、ユーザ150により把持されて、ユーザ150が仮想現実空間内の仮想オブジェクトの動き等を制御するのに用いられる装置である。端末300は、例えばゲーム端末、タッチパッド、スマートフォン、PDA等である。
The field-of-view area 5 is set to a range including a predetermined polar angle centered on the reference line of sight 4 and a range including a predetermined azimuth angle, as shown in FIG. It is preferable that the reference line-of-sight 4 is specified based on the viewing direction specified by the inclination and / or position of the HMD 110 and / or the line-of-sight direction of the user 150 detected by the ETD 116.
[Terminal 300]
The terminal 300 is an apparatus that is held by the user 150 and used by the user 150 to control the movement of a virtual object in the virtual reality space. The terminal 300 is a game terminal, a touch pad, a smartphone, a PDA, or the like, for example.

端末300は、主に操作入力部302と、プロセッサ304と、メモリ306と、ディスプレイ308と、通信インターフェイス310と、カメラ312と、センサ314を備えており、互いにバスラインを介して接続されている。   The terminal 300 mainly includes an operation input unit 302, a processor 304, a memory 306, a display 308, a communication interface 310, a camera 312 and a sensor 314, which are connected to each other via a bus line. .

操作入力部302は、ユーザの操作入力を受信して、当該操作入力に対応した入力信号をプロセッサ304に出力する。操作入力部302は、端末300の本体に設けられた物理的ボタンやタッチパネルである。タッチパネルは、タッチ入力位置に対応する座標データを所定のサンプリング間隔で検出して、座標データを出力する。   The operation input unit 302 receives a user operation input and outputs an input signal corresponding to the operation input to the processor 304. The operation input unit 302 is a physical button or a touch panel provided on the main body of the terminal 300. The touch panel detects coordinate data corresponding to the touch input position at a predetermined sampling interval, and outputs the coordinate data.

プロセッサ304は、メモリ306に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。
プロセッサ304によってレンダリングされた画像は、ディスプレイ308に表示される。ディスプレイ308として、液晶ディスプレイ等の種々の表示装置を採用できる。
The processor 304 is configured to read a program stored in the memory 306 and execute processing according to the program.
The image rendered by the processor 304 is displayed on the display 308. As the display 308, various display devices such as a liquid crystal display can be employed.

通信インターフェイス310は、無線LAN接続機能、無線LANや携帯電話回線網を介したインターネット接続機能、Blouethoth(登録商標)などの近距離無線通信機能といったネットワークを介して、画像処理装置200との接続を確立する。通信インターフェイス310は、各種情報を端末300と通信相手側(画像処理装置200やサーバ(不図示))との間で送受信する。   The communication interface 310 connects to the image processing apparatus 200 via a network such as a wireless LAN connection function, an Internet connection function via a wireless LAN or a cellular phone network, and a short-range wireless communication function such as Bluetooth (registered trademark). Establish. The communication interface 310 transmits and receives various types of information between the terminal 300 and a communication partner (image processing apparatus 200 or server (not shown)).

カメラ312は、イメージセンサ等を含む撮像装置である。カメラ312は、HMD110の一部又は全てを含む現実空間を撮像し、カメラ画像をメモリ306に記憶する。プロセッサ304は、カメラ画像におけるHMD110の映り方を解析することによって、カメラ312とHMD110との相対位置を特定する。本実施形態においては、カメラ312とHMD110との間の相対位置、および、HMD110に対するカメラ312の傾きが特定され得る。相対位置の算出のために、いわゆるマーカレスAR(Augumented Reality:拡張現実)に関する技術を用いることができる。   The camera 312 is an imaging device including an image sensor and the like. The camera 312 images a real space including part or all of the HMD 110 and stores the camera image in the memory 306. The processor 304 identifies the relative position between the camera 312 and the HMD 110 by analyzing how the HMD 110 appears in the camera image. In the present embodiment, the relative position between the camera 312 and the HMD 110 and the tilt of the camera 312 with respect to the HMD 110 can be specified. For calculating the relative position, a technique relating to so-called markerless AR (Augumented Reality) can be used.

端末300は内蔵するセンサ314(例えば、磁気センサ、角速度センサ、若しくは加速度センサ)を用いて端末300の位置及び傾きを検出してもよい。
図3は、本実施形態に係る画像処理装置200の機能的な構成を示すブロック図である。画像処理装置200は記憶部210と及び処理部220を有する。記憶部210はメモリ204に対応し、処理部220はプロセッサ202に対応する。仮想現実空間構成情報211を格納する。仮想現実空間構成情報211は、仮想現実空間6の3次元空間画像に関する情報を含む。処理部220は、端末情報取得部221と、オブジェクト制御部222と、視界画像生成部223を備える。
The terminal 300 may detect the position and tilt of the terminal 300 using a built-in sensor 314 (for example, a magnetic sensor, an angular velocity sensor, or an acceleration sensor).
FIG. 3 is a block diagram showing a functional configuration of the image processing apparatus 200 according to the present embodiment. The image processing apparatus 200 includes a storage unit 210 and a processing unit 220. The storage unit 210 corresponds to the memory 204, and the processing unit 220 corresponds to the processor 202. The virtual reality space configuration information 211 is stored. The virtual reality space configuration information 211 includes information regarding the three-dimensional space image of the virtual reality space 6. The processing unit 220 includes a terminal information acquisition unit 221, an object control unit 222, and a view field image generation unit 223.

本実施形態では、ユーザ150に把持されている端末300と、ユーザ150が装着しているHMD110との現実空間における相対的位置関係に基づいて、仮想現実空間に、第1仮想オブジェクトを表示させる。第1仮想オブジェクトは、端末300の現実空間における動きに連動して、仮想現実空間6内を動く。   In the present embodiment, the first virtual object is displayed in the virtual reality space based on the relative positional relationship in the real space between the terminal 300 held by the user 150 and the HMD 110 worn by the user 150. The first virtual object moves in the virtual reality space 6 in conjunction with the movement of the terminal 300 in the real space.

図3から図5を参照して、画像処理装置200の処理フローを説明する。
ステップS501において、端末情報取得部221は、現実空間における端末300とHMDとの相対位置情報aを取得する。
A processing flow of the image processing apparatus 200 will be described with reference to FIGS.
In step S501, the terminal information acquisition unit 221 acquires the relative position information a between the terminal 300 and the HMD in the real space.

ステップS502において、端末情報取得部221は、端末300の表示画像情報bを取得する。表示画像情報bは、端末300のディスプレイ308上に表示されている2次元画像(例えば、バナー広告、静止画、動画、テキストを含む画像)を含む情報である。   In step S <b> 502, the terminal information acquisition unit 221 acquires display image information b of the terminal 300. The display image information b is information including a two-dimensional image (for example, an image including a banner advertisement, a still image, a moving image, and text) displayed on the display 308 of the terminal 300.

ステップS503において、端末情報取得部221は、端末300の傾き情報cを取得する。端末情報取得部221は、さらにユーザによる操作入力情報dを取得してもよい。操作入力情報dは、タッチパネル(操作入力部302)に対するタッチ入力の座標位置や、移動方向、移動速度、移動量、及び各種操作ボタンに対する入力信号等を含む。   In step S <b> 503, the terminal information acquisition unit 221 acquires the inclination information c of the terminal 300. The terminal information acquisition unit 221 may further acquire operation input information d by the user. The operation input information d includes a touch input coordinate position on the touch panel (operation input unit 302), a moving direction, a moving speed, a moving amount, input signals to various operation buttons, and the like.

図4Aは、HMD110を装着しているユーザ150が端末300を操作する様子を示す。ユーザ150は人差し指をタッチパネルに接触させて操作する。
図4Bは、図4Aに示すHMD110のディスプレイ112に表示される視界画像の一例を示す。視界画像には第1仮想オブジェクト402が配置された3次元画像がレンダリングされている。
FIG. 4A shows a state in which the user 150 wearing the HMD 110 operates the terminal 300. The user 150 operates by bringing the index finger into contact with the touch panel.
FIG. 4B shows an example of a view field image displayed on the display 112 of the HMD 110 shown in FIG. 4A. A three-dimensional image in which the first virtual object 402 is arranged is rendered in the view field image.

ステップS504において、オブジェクト制御部222は、仮想カメラ1の位置と、相対位置情報aに基づいて、第1仮想オブジェクト402の仮想現実空間6内の位置を特定する。   In step S504, the object control unit 222 identifies the position of the first virtual object 402 in the virtual reality space 6 based on the position of the virtual camera 1 and the relative position information a.

そして、ステップS505において、オブジェクト制御部222は、第1仮想オブジェクト402を生成し、当該特定された仮想現実空間6の位置に配置する。例えば、第1仮想オブジェクト402は、図4Bに示すように仮想タッチパネル406を有する略直方体のオブジェクトである。オブジェクト制御部222は、第1仮想オブジェクト402を、傾き情報cに基づいて仮想現実空間6内に配置してもよい。これにより、第1仮想オブジェクト402の動き(位置、傾き)は、現実空間における端末300の動き(位置、傾き)に連動する。   In step S <b> 505, the object control unit 222 generates the first virtual object 402 and places it at the position of the specified virtual reality space 6. For example, the first virtual object 402 is a substantially rectangular parallelepiped object having a virtual touch panel 406 as shown in FIG. 4B. The object control unit 222 may arrange the first virtual object 402 in the virtual reality space 6 based on the inclination information c. Thereby, the movement (position, inclination) of the first virtual object 402 is linked to the movement (position, inclination) of the terminal 300 in the real space.

オブジェクト制御部222は、端末300のタッチパネル(操作入力部302)上の座標(xt、yt)を、第1仮想オブジェクト402の仮想タッチパネル406上の座標(xvt、yvt)に対応付けてもよい。さらに、オブジェクト制御部222は、第1仮想オブジェクト402の仮想タッチパネル406に表示される画像を、表示画像情報bに基づいてレンダリングしてもよい。これにより、仮想タッチパネル406に表示される画像が、現実空間におけるディスプレイ308の表示画像と連動する。   The object control unit 222 may associate the coordinates (xt, yt) on the touch panel (operation input unit 302) of the terminal 300 with the coordinates (xvt, yvt) on the virtual touch panel 406 of the first virtual object 402. Further, the object control unit 222 may render an image displayed on the virtual touch panel 406 of the first virtual object 402 based on the display image information b. As a result, the image displayed on the virtual touch panel 406 is linked with the display image on the display 308 in the real space.

ステップS506において、視界画像生成部223は、記憶部210に格納されている仮想現実空間構成情報211を参照して、視界領域5に対応する視界画像を生成する。視界画像は第1仮想オブジェクト402、および、タッチ入力位置Aに連動するポインタ404を含む。オブジェクト制御部222によりタッチパネル(操作入力部302)に対するユーザのタッチ入力位置Aが特定されると、視界画像生成部223は、当該タッチ入力位置Aに基づいて、仮想タッチパネル406に対するポインタ404の位置Bを特定する。図4Bに示すように、ポインタ404は、タッチパネル上におけるタッチ入力位置Aに対応するように、仮想タッチパネル406上の位置Bにポインタ404を表示される。ポインタの形状は任意であり、例えば、手、指や矢印の形状を有する。タッチ入力位置Aの変化に応じて、仮想タッチパネルに対するポインタ404の位置Bが変化する。
〔第2実施形態の説明〕
本実施形態においては、第1実施形態に示した第1仮想オブジェクト402に加えて、第2仮想オブジェクトを仮想現実空間6内に配置する。第2仮想オブジェクトは端末300のディスプレイ308の表示画像情報bに基づいて生成される。第2仮想オブジェクトは、例えば、表示画像に関連する広告オブジェクトである。第1実施形態の第1仮想オブジェクト402は、端末300の動きに連動するオブジェクトであるのに対し、第2仮想オブジェクトは端末300の動きに連動しなくてもよい。
In step S <b> 506, the visual field image generation unit 223 refers to the virtual reality space configuration information 211 stored in the storage unit 210 and generates a visual field image corresponding to the visual field region 5. The view field image includes a first virtual object 402 and a pointer 404 that is linked to the touch input position A. When the touch input position A of the user with respect to the touch panel (operation input unit 302) is specified by the object control unit 222, the visual field image generation unit 223 determines the position B of the pointer 404 with respect to the virtual touch panel 406 based on the touch input position A. Is identified. As shown in FIG. 4B, the pointer 404 is displayed at a position B on the virtual touch panel 406 so as to correspond to the touch input position A on the touch panel. The shape of the pointer is arbitrary, and has, for example, the shape of a hand, a finger, or an arrow. In response to the change in the touch input position A, the position B of the pointer 404 with respect to the virtual touch panel changes.
[Description of Second Embodiment]
In the present embodiment, in addition to the first virtual object 402 shown in the first embodiment, a second virtual object is arranged in the virtual reality space 6. The second virtual object is generated based on the display image information b on the display 308 of the terminal 300. The second virtual object is, for example, an advertising object related to the display image. The first virtual object 402 of the first embodiment is an object that is linked to the movement of the terminal 300, whereas the second virtual object may not be linked to the movement of the terminal 300.

図6は、本技術の第2実施形態に係るHMDシステム100のハードウェア構成図である。第2実施形態においては、画像処理装置200がネットワーク500を介してサーバ400に相互に通信可能に接続されている点で、上述の第1実施形態と異なる。ネットワーク500は、例えばインターネットやLANなどの、任意のタイプのネットワークであってよい。   FIG. 6 is a hardware configuration diagram of the HMD system 100 according to the second embodiment of the present technology. The second embodiment is different from the first embodiment described above in that the image processing apparatus 200 is connected to the server 400 via the network 500 so that they can communicate with each other. The network 500 may be any type of network such as the Internet or a LAN.

図7は、本技術の第2実施形態に係る画像処理装置200の機能的な構成を示すブロック図である。第2実施形態においては、処理部220は、さらにコンテンツ情報取得部224、第2仮想オブジェクト生成部225を備える点で、上述の第1実施形態と異なる。   FIG. 7 is a block diagram illustrating a functional configuration of the image processing apparatus 200 according to the second embodiment of the present technology. The second embodiment is different from the first embodiment in that the processing unit 220 further includes a content information acquisition unit 224 and a second virtual object generation unit 225.

図9は、本開示の第2実施形態に係る画像処理装置200の処理を示すフローチャートである。図9に示すステップS901〜ステップS905の処理は、図5のステップS501〜ステップS505の処理と同じである。以下、本実施形態では第1実施形態の構成と同様な部分についてはその説明を省略又は簡略化し、第1実施形態と異なる部分を中心に図7から図9に基づいて説明する。   FIG. 9 is a flowchart illustrating a process of the image processing device 200 according to the second embodiment of the present disclosure. The process of step S901 to step S905 shown in FIG. 9 is the same as the process of step S501 to step S505 of FIG. Hereinafter, in this embodiment, the description of the same part as the structure of the first embodiment is omitted or simplified, and the part different from the first embodiment will be mainly described with reference to FIGS.

ステップS906において、コンテンツ情報取得部224は、端末300のディスプレイ308に表示される画像に関連するコンテンツ情報を、ネットワーク500を介してサーバ400から取得し、画像処理装置200のメモリ204へ格納する。   In step S <b> 906, the content information acquisition unit 224 acquires content information related to an image displayed on the display 308 of the terminal 300 from the server 400 via the network 500 and stores the content information in the memory 204 of the image processing apparatus 200.

コンテンツ情報は、ディスプレイ308に表示される画像に関連する様々な情報であり、ディスプレイ308に表示される画像を構成する2次元画像とは異なる情報を含む。例えば、表示画像情報bの一部が2次元のバナー広告画像である場合、コンテンツ情報は、当該2次元のバナー広告画像を3次元にした広告画像や、当該2次元のバナー広告画像とは全く異なる形状や大きさを有する3次元の広告画像を含む。また、例えば、端末300の表示画像情報bの一部が静止画である場合、コンテンツ情報は、当該静止画に対応する動画であってもよい。このように、コンテンツ情報は、端末のディスプレイの表示画像を仮想現実空間に対応させたVR(Virtual Reality,仮想現実)用画像(例えば、3次元画像や動画)を含むことができる。   The content information is various information related to the image displayed on the display 308, and includes information different from the two-dimensional image constituting the image displayed on the display 308. For example, when a part of the display image information b is a two-dimensional banner advertisement image, the content information is completely different from the two-dimensional banner advertisement image and the two-dimensional banner advertisement image. Includes three-dimensional advertising images with different shapes and sizes. For example, when a part of the display image information b of the terminal 300 is a still image, the content information may be a moving image corresponding to the still image. As described above, the content information can include a VR (Virtual Reality) image (for example, a three-dimensional image or a moving image) in which the display image on the terminal display is associated with the virtual reality space.

コンテンツ情報は、さらに端末300のディスプレイ308に表示される画像に基づくVR用画像が仮想現実空間において配置される態様を特定する態様情報を含む。該態様情報は、例えばVR用画像の3次元仮想現実空間6における配置座標や、VR用画像の形式、VR用画像の容量等に関する情報を含む。配置座標は、仮想現実空間6内の任意の位置でよく、端末300の実空間における動きに連動しなくともよい。例えば、コンテンツ情報の配置座標はユーザの視界の邪魔にならないようユーザの注視点から一定距離離れるように常に動いていても良いし、固定されていてもよい。図10は、メモリ204に格納されているコンテンツ情報の一例を示す。   The content information further includes mode information for specifying a mode in which the VR image based on the image displayed on the display 308 of the terminal 300 is arranged in the virtual reality space. The aspect information includes, for example, information on the arrangement coordinates of the VR image in the three-dimensional virtual reality space 6, the format of the VR image, the capacity of the VR image, and the like. The arrangement coordinates may be any position in the virtual reality space 6 and may not be linked to the movement of the terminal 300 in the real space. For example, the arrangement coordinates of the content information may always move so as to be away from the user's gazing point by a certain distance so as not to disturb the user's field of view, or may be fixed. FIG. 10 shows an example of content information stored in the memory 204.

ステップS907において、第2仮想オブジェクト生成部225は、コンテンツ情報をメモリ204から読み出し、該コンテンツ情報に含まれる画像情報及び態様情報に基づいて第2仮想オブジェクト802を配置座標に生成する。   In step S907, the second virtual object generation unit 225 reads the content information from the memory 204, and generates the second virtual object 802 in the arrangement coordinates based on the image information and the aspect information included in the content information.

視界画像生成部223は、第2仮想オブジェクト802を含む視界画像を生成し、HMD110へ出力する。(ステップS908)
図8Aは、ユーザ150が端末300を操作する様子を示す。端末300のディスプレイ308には、2次元の広告画像806を含む表示画像情報bに基づく画像が表示されている。
The view image generation unit 223 generates a view image including the second virtual object 802 and outputs the view image to the HMD 110. (Step S908)
FIG. 8A shows how the user 150 operates the terminal 300. An image based on display image information b including a two-dimensional advertisement image 806 is displayed on the display 308 of the terminal 300.

図8Bは、図8Aに示すHMD110のディスプレイ112に表示される視界画像の一例を示す。視界画像には剣の形状の第1仮想オブジェクト402と、手形状のポインタ404に加えて、風船型の第2仮想オブジェクト802が配置された3次元画像がレンダリングされている。第1仮想オブジェクト402の仮想タッチパネル406に表示される画像は、表示画像情報bに基づいてレンダリングされている。また、第2仮想オブジェクト802は、広告画像806に関連する画像情報及び態様情報に基づいて、レンダリングされている。   FIG. 8B shows an example of a view field image displayed on the display 112 of the HMD 110 shown in FIG. 8A. In the view image, a three-dimensional image in which a balloon-shaped second virtual object 802 is arranged in addition to the sword-shaped first virtual object 402 and the hand-shaped pointer 404 is rendered. The image displayed on the virtual touch panel 406 of the first virtual object 402 is rendered based on the display image information b. The second virtual object 802 is rendered based on image information and aspect information related to the advertisement image 806.

上述したように、仮想タッチパネル406に表示される画像は表示画像情報bに基づいてレンダリングされている。しかしながら、視界画像内の仮想タッチパネル406に示される画像は小さくて視認しづらい場合がある。本実施形態によると、ディスプレイ308の表示画像情報bに関連するコンテンツ情報に基づいて、仮想タッチパネル406とは異なる形態の(例えば、大きな3次元画像の)第2仮想オブジェクト802を視界画像内に表示したり、第2仮想オブジェクト802に異なる形態で(例えば、大きな動く文字で)視界画像内に表示したりすることができる。コンテンツ情報に基づいて、第1仮想オブジェクト402とは別の第2仮想オブジェクト802を表示することで、より視認しやすい視界画像をユーザ150へ提供することができる。   As described above, the image displayed on the virtual touch panel 406 is rendered based on the display image information b. However, the image displayed on the virtual touch panel 406 in the view field image may be small and difficult to view. According to this embodiment, based on the content information related to the display image information b on the display 308, the second virtual object 802 having a different form from the virtual touch panel 406 (for example, a large three-dimensional image) is displayed in the view image. Or displayed on the second virtual object 802 in a different form (for example, with large moving characters) in the view field image. By displaying the second virtual object 802 different from the first virtual object 402 based on the content information, it is possible to provide the user 150 with a visual field image that is easier to visually recognize.

さらに、第2仮想オブジェクト802は、仮想タッチパネル406上の入力受付領域804に関連付けて仮想現実空間にレンダリングされる。入力受付領域804とは、仮想タッチパネルを介してユーザ150からの入力を受け付けることのできる領域であり、ディスプレイ308の表示画像の一部(図8Aの広告画像806)に関連付けられている。仮想タッチパネル406に対する入力受付領域804の位置は、タッチパネル(操作入力部302)に対するユーザのタッチ入力位置Aに基づいて特定される。入力受付領域804に対するユーザ入力は、実際には、ディスプレイ308の表示画像の一部に対するタッチ入力である。   Further, the second virtual object 802 is rendered in the virtual reality space in association with the input reception area 804 on the virtual touch panel 406. The input receiving area 804 is an area where an input from the user 150 can be received via the virtual touch panel, and is associated with a part of the display image on the display 308 (the advertisement image 806 in FIG. 8A). The position of the input reception area 804 with respect to the virtual touch panel 406 is specified based on the touch input position A of the user with respect to the touch panel (operation input unit 302). The user input for the input reception area 804 is actually a touch input for a part of the display image on the display 308.

端末情報取得部221は、仮想タッチパネル406上の入力受付領域804に対応する、タッチパネル(操作入力部302)上の位置に対するタッチ入力(例えば、タップ入力)を検出する。(ステップS909)
入力受付領域804に対応する、タッチパネル(操作入力部302)上の位置Aに対するタッチ入力が検出された場合、ステップS910に進む(ステップS909の「はい」)。
The terminal information acquisition unit 221 detects a touch input (for example, a tap input) for a position on the touch panel (operation input unit 302) corresponding to the input reception area 804 on the virtual touch panel 406. (Step S909)
When a touch input corresponding to the position A on the touch panel (operation input unit 302) corresponding to the input reception area 804 is detected, the process proceeds to step S910 (“Yes” in step S909).

視界画像生成部223は、入力受付領域804に関連付けられている、端末300の表示画像bの一部(図8Aの広告画像806)にリンクされている新たなコンテンツ画像に基づいて視界画像を生成する(ステップS910)。そして視界画像生成部223によって生成された視界画像は、HMD110へ出力されてディスプレイ112に表示される。   The view image generation unit 223 generates a view image based on a new content image linked to a part of the display image b of the terminal 300 (the advertisement image 806 in FIG. 8A) associated with the input reception area 804. (Step S910). The view image generated by the view image generation unit 223 is output to the HMD 110 and displayed on the display 112.

本実施形態においては、端末300の2次元の表示画像に基づいて生成される第2仮想オブジェクト802を、元の端末300の表示画像とは異なるVR用画像に基づいて生成することができる。従って、2次元の表示画像よりも高いインパクトを与えるVR用画像を視界画像内に配置することができる。本実施形態においては、高いインパクトを与える広告画像を視界画像内に表示することにより、ユーザ150を広告に誘導する確率を高めることができる。   In the present embodiment, the second virtual object 802 generated based on the two-dimensional display image of the terminal 300 can be generated based on a VR image that is different from the original display image of the terminal 300. Therefore, a VR image that gives a higher impact than a two-dimensional display image can be arranged in the view field image. In the present embodiment, the probability of guiding the user 150 to the advertisement can be increased by displaying the advertisement image that gives a high impact in the view field image.

以上、本技術の実施の形態について説明したが、本技術は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施形態の変更がなされ得ることを当業者は理解するであろう。   As mentioned above, although embodiment of this technique was described, this technique is not limited to the said embodiment. Those skilled in the art will appreciate that various modifications of the embodiments can be made without departing from the spirit and scope of the invention as set forth in the appended claims.

100…ヘッドマウントディスプレイ(HMD)システム、110…HMD、112…ディスプレイ、114…センサ部、116…ETD、200…画像処理装置、210…記憶部、220…処理部、1…仮想カメラ、4…基準視線、5…視界領域、6…仮想現実空間、308…ディスプレイ、402…第1仮想オブジェクト、404…ポインタ、406…仮想タッチパネル、802…第2仮想オブジェクト   DESCRIPTION OF SYMBOLS 100 ... Head mounted display (HMD) system, 110 ... HMD, 112 ... Display, 114 ... Sensor part, 116 ... ETD, 200 ... Image processing apparatus, 210 ... Memory | storage part, 220 ... Processing part, 1 ... Virtual camera, 4 ... Reference line of sight, 5 ... field of view, 6 ... virtual reality space, 308 ... display, 402 ... first virtual object, 404 ... pointer, 406 ... virtual touch panel, 802 ... second virtual object

Claims (8)

ヘッドマウントディスプレイに対してユーザが没入する仮想現実空間を提供させる方法であって、
前記仮想現実空間を定義するステップと、
前記仮想現実空間のうち前記ユーザが視認する視界画像を定義する仮想カメラの、前記仮想現実空間における位置を特定するステップと、
現実空間においてユーザに把持されている端末の傾きを取得するステップと、
前記ヘッドマウントディスプレイと前記端末との相対位置を取得するステップと、
前記仮想カメラの前記位置と前記相対位置に基づいて特定される仮想現実空間内の位置に、第1仮想オブジェクトの仮想タッチパネルを前記傾きに対応するように配置するステップと、
前記第1仮想オブジェクトを含む前記視界画像を生成し、前記ヘッドマウントディスプレイへ出力するステップと、
を備える方法。
A method for providing a virtual reality space for a user to immerse in a head-mounted display,
Defining the virtual reality space;
Identifying a position in the virtual reality space of a virtual camera defining a view image that the user visually recognizes in the virtual reality space;
Obtaining the tilt of the terminal held by the user in real space;
Obtaining a relative position between the head mounted display and the terminal;
Placing a virtual touch panel of a first virtual object at a position in a virtual reality space specified based on the position and the relative position of the virtual camera so as to correspond to the inclination;
Generating the field-of-view image including the first virtual object and outputting it to the head mounted display;
A method comprising:
前記相対位置は、前記端末のカメラにより撮影された前記ヘッドマウントディスプレイを含む画像に基づいて特定される、請求項1に記載の方法。   The method according to claim 1, wherein the relative position is determined based on an image including the head mounted display taken by a camera of the terminal. 前記仮想タッチパネルに表示される画像は、前記端末のディスプレイに表示される画像に関する情報に基づいてレンダリングされる、請求項1または2に記載の方法。   The method according to claim 1, wherein the image displayed on the virtual touch panel is rendered based on information related to an image displayed on the display of the terminal. 前記端末のタッチパネルに対するユーザのタッチ入力位置を特定するステップと、
前記仮想タッチパネルに対するポインタの位置を、前記タッチ入力位置に基づいて特定するステップと、をさらに備え
前記視界画像は、前記仮想タッチパネルに対する前記ポインタの位置に、更に前記ポインタを含む、請求項1〜3のいずれかに記載の方法。
Identifying a user's touch input position on the touch panel of the terminal;
The step of specifying the position of the pointer with respect to the virtual touch panel based on the touch input position, further comprising: the view image further including the pointer at the position of the pointer with respect to the virtual touch panel. The method in any one of.
前記端末のディスプレイに表示される画像に関連するコンテンツ情報を、前記システムに通信可能に接続されているサーバから取得するステップと、
前記コンテンツ情報に基づいて第2仮想オブジェクトを生成するステップと、
前記第2仮想オブジェクトを含む視界画像を生成し、前記ヘッドマウントディスプレイへ出力するステップと、
をさらに備える、請求項1〜4のいずれかに記載の方法。
Acquiring content information related to an image displayed on the display of the terminal from a server communicably connected to the system;
Generating a second virtual object based on the content information;
Generating a field-of-view image including the second virtual object and outputting to the head-mounted display;
The method according to claim 1, further comprising:
前記コンテンツ情報は、前記端末のディスプレイに表示される画像に基づく画像情報と、前記端末のディスプレイに表示される画像に基づく画像が前記仮想現実空間において配置される態様を特定する態様情報を含み、
前記第2仮想オブジェクトは、前記画像情報および態様情報に基づいてレンダリングされる、請求項5に記載の方法。
The content information includes image information based on an image displayed on the display of the terminal, and mode information specifying a mode in which an image based on the image displayed on the display of the terminal is arranged in the virtual reality space,
The method of claim 5, wherein the second virtual object is rendered based on the image information and aspect information.
前記端末のタッチパネルに対するユーザのタッチ入力位置を特定するステップと、
前記仮想タッチパネルに対する入力受付領域の位置を、前記タッチ入力位置に基づいて特定するステップと、をさらに備え
前記第2仮想オブジェクトは、前記入力受付領域に関連付けて前記仮想現実空間にレンダリングされる、請求項5または6に記載の方法。
Identifying a user's touch input position on the touch panel of the terminal;
Further comprising: specifying a position of an input reception area with respect to the virtual touch panel based on the touch input position, wherein the second virtual object is rendered in the virtual reality space in association with the input reception area. Item 7. The method according to Item 5 or 6.
請求項1〜7のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。 The program for making a computer perform the method of any one of Claims 1-7.
JP2016025733A 2016-02-15 2016-02-15 Image processing method and image processing program Pending JP2017146651A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016025733A JP2017146651A (en) 2016-02-15 2016-02-15 Image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016025733A JP2017146651A (en) 2016-02-15 2016-02-15 Image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2017146651A true JP2017146651A (en) 2017-08-24

Family

ID=59680780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016025733A Pending JP2017146651A (en) 2016-02-15 2016-02-15 Image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2017146651A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036974A (en) * 2016-09-02 2018-03-08 Mistletoe株式会社 Information processing system
WO2021095537A1 (en) * 2019-11-12 2021-05-20 ソニーグループ株式会社 Information processing device, information processing method, and program
US11182944B1 (en) 2020-07-29 2021-11-23 AniCast RM Inc. Animation production system
WO2022044357A1 (en) * 2020-08-31 2022-03-03 株式会社Jvcケンウッド Terminal device, method, and program
US11321898B2 (en) 2020-07-29 2022-05-03 AniCast RM Inc. Animation production system
US11380038B2 (en) 2020-07-29 2022-07-05 AniCast RM Inc. Animation production system for objects in a virtual space
US11443471B2 (en) 2020-07-29 2022-09-13 AniCast RM Inc. Animation production method
US11475619B2 (en) 2020-07-29 2022-10-18 AniCast RM Inc. Animation production method
US11524235B2 (en) * 2020-07-29 2022-12-13 AniCast RM Inc. Animation production system
US11537199B2 (en) 2020-07-29 2022-12-27 AniCast RM Inc. Animation production system
US11586278B2 (en) 2020-07-29 2023-02-21 AniCast RM Inc. Animation production system
US11842119B2 (en) 2021-02-02 2023-12-12 Canon Kabushiki Kaisha Display system that displays virtual object, display device and method of controlling same, and storage medium
WO2024024020A1 (en) * 2022-07-28 2024-02-01 楽天モバイル株式会社 Control for using, in virtual space, information processing device that is present in real space

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036974A (en) * 2016-09-02 2018-03-08 Mistletoe株式会社 Information processing system
WO2021095537A1 (en) * 2019-11-12 2021-05-20 ソニーグループ株式会社 Information processing device, information processing method, and program
US11954269B2 (en) 2019-11-12 2024-04-09 Sony Group Corporation Information processing apparatus, information processing method, and program for generating location data
US11537199B2 (en) 2020-07-29 2022-12-27 AniCast RM Inc. Animation production system
US11321898B2 (en) 2020-07-29 2022-05-03 AniCast RM Inc. Animation production system
US11380038B2 (en) 2020-07-29 2022-07-05 AniCast RM Inc. Animation production system for objects in a virtual space
US11443471B2 (en) 2020-07-29 2022-09-13 AniCast RM Inc. Animation production method
US11475619B2 (en) 2020-07-29 2022-10-18 AniCast RM Inc. Animation production method
US11524235B2 (en) * 2020-07-29 2022-12-13 AniCast RM Inc. Animation production system
US11586278B2 (en) 2020-07-29 2023-02-21 AniCast RM Inc. Animation production system
US11182944B1 (en) 2020-07-29 2021-11-23 AniCast RM Inc. Animation production system
WO2022044357A1 (en) * 2020-08-31 2022-03-03 株式会社Jvcケンウッド Terminal device, method, and program
US11842119B2 (en) 2021-02-02 2023-12-12 Canon Kabushiki Kaisha Display system that displays virtual object, display device and method of controlling same, and storage medium
WO2024024020A1 (en) * 2022-07-28 2024-02-01 楽天モバイル株式会社 Control for using, in virtual space, information processing device that is present in real space

Similar Documents

Publication Publication Date Title
JP2017146651A (en) Image processing method and image processing program
US9761057B2 (en) Indicating out-of-view augmented reality images
US10295826B2 (en) Shape recognition device, shape recognition program, and shape recognition method
US10088900B2 (en) Information processing method and information processing system
WO2016203792A1 (en) Information processing device, information processing method, and program
US9933853B2 (en) Display control device, display control program, and display control method
US9979946B2 (en) I/O device, I/O program, and I/O method
US10999412B2 (en) Sharing mediated reality content
JPWO2014016987A1 (en) 3D user interface device and 3D operation method
US9906778B2 (en) Calibration device, calibration program, and calibration method
JP2011128220A (en) Information presenting device, information presenting method, and program
JPWO2014141504A1 (en) 3D user interface device and 3D operation processing method
JP2017134716A (en) Virtual reality space providing method and virtual reality space providing program
WO2017169273A1 (en) Information processing device, information processing method, and program
WO2019142560A1 (en) Information processing device for guiding gaze
US10171800B2 (en) Input/output device, input/output program, and input/output method that provide visual recognition of object to add a sense of distance
CN111124128A (en) Position prompting method and related product
WO2017169272A1 (en) Information processing device, information processing method, and program
JP6941715B2 (en) Display device, display program, display method and display system
EP4361770A1 (en) Information processing system, information processing device, and image display device
JP6275809B1 (en) Display control method and program for causing a computer to execute the display control method
CN112578983A (en) Finger-oriented touch detection
CN115698923A (en) Information processing apparatus, information processing method, and program
JP2018106723A (en) Display control method and program for causing computer to execute the method
JP2017120619A (en) Information processing method and information processing program