JP2019022014A - Image providing method, image providing device and computer program - Google Patents

Image providing method, image providing device and computer program Download PDF

Info

Publication number
JP2019022014A
JP2019022014A JP2017137097A JP2017137097A JP2019022014A JP 2019022014 A JP2019022014 A JP 2019022014A JP 2017137097 A JP2017137097 A JP 2017137097A JP 2017137097 A JP2017137097 A JP 2017137097A JP 2019022014 A JP2019022014 A JP 2019022014A
Authority
JP
Japan
Prior art keywords
image
mode
user
imaging device
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017137097A
Other languages
Japanese (ja)
Inventor
越智 大介
Daisuke Ochi
大介 越智
愛 磯貝
Ai Isogai
愛 磯貝
木全 英明
Hideaki Kimata
英明 木全
ベンジャミン イアン オウトラム
Ian Outram Benjamin
ベンジャミン イアン オウトラム
ユン スエン パイ
Yun Suen Pai
ユン スエン パイ
カイ クンツェ
Kunze Kai
カイ クンツェ
孝太 南澤
Kouta Minamizawa
孝太 南澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Keio University
Original Assignee
Nippon Telegraph and Telephone Corp
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Keio University filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017137097A priority Critical patent/JP2019022014A/en
Publication of JP2019022014A publication Critical patent/JP2019022014A/en
Pending legal-status Critical Current

Links

Images

Abstract

To impart a feeling of presence as if a person were moving although the person is stationary.SOLUTION: An image providing method comprises: a mode determination step of determining, as an operation mode of a device itself, which mode the imaging device operates in between a first mode in which an image picked up by an imaging device installed at a selected spot is provided among images picked up by imaging devices which are installed at respective spots and can pick up images over wide ranges and a second mode in which an image of a route to an imaging device at a movement destination from an imaging device having picked up an image that a user currently views so as to switch an image picked up by an imaging device at another spot is provided; an image processing step of performing image processing on the image of the route according to a movement of the head of the user in the second mode; and an image output step of providing an image after the image processing for a display device that the user puts on.SELECTED DRAWING: Figure 1

Description

本発明は、画像提供方法、画像提供装置及びコンピュータプログラムに関する。   The present invention relates to an image providing method, an image providing apparatus, and a computer program.

近年、全天球カメラの普及が進んでいる。全天球カメラは、置いた位置の上下左右前後又はその一部を含む全方位の360度パノラマ画像・映像が撮影できるカメラである。また、全天球カメラは、非常に広角なレンズ(魚眼レンズ等)を備えものや、複数台のカメラの画像・映像をつなぎ合わせ、1枚のパノラマ映像を生成するものなど、様々な形態のものがある。全天球カメラで撮影された画像は全天球画像と呼ばれ、全天球カメラで撮影された映像は全天球映像と呼ばれており、カメラを設置した周囲の様子を高臨場に記録するデバイスとして巷でも広く使われ始めている。なお、今後、全天球映像は複数フレームの全天球画像で構成されるという解釈の下、全天球画像として説明を進める。   In recent years, omnidirectional cameras have been widely used. The omnidirectional camera is a camera that can shoot 360-degree panoramic images / videos in all directions, including up / down / left / right / front / back, or part of the position. In addition, omnidirectional cameras have various forms, such as those with very wide-angle lenses (fisheye lenses, etc.) and those that combine images and videos from multiple cameras to generate a single panoramic video. There is. Images taken with an omnidirectional camera are called omnidirectional images, and images taken with an omnidirectional camera are called omnidirectional images, and the surroundings of the camera are recorded in a highly realistic manner. It is starting to be widely used as a device to operate. In the future, the explanation will proceed as an omnidirectional image under the interpretation that the omnidirectional video is composed of a plurality of frames of omnidirectional images.

さらに、全天球画像を見るためのツールとして、HMD(ヘッドマウントディスプレイ)も普及を始めている。HMDは、使用者の両眼に覆いかぶせるように装着して、全天球画像の中から使用者が見たい方向の全天球画像を提示することで、あたかもその場に行ったかのようなバーチャルな感覚を使用者に与えることができるディスプレイである。   Furthermore, HMD (Head Mounted Display) has started to spread as a tool for viewing omnidirectional images. The HMD is worn so as to cover both eyes of the user and presents the omnidirectional image in the direction that the user wants to see from among the omnidirectional images. It is a display that can give the user a unique feeling.

上記のようなカメラとディスプレイが普及し始めると、複数地点に設置した全天球カメラで撮影された全天球画像を、使用者が切り替えて見ることで、あたかも使用者が見る位置を変える(使用者が見る位置を移動する)といった感覚で複数地点の全天球画像を楽しみたいという欲求が生まれてくる。例えば、サッカー場等のスポーツ会場において、フィールドを取り囲むように複数台の全天球カメラが設置されており、各全天球カメラで撮影された全天球画像が同期されて配信されているとする。使用者は、配信された全天球画像の中から好きな位置の全天球画像を選択し、あたかもその場にいるような感覚でHMDを使って見ることができる上に、別の位置にある全天球カメラで撮影された全天球画像をさらに選択することで、あたかもその位置に移動したかのような感覚で、別の視点からの全天球画像を見ることができるようになる。   When cameras and displays like the one above start to spread, the user changes the viewing position by switching the omnidirectional images taken by the omnidirectional cameras installed at multiple points. The desire to enjoy omnidirectional images at multiple points is created with the sense that the user moves the viewing position. For example, in a sports venue such as a soccer field, a plurality of omnidirectional cameras are installed so as to surround the field, and omnidirectional images captured by each omnidirectional camera are synchronized and distributed. To do. The user can select an omnidirectional image at a desired position from the distributed omnidirectional images, and can view it using the HMD as if he / she was on the spot. By further selecting an omnidirectional image taken with a certain omnidirectional camera, you can see the omnidirectional image from another viewpoint as if you moved to that position. .

このような複数地点の全天球画像を使用者が選んで見るような研究、サービスが近年出て来ている。例えば、米国Google社のGoogleストリートビューでは、道路沿いにおいて一定の距離間隔で撮影された全天球画像を、移動に伴う経路の全天球画像も含めて人が連続的に見ることで、人は移動の方向や距離を把握しながら好きな地点に移動し、その地点を見渡すような感覚で全天球画像を見るような、あたかも遠隔の街中を歩き回るような感覚を得ることができるサービスを展開している。また、非特許文献1に記載されたVR Planetの技術では、様々な地点で撮影された全天球画像をバーチャルな空間内に配置し、複数の全天球画像間を人のジェスチャ等で移動することであたかも複数の地点を移動して見渡すかのような感覚を得ることができる。   In recent years, research and services that allow users to select and view such omnidirectional images from multiple locations have emerged. For example, in Google Street View of Google Inc. in the United States, people can continuously view omnidirectional images taken at regular intervals along the road, including omnidirectional images of routes accompanying movement. Is a service that allows you to move to a desired point while grasping the direction and distance of movement, and to feel as if you are walking around a remote city, such as looking at a spherical image as if you were looking around the point. Is deployed. In addition, the VR Planet technique described in Non-Patent Document 1 arranges omnidirectional images taken at various points in a virtual space, and moves between multiple omnidirectional images using human gestures or the like. By doing so, it is possible to obtain a feeling as if moving around a plurality of points.

Kevin Fan、 Daiya Kato、 Liwei Chan、 Kouta Minamizawa、 Masahiko Inami、 “VR Planet: Interface for Meta-View and Feet Interaction of VR Contents、” In Proceedings of SIGGRAPH 2016、 2016.Kevin Fan, Daiya Kato, Liwei Chan, Kouta Minamizawa, Masahiko Inami, “VR Planet: Interface for Meta-View and Feet Interaction of VR Contents,” In Proceedings of SIGGRAPH 2016, 2016.

しかし、上記のような使い方をする場合、従来手法にはまだ課題がある。先のサッカー場の例を用いて説明する。人がある地点で、そこから撮影された全天球画像中に映った一人のプレイヤに注目している最中に、人がフィールドを挟んで向こう側の位置(別の位置から撮影された全天球画像)から同じオブジェクトを見たいと思ったとする。なお、フィールドの周りに置かれた各全天球カメラの3次元的な位置関係は事前キャリブレーションで既知であるものとする。また、人に移動感を感じてもらうために提示する各全天球カメラ間の全天球画像は用意されているものとする。   However, there is still a problem with the conventional method when using the above method. This will be described using the example of the previous soccer field. While a person is paying attention to one player in a celestial sphere image taken from there, the person is on the other side of the field (all images taken from another position). Suppose you want to see the same object from a celestial sphere. It is assumed that the three-dimensional positional relationship of each omnidirectional camera placed around the field is known by prior calibration. In addition, it is assumed that an omnidirectional image between the omnidirectional cameras to be presented in order for a person to feel a sense of movement is prepared.

この場合、理想的には人はバーチャルに全天球カメラ間の経路を歩き回り、好きな視点位置からフィールド内のプレイヤを見ることが最も直感的であるといえる。しかし、それにはサッカー場と同等の空間が必要になってしまう。もちろん、Googleストリートビューのように、移動手段を別の操作に割り振ること(例えば、キーボードの矢印キーなどで移動する手段)も考えられるが、移動しながら見ているという直感性が大きく削がれてしまい、臨場感が低下してしまうだけでなく、キーボードを操作して進む方向だけ指定する(移動前に見ている方向まで維持されない)場合だと、移動後、又は移動途中にこれまで注目していたプレイヤを見失うという問題があった。   In this case, ideally, it is most intuitive for a person to virtually walk around the path between the omnidirectional cameras and watch the player in the field from a favorite viewpoint position. However, this requires a space equivalent to a soccer field. Of course, as with Google Street View, it is possible to assign the moving means to another operation (for example, a means to move with the arrow keys of the keyboard), but the intuition of watching while moving is greatly reduced. In addition to reducing the sense of realism, if you specify only the direction you want to move by operating the keyboard (the direction you are looking at before moving is not maintained), attention will be focused on after moving or while moving There was a problem of losing sight of the player who was playing.

上記事情に鑑み、本発明は、人物が移動することなく、人物に対して移動しているかのような臨場感を与えることができる技術の提供を目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique capable of giving a sense of reality as if a person is moving without moving.

本発明の一態様は、自装置の動作モードとして、各地点に設置された広範囲を撮像できる撮像装置で撮像された画像のうち選択された地点に設置された前記撮像装置によって撮像された画像を提供する第1のモードと、別の地点の前記撮像装置で撮像された画像に切り替えるために現在ユーザが見ている画像を撮像した撮像装置から移動先の撮像装置までの経路の画像を提供する第2のモードとのいずれのモードで動作するか決定するモード決定ステップと、前記第2のモード時において、前記ユーザの頭の動作に応じて、前記経路の画像に対して画像処理を行う画像処理ステップと、画像処理後の画像を前記ユーザが装着している表示装置に提供する画像出力ステップと、を有する画像提供方法である。   According to one aspect of the present invention, as an operation mode of the own device, an image captured by the imaging device installed at a selected point among images captured by an imaging device capable of imaging a wide range installed at each point is displayed. A first mode to be provided and an image of a route from the imaging device that has captured the image currently viewed by the user to the destination imaging device in order to switch to an image captured by the imaging device at another point A mode determining step for determining which mode to operate in the second mode, and an image for performing image processing on the image of the route in accordance with the motion of the user's head in the second mode. An image providing method comprising: a processing step; and an image output step of providing an image after image processing to a display device worn by the user.

本発明の一態様は、上記の画像提供方法であって、ユーザが見ている画像を撮像した撮像装置から移動先の撮像装置までの経路の画像が予め前記撮像装置で移動しながら撮影された画像である。   One aspect of the present invention is the above-described image providing method, in which an image of a path from an imaging device that captures an image viewed by a user to a destination imaging device is captured in advance while moving with the imaging device. It is an image.

本発明の一態様は、上記の画像提供方法であって、前記画像処理ステップにおいて、前記第2のモードで動作している場合、前記移動先まで提供する経路の画像を、前記ユーザの頭の回転量に応じて画像処理する。   One aspect of the present invention is the above-described image providing method, wherein in the image processing step, when operating in the second mode, an image of a route provided to the destination is displayed on the head of the user. Image processing is performed according to the amount of rotation.

本発明の一態様は、上記の画像提供方法であって、前記画像処理ステップにおいて、前記頭の回転量が実空間で行う回転量と同じ回転量である。   One aspect of the present invention is the image providing method described above, wherein, in the image processing step, the amount of rotation of the head is the same as the amount of rotation performed in real space.

本発明の一態様は、上記の画像提供方法であって、前記画像処理ステップにおいて、前記頭の回転量が実空間で行う回転量に任意の関数を掛け合わせた回転量である。   One aspect of the present invention is the above-described image providing method, wherein in the image processing step, the rotation amount of the head is a rotation amount obtained by multiplying a rotation amount performed in real space by an arbitrary function.

本発明の一態様は、上記の画像提供方法であって、前記画像処理ステップにおいて、前記ユーザの眼球の輻輳角から注視している注視対象の3次元座標を検出し、前記注視対象が前記ユーザの視界の中心に位置するように画像処理を行う。   One aspect of the present invention is the above-described image providing method, wherein in the image processing step, three-dimensional coordinates of a gaze target being gaze based on a convergence angle of the eyeball of the user are detected, and the gaze target is the user Image processing is performed so as to be positioned at the center of the field of view.

本発明の一態様は、自装置の動作モードとして、各地点に設置された広範囲を撮像できる撮像装置で撮像された画像のうち選択された地点に設置された前記撮像装置によって撮像された画像を提供する第1のモードと、別の地点の前記撮像装置で撮像された画像に切り替えるために現在ユーザが見ている画像を撮像した撮像装置から移動先の撮像装置までの経路の画像を提供する第2のモードとのいずれのモードで動作するか決定するモード決定部と、前記第2のモード時において、前記ユーザの頭の動作に応じて、前記経路の画像に対して画像処理を行う画像処理部と、画像処理後の画像を前記ユーザが装着している表示装置に提供する画像出力部と、を備える画像提供装置である。   According to one aspect of the present invention, as an operation mode of the own device, an image captured by the imaging device installed at a selected point among images captured by an imaging device capable of imaging a wide range installed at each point is displayed. A first mode to be provided and an image of a route from the imaging device that has captured the image currently viewed by the user to the destination imaging device in order to switch to an image captured by the imaging device at another point An image for performing image processing on the image of the path according to the movement of the user's head in the second mode; An image providing apparatus comprising: a processing unit; and an image output unit that provides an image after image processing to a display device worn by the user.

本発明の一態様は、自装置の動作モードとして、各地点に設置された広範囲を撮像できる撮像装置で撮像された画像のうち選択された地点に設置された前記撮像装置によって撮像された画像を提供する第1のモードと、別の地点の前記撮像装置で撮像された画像に切り替えるために現在ユーザが見ている画像を撮像した撮像装置から移動先の撮像装置までの経路の画像を提供する第2のモードとのいずれのモードで動作するか決定するモード決定ステップと、前記第2のモード時において、前記ユーザの頭の動作に応じて、前記経路の画像に対して画像処理を行う画像処理ステップと、画像処理後の画像を前記ユーザが装着している表示装置に提供する画像出力ステップと、をコンピュータに実行させるためのコンピュータプログラムである。   According to one aspect of the present invention, as an operation mode of the own device, an image captured by the imaging device installed at a selected point among images captured by an imaging device capable of imaging a wide range installed at each point is displayed. A first mode to be provided and an image of a route from the imaging device that has captured the image currently viewed by the user to the destination imaging device in order to switch to an image captured by the imaging device at another point A mode determining step for determining which mode to operate in the second mode, and an image for performing image processing on the image of the route in accordance with the motion of the user's head in the second mode. A computer program for causing a computer to execute a processing step and an image output step of providing an image after image processing to a display device worn by the user

本発明により、人物が移動することなく、人物に対して移動しているかのような臨場感を与えることが可能となる。   According to the present invention, it is possible to give a sense of reality as if a person is moving without moving.

本発明における画像提供システム100のシステム構成を表す構成図である。It is a block diagram showing the system configuration | structure of the image provision system 100 in this invention. 経路リストの具体例を示す図である。It is a figure which shows the specific example of a route list. (概要)で説明した輻輳角について説明するための図である。It is a figure for demonstrating the convergence angle demonstrated by (summary). 第1の実施形態における第2のモード時の動作を説明するための図である。It is a figure for demonstrating the operation | movement at the time of the 2nd mode in 1st Embodiment. 頭部回転動作に応じてユーザ40が見る全天球画像の一例を示す図である。It is a figure which shows an example of the omnidirectional image which the user 40 sees according to head rotation operation | movement. 第1の実施形態における10の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of 10 processes in 1st Embodiment. 第2の実施形態について説明するための図である。It is a figure for demonstrating 2nd Embodiment. 第3の実施形態について説明するための図である。It is a figure for demonstrating 3rd Embodiment. 第4の実施形態について説明するための図である。It is a figure for demonstrating 4th Embodiment. 第4の実施形態のような経路が2つ以上ある場合の経路リストの具体例を示す図である。It is a figure which shows the specific example of a path | route list | wrist in case there exist two or more paths like 4th Embodiment.

以下、本発明の一実施形態を、図面を参照しながら説明する。
(概要)
まず、本発明の概要について説明する。
本発明における画像提供システムにおける画像提供装置は、広範囲(例えば、全方位)を撮像可能な全天球カメラが設置された地点で全天球画像(映像も含む)を見る場面において、全天球カメラが設置された地点で人が好きな方向を向いてHMDのような表示装置を用いて全天球画像を見ることができる第1のモードと、別の地点の全天球カメラで撮像された全天球画像に切り替えるために現在人が見ている全天球画像を撮像した全天球カメラから移動先の全天球カメラまでの経路の全天球画像を見ることができる第2のモードという2つのモードを有する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(Overview)
First, an outline of the present invention will be described.
The image providing apparatus in the image providing system according to the present invention is a celestial sphere in a scene where an omnidirectional image (including video) is viewed at a point where an omnidirectional camera capable of imaging a wide range (for example, all directions) is installed. A first mode in which a celestial sphere image can be viewed using a display device such as an HMD while facing a user's preferred direction at a point where the camera is installed, and is captured by an omnidirectional camera at another point. In order to switch to the omnidirectional image, a second omnidirectional image of the path from the omnidirectional camera that captured the omnidirectional image currently being viewed by the person to the omnidirectional camera to be moved can be viewed. There are two modes: mode.

第1のモードでは、人は表示装置を用いて全天球カメラで撮像された全天球画像を、従来のように好きな位置を選んで見ることができる。第2のモードでは、各全天球カメラ間を移動することができる。具体的には、第2のモードでは、ある全天球カメラから移動先の全天球カメラまでの間の移動経路の全天球画像を提供し、移動先の全天球カメラで撮像された全天球画像を提供することによって各全天球カメラ間を移動したような感覚を人に与えることができる。なお、移動時に提供される移動経路の全天球画像は全天球カメラで予め撮影されているものとする。   In the first mode, a person can select and view a omnidirectional image captured by the omnidirectional camera using a display device at a favorite position as in the past. In the second mode, it is possible to move between the omnidirectional cameras. Specifically, in the second mode, an omnidirectional image of a moving path from a certain omnidirectional camera to a destination omnidirectional camera is provided and captured by the destination omnidirectional camera. By providing an omnidirectional image, it is possible to give a person a feeling as if they moved between the omnidirectional cameras. It is assumed that the omnidirectional image of the movement route provided at the time of movement is previously captured by an omnidirectional camera.

第2のモードでは、人にその場にいながらにして移動感を感じさせるため、人が通常の移動しながら周辺を見る動作(移動しながら頭を回転させる動作)のうち、実際の場所移動を除き、頭の回転動作に応じた全天球画像を提供することで広いフィールドのような空間も人が実際に場所を動くことなく、少ないスペースで人物に対して臨場感を与えることが可能となる。第2のモード時では、注目したい被写体(以下「注目対象」という。)を注目しながら人が頭を回転させる動作が全天球カメラ間の“移動”に割り当てられるということである。   In the second mode, in order to make a person feel a sense of movement while on the spot, the movement of the person looking at the surroundings while moving normally (the movement of rotating the head while moving), except for the actual movement of the place, By providing an omnidirectional image according to the rotational movement of the head, it is possible to give a sense of reality to a person in a small space without a person actually moving in a space such as a wide field. In the second mode, an operation in which a person rotates his / her head while paying attention to a subject of interest (hereinafter referred to as “target of interest”) is assigned to “movement” between omnidirectional cameras.

しかしながら、ここで一つ問題となるのは、移動観察中、常に注目対象を視野の中心に置きたい(注目対象を注目し続けたい)場合は、注目対象が3次元空間内のどの位置に存在するか、人がどの位置から注目対象を見ているのかが分かった上で、人に提示する全天球画像の一部分で注目対象が映った部分を視野の中心に持ってこなければならない。この問題の対策としては、人の二つの眼球の視線方向とそれらがなす輻輳角から、その人が3次元空間内のどの部分を注目しているかを計測し、その3次元空間の1点を中心にCG空間内を移動して見渡すような技術を用いる(参考文献1参照)。
(参考文献1:Yun Suen Pai, Benjamin Outram, Noriyasu Vontin, and Kai Kunze, “Transparent Reality: Using Eye Gaze Focus Depth as Interaction Modality,” In Proceedings of UIST 2016, 2016.)
However, one problem here is that if you always want to keep the subject of interest at the center of the field of view during moving observation (you want to keep an eye on the subject of interest), where the subject of interest is located in the 3D space In addition, after knowing from which position the person is looking at the target object, a part of the omnidirectional image presented to the person in which the target object appears must be brought to the center of the field of view. To solve this problem, measure the part of the person in the three-dimensional space from the gaze direction of the two eyes of the person and the angle of convergence formed by them, and select one point in the three-dimensional space. A technique that moves around the CG space and looks around is used (see Reference 1).
(Reference 1: Yun Suen Pai, Benjamin Outram, Noriyasu Vontin, and Kai Kunze, “Transparent Reality: Using Eye Gaze Focus Depth as Interaction Modality,” In Proceedings of UIST 2016, 2016.)

参考文献1に記載の技術を用いることで、全天球画像のような実写でも注目対象を視野の中心に置きつつ、頭を回す(首を振る)という直感的な移動動作で全天球カメラ間を移動し、あたかもフィールドのような広い空間内を移動したように感じながら好きな場所・角度から見たい注目対象を見ることが可能となる。   By using the technique described in Reference 1, an omnidirectional camera with an intuitive moving action of turning the head (shaking the head) while keeping the subject of interest at the center of the field of view even in a live action such as an omnidirectional image It is possible to see the object of interest that you want to see from your favorite place / angle while feeling as if you were moving in a wide space like a field.

(詳細)
図1は、本発明における画像提供システム100のシステム構成を表す構成図である。画像提供システム100は、配信サーバ10、画像処理装置20及び表示装置30を備える。
配信サーバ10は、各地点に設置された全天球カメラによって撮像された全天球画像と、全天球カメラ間の移動経路上で撮像された全天球画像(以下「経路全天球画像」という。)と、経路リストとを保持する。経路リストは、観察開始時の初期位置(現在地点)と、移動可能な経路(移動先)と、移動に必要な頭の回転量と、モード切替えに必要な手段とが対応付けて記載されたリストである。配信サーバ10は、画像処理装置20からの要求に応じて、対応する全天球画像を画像処理装置20に配信する。
(Details)
FIG. 1 is a configuration diagram showing a system configuration of an image providing system 100 according to the present invention. The image providing system 100 includes a distribution server 10, an image processing device 20, and a display device 30.
The distribution server 10 includes an omnidirectional image captured by an omnidirectional camera installed at each point and an omnidirectional image captured on a moving path between the omnidirectional cameras (hereinafter referred to as “path omnidirectional image”). And a route list. In the route list, the initial position at the start of observation (current location), the movable route (destination), the amount of head rotation required for movement, and the means required for mode switching are described in association with each other. It is a list. The distribution server 10 distributes a corresponding omnidirectional image to the image processing apparatus 20 in response to a request from the image processing apparatus 20.

図1では、配信サーバ10と、画像処理装置20とが別の筺体である場合を示しているが、配信サーバ10と、画像処理装置20とが一体化されていてもよい。この場合、配信サーバ10は画像処理装置20のストレージに相当する。なお、配信サーバ10は、人が画像を見始めた最初の段階で画像処理装置20に配信する。人が画像を見始めた最初の段階とは、例えば画像処理装置20に電源が投入されたタイミングである。また、複数地点の全天球画像、及び経路全天球画像については、予め一意に決められた方向に揃えられた状態(例えば、予め東西南北を基準として揃えられた状態)で保持され、配信されるものとする。   Although FIG. 1 shows a case where the distribution server 10 and the image processing apparatus 20 are separate enclosures, the distribution server 10 and the image processing apparatus 20 may be integrated. In this case, the distribution server 10 corresponds to the storage of the image processing apparatus 20. The distribution server 10 distributes the image to the image processing device 20 at the first stage when a person starts to view the image. The first stage when the person starts to see the image is, for example, the timing when the image processing apparatus 20 is turned on. In addition, the omnidirectional images of multiple points and the omnidirectional images of the route are stored and distributed in a state in which they are aligned in a uniquely determined direction (for example, in a state in which they are aligned in advance with respect to east, west, south, and north) Shall be.

画像処理装置20は、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置20と表示装置30とは、別体でもよいし一体でもよい。画像処理装置20は、配信サーバ10から配信された画像に対して画像処理を行い、画像処理後の画像を表示装置30に提供する。画像処理装置20は、画像提供装置の一態様である。
表示装置30は、ヘッドマウントディスプレイ等の表示装置である。表示装置30は、画像処理装置20から提供された画像を表示する。表示装置30は、ユーザ40に装着される。
The image processing device 20 is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 20 and the display device 30 may be separate or integrated. The image processing device 20 performs image processing on the image distributed from the distribution server 10, and provides the image after image processing to the display device 30. The image processing apparatus 20 is an aspect of an image providing apparatus.
The display device 30 is a display device such as a head mounted display. The display device 30 displays the image provided from the image processing device 20. The display device 30 is attached to the user 40.

(第1の実施形態)
次に、第1の実施形態における画像処理装置20及び表示装置30の機能構成について説明する。まず、画像処理装置20の機能構成を説明する。画像処理装置20は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置20は、画像要求・受信部201、画像レンダリング部202、画像出力部203、モード決定部204を備える装置として機能する。なお、画像処理装置20の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
(First embodiment)
Next, functional configurations of the image processing device 20 and the display device 30 in the first embodiment will be described. First, the functional configuration of the image processing apparatus 20 will be described. The image processing apparatus 20 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 20 functions as an apparatus including an image request / reception unit 201, an image rendering unit 202, an image output unit 203, and a mode determination unit 204. Note that all or part of the functions of the image processing apparatus 20 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). . The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.

画像要求・受信部201は、モード決定部204で決定されたモードに応じて配信サーバ10に対して画像を要求し、配信サーバ10から送信された画像を受信する。具体的には、画像要求・受信部201は、第1のモードであれば複数地点の全天球画像のうち一つの全天球画像、第2のモードであれば経路の中の一つの経路に対応する経路全天球画像を配信サーバ10に要求し、受信する。画像要求・受信部201は、配信サーバ10から得られた全天球画像と、いずれのモードの全天球画像であるかを示す情報とを画像レンダリング部202に出力する。また、画像要求・受信部201は、人が画像を見始めた最初の段階に経路リストを画像処理装置20から受信し、保持する。   The image request / reception unit 201 requests an image from the distribution server 10 according to the mode determined by the mode determination unit 204, and receives the image transmitted from the distribution server 10. Specifically, the image request / reception unit 201 has one omnidirectional image among a plurality of omnidirectional images in the first mode, and one route in the route in the second mode. The distribution server 10 is requested and received for the route omnidirectional image corresponding to. The image request / reception unit 201 outputs the omnidirectional image obtained from the distribution server 10 and information indicating which mode the omnidirectional image is to the image rendering unit 202. Further, the image request / reception unit 201 receives a route list from the image processing apparatus 20 and holds the route list at the first stage when a person starts viewing an image.

画像レンダリング部202は、入力された全天球画像に基づいて、画像出力部203を介して提供する画像のレンダリング方法を変えてレンダリングする。入力された全天球画像が複数地点の全天球画像のどれか一つである場合、画像レンダリング部202は表示装置30が備える頭部方向検知部301から得られるユーザ40の頭部の方向のデータを入力とし、複数地点の全天球画像の中の頭部方向に応じた画像出力部203のサイズの画像のレンダリング結果を表示装置30に出力する。また、入力された全天球画像が経路全天球画像のどれか一つである場合、画像レンダリング部202は表示装置30が備える頭部方向検知部301から得られるユーザ40の頭部の方向のデータと、表示装置30が備える眼球方向検知部302から得られる人の注目対象の3次元位置とを入力とし、頭部方向データから算出した頭部の回転角の量に応じた経路上を進んだ位置からの全天球画像で、ユーザ40の注目対象を見ている方向に応じた画像出力部203のサイズの画像のレンダリング結果を表示装置30に出力する。   The image rendering unit 202 performs rendering by changing the rendering method of the image provided via the image output unit 203 based on the input omnidirectional image. When the input omnidirectional image is one of a plurality of omnidirectional images, the image rendering unit 202 is directed to the direction of the head of the user 40 obtained from the head direction detection unit 301 included in the display device 30. Is output to the display device 30 as a result of rendering the image having the size of the image output unit 203 corresponding to the head direction in the omnidirectional images at a plurality of points. When the input omnidirectional image is any one of the path omnidirectional images, the image rendering unit 202 determines the head direction of the user 40 obtained from the head direction detection unit 301 included in the display device 30. And a three-dimensional position of a person's attention target obtained from the eyeball direction detection unit 302 included in the display device 30, and a path corresponding to the amount of the rotation angle of the head calculated from the head direction data. A rendering result of an image of the size of the image output unit 203 corresponding to the direction in which the user 40 is looking at the target object of the user 40 is output to the display device 30 as an omnidirectional image from the advanced position.

画像出力部203は、画像レンダリング部202でレンダリングされた画像のレンダリング結果を表示装置30内の表示部303に表示する。
モード決定部204は、ユーザ40からの入力に応じて、経路リストに基づいて第1のモードと、第2のモードとのいずれのモードで動作するのかを決定する。画像出力部203は、決定した動作モードを示す情報を画像要求・受信部201に出力する。モード決定部204は、キーボード、ポインティングデバイス(マウス、タブレット等)、タッチパネル、ボタン等の既存の入力装置を用いて構成される。モード決定部204は、ユーザの指示を画像処理装置20に入力する際にユーザによって操作される。モード決定部204は、モード切替指示の入力を受け付ける。また、モード決定部204は、入力装置を画像処理装置20に接続するためのインタフェースであってもよい。この場合、画像処理装置20は、入力装置においてユーザの入力に応じて生成された入力信号をモード決定部204に入力する。
The image output unit 203 displays the rendering result of the image rendered by the image rendering unit 202 on the display unit 303 in the display device 30.
The mode determination unit 204 determines whether to operate in the first mode or the second mode based on the route list in accordance with an input from the user 40. The image output unit 203 outputs information indicating the determined operation mode to the image request / reception unit 201. The mode determination unit 204 is configured using an existing input device such as a keyboard, a pointing device (mouse, tablet, etc.), a touch panel, and buttons. The mode determination unit 204 is operated by the user when inputting a user instruction to the image processing apparatus 20. The mode determination unit 204 receives an input of a mode switching instruction. The mode determination unit 204 may be an interface for connecting the input device to the image processing device 20. In this case, the image processing apparatus 20 inputs an input signal generated according to a user input in the input device to the mode determination unit 204.

次に、表示装置30の機能構成について説明する。表示装置30は、頭部方向検知部301、眼球方向検知部302及び表示部303を備える。
頭部方向検知部301は、ユーザ40の向く方向を検知するセンサである。頭部方向検知部301は、例えば、ジャイロセンサや加速度センサである。頭部方向検知部301は、人の頭部の方向データを画像レンダリング部202に出力する。
眼球方向検知部302は、人の各眼球の視線方向、および両眼球からの輻輳角を算出し、人の注目対象の3次元位置を算出する。眼球方向検知部302は、人の注目対象の3次元位置を画像レンダリング部202に出力する。
表示部303は、画像出力部203から出力された画像を表示する。
Next, the functional configuration of the display device 30 will be described. The display device 30 includes a head direction detection unit 301, an eyeball direction detection unit 302, and a display unit 303.
The head direction detection unit 301 is a sensor that detects the direction in which the user 40 faces. The head direction detection unit 301 is, for example, a gyro sensor or an acceleration sensor. The head direction detection unit 301 outputs the direction data of the human head to the image rendering unit 202.
The eyeball direction detection unit 302 calculates the gaze direction of each eyeball of the person and the convergence angle from both eyes, and calculates the three-dimensional position of the person's attention target. The eyeball direction detection unit 302 outputs the three-dimensional position of the person's attention target to the image rendering unit 202.
The display unit 303 displays the image output from the image output unit 203.

図2は、経路リストの具体例を示す図である。図2に示すように、経路リストには現在地点、移動に必要な頭の回転量、移動先及びモード切替え手段の各値が記載されている。現在地点の値は、観察開始時の位置を表す。具体的には、現在地点の値は、人が見ている全天球画像を撮像した全天球カメラの位置を表す。移動に必要な頭の回転量の値は、全天球カメラ間の移動に必要な頭の回転量を表す。具体的には、移動に必要な頭の回転量の値は、水平方向の回転量を表す。移動先は、移動先の位置を表す。具体的には、移動先の値は、現在位置から移動に必要な頭の回転量分だけ頭を回転させた場合の移動先として設定されている全天球カメラの位置を表す。モード切替え手段は、画像処理装置20の動作モードを、第1のモードから第2のモード、又は、第2のモードから第1のモードに切替えるための方法を表す。   FIG. 2 is a diagram illustrating a specific example of a route list. As shown in FIG. 2, the route list describes the current location, the amount of head rotation required for movement, the destination, and each value of mode switching means. The value at the current point represents the position at the start of observation. Specifically, the value of the current location represents the position of the omnidirectional camera that captured the omnidirectional image viewed by a person. The value of the amount of rotation of the head necessary for movement represents the amount of rotation of the head necessary for movement between the omnidirectional cameras. Specifically, the value of the amount of rotation of the head necessary for movement represents the amount of rotation in the horizontal direction. The movement destination represents the position of the movement destination. Specifically, the value of the movement destination represents the position of the omnidirectional camera set as the movement destination when the head is rotated by the amount of rotation of the head necessary for movement from the current position. The mode switching means represents a method for switching the operation mode of the image processing apparatus 20 from the first mode to the second mode, or from the second mode to the first mode.

図2に示される例では、経路リストには複数の現在地点が記載されている。これらの現在地点は、“A”、“B”、“B”、“C”である。図2において、経路リストの最上段に記載されているレコードは、現在地点の値が“A”、移動に必要な頭の回転量の値が“θ1”、移動先の値が“B”、モード切替え手段の値が“スペースキー押下”である。すなわち、人が見ている全天球画像を撮像した全天球カメラの位置“A”地点である場合に、人が頭を“θ1”回転させた場合の移動先が“B”であり、モードを切替えるための方法が“スペースキーの押下”であることが表されている。なお、図2では、動作モードを切替えるための方法の一例として、“スペースキーの押下”を例に説明したが、動作モードを切替えるための方法はこれに限定される必要ない。例えば、動作モードを切替えるための方法が、複数のボタンの組み合わせであってもよいし、ボタンを押下している時間であってもよい。   In the example shown in FIG. 2, a plurality of current points are described in the route list. These current points are “A”, “B”, “B”, and “C”. In FIG. 2, the record described at the top of the route list has a current point value “A”, a head rotation amount necessary for movement “θ1”, a destination value “B”, The value of the mode switching means is “space key pressed”. That is, when the position of the omnidirectional camera that captured the omnidirectional image that the person is viewing is the position “A”, the movement destination when the person rotates the head “θ1” is “B”. It shows that the method for switching the mode is “pressing the space key”. In FIG. 2, “space key pressing” is described as an example of a method for switching the operation mode. However, the method for switching the operation mode is not limited to this. For example, the method for switching the operation mode may be a combination of a plurality of buttons, or a time during which the buttons are pressed.

次に、図3を用いて、(概要)で説明した輻輳角について説明する。
図3(A)はユーザ40が遠い位置にある注目対象50を注視している場合の一例を示す図であり、図3(B)ユーザ40が近い位置にある注目対象50を注視している場合の一例を示す図である。図3に示すように、ユーザ40が遠い位置にある注目対象50を注視している場合の方が、ユーザ40が近い位置にある注目対象50を注視している場合と比べて輻輳角が小さくなる。
Next, the convergence angle described in (Overview) will be described with reference to FIG.
FIG. 3A is a diagram illustrating an example of the case where the user 40 is gazing at the target object 50 at a distant position, and FIG. 3B is the user 40 gazing at the target object 50 at a close position. It is a figure which shows an example of a case. As shown in FIG. 3, the convergence angle is smaller when the user 40 is gazing at the attention object 50 at a far position than when the user 40 is gazing at the attention object 50 at a near position. Become.

図4は、第1の実施形態における第2のモード時の動作を説明するための図である。道路41上の3地点(A地点、B地点、C地点)に設置された全天球カメラ60−1、60−2、60−3が同期して配信する全天球画像を、予め全天球カメラを事前に移動させながら撮像した経路全天球画像D、Eを用いて、ユーザ40がバーチャルに移動しながら見る場面を考える。なお、全ての全天球画像は、ユーザ40が装着している表示装置30でバーチャルに見ることができるように配信サーバ10に保存されているものとする。また、図4では、ユーザ40は道路41脇にある注目対象50に注目しながら移動する場面とする。なお、B地点が注目対象50の正面にあるとすると、A地点はθ1、C地点はθ2の角度をなす位置に存在するとする。すなわち、全天球カメラ60−2が注目対象50の正面に配置され、全天球カメラ60−1がθ1の角度をなす位置に配置され、全天球カメラ60−3がθ2の角度をなす位置に配置される。   FIG. 4 is a diagram for explaining the operation in the second mode in the first embodiment. The omnidirectional images distributed in synchronism with the omnidirectional cameras 60-1, 60-2, 60-3 installed at three points (A point, B point, C point) on the road 41 are Consider a scene in which the user 40 sees the virtual omnidirectional images D and E captured while moving the sphere camera in advance while moving virtually. It is assumed that all omnidirectional images are stored in the distribution server 10 so that they can be virtually viewed on the display device 30 worn by the user 40. Further, in FIG. 4, it is assumed that the user 40 moves while paying attention to the attention object 50 beside the road 41. If the point B is in front of the target object 50, the point A exists at a position that forms an angle of θ1, and the point C exists at an angle of θ2. That is, the omnidirectional camera 60-2 is arranged in front of the target object 50, the omnidirectional camera 60-1 is arranged at a position that makes an angle of θ1, and the omnidirectional camera 60-3 makes an angle of θ2. Placed in position.

実空間であれば、ユーザ40は道路41上をA地点からC地点まで移動しながら自身の頭を回転し、注目対象50を見るという動作を行う。これに対し、本発明における画像提供システム100での画像提供においては、ユーザ40が実際の移動を行わず、実空間における移動動作をユーザ40の頭の回転に割り当てた形で行われる。また、本実施形態における方法で実際のユーザ40が行う頭部回転動作、ユーザ40が見る全天球画像の概略図を図5に示す。   If it is a real space, the user 40 performs an operation of rotating his / her head while moving on the road 41 from the point A to the point C and viewing the target object 50. On the other hand, in the image provision in the image provision system 100 according to the present invention, the user 40 does not actually move, but is performed in such a manner that the moving operation in the real space is assigned to the rotation of the user 40's head. FIG. 5 shows a schematic diagram of the head rotation operation performed by the actual user 40 and the omnidirectional image viewed by the user 40 by the method according to the present embodiment.

A地点で画像を見始めたユーザ40は、A地点が全天球画像として撮影されているため、A地点における好みの方向を向いて周辺をみることができる(第1のモード)。あるタイミングでユーザ40が注目対象50を見ながら移動したいと考えた際、注目対象50の方向を向いてモード切替え手段(例えば、キーボードのスペースキー)の入力を行う。この際、モード決定部204は、経路リストを参照し、モード切替え手段がなされた現在いる地点における経路リストに指定されたモード切替え手段と、実行されたモード切替え手段とが一致していた場合、動作モードを第1のモードから第2のモードに切り替える。   The user 40 who has started to view the image at the point A can view the periphery by facing the favorite direction at the point A because the point A is captured as a spherical image (first mode). When the user 40 wants to move while looking at the target 50 at a certain timing, the mode switching means (for example, the space key of the keyboard) is input in the direction of the target 50. At this time, the mode determination unit 204 refers to the route list, and if the mode switching unit specified in the route list at the current location where the mode switching unit is made matches the executed mode switching unit, The operation mode is switched from the first mode to the second mode.

第2のモードに切り替わると、まず眼球方向検知部302から得られる輻輳角から、ユーザ40から注目対象50までの距離と方向が測定される。本発明では、ユーザ40は実際の移動は行わないため、移動の代わりに頭部の回転動作を行う。頭部の回転に併せて同様の輻輳角算出処理を続けることで、常にユーザ40の視野内(ここでは表示装置30の中心)に注目対象50をとらえながら頭部の回転動作(バーチャルな移動動作)を続けることができる。経路全天球画像Dは映像として撮影されているため、実際は、頭部の回転角に合わせて、対応する位置の全天球画像のフレームが静止画でユーザ40に提示されることになる。   When the mode is switched to the second mode, the distance and direction from the user 40 to the target 50 are first measured from the convergence angle obtained from the eyeball direction detection unit 302. In the present invention, since the user 40 does not actually move, the head 40 rotates instead of moving. By continuing the same convergence angle calculation process in conjunction with the rotation of the head, the rotation of the head (virtual movement operation) while always capturing the target object 50 within the visual field of the user 40 (here, the center of the display device 30). ) Can continue. Since the route omnidirectional image D is captured as a video, the frame of the omnidirectional image at the corresponding position is actually presented to the user 40 as a still image in accordance with the rotation angle of the head.

第2のモードである最中は、ユーザ40は頭の回転を進める事もできるし、戻すことも可能である。戻す場合は、経路全天球画像Dを巻き戻す形で該当のフレームが表示されるようにすればよい。また、もしユーザ40がここで再度スペースキーを押し、第2のモードから第1のモードに戻したとすると、その地点の経路全天球画像Dの全天映像フレームが静止画として見渡せるようにすれば、ユーザ40は好きな位置に立ち止まって空間を見渡すことが可能となる。   During the second mode, the user 40 can advance or return the head rotation. When returning, the corresponding frame may be displayed in the form of rewinding the route omnidirectional image D. Also, if the user 40 presses the space key again to return from the second mode to the first mode, the omnidirectional video frame of the route omnidirectional image D at that point can be viewed as a still image. In this case, the user 40 can stop at a favorite position and look around the space.

ユーザ40が頭部をθ1回転させたところでモードを第1のモードに切り替えた場合は、B地点には全天球カメラ60−2が設置され、全天球画像が撮影されているため、ユーザ40は映像を見渡して楽しむことができる。同様の動作でユーザ40は頭部を回転させ、経路Eを通り、頭部を更にθ2回転させるとC地点に行くことができる。なお、頭の回転量を計測し始めるのは、モードが第2のモードに切り替えられた直後からとし、本実施例では、移動可能な方向がある程度直線とみなせる道路に沿った方向であるため、用いる頭の回転量は、水平方向のみの成分における頭の回転量(角度)とする。   When the user 40 rotates the head by θ1 and switches the mode to the first mode, the omnidirectional camera 60-2 is installed at the point B, and the omnidirectional image is taken. 40 can enjoy watching the video. In a similar operation, the user 40 can go to the point C by rotating the head, passing the path E, and further rotating the head by θ2. Note that the head rotation amount starts to be measured immediately after the mode is switched to the second mode, and in this embodiment, the movable direction is a direction along the road that can be regarded as a straight line to some extent. The rotation amount of the head to be used is the rotation amount (angle) of the head in the component only in the horizontal direction.

ただし、扱う移動方向が坂道である(ある程度角度を持っている)際や、ユーザ40の上部方向(空を飛ぶような方向)である場合は、頭の回転方向はその方向に合せるなども考えられ、水平方向のみとは限らない。逆に、移動方向の先にある経路全天球画像が直線とみなせる道路ではない場合(曲がりくねった経路などの場合)でも、移動に必要な頭の回転量と方向を一意に決めておくなどの応用も考えられる(例えば水平方向のみの成分を利用し、曲がりくねった道を進むこともあり得る)。   However, when the movement direction to be handled is a slope (having a certain angle) or the upper direction of the user 40 (the direction of flying in the sky), the head rotation direction may be adjusted to that direction. It is not limited to the horizontal direction. On the other hand, even when the omnidirectional image of the route ahead of the moving direction is not a road that can be regarded as a straight line (in the case of a winding route, etc.), the amount of rotation and direction of the head necessary for movement are uniquely determined. Application is also conceivable (for example, it is possible to use a component only in the horizontal direction and follow a winding road).

このような操作をすることで、ユーザ40は実際の場所に行くことなく、遠隔からバーチャルに見たい被写体を、場所を移動しながら視聴することができる。なお、この際、ユーザ40は実際に位置を移動しているのではなく、頭部のみしか回転させていないため、広いスペースを必要としない。また、移動しながらの視聴に置いて、移動動作は省くものの頭部回転動作は残すため、単なるキー操作での移動に比べ直感的な上、移動しても常に注目被写体を視界にとらえておけるというという利点がある。   By performing such an operation, the user 40 can watch the subject that he / she wants to see virtually from a remote location while moving the location without going to the actual location. At this time, the user 40 does not actually move the position, but only the head is rotated, so a large space is not required. In addition, although the moving operation is omitted while viewing while moving, the head rotation operation remains, so it is more intuitive than moving by simple key operation, and the subject of interest can always be seen in the field of view even when moving. There is an advantage that.

図6は、第1の実施形態における10の処理の流れを示すフローチャートである。
画像要求・受信部201は、自装置の動作モードを判定する(ステップS101)。具体的には、画像要求・受信部201は、モード決定部204から出力される自装置の動作モードを示す情報に基づいて、自装置の動作モードが第1の動作モードであるか第2の動作モードであるかを判定する。自装置の動作モードが第1の動作モードである場合(ステップS101−第1の動作モード)、画像要求・受信部201はユーザが見ている位置の全天球画像を配信サーバ10に要求する。その後、画像要求・受信部201は、配信サーバ10から配信された全天球画像を受信する(ステップS102)。画像要求・受信部201は、受信した全天球画像を画像レンダリング部202に出力する。
FIG. 6 is a flowchart showing the flow of 10 processes in the first embodiment.
The image request / reception unit 201 determines the operation mode of the own apparatus (step S101). Specifically, the image request / reception unit 201 determines whether the operation mode of the own device is the first operation mode based on the information indicating the operation mode of the own device output from the mode determination unit 204. It is determined whether it is an operation mode. When the operation mode of the own apparatus is the first operation mode (step S101—first operation mode), the image request / reception unit 201 requests the distribution server 10 for the omnidirectional image at the position where the user is viewing. . Thereafter, the image request / reception unit 201 receives the omnidirectional image distributed from the distribution server 10 (step S102). The image request / reception unit 201 outputs the received omnidirectional image to the image rendering unit 202.

画像レンダリング部202は、頭部方向検知部301からユーザの頭部方向の情報を取得する(ステップS103)。また、画像レンダリング部202は、画像要求・受信部201から出力された全天球画像を取得する。画像レンダリング部202は、取得したユーザの頭部方向の情報で示される頭部方向に応じて、取得した全天球画像をレンダリングする。画像レンダリング部202は、レンダリング後の全天球画像を画像出力部203に出力する。その後、画像出力部203は、画像レンダリング部202から出力されたレンダリング後の全天球画像を表示装置30に出力する。   The image rendering unit 202 acquires information on the user's head direction from the head direction detection unit 301 (step S103). Further, the image rendering unit 202 acquires the omnidirectional image output from the image request / reception unit 201. The image rendering unit 202 renders the acquired omnidirectional image according to the head direction indicated by the acquired information on the head direction of the user. The image rendering unit 202 outputs the rendered omnidirectional image to the image output unit 203. Thereafter, the image output unit 203 outputs the rendered omnidirectional image output from the image rendering unit 202 to the display device 30.

画像処理装置20は、画像の閲覧が終了であるか否か判定する(ステップS104)。画像の閲覧が終了である場合(ステップS104−YES)、画像処理装置20は全天球画像の提供を終了する。
一方、画像の閲覧が終了ではない場合(ステップS104−NO)、画像処理装置20はステップS101以降の処理を実行する。
The image processing apparatus 20 determines whether the browsing of the image is complete (step S104). When the image browsing is ended (step S104—YES), the image processing apparatus 20 ends the provision of the omnidirectional image.
On the other hand, when the browsing of the image is not complete (step S104—NO), the image processing apparatus 20 executes the processing after step S101.

ステップS101の処理において、自装置の動作モードが第2の動作モードである場合(ステップS101−第2の動作モード)、画像要求・受信部201はユーザが移動する方向の全天球画像を配信サーバ10に要求する。その後、画像要求・受信部201は、配信サーバ10から配信された全天球画像を受信する(ステップS106)。この際、画像要求・受信部201は、経路全天球画像を配信サーバ10から受信する。画像要求・受信部201は、受信した全天球画像を画像レンダリング部202に出力する。画像レンダリング部202は、眼球方向検知部302からユーザの注目対象50の3次元位置の情報を取得する(ステップS107)。   In the process of step S101, when the operation mode of the own apparatus is the second operation mode (step S101-second operation mode), the image request / reception unit 201 distributes the spherical image in the direction in which the user moves. Request to server 10. Thereafter, the image request / reception unit 201 receives the omnidirectional image distributed from the distribution server 10 (step S106). At this time, the image request / reception unit 201 receives the route omnidirectional image from the distribution server 10. The image request / reception unit 201 outputs the received omnidirectional image to the image rendering unit 202. The image rendering unit 202 acquires information on the three-dimensional position of the target object 50 of the user from the eyeball direction detection unit 302 (step S107).

画像レンダリング部202は、頭部方向検知部301からユーザの頭部方向の情報を取得する。画像レンダリング部202は、取得したユーザの頭部方向の情報から頭部の回転量を算出する(ステップS108)。第1の実施形態で算出される頭部の回転量は、実空間でユーザが頭部を回転させた量と同じである。画像レンダリング部202は、算出した頭部の回転量に応じた経路を進んだ位置における、注目対象50に対応する全天球画像をレンダリングする。画像レンダリング部202は、レンダリング後の全天球画像を画像出力部203に出力する。その後、画像出力部203は、画像レンダリング部202から出力されたレンダリング後の全天球画像を表示装置30に出力する(ステップS109)。   The image rendering unit 202 acquires information on the user's head direction from the head direction detection unit 301. The image rendering unit 202 calculates the rotation amount of the head from the acquired information on the head direction of the user (step S108). The amount of rotation of the head calculated in the first embodiment is the same as the amount of rotation of the head by the user in real space. The image rendering unit 202 renders an omnidirectional image corresponding to the target object 50 at a position that has traveled a path corresponding to the calculated amount of rotation of the head. The image rendering unit 202 outputs the rendered omnidirectional image to the image output unit 203. Thereafter, the image output unit 203 outputs the rendered omnidirectional image output from the image rendering unit 202 to the display device 30 (step S109).

画像処理装置20は、画像の閲覧が終了であるか否か判定する(ステップS110)。画像の閲覧が終了である場合(ステップS110−YES)、画像処理装置20は全天球画像の提供を終了する。
一方、画像の閲覧が終了ではない場合(ステップS110−NO)、画像処理装置20はステップS101以降の処理を実行する。
The image processing apparatus 20 determines whether the browsing of the image is complete (step S110). When the browsing of the image is complete (step S110-YES), the image processing apparatus 20 ends the provision of the omnidirectional image.
On the other hand, when the browsing of the image is not finished (step S110—NO), the image processing apparatus 20 executes the processing after step S101.

以上のように構成された画像処理装置20によれば、人物が移動することなく、人物に対して臨場感を与えることが可能となる。具体的には、画像処理装置20は、ユーザが見たい地点の画像を見ることができる第1のモードと、全天球カメラ間を移動することができる第2のモードとを有する。画像処理装置20は、第2のモード時において、ユーザの頭の回転量に応じた移動先の位置の画像を提供する。すなわち、ユーザは、頭を回転させることによって現時点から移動した場所の画像を見ることができる。したがって、ユーザは実際に移動する必要が無い。また、実際に移動しているような感覚をユーザに与えることができる。そのため、人物が移動することなく、人物に対して移動しているかのような臨場感を与えることが可能になる。   According to the image processing apparatus 20 configured as described above, it is possible to give a sense of reality to a person without the person moving. Specifically, the image processing apparatus 20 has a first mode in which an image of a point desired by the user can be viewed and a second mode in which the user can move between omnidirectional cameras. In the second mode, the image processing device 20 provides an image of a destination position corresponding to the amount of rotation of the user's head. That is, the user can see an image of the place moved from the present time by rotating his head. Therefore, the user does not need to actually move. In addition, it is possible to give the user a feeling of actually moving. Therefore, it is possible to give a sense of reality as if the person is moving without moving.

フィールドのような広い空間で行われるスポーツ観戦において、複数地点の全天球画像をバーチャルに移動して見る場合でも、実際の空間を移動する必要がない。そのため、狭い空間においてもスポーツ観戦を見ることが可能となる。また、移動しながら注目対象50を見る際、頭を回転させるという自然で直感的な動作で被写体を見失うことなく、つまり両眼の輻輳角から注目被写体の3次元位置を得、その被写体が常に視線の中心に来るようにしながら移動することが可能となる。   In sports watching held in a wide space such as a field, even when omnidirectional images of a plurality of points are virtually moved and viewed, it is not necessary to move in the actual space. Therefore, it is possible to watch sports watching even in a narrow space. In addition, when looking at the target object 50 while moving, it is possible to obtain the three-dimensional position of the target object from the convergence angle of both eyes without losing sight of the object by a natural and intuitive operation of rotating the head. It is possible to move while keeping it at the center of the line of sight.

(第2の実施形態)
第1の実施形態では、ユーザ40は移動のための頭部回転動作において、実際に注目対象50を注目し続けるために必要な量だけ頭部回転を行う必要があった。しかし、移動量が大きい場合、頭部の回転量も増え、人の負担になってしまう。そこで、第2の実施形態では、必要な頭部回転量を実際の量よりも少なくする(例えば、実際の量よりも半分にする)構成について説明する。
(Second Embodiment)
In the first embodiment, the user 40 needs to perform the head rotation by an amount necessary for actually continuing to pay attention to the target object 50 in the head rotation operation for movement. However, if the amount of movement is large, the amount of rotation of the head also increases, which is a burden on the person. Therefore, in the second embodiment, a configuration in which the required head rotation amount is made smaller than the actual amount (for example, half the actual amount) will be described.

図7は、第2の実施形態について説明するための図である。図7に示すように、第2の実施形態では、経路全天球画像D、Eを第2のモードでユーザが画像を見ながら頭部回転によりバーチャルに移動動作を行っている際、人はθ1/2の頭部回転を行えばA地点からB地点に移動できる。また、同様にθ2/2の頭部回転を行えばB地点からC地点に移動が可能となっている。なお、ここでは頭部回転量の半分の量で実際の移動が行える例を示したが、設定できる値はその限りではなく、例えば、頭部回転量に掛ける設定値を1/3にすることや1/10にすることも可能である。さらに、常に同様の設定値ではなく、例えばA地点に近いほど頭部回転量が多く、B地点に近づくほど頭部回転量が少なくてもバーチャルな移動を可能とするなど、頭部回転量に掛ける設定値を経路上で非線形にすることなども可能である。   FIG. 7 is a diagram for explaining the second embodiment. As shown in FIG. 7, in the second embodiment, when the user moves the omnidirectional images D and E in the second mode virtually by moving the head while viewing the image, If the head is rotated by θ1 / 2, it is possible to move from point A to point B. Similarly, if the head rotation of θ2 / 2 is performed, it is possible to move from point B to point C. Here, an example has been shown in which the actual movement can be performed with an amount that is half the amount of head rotation, but the value that can be set is not limited to this. It is also possible to make it 1/10. Furthermore, it is not always the same set value, for example, the head rotation amount is larger as it is closer to point A, and virtual movement is possible even if the head rotation amount is smaller as it is closer to point B. It is also possible to make the set value to be multiplied non-linear on the route.

以上のように構成された第2の実施形態における画像提供システム100によれば、第1の実施形態よりも使用者への負担を軽減することができる。例えば、頭の回転量とバーチャルな空間内での移動量を割り当てる際、対応付けを変えて設定しておく(例えばθ/2の頭の回転角でaメートル移動することができるなど)ことで、人は頭を必要以上に回転しないようにもでき、ユーザの疲労を軽減しつつ、バーチャルに移動しながら画像を見ることが可能になる。   According to the image providing system 100 in the second embodiment configured as described above, the burden on the user can be reduced more than in the first embodiment. For example, when assigning the amount of rotation of the head and the amount of movement in the virtual space, the association is changed and set (for example, it is possible to move a meter with a rotation angle of the head of θ / 2). A person can prevent his / her head from rotating more than necessary, and the user can see the image while moving virtually while reducing fatigue of the user.

(第3の実施形態)
第1の実施形態及び第2の実施形態では、ユーザ40は直線の道路41上をバーチャルに移動する例を示した。それに対して、第3の実施形態では、スタジアム観戦のような移動経路が直線ではない場所に適用する場合の構成について説明する。
図8は、第3の実施形態について説明するための図である。人が道路41上の3地点(A地点、B地点、C地点)に設置された全天球カメラ60−1、60−2、60−3が同期して配信する全天球画像を、予め全天球カメラを事前に移動させながら撮像した経路全天球画像D、Eを用いて、人がバーチャルに移動しながら見る場面を考える。
(Third embodiment)
In 1st Embodiment and 2nd Embodiment, the user 40 showed the example which moves on the straight road 41 virtually. On the other hand, in the third embodiment, a configuration in the case of applying to a place where the moving route is not a straight line, such as watching a stadium, will be described.
FIG. 8 is a diagram for explaining the third embodiment. An omnidirectional image that is distributed in synchronism by the omnidirectional cameras 60-1, 60-2, 60-3 installed at three points on the road 41 (A point, B point, C point) A scene in which a person sees a virtual moving image is considered by using the path omnidirectional images D and E taken while moving the omnidirectional camera in advance.

経路が直線でない以外は第1の実施形態と同様の条件であるが、本実施形態では、経路D、E上のそれぞれ1地点における人の状態を例として示している。本実施形態において人はフィールド62内にいる注目対象50を注目しながら移動するものとする。なお、経路全天球画像D、Eはあらかじめ撮影されているため、今現在の注目対象50の状態は撮影されない。ここでは、別のしかるべき技術(例えば、人物領域特定、人物領域切出し等)を使って、注目している被写体が経路の両端にある全天球カメラのうち近い方のカメラから切り抜いた画像を重畳して表示しているものとする。なお、地点A、B、Cではそれぞれ同期された画像を見ることができるが、移動経路D、Eでは“移動中”と割り切って、あらかじめ撮影された画像のみを見せるといった簡便化も可能とする。   The conditions are the same as those in the first embodiment except that the route is not a straight line. In this embodiment, the state of a person at one point on each of the routes D and E is shown as an example. In the present embodiment, it is assumed that the person moves while paying attention to the target object 50 in the field 62. In addition, since the route omnidirectional images D and E are taken in advance, the current state of the target object 50 is not taken. Here, using another appropriate technique (for example, human area identification, human area extraction, etc.), the image of the subject of interest cut out from the nearest camera among the omnidirectional cameras at both ends of the path. It is assumed that they are displayed superimposed. In addition, although synchronized images can be seen at the points A, B, and C, it is possible to simplify the display of only the pre-captured images by dividing “moving” on the travel paths D and E. .

以上のように構成された第3の実施形態における画像提供システム100によれば、状況設定により、第1の実施形態と同様の方法で人物が移動することなく、人物に対して臨場感を与えることが可能となる。   According to the image providing system 100 in the third embodiment configured as described above, the situation setting gives the person a sense of realism without moving in the same manner as in the first embodiment. It becomes possible.

(第4の実施形態)
第1の実施形態から第3の実施形態では、人がある地点から移動できる経路は1つ又は2つ(別の地点に移動するための経路は一つのみ)の構成を示した。それに対し、第4の実施形態では、経路が2つ以上ある場合の構成について説明する。
図9は、第4の実施形態について説明するための図である。図10は、第4の実施形態のような経路が2つ以上ある場合の経路リストの具体例を示す図である。なお、図10では、現在地点が“C”の場合のみ示している。また、図10における各値の構成については図2と同様であるため説明を省略する。
(Fourth embodiment)
In the first to third embodiments, a configuration in which a person can move from one point to one or two (only one route to move to another point) is shown. On the other hand, in the fourth embodiment, a configuration when there are two or more routes will be described.
FIG. 9 is a diagram for explaining the fourth embodiment. FIG. 10 is a diagram illustrating a specific example of a route list when there are two or more routes as in the fourth embodiment. FIG. 10 shows only when the current location is “C”. The configuration of each value in FIG. 10 is the same as that in FIG.

人はC地点にいるとする場合、人はA地点、B地点、D地点に行くためのG、I、Jという経路を選択し得る。この場合、例えば第2のモードに切り替える際、キーボードの複数のキーに移動したい経路を割り当てておき(この場合では、→キーと↑キー、またその両方の同時押し)、そのキーを押すことで経路を選択して第2のモードに移行できるようにすることや、行きたい経路の方向に視線を向けた上で第2のモード移行のキー操作を行う等が考えられる。また、第4の実施形態では、もう一つ本発明で起こりうる課題の解決例を示している。人が任意の地点で全天球画像を見ていた際、どの地点(または方向)に移動できるかが直感的に分かりづらい可能性もある。そのため、図9(B)のように、人が見ている全天球画像の中に移動可能な地点(経路を線などで表示しても可)を表示しておくといった手段が考えられる。この手段を取った場合、例えば人がA地点に目線を合わせた際にA地点が選択される、といったより直感的な実装も可能と考えられる。   If a person is at point C, the person can select the routes G, I, and J to go to point A, point B, and point D. In this case, for example, when switching to the second mode, a route to be moved is assigned to a plurality of keys on the keyboard (in this case, the → key and the ↑ key, or both of them are pressed simultaneously), and the key is pressed. It is conceivable to select a route so that the mode can be shifted to the second mode, or to perform a key operation for shifting to the second mode after directing the line of sight in the direction of the desired route. In the fourth embodiment, another example of solving a problem that can occur in the present invention is shown. When a person looks at the omnidirectional image at an arbitrary point, it may be difficult to intuitively understand which point (or direction) the user can move to. For this reason, as shown in FIG. 9B, a means of displaying a movable point (a route may be displayed with a line or the like) in the omnidirectional image viewed by a person is conceivable. When this measure is taken, it is considered that a more intuitive implementation is possible, for example, when a point is selected when a person puts his eyes on the point A.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

10…配信サーバ, 20…画像処理装置, 30…表示装置, 201…画像要求・受信部, 202…画像レンダリング部, 203…画像出力部, 204…モード決定部, 301…頭部方向検知部, 302…眼球方向検知部, 303…表示部 DESCRIPTION OF SYMBOLS 10 ... Distribution server, 20 ... Image processing apparatus, 30 ... Display apparatus, 201 ... Image request / reception part, 202 ... Image rendering part, 203 ... Image output part, 204 ... Mode determination part, 301 ... Head direction detection part, 302 ... Eye direction detection unit, 303 ... Display unit

Claims (8)

自装置の動作モードとして、各地点に設置された広範囲を撮像できる撮像装置で撮像された画像のうち選択された地点に設置された前記撮像装置によって撮像された画像を提供する第1のモードと、別の地点の前記撮像装置で撮像された画像に切り替えるために現在ユーザが見ている画像を撮像した撮像装置から移動先の撮像装置までの経路の画像を提供する第2のモードとのいずれのモードで動作するか決定するモード決定ステップと、
前記第2のモード時において、前記ユーザの頭の動作に応じて、前記経路の画像に対して画像処理を行う画像処理ステップと、
画像処理後の画像を前記ユーザが装着している表示装置に提供する画像出力ステップと、
を有する画像提供方法。
As the operation mode of the own device, a first mode for providing an image captured by the imaging device installed at a selected point among images captured by an imaging device capable of imaging a wide range installed at each point; Any one of the second mode for providing an image of a route from an imaging device that has captured an image currently viewed by the user to a destination imaging device in order to switch to an image captured by the imaging device at another point A mode determining step for determining whether to operate in the mode of
An image processing step of performing image processing on the image of the route according to the movement of the user's head in the second mode;
An image output step of providing an image after image processing to a display device worn by the user;
An image providing method.
ユーザが見ている画像を撮像した撮像装置から移動先の撮像装置までの経路の画像が予め前記撮像装置で移動しながら撮影された画像である、請求項1に記載の画像提供方法。   The image providing method according to claim 1, wherein an image of a route from an imaging device that captures an image viewed by a user to a destination imaging device is an image that is captured in advance while moving by the imaging device. 前記画像処理ステップにおいて、前記第2のモードで動作している場合、前記移動先まで提供する経路の画像を、前記ユーザの頭の回転量に応じて画像処理する、請求項1又は2に記載の画像提供方法。   3. The image processing step according to claim 1, wherein when operating in the second mode, an image of a route provided to the destination is subjected to image processing according to a rotation amount of the user's head. Image providing method. 前記画像処理ステップにおいて、前記頭の回転量が実空間で行う回転量と同じ回転量である、請求項3に記載の画像提供方法。   The image providing method according to claim 3, wherein, in the image processing step, the amount of rotation of the head is the same as the amount of rotation performed in real space. 前記画像処理ステップにおいて、前記頭の回転量が実空間で行う回転量に任意の関数を掛け合わせた回転量である、請求項3に記載の画像提供方法。   The image providing method according to claim 3, wherein in the image processing step, the rotation amount of the head is a rotation amount obtained by multiplying a rotation amount performed in real space by an arbitrary function. 前記画像処理ステップにおいて、前記ユーザの眼球の輻輳角から注視している注視対象の3次元座標を検出し、前記注視対象が前記ユーザの視界の中心に位置するように画像処理を行う、請求項1から5のいずれか一項に記載の画像提供方法。   The image processing step detects three-dimensional coordinates of a gaze target being watched from a convergence angle of the user's eyeball, and performs image processing so that the gaze target is positioned at the center of the user's field of view. The image providing method according to any one of 1 to 5. 自装置の動作モードとして、各地点に設置された広範囲を撮像できる撮像装置で撮像された画像のうち選択された地点に設置された前記撮像装置によって撮像された画像を提供する第1のモードと、別の地点の前記撮像装置で撮像された画像に切り替えるために現在ユーザが見ている画像を撮像した撮像装置から移動先の撮像装置までの経路の画像を提供する第2のモードとのいずれのモードで動作するか決定するモード決定部と、
前記第2のモード時において、前記ユーザの頭の動作に応じて、前記経路の画像に対して画像処理を行う画像処理部と、
画像処理後の画像を前記ユーザが装着している表示装置に提供する画像出力部と、
を備える画像提供装置。
As the operation mode of the own device, a first mode for providing an image captured by the imaging device installed at a selected point among images captured by an imaging device capable of imaging a wide range installed at each point; Any one of the second mode for providing an image of a route from an imaging device that has captured an image currently viewed by the user to a destination imaging device in order to switch to an image captured by the imaging device at another point A mode determination unit that determines whether to operate in the mode of
An image processing unit that performs image processing on the image of the route according to the movement of the user's head in the second mode;
An image output unit for providing an image after image processing to a display device worn by the user;
An image providing apparatus comprising:
自装置の動作モードとして、各地点に設置された広範囲を撮像できる撮像装置で撮像された画像のうち選択された地点に設置された前記撮像装置によって撮像された画像を提供する第1のモードと、別の地点の前記撮像装置で撮像された画像に切り替えるために現在ユーザが見ている画像を撮像した撮像装置から移動先の撮像装置までの経路の画像を提供する第2のモードとのいずれのモードで動作するか決定するモード決定ステップと、
前記第2のモード時において、前記ユーザの頭の動作に応じて、前記経路の画像に対して画像処理を行う画像処理ステップと、
画像処理後の画像を前記ユーザが装着している表示装置に提供する画像出力ステップと、
をコンピュータに実行させるためのコンピュータプログラム。
As the operation mode of the own device, a first mode for providing an image captured by the imaging device installed at a selected point among images captured by an imaging device capable of imaging a wide range installed at each point; Any one of the second mode for providing an image of a route from an imaging device that has captured an image currently viewed by the user to a destination imaging device in order to switch to an image captured by the imaging device at another point A mode determining step for determining whether to operate in the mode of
An image processing step of performing image processing on the image of the route according to the movement of the user's head in the second mode;
An image output step of providing an image after image processing to a display device worn by the user;
A computer program for causing a computer to execute.
JP2017137097A 2017-07-13 2017-07-13 Image providing method, image providing device and computer program Pending JP2019022014A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017137097A JP2019022014A (en) 2017-07-13 2017-07-13 Image providing method, image providing device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017137097A JP2019022014A (en) 2017-07-13 2017-07-13 Image providing method, image providing device and computer program

Publications (1)

Publication Number Publication Date
JP2019022014A true JP2019022014A (en) 2019-02-07

Family

ID=65353207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017137097A Pending JP2019022014A (en) 2017-07-13 2017-07-13 Image providing method, image providing device and computer program

Country Status (1)

Country Link
JP (1) JP2019022014A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015220595A (en) * 2014-05-16 2015-12-07 株式会社ユニモト Perimeter motion picture distribution system, perimeter motion picture distribution method, communication terminal device, and method and program for controlling the same
JP2016162426A (en) * 2015-03-05 2016-09-05 日本電信電話株式会社 Video presentation method and video presentation device
JP2016224823A (en) * 2015-06-02 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display, information processor, and display control method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015220595A (en) * 2014-05-16 2015-12-07 株式会社ユニモト Perimeter motion picture distribution system, perimeter motion picture distribution method, communication terminal device, and method and program for controlling the same
JP2016162426A (en) * 2015-03-05 2016-09-05 日本電信電話株式会社 Video presentation method and video presentation device
JP2016224823A (en) * 2015-06-02 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display, information processor, and display control method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YUN SUEN PAI ET.AL.: "Transparent Reality:Using Eye Gaze Focus Depth as Interaction Modality", PROCEEDINGS OF UIST 2016, JPN6020009146, 16 October 2016 (2016-10-16), JP, pages 171 - 172, ISSN: 0004305380 *

Similar Documents

Publication Publication Date Title
US10401960B2 (en) Methods and systems for gaze-based control of virtual reality media content
JP7042644B2 (en) Information processing equipment, image generation method and computer program
WO2017110632A1 (en) Information processing device and operation reception method
US20200035206A1 (en) Compositing an image for display
US11170580B2 (en) Information processing device, information processing method, and recording medium
WO2015122108A1 (en) Information processing device, information processing method and program
US9392248B2 (en) Dynamic POV composite 3D video system
US20190295285A1 (en) Information processing apparatus and image generating method
US11380021B2 (en) Image processing apparatus, content processing system, and image processing method
KR20200031083A (en) Information processing apparatus, information processing method, and program
JP2001008232A (en) Omnidirectional video output method and apparatus
JP7267753B2 (en) Control device, control method, and program
JP7378243B2 (en) Image generation device, image display device, and image processing method
US20180146218A1 (en) Free viewpoint picture data distribution system
KR20160096392A (en) Apparatus and Method for Intuitive Interaction
JP2019046291A (en) Information processing apparatus and image display method
JP2020068513A (en) Image processing apparatus and image processing method
JP5882517B1 (en) Content viewing system using head-mounted display
JP7207913B2 (en) Information processing device, information processing method and program
JP6518645B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
JP7339740B2 (en) IMAGE DISPLAY DEVICE, CONTROL METHOD AND PROGRAM FOR IMAGE DISPLAY DEVICE
JP6164780B2 (en) A moving image processing apparatus, a moving image processing method, a moving image processing program, and a moving image processing display system.
WO2019235106A1 (en) Heat map presentation device and heat map presentation program
US10345595B2 (en) Head mounted device with eye tracking and control method thereof
JP6208910B1 (en) Moving image processing apparatus, moving image processing system, moving image processing method, and moving image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200714