JP6544719B2 - Moving image generation system, moving image generation device, moving image generation method, and computer program - Google Patents

Moving image generation system, moving image generation device, moving image generation method, and computer program Download PDF

Info

Publication number
JP6544719B2
JP6544719B2 JP2014188099A JP2014188099A JP6544719B2 JP 6544719 B2 JP6544719 B2 JP 6544719B2 JP 2014188099 A JP2014188099 A JP 2014188099A JP 2014188099 A JP2014188099 A JP 2014188099A JP 6544719 B2 JP6544719 B2 JP 6544719B2
Authority
JP
Japan
Prior art keywords
key frame
frame images
image
user position
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014188099A
Other languages
Japanese (ja)
Other versions
JP2016062184A (en
Inventor
野間 春生
春生 野間
ロペス ガリバー ロベルト
ロペス ガリバー ロベルト
耕平 松村
耕平 松村
敬博 畑本
敬博 畑本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Original Assignee
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust filed Critical Ritsumeikan Trust
Priority to JP2014188099A priority Critical patent/JP6544719B2/en
Publication of JP2016062184A publication Critical patent/JP2016062184A/en
Application granted granted Critical
Publication of JP6544719B2 publication Critical patent/JP6544719B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、動画像生成に関する。   The present invention relates to moving image generation.

非特許文献1に示すように、世界中の様々な場所について撮影された静止画像を提供するサービスが知られている。   As shown in Non-Patent Document 1, there is known a service that provides still images taken of various places around the world.

GoogleStreetView,https://www.google.com/maps/views/streetview?gl=jp&hl=jaGoogle StreetView, https: // www. google. com / maps / views / streetview? gl = jp & hl = ja Hyperlapse,http://labs.teenanlax.com/project/hyperlapseHyperlapse, http: // labs. teenanlax. com / project / hyperlapse

ここで、ユーザに対して、仮想的な移動感覚を提示するために、移動に応じて変化する風景画像の動画をユーザに提示することが求められている。これを実現するためには、自動車に搭載されたカメラによって、自動車の移動中に撮影された動画像をユーザに提示することが考えられる。運転動作やトレッドミル走行などのユーザの行動に合わせて又は連動して予め撮影された動画像がユーザに提示されることで、ユーザは、撮影された場所を実際に訪れなくても、撮影された場所を移動しているような仮想的な移動感覚を得ることができる。   Here, in order to present a virtual sense of movement to the user, it is required to present the user with a moving image of a landscape image that changes according to the movement. In order to realize this, it is conceivable that a camera mounted on a car presents to the user a moving image taken during movement of the car. The user can be photographed without actually visiting the photographed location by presenting the user with a moving image captured in advance according to or in conjunction with the user's action such as driving operation or treadmill traveling. You can get a virtual sense of movement as if you are moving a place.

様々な場所における仮想的な移動感覚を提供するには、それらの場所を結ぶ全ての経路に沿って予め撮影された動画像が必要となる。しかし、動画像は静止画像に比べてデータ量が大きいため、全ての経路で予め撮影された動画像を準備し提供するのは、必ずしも容易ではない。   In order to provide virtual sense of movement in various places, moving images taken in advance along all the paths connecting those places are required. However, since the amount of data of a moving image is larger than that of a still image, it is not always easy to prepare and provide a moving image captured in advance along all paths.

前述のStreetViewように、世界中の様々な場所について撮影された静止画像を提供するサービスは既に存在している。また、Hyperlapse(非特許文献2参照)は、StreetViewにて提供されている各地の静止画を動画像のフレーム画像として用いることを提案している。近接する地点の静止画を連続的に提示することで、動画像となり、移動感覚を提示することができる。   As with the aforementioned StreetView, services already exist that provide still images taken of various locations around the world. In addition, Hyperlapse (see Non-Patent Document 2) proposes using still images of various places provided in StreetView as frame images of moving images. By continuously presenting still images at close points, a moving image can be obtained and motion sensation can be presented.

StreetViewでは、各地の静止画像が比較的広い撮影間隔で撮影されており、撮影間隔は、およそ11.5m間隔であるといわれている。比較的広い撮影間隔で撮影された静止画であっても、非常に高速に切り替えて表示すると、風景がスムーズに変化する動画の提示が可能となる。しかし、広い撮影間隔で撮影された静止画像を高速に切り替えると、非常に高速な移動感覚しか得られない。   In StreetView, still images of various places are taken at relatively wide shooting intervals, and it is said that the shooting intervals are approximately 11.5 m intervals. Even with still images shot at relatively wide shooting intervals, if they are switched at very high speed and displayed, it is possible to present a moving image in which the landscape changes smoothly. However, if the still images captured at a wide shooting interval are switched at high speed, only a very fast sense of movement can be obtained.

一方、人の歩行や走行程度の低速での移動感覚を提供しようとすると、断片的な移動風景となる。つまり、人の歩行スピード程度の移動速度にあわせて、広い撮影間隔で撮影された静止画像を低速で切り替えて表示すると、一つの静止画像が数秒にわたって表示されることになる。このため、移動速度が低速であると、ユーザには断片的に静止画像が提示されるだけであり、ユーザが得られる移動感覚の質が低下する。   On the other hand, when trying to provide a sense of movement at a low speed such as walking or running, it becomes a fragmented moving landscape. That is, one still image is displayed for several seconds when the still images shot at wide shooting intervals are switched at low speed and displayed according to the moving speed of the walking speed of a person or the like. For this reason, when the moving speed is low, the user is only presented with still images in fragments, and the quality of the moving sensation obtained by the user is degraded.

低速時における自然な移動感覚の提示には、動画像を構成するフレームとなる静止画像の撮影間隔を十分に狭くすることが考えられるが、自然な移動感覚が得られる程度に撮影間隔を狭くすると、撮影される静止画像の数が増加し、データ量が増加する。   Although it is possible to sufficiently narrow the shooting interval of the still image which is a frame constituting a moving image for presenting a natural sense of movement at low speed, if the shooting interval is narrowed to such an extent that a natural sense of movement can be obtained. The number of still images to be photographed increases, and the amount of data increases.

したがって、データ量の増加を抑制しつつ、提示される移動感覚を向上させることが望まれる。   Therefore, it is desirable to improve the presented sense of movement while suppressing an increase in the amount of data.

本発明のある態様は、複数の位置で撮影された複数のキーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する記憶部と、仮想的に移動するユーザ位置を取得する取得部と、前記記憶部に記憶された複数のキーフレーム画像の中から、前記撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択する選択部と、前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの前記撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得る補間処理部と、を備える動画像生成システムである。上記のキーフレーム画像は、全方位画像であるのが好ましい。   According to an aspect of the present invention, there is provided a storage unit that stores a plurality of key frame images captured at a plurality of positions in association with the imaging positions of each of the plurality of key frame images; And a selection unit for selecting, from among the plurality of key frame images stored in the storage unit, the plurality of key frame images whose photographing position is in the vicinity of the user position; And an interpolation processing unit for obtaining an interpolation frame image at the user position from at least one of the plurality of selected key frame images by interpolation processing based on the distance between each of the plurality of selected key frame images and the photographing position. And a moving image generation system. The above key frame image is preferably an omnidirectional image.

上記の態様において、前記動画像生成システムのうち記憶部を除く部分は、動画像生成装置を構成することができる。本発明の他の態様は、動画像生成装置として、コンピュータを機能させるためのコンピュータプログラムである。本発明の他の態様は、動画像生成システムとして、コンピュータを機能させるためのコンピュータプログラムであってもよい。本発明の他の態様は、前記コンピュータプログラムを記録した記録媒体である。   In the above aspect, the part excluding the storage unit in the moving image generation system can constitute a moving image generation apparatus. Another aspect of the present invention is a computer program for causing a computer to function as a moving image generation device. Another aspect of the present invention may be a computer program for causing a computer to function as a moving image generation system. Another aspect of the present invention is a recording medium recording the computer program.

本発明の更に他の態様は、仮想的に移動するユーザ位置を取得し、複数のキーフレーム画像の中から、撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択し、前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得ることを含む動画像生成方法である。   Still another aspect of the present invention acquires a virtually moving user position, selects, from among a plurality of key frame images, a plurality of the key frame images whose shooting positions are in the vicinity of the user position; Obtaining an interpolated frame image at the user position from at least one of the selected plurality of key frame images by interpolation processing based on a distance between the user position and the photographing position of each of the plurality of selected key frame images; It is a moving image generation method including.

本発明によれば、データ量の増加を抑制しつつ、提示される移動感覚を向上させることができる。   According to the present invention, it is possible to improve the presented sense of movement while suppressing an increase in the amount of data.

動画像生成システムの構成図である。It is a block diagram of a moving image generation system. 動画像生成処理を示すフローチャートである。It is a flowchart which shows a moving image generation process. アルファブレンディングによる補間フレーム画像生成の説明図である。It is an explanatory view of interpolation frame picture generation by alpha blending. α値の設定例である。It is an example of setting of alpha value. キーフレーム画像データベースの例である。It is an example of a key frame image database. 補間フレーム画像生成の他の例を示す説明図である。It is an explanatory view showing other examples of interpolation frame picture generation. 動画像生成処理を示すフローチャートである。It is a flowchart which shows a moving image generation process. 画像変形による補間フレーム画像生成の説明図である。It is an explanatory view of interpolation frame picture generation by image modification. 2次元移動空間を示す図である。It is a figure which shows a two-dimensional movement space. キーフレーム画像データベースの例である。It is an example of a key frame image database. 3次元移動空間を示す図である。It is a figure which shows three-dimensional movement space. キーフレーム画像データベースの例である。It is an example of a key frame image database. 画像取得手順を示すフローチャートである。It is a flowchart which shows an image acquisition procedure. キーフレーム画像取得の優先度の設定例である。It is an example of setting of the priority of key frame image acquisition.

以下、本発明の好ましい実施形態を、添付図面を参照しながら説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the attached drawings.

[1.動画像生成システム]
図1に示すように、動画像生成システム10は、サーバ20と、動画像生成装置30と、を備えている。サーバ20(記憶部;第1記憶装置)は、インターネットなどのネットワーク上に設けられており、動画像を構成するキーフレーム画像を記憶するキーフレーム画像データベース22を備えている。本実施形態において、サーバ20と動画像生成装置30とは分離した装置として設けられているが、両者を一体的な装置として設けても良い。つまり、動画像生成システム10は、図1に示す動画像生成装置30にキーフレーム画像データベース20を設けることで構成されていてもよい。また、動画像生成システム10は、図1に示すサーバ20に、処理装置40の機能を設けることで構成されていてもよい。図1に示す処理装置40の一部の機能がサーバ20に設けられていても良い。
[1. Moving image generation system]
As shown in FIG. 1, the moving image generation system 10 includes a server 20 and a moving image generation device 30. The server 20 (storage unit; first storage device) is provided on a network such as the Internet, and includes a key frame image database 22 that stores key frame images constituting a moving image. In the present embodiment, the server 20 and the moving image generation device 30 are provided as separate devices, but both may be provided as an integral device. That is, the moving image generation system 10 may be configured by providing the key frame image database 20 in the moving image generation apparatus 30 shown in FIG. 1. In addition, the moving image generation system 10 may be configured by providing the function of the processing device 40 in the server 20 illustrated in FIG. 1. The server 20 may be provided with a part of the functions of the processing device 40 illustrated in FIG. 1.

キーフレーム画像は、仮想的な走行環境を実現するための空間映像(動画像)を生成するために用いられる。本実施形態のキーフレーム画像は、実世界の各地点をカメラによって撮影した静止画像である。静止画像としては、通常のカメラで撮影した標準的な縦横比の画像であってもよし、パノラマ画像であってもよい。パノラマ画像としては全方位パノラマ画像(全天球画像)が好ましい。以下では、キーフレーム画像は、全方位パノラマ画像であるとして説明する。   The key frame image is used to generate a spatial image (moving image) for realizing a virtual traveling environment. The key frame image of the present embodiment is a still image obtained by photographing each point in the real world with a camera. The still image may be a standard aspect ratio image captured by a normal camera or may be a panoramic image. As a panoramic image, an omnidirectional panoramic image (all-sky image) is preferable. In the following, the key frame image is described as an omnidirectional panoramic image.

キーフレーム画像データベース22は、複数のキーフレーム画像と、複数のキーフレーム画像それぞれの撮影位置と、を対応付けて記憶している。キーフレーム画像データベース22は、動画像生成装置30によって検索キーとして位置(仮想的なユーザ位置)が指定されると、撮影位置が指定された位置の近傍である複数のキーフレーム画像を抽出する。キーフレーム画像データベース22は、抽出された複数のキーフレーム画像及びそれらの撮影位置を動画像生成装置30に与える。   The key frame image database 22 stores a plurality of key frame images and shooting positions of the plurality of key frame images in association with each other. When a position (virtual user position) is designated as a search key by the moving image generation apparatus 30, the key frame image database 22 extracts a plurality of key frame images in the vicinity of the position where the photographing position is designated. The key frame image database 22 provides the moving image generation apparatus 30 with the plurality of extracted key frame images and their shooting positions.

複数のキーフレーム画像の撮影間隔は、例えば、80cmから20m程度とすることができる。隣接する撮影位置における複数のキーフレーム画像には、少なくとも一部において同じ被写体が撮影されているのが好ましい。上記の程度の撮影間隔であると、人の歩行又は走行速度に合わせて、キーフレーム画像だけを切替表示すると、スムーズに変化する映像に見えないが、撮影間隔が比較的広いため、キーフレーム画像の数の増加を抑えて、サーバ20に蓄積されるデータ量を抑えることができる。また、サーバ20から処理装置40に与えられるキーフレーム画像数を抑えることができるため、サーバ20と処理装置40との間の通信トラフィックの増大も防止できる。   The photographing interval of the plurality of key frame images can be, for example, about 80 cm to 20 m. Preferably, the same subject is photographed at least in part in a plurality of key frame images at adjacent photographing positions. If only the key frame image is switched and displayed according to the walking or traveling speed of the person with the shooting interval of the above degree, it does not appear as a smoothly changing image, but the shooting interval is relatively wide. The amount of data accumulated in the server 20 can be suppressed by suppressing the increase in the number of Further, since the number of key frame images provided from the server 20 to the processing device 40 can be reduced, an increase in communication traffic between the server 20 and the processing device 40 can also be prevented.

画像生成装置30は、サーバ20に記憶されたキーフレーム画像を取得し、取得したキーフレーム画像から、ユーザ位置に応じた補間フレーム画像を生成する。画像生成装置30は、キーフレーム画像と補間フレーム画像を、動画像を構成するフレーム画像として用いる。本実施形態の動画像は、仮想的なユーザの移動に応じてユーザに提示される風景が変化する画像であり、実際の場所を訪れることなく、その場所を移動している移動感覚をユーザに提示する。   The image generation device 30 acquires a key frame image stored in the server 20, and generates an interpolated frame image according to the user position from the acquired key frame image. The image generation device 30 uses the key frame image and the interpolation frame image as frame images constituting a moving image. The moving image according to the present embodiment is an image in which the scenery presented to the user changes according to the movement of the virtual user, and the user can feel the movement feeling of moving the place without visiting the actual place. To present.

仮想的なユーザ位置が、キーフレーム画像の撮影位置に一致する場合には、キーフレーム画像がユーザに提示される。一方、仮想的なユーザ位置が、複数のキーフレーム画像それぞれの撮影位置の間に位置する場合には、補間フレーム画像がユーザに提示される。補間フレーム画像は、複数のキーフレーム画像それぞれの撮影位置と、現在のユーザ位置と、の位置関係の変化に応じて変化する。ユーザが複数のキーフレーム画像それぞれの撮影位置の間を移動する場合には、ユーザ位置に応じて変化する補間フレーム画像がユーザに提示される。これにより、ユーザは自然な移動感覚が得られる。   If the virtual user position matches the shooting position of the key frame image, the key frame image is presented to the user. On the other hand, when the virtual user position is located between the shooting positions of each of the plurality of key frame images, the interpolation frame image is presented to the user. The interpolation frame image changes in accordance with the change in the positional relationship between the shooting positions of each of the plurality of key frame images and the current user position. When the user moves between the shooting positions of each of the plurality of key frame images, an interpolation frame image that changes according to the user position is presented to the user. Thereby, the user can obtain a natural sense of movement.

画像生成装置30は、例えば、トレッドミル又はフィットネスバイク等のような運動器具に設けられる。この場合、画像生成装置30は、ユーザがトレッドミル上を走行する速度又はフィットネスバイクによって走行する速度に合わせて風景が変化する動画像を表示する。これにより、運動中のユーザに対して仮想的な移動感覚を提示することができ、運動に楽しさを付与することができる。   The image generation device 30 is provided in an exercise apparatus such as, for example, a treadmill or a fitness bike. In this case, the image generation device 30 displays a moving image in which the landscape changes in accordance with the speed at which the user travels on the treadmill or the speed traveled by the fitness bike. As a result, it is possible to present a virtual sense of movement to the user in motion, and to impart fun to motion.

画像生成装置30は、処理装置40と、表示装置50と、速度検出器52と、方向検出器54と、を備える。画像生成装置30では動画を生成するだけで動画像表示を行わない場合は、表示装置50を省略してもよい。また、不要であれば、速度検出器52及び方向検出器54の少なくともいずれか一方を省略してもよい。   The image generation device 30 includes a processing device 40, a display device 50, a speed detector 52, and a direction detector 54. When the image generation device 30 only generates a moving image and does not perform moving image display, the display device 50 may be omitted. Further, if unnecessary, at least one of the velocity detector 52 and the direction detector 54 may be omitted.

処理装置40は、プロセッサ41及びメモリ42を有するコンピュータによって構成されている。プロセッサ41は、ユーザ位置取得処理43、キーフレーム画像選択処理44、キーフレーム画像取得処理45、及び補間処理46などの処理を行う。メモリ42(記憶部;第2記憶装置)は、サーバ20から取得した複数のキーフレーム画像データベース22と、それらの撮影装置と、を対応付けたままで記憶する。   The processing device 40 is configured by a computer having a processor 41 and a memory 42. The processor 41 performs processing such as user position acquisition processing 43, key frame image selection processing 44, key frame image acquisition processing 45, and interpolation processing 46. The memory 42 (storage unit; second storage device) stores the plurality of key frame image databases 22 acquired from the server 20 and the imaging devices thereof in association with each other.

ユーザ位置取得処理43は、仮想的に移動するユーザ位置取得のための取得部としてプロセッサ41を機能させる処理である。キーフレーム画像選択処理44は、撮影位置が仮想的なユーザ位置の近傍であるキーフレーム画像を選択するための選択部としてプロセッサ41を機能させる処理である。キーフレーム画像取得処理45は、選択されたキーフレーム画像とその撮影位置をサーバ20から取得しメモリ42に記憶させるための画像取得部としてプロセッサ41を機能させる処理である。補間処理46は、選択された複数のキーフレーム画像の少なくとも一つからユーザ位置における補間フレーム画像を得る補間処理部としてプロセッサ41を機能させる処理である。   The user position acquisition process 43 is a process that causes the processor 41 to function as an acquisition unit for acquiring a virtually moving user position. The key frame image selection process 44 is a process that causes the processor 41 to function as a selection unit for selecting a key frame image whose shooting position is near the virtual user position. The key frame image acquisition process 45 is a process that causes the processor 41 to function as an image acquisition unit for acquiring the selected key frame image and the imaging position thereof from the server 20 and storing the image in the memory 42. The interpolation process 46 is a process that causes the processor 41 to function as an interpolation processing unit that obtains an interpolated frame image at a user position from at least one of the selected plurality of key frame images.

プロセッサ41は、処理装置40が有するコンピュータプログラムが実行されることにより、上記処理43,44,45,46を実行し、プロセッサ41(コンピュータ)を、上記の取得部、選択部、画像取得部、及び補間処理部として機能させる。   The processor 41 executes the processes 43, 44, 45, and 46 by executing the computer program of the processing device 40, and acquires the processor 41 (computer) as the acquisition unit, the selection unit, and the image acquisition unit. And function as an interpolation processing unit.

表示装置50は、生成された動画像を表示する。表示装置50は、例えば、平面ディスプレイ、複数のディスプレイを組み合わせてユーザの全周囲を覆う没入型ディスプレイ、ユーザの周囲を覆うドーム型ディスプレイ、及びユーザの頭部に装着されるヘッドマウントディスプレイなどのいずれかによって構成される。ヘッドマウントディスプレイのように、一度に表示可能な範囲が、全方位パノラマ画像の全範囲に比べて狭い表示装置50の場合、ユーザ頭部又は体の向きを仮想的な移動方向として検出するものであってもよい。表示装置50がヘッドマウントディスプレイである場合、ヘッドマウントディスプレイが検出する頭部の向きや動きに応じて表示装置50に表示される画像が生成される。   The display device 50 displays the generated moving image. The display device 50 may be, for example, a flat display, an immersive display that covers the entire periphery of the user by combining a plurality of displays, a dome-shaped display that covers the periphery of the user, and a head mounted display mounted on the head of the user. Composed of In the case of a display device 50 whose displayable range at one time is narrower than the entire range of the omnidirectional panoramic image as in a head mounted display, the orientation of the user's head or body is detected as a virtual movement direction. It may be. When the display device 50 is a head mounted display, an image to be displayed on the display device 50 is generated according to the direction and movement of the head detected by the head mounted display.

速度検出器52は、ユーザの仮想的な移動速度を検出する。トレッドミル又はフィットネスバイク等のように、ユーザの歩行又は走行を模した運動を行う運動器具に動画生成装置30が設けられている場合、運動器具が速度検出機能を有している。この場合、運動器具の速度検出機能を、本実施形態の速度検出器52として用いることができる。ユーザの移動速度が変化せず一定であることを前提とする場合又は処理装置40が移動速度を設定する場合、速度検出器52は不要である。また、ユーザの仮想的な移動に関し、ユーザが実際に歩行又は走行のような運動を行っている必要はなく、単に、ユーザが操作する操作器によって、ユーザの位置及び/又は移動速度が操作されるものであってもよい。この場合、ユーザが操作する操作器が、本実施形態の速度検出器52として機能する。   The speed detector 52 detects the virtual movement speed of the user. When the motion image generating apparatus 30 is provided in an exercise apparatus that simulates a user's walking or running, such as a treadmill or a fitness bike, the exercise apparatus has a speed detection function. In this case, the speed detection function of the exercise apparatus can be used as the speed detector 52 of the present embodiment. If it is assumed that the moving speed of the user does not change and is constant or if the processing device 40 sets the moving speed, the speed detector 52 is unnecessary. Also, with regard to virtual movement of the user, it is not necessary for the user to actually carry out exercise such as walking or running, but merely the user's position and / or movement speed is manipulated by the operation device operated by the user. It may be In this case, the operation device operated by the user functions as the speed detector 52 of the present embodiment.

方向検出器54は、仮想空間におけるユーザの仮想的な移動方向を検出する。方向検出器54は、例えば、ユーザの移動方向を手動で操作する操作器として構成することができる。また、方向検出器54は、移動方向選択のためにユーザ頭部又は体の向きを検出し、ユーザ頭部又は体の向きを仮想的な移動方向として検出するものであってもよい。表示装置50がヘッドマウントディスプレイである場合、ヘッドマウントディスプレイに設けられた姿勢センサを方向検出器54として用いることができる。トレッドミル又はフィットネスバイクのように一次元移動を前提とした運動器具の場合、方向検出器54は省略することができる。   The direction detector 54 detects the virtual movement direction of the user in the virtual space. The direction detector 54 can be configured, for example, as a controller that manually operates the moving direction of the user. In addition, the direction detector 54 may detect the direction of the user's head or body for movement direction selection, and may detect the direction of the user's head or body as a virtual movement direction. When the display device 50 is a head mounted display, an attitude sensor provided on the head mounted display can be used as the direction detector 54. In the case of exercise equipment that assumes one-dimensional movement, such as a treadmill or fitness bike, the direction detector 54 can be omitted.

[2.動画像生成処理]
[2.1 動画像生成処理の第1例]
図2は、処理装置40のプロセッサ41が実行する動画像生成処理の第1例を示している。この第1例では、仮想的な移動空間として1次元空間を想定する。第1例では、ユーザの移動方向は考慮しない。後述するように移動空間は2次元空間又は3次元空間であってもよい。
[2. Moving image generation process]
[2.1 First example of moving image generation processing]
FIG. 2 shows a first example of the moving image generation process performed by the processor 41 of the processing device 40. In this first example, a one-dimensional space is assumed as a virtual movement space. In the first example, the moving direction of the user is not considered. As described later, the movement space may be a two-dimensional space or a three-dimensional space.

処理装置40は、ユーザの速度vとユーザ位置Pxを取得する(ステップS11)。ユーザ速度vは、例えば、速度検出器52から与えられる。処理装置40は、ユーザ位置取得処理43を行って、ユーザ速度vからユーザ位置Pxを取得する。具体的には、処理装置40は、動画像生成処理の開始時点でのユーザの仮想的な初期位置(現在位置)と、取得した速度vと、に基づいて、初期位置からの移動量を算出し、ユーザの仮想的な移動後の現在位置(ユーザ位置)Pxを求める。ユーザ位置Pxは、処理装置40自体が設定するものであってもよい。   The processing device 40 acquires the velocity v of the user and the user position Px (step S11). The user velocity v is given from, for example, the velocity detector 52. The processing device 40 performs a user position acquisition process 43 to acquire the user position Px from the user velocity v. Specifically, the processing device 40 calculates the amount of movement from the initial position based on the virtual initial position (current position) of the user at the start of the moving image generation processing and the acquired velocity v. Then, the current position (user position) Px after the virtual movement of the user is obtained. The user position Px may be set by the processing device 40 itself.

処理装置40は、キーフレーム画像選択処理44及びキーフレーム画像取得処理45を実行する(ステップS12)。つまり、処理装置40は、キーフレーム画像選択処理44を行うことで、速度v及びユーザ位置Pxに基づき、サーバ20に記憶された複数のキーフレーム画像から、取得すべき複数のキーフレーム画像A,Bを選択する。取得すべき複数のキーフレーム画像は、撮影位置P,Pが、ユーザ位置Pxの近傍である複数の(2つの)キーフレーム画像A,Bである。図3に示すように、移動空間が1次元である場合、例えば、ユーザ位置Pxに最も近接する2つのキーフレーム画像A,Bが選択される。複数のキーフレーム画像の選択は、選択される画像A,Bの撮影位置P,Pの中間に、ユーザ位置Pxが位置するように行われる。 The processing device 40 executes key frame image selection processing 44 and key frame image acquisition processing 45 (step S12). That is, the processing device 40 performs the key frame image selection processing 44 to obtain a plurality of key frame images A, which should be acquired from the plurality of key frame images stored in the server 20 based on the velocity v and the user position Px. Select B. The plurality of key frame images to be acquired are a plurality of (two) key frame images A and B in which the shooting positions P A and P B are in the vicinity of the user position P x. As shown in FIG. 3, when the movement space is one-dimensional, for example, two key frame images A and B closest to the user position Px are selected. Selection of a plurality of keyframes image, the image A is selected, the shooting position P A of B, and an intermediate P B, user position Px is performed so as to be located.

本実施形態では、ユーザ位置Pxが同一であっても、ユーザの仮想的な移動速度vに応じて、異なるキーフレーム画像が選択される。この点ついては後述する。   In the present embodiment, even if the user position Px is the same, different key frame images are selected according to the virtual movement velocity v of the user. This point will be described later.

処理装置40は、キーフレーム画像取得処理45を行うことで、選択された複数のキーフレーム画像A,B及びそれらの撮影位置P,Pをサーバ20から取得する。取得した複数のキーフレーム画像A,B及びそれらの撮影位置P,Pは、メモリ42に記憶される。処理装置40は、メモリ42に記憶された複数のキーフレーム画像A,B及びそれらの撮影位置P,Pに基づいて、その後の処理を行う。 The processing device 40 performs the key frame image acquisition processing 45 to acquire the selected plurality of key frame images A and B and their photographing positions P A and P B from the server 20. The plurality of acquired key frame images A and B and their shooting positions P A and P B are stored in the memory 42. The processing device 40 performs the subsequent processing based on the plurality of key frame images A and B stored in the memory 42 and their shooting positions P A and P B.

処理装置40は、ユーザ位置Pxと、取得した複数のキーフレーム画像A,Bの撮影位置P,Pそれぞれとの距離d,dを算出する。距離d(第1距離d)は、ユーザ位置Pxと選択された第1キーフレーム画像Aとの距離であり、距離d(第2距離d)は、ユーザ位置Pxと選択された第2キーフレーム画像Bとの距離である。距離d,dは、サーバ20によって算出され、処理装置40に提供されてもよい。 The processing device 40 calculates distances d 1 and d 2 between the user position Px and the shooting positions P A and P B of the plurality of acquired key frame images A and B, respectively. The distance d 1 (first distance d 1 ) is the distance between the user position Px and the selected first key frame image A, and the distance d 2 (second distance d 2 ) is selected as the user position Px This is the distance to the second key frame image B. The distances d 1 and d 2 may be calculated by the server 20 and provided to the processing device 40.

処理装置40は、距離d,dに基づく補間処理46を行うことで、取得した複数のキーフレーム画像A,Bから、ユーザ位置Pxが仮想的な撮影位置(視点位置)となる補間フレーム画像Xを得る。第1例において、補間フレーム画像Xは、複数のキーフレーム画像A,Bのアルファブレンディング(第1処理)によって得られる。処理装置40は、ステップS13において、距離d,dに基づいて、アルファブレンディングに用いられるα値(透明度)を設定する。α値は、サーバ20によって設定されて、処理装置40に提供されても良い。また、アルファブレンディングも、サーバ20によって行われ、アルファブレンディングによって得られた補間フレーム画像Xが処理装置40に提供されても良い。 The processing device 40 performs an interpolation process 46 based on the distances d 1 and d 2 to obtain an interpolated frame in which the user position Px becomes a virtual shooting position (viewpoint position) from the plurality of acquired key frame images A and B. Obtain an image X. In the first example, the interpolation frame image X is obtained by alpha blending (first processing) of a plurality of key frame images A and B. In step S13, the processing device 40 sets an α value (transparency) used for alpha blending based on the distances d 1 and d 2 . The α value may be set by the server 20 and provided to the processing device 40. Also, alpha blending may be performed by the server 20, and the interpolated frame image X obtained by alpha blending may be provided to the processing device 40.

本実施形態では、第1キーフレーム画像Aに乗じられるα値としてαと、第2キーフレーム画像Bに乗じられるα値としてαと、が設定される。なお、本実施形態では、後述の式から明らかなように、α=1−αであるため、αを算出すればαが得られる。 In this embodiment, the alpha 1 as alpha value to be multiplied to the first key frame image A, and alpha 2 as alpha value to be multiplied to the second key frame image B, and is set. In addition, in this embodiment, since it is (alpha) 2 = 1- (alpha) 1 evidently from the below-mentioned formula, (alpha) 2 is obtained if (alpha) 1 is calculated.

各画像A,Bに乗じられるα値(α,α)それぞれは、0から1の値をとり、0のときに透明であり、1のときに不透明である。αは、ユーザ位置Pxと第1キーフレーム画像Aの撮影位置Pとの距離dが小さいほど、大きな値に設定される(透明度が低く設定される)。αも、ユーザ位置Pxと第2キーフレーム画像Bの撮影位置Pとの距離dが小さいほど、大きな値に設定される(透明度が低く設定される)。 Each of the α values (α 1 , α 2 ) to be multiplied to each of the images A and B takes a value of 0 to 1, and is transparent when 0 and opaque when 1. alpha 1, the more the distance d 1 between the imaging position P A of the user position Px and the first key frame image A is small, is the set to a large value (transparency is set low). alpha 2 also, as the distance d 2 between the imaging position P B of the user position Px and the second key frame image B is small, is the set to a large value (transparency is set low).

本実施形態において、α値(α,α)は、距離d,dの関数で表される。α,αは、例えば、以下の式で算出される。
In the present embodiment, the α value (α 1 , α 2 ) is expressed as a function of the distances d 1 and d 2 . α 1 and α 2 are calculated, for example, by the following equation.

図4(a)は、上記式によって設定されるα,αの値(縦軸)を示している。横軸は、仮想的なユーザ位置であり、位置Pから位置Pまでの位置範囲を示している。図4(a)において、αは、位置Pで最大(1)であり、位置Pに向かうにしたがって小さくなり、位置Pで最小(0)となる。αは、位置Pで最小(0)であり、位置Pに向かうにしたがって大きくなり、位置Pで最大(1)となる。 FIG. 4A shows the values (vertical axis) of α 1 and α 2 set by the above equation. The horizontal axis is a virtual user position indicates a position range from a position P A to the position P B. In FIG. 4 (a), alpha 1 is the maximum (1) at a position P A, decreases toward the position P B, the minimum (0) at the position P B. alpha 2 is the minimum (0) at the position P A, increases toward the position P B, the maximum (1) at a position P B.

ユーザ位置Pxのための補間フレーム画像Xは、以下の式のように、複数のキーフレーム画像A,Bそれぞれにα値(α,α)を乗じることで得られる。
The interpolation frame image X for the user position Px is obtained by multiplying each of the plurality of key frame images A and B by an α value (α 1 , α 2 ) as in the following equation.

図3に示すように、撮影位置の異なる複数のキーフレーム画像A,Bに、位置P付近にある建物が写っている場合、両キーフレーム画像A,Bの撮影位置P,Pが異なるため、両キーフレーム画像A,Bに写っている建物の大きさ及び位置は、多少異なる。このような複数のキーフレーム画像A,Bをアルファブレンディングによって重ね合わせることで、画像A,B中の建物(被写体)が二重にみえる画像となる。 As shown in FIG. 3, a plurality of key frames image A different photographing positions, to B, and that is reflected is building in the vicinity of the position P D, both the key frame image A, the shooting position P A of B, and P B Because they are different, the sizes and positions of the buildings shown in both key frame images A and B are somewhat different. By superimposing such a plurality of key frame images A and B by alpha blending, it becomes an image in which a building (object) in the images A and B appears double.

仮想的なユーザ位置Pxが位置Pから位置Pまで変化する場合において、ユーザ位置Pxが位置Pであれば、α=1,α=0となり、補間フレーム画像Xは第1キーフレーム画像Aと等しくなるため、ユーザには、画像Aに写っている建物の像だけが提示される。 In the case where a virtual user position Px is changed from the position P A to the position P B, if user position Px is positioned P A, α 1 = 1, α 2 = 0 , and the interpolation frame image X first key Since it is equal to the frame image A, only the image of the building shown in the image A is presented to the user.

図4(a)に示すように、ユーザ位置Pxが、位置Pと位置Pとの間であるが位置Pにより近い位置である場合、画像Aの透明度が相対的に低く画像Bの透明度が相対的に高くなるため(α>α)、画像Aに写っている建物の像が濃く、画像Bに写っている建物の像が薄い状態で、建物が二重にみえる。 As shown in FIG. 4 (a), the user position Px is, when it is between positions P B and the position P A is a position closer to the position P A, the transparency of the image A is relatively low image B Because the transparency is relatively high (α 1 > α 2 ), the building appears double in the state in which the image of the building shown in the image A is dark and the image of the building shown in the image B is thin.

ユーザ位置Pxが、位置Pと位置Pとの間であるが位置Pにより近い位置である場合、画像Aの透明度が相対的に高く画像Bの透明度が相対的に低くなるため(α<α)、画像Aに写っている建物の像が薄く、画像Bに写っている建物の像が濃い状態で、建物が二重にみえる。 User position Px is, when it is between positions P B and the position P A is a position closer to the position P B, since the transparency of the image A is relatively high transparency of the image B is relatively low (alpha 12 ), the image of the building shown in the image A is thin, and the image of the building shown in the image B is dark, and the building appears double.

ユーザ位置Pxが、位置Pであれば、α=0,α=1となり、補間フレーム画像Xは第2キーフレーム画像Bと等しくなるため、ユーザには、画像Bに写っている建物の像だけが提示される。 If the user position Px is the position P B , then α 1 = 0 and α 2 = 1, and the interpolation frame image X becomes equal to the second key frame image B. Only the image of is presented.

図4(a)に示すようにα,αが、ユーザ位置Pxの変化応じて連続的に変化することで、ユーザの移動に応じて補間フレーム画像Xも連続的に変化する。ユーザが位置Pと位置Pとの間を移動中は、ユーザの移動じて変化する補間フレーム画像Xが表示装置50に表示される。補間フレーム画像Xは、静止画像としてみると被写体が二重にみえることもある画像であるが、ユーザの移動に応じて被写体の二重化状態が変化するため、人の目には移動に伴う自然な風景の変化として写る。したがって、ユーザに対してスムーズな連続動画像として提示できる。 As shown in FIG. 4A, by continuously changing α 1 and α 2 according to the change of the user position Px, the interpolation frame image X also changes continuously according to the movement of the user. User is moving between the position P B and the position P A, interpolation frame images X which varies Ji movement of the user is displayed on the display device 50. Although the interpolation frame image X is an image in which the subject may appear doubled when viewed as a still image, the duplication state of the subject changes according to the movement of the user, so the eyes of the person are natural due to the movement. Pictured as a change in landscape. Therefore, it can be presented to the user as a smooth continuous moving image.

ユーザ位置Pxの変化応じたα,αの変化の仕方は、図4(a)に示す例に限られない。図4(a)のようにα,αが直線的に変化するのではなく、図4(a)に示すように曲線的に変化してもよい。図4(c)に示すように、ユーザ位置Pxが、位置Pから離れても、位置P近傍であれば、α1=1,α2=0を維持して、キーフレーム画像Aが表示されるようにし、同様に、ユーザ位置Pxが、位置Pから離れても、位置P近傍であれば、α1=0,α2=1を維持して、キーフレーム画像Bが表示されるようにしてもよい。キーフレーム画像A,Bに対してアルファブレンディング以外の画像処理(例えば、第2例及び/又は第3例に示す処理)も施される場合には、α,αを図4(d)のように変化させてもよい。 The manner of change of α 1 and α 2 according to the change of the user position Px is not limited to the example shown in FIG. As shown in FIG. 4A, α 1 and α 2 may not change linearly but may change in a curve as shown in FIG. 4A. As shown in FIG. 4 (c), the user position Px is, even away from the position P A, if the position P A near, [alpha] 1 = 1, while maintaining the [alpha] 2 = 0, the key frame image A is displayed the so that, similarly, the user position Px is, even away from the position P B, if the position P B vicinity, [alpha] 1 = 0, to maintain the [alpha] 2 = 1, as the key frame image B is displayed May be When image processing other than alpha blending (for example, the processing shown in the second example and / or the third example) is also applied to the key frame images A and B, α 1 and α 2 are set as shown in FIG. It may be changed as follows.

図4(c)のようにα値を設定すると、ユーザ位置Pxが、キーフレーム画像A,Bの撮影位置P,Pでなくてもそれらの近傍位置である場合には、キーフレーム画像A,Bを表示し、撮影位置P,Pからある程度離れてから補間フレーム画像を表示することができる。これにより、ユーザ位置が、撮影位置P,Pからわずかに離れただけでは、補間フレーム画像Xを生成する必要がなく、補間フレーム画像Xの生成のための時間的余裕が確保できる。 When an α value is set as shown in FIG. 4C, if the user position Px is near to the key frame images A and B, even if they are not the shooting positions P A and P B , the key frame image A and B can be displayed, and the interpolation frame image can be displayed after some distance from the imaging positions P A and P B. As a result, it is not necessary to generate the interpolation frame image X if the user position is only slightly away from the photographing positions P A and P B, and a time margin for generation of the interpolation frame image X can be secured.

図5は、ユーザの仮想的な移動速度vが低速である場合(例えば、歩いている場合)及び高速である場合(例えば、走っている場合)において、キーフレーム画像選択処理44によって、選択されるキーフレーム画像を示している。ユーザ位置Pxが、図3に示す位置(位置Pと位置Pの間の位置)である場合において、低速であれば、キーフレーム画像A,Bが選択され、高速であれば、キーフレーム画像A,Cが選択される。 FIG. 5 is selected by the key frame image selection process 44 when the virtual movement speed v of the user is low (eg, walking) and high (eg, running). Show key frame images. User position Px is in the case where the position shown in FIG. 3 (a position between the positions P A and the position P B), if slow, the key frame images A, B is selected, if fast, keyframes Images A and C are selected.

移動速度vが低速であると比較的狭い撮影間隔で撮影された複数のキーフレーム画像から補間フレーム画像を生成したほうが、自然な移動感覚が得られる。一方、移動速度vが高速であると、比較的広い撮影間隔で撮影された複数のキーフレーム画像を用いても、自然な移動感覚を維持できる。例えば、図3において隣接する撮影位置同士の撮影間隔(キーフレーム間隔)を1とすると、移動速度vが所定の閾値よりも小さい場合、選択される複数のキーフレーム画像のキーフレーム間隔が1になるように、位置P,Pで撮影されたキーフレーム画像A,Bが選択される。また、移動速度が所定の閾値よりも大きい場合、選択される複数のキーフレーム画像のキーフレーム間隔が2になるように、位置P,Pで撮影されたキーフレーム画像A,Cが選択される。 If the moving speed v is low, a more natural feeling of movement can be obtained if the interpolation frame image is generated from a plurality of key frame images captured at relatively narrow shooting intervals. On the other hand, when the moving speed v is high, a natural feeling of movement can be maintained even using a plurality of key frame images photographed at a relatively wide photographing interval. For example, assuming that the shooting interval (key frame interval) between adjacent shooting positions in FIG. 3 is 1, if the moving speed v is smaller than a predetermined threshold, the key frame intervals of a plurality of key frame images selected are 1 so that the position P A, key taken with P B frame images A, B are selected. In addition, when the moving speed is larger than a predetermined threshold, the key frame images A and C captured at the positions P A and P c are selected such that the key frame interval of the plurality of key frame images to be selected becomes two. Be done.

[2.2 動画像生成の第2例]
補間フレーム画像Xを生成する際には、キーフレーム画像A,Bそのものに対してアルファブレンディングするのではなく、距離d,dに応じた画像処理(第2処理)が行われたキーフレーム画像(補正後キーフレーム画像)に対してアルファブレンディングを行っても良い。距離d,dに応じた画像処理(第2処理)は、アルファブレンディング以外の画像処理によって、ユーザ位置Pxと撮影位置P,Pとの位置関係に応じて、キーフレーム画像A,Bを強調化したり、非強調化(ぼかしなど)をしたりする処理である。
[2.2 Example of Moving Image Generation]
When generating the interpolation frame image X, a key frame for which image processing (second processing) according to the distances d 1 and d 2 is performed instead of alpha blending on the key frame images A and B themselves Alpha blending may be performed on an image (key frame image after correction). The image processing (second processing) corresponding to the distances d 1 and d 2 is the key frame image A, according to the positional relationship between the user position Px and the photographing positions P A and P B by image processing other than alpha blending. It is a process of emphasizing B or de-emphasizing (such as blurring).

例えば、図6に示すように、ユーザ位置Pxが、二つの撮影位置P,Pのうち、撮影位置Pの方に近く、撮影位置Pからは遠い場合、処理装置40は、キーフレーム画像Aに対して強調化処理を行って人の目により強く提示されるようにした補正後キーフレーム画像A1を生成し、キーフレーム画像Bに対して非強調化処理を行って人の目により弱く提示されるようにした補正後キーフレーム画像B1を生成する。図6には、人の目に被写体である建物をより強く提示する補正後キーフレーム画像A1と、建物をより弱く提示する補正後キーフレーム画像B1を示している。補正後キーフレーム画像A1,B1がアルファブレンディングされることで、両画像A1,B1に設定される透明度の違いに加えて、被写体自体の強調・非強調によって、距離d,dの違いに応じた良好な移動感覚をユーザに提示できる。 For example, as shown in FIG. 6, the user position Px is, of the two imaging position P A, P B, close towards imaging position P A, if far from the shooting location P B, processor 40, key Enhancement processing is performed on the frame image A to generate a corrected key frame image A1 that is more strongly presented to the human eye, and de-emphasis processing is performed on the key frame image B to generate human eye To generate a corrected key frame image B1 which is weakly presented. FIG. 6 shows an after-correction key frame image A1 that presents a building that is a subject of human eyes more strongly and an after-correction key frame image B1 that presents a building weaker. By alpha blending the key frame images A1 and B1 after correction, in addition to the difference in transparency set to both images A1 and B1, the difference between the distances d 1 and d 2 is due to the enhancement / de-emphasis of the subject itself. The user can be presented with a good sense of movement according to the situation.

強調化処理及び非強調化処理は、例えば、画像の明るさ調整処理、コントラスト調整、解像度調整、増減色処理などから選択される一又は複数の処理によって行われる。増減色処理とは、白黒画像をカラー画像にするなどの画像中の色を増加させる増色処理と、カラー画像を白黒画像にするなどの画像中の色を減少させる減色処理と、の総称である。増色処理によって画像を強調化でき、減色処理によって画像を非強調化できる。強調化処理は、エッジ強調処理によっても行うことができ、非強調化処理はぼかし処理によっても行うことができる。   The enhancement process and the de-emphasis process are performed by one or more processes selected from, for example, the brightness adjustment process of the image, the contrast adjustment, the resolution adjustment, the increase / decrease color process, and the like. Color increase / decrease processing is a generic term for color increase processing to increase the color in an image, such as turning a black and white image into a color image, and color reduction processing to reduce a color in an image, such as changing a color image to a black and white image. is there. The color enhancement process can enhance the image, and the color reduction process can de-emphasize the image. The emphasizing process can also be performed by edge emphasizing process, and the de-emphasis process can also be performed by blurring process.

図6に示す補正後キーフレーム画像A1は、キーフレーム画像Aに対して、明るさを高くし、コントラストを強調し、解像度を高くすることで得たものであり、補正後キーフレーム画像B1は、キーフレーム画像Bに対して、明るさを低くし、コントラストを弱め、解像度を低くすることで得たものである。強調化処理及び非強調化処理は、双方が行われる必要はなく、一方だけが行われても良い。   The corrected key frame image A1 shown in FIG. 6 is obtained by increasing the brightness, enhancing the contrast, and increasing the resolution with respect to the key frame image A, and the corrected key frame image B1 is The key frame image B is obtained by reducing the brightness, reducing the contrast, and reducing the resolution. The emphasizing process and the de-emphasis process need not both be performed, but only one may be performed.

第2例において、特に説明をしなかった点については、第1例と同様である。   The second example is the same as the first example in that it is not particularly described.

[2.3 動画像生成の第3例]
補間フレーム画像Xを生成する補間処理は、アルファブレンディングに限られない。補間フレーム画像Xは、距離d,dに基づいて、選択された複数のキーフレーム画像の一つに対する画像処理(画像変形)を行うことで、生成されてもよい。
[2.3 Example of Moving Image Generation]
The interpolation processing for generating the interpolation frame image X is not limited to alpha blending. The interpolation frame image X may be generated by performing image processing (image deformation) on one of the selected plurality of key frame images based on the distances d 1 and d 2 .

図7は、第3例に係る動画像生成処理を示している。図7において、ステップS21及びS22は、図2のステップS11及びS12と同様である。処理装置40は、ステップS23において、選択された複数のキーフレーム画像A,B中の個々の被写体を認識する画像認識処理を行う。処理装置40は、ステップS24において、ユーザ位置Pxに最も近いキーフレーム画像中の個々の被写体を、距離d,dに基づいて変形させて、補間フレーム画像Pxを生成する。 FIG. 7 shows moving image generation processing according to the third example. Steps S21 and S22 in FIG. 7 are the same as steps S11 and S12 in FIG. In step S23, the processing device 40 performs an image recognition process for recognizing an individual subject in the selected plurality of key frame images A and B. In step S24, the processing device 40 deforms the individual objects in the key frame image closest to the user position Px based on the distances d 1 and d 2 to generate an interpolated frame image Px.

図8に示すように、キーフレーム画像A中の建物が比較的小さく映り、キーフレーム画像B中の建物が比較的大きく映っており、ユーザ位置Pxは、キーフレーム画像Aの撮影位置PAに近い位置にあるものとする。この場合、処理装置40は、キーフレーム画像Aにおける建物の大きさ(及び位置)と、キーフレーム画像Bにおける建物の大きさ(及び位置)と、距離d,dと、から、ユーザ位置Pxにおける建物の大きさ(及び位置)を求める。この処理を、キーフレーム画像において認識される全ての被写体について行う。これに基づいて、処理装置40は、ユーザ位置Pxにより近い撮影位置Pで撮影されたキーフレーム画像Aをユーザ位置Pxにおける風景に変換するための変換パラメータを得て、その変換パラメータに基づいて、キーフレーム画像Aを画像変換することで、補間フレーム画像Xを得る。 As shown in FIG. 8, the buildings in the key frame image A appear relatively small, the buildings in the key frame image B appear relatively large, and the user position Px is close to the shooting position PA of the key frame image A. It shall be in position. In this case, the processing device 40 determines the position of the user from the size (and position) of the building in the key frame image A, the size (and position) of the building in the key frame image B, and the distances d 1 and d 2. Determine the size (and position) of the building at Px. This process is performed on all objects recognized in the key frame image. Based on this, the processing device 40 obtains conversion parameters for converting the key frame image A captured at the shooting position P A closer to the user position P x into a landscape at the user position P x, and based on the conversion parameters The key frame image A is subjected to image conversion to obtain an interpolated frame image X.

[2.4 2次元空間におけるキーフレーム画像の選択]
これまでの説明では、仮想的な移動空間が1次元空間であるものとして説明したが、仮想的な移動空間は、図9に示すように2次元であってもよい。サーバ20のキーフレーム画像データベース22には、2次元空間の各地点P〜Pにて撮影されたキーフレーム画像A〜Hが、それらの撮影位置P〜Pと対応付けられて記憶されている。
[2.4 Selection of keyframe image in 2D space]
Although the virtual moving space has been described as being a one-dimensional space in the above description, the virtual moving space may be two-dimensional as shown in FIG. In the key frame image database 22 of the server 20, key frame images A to H photographed at points P A to P H in a two-dimensional space are stored in association with their photographing positions P A to P H It is done.

図9では、ユーザ位置Pxが、位置P,P,P,Pに囲まれた位置にあるものとする。図9において、縦方向及び横方向において隣接する撮影位置同士の撮影間隔(キーフレーム間隔)を1とする。キーフレーム画像選択処理44では、例えば、ユーザ位置Pxからの距離が1以下である複数のキーフレーム画像P,P,Pが選択される。選択されるキーフレーム画像の数は、4以上でもよいし、場合によっては2でもよい。 In FIG. 9, it is assumed that the user position Px is at a position surrounded by the positions P A , P B , P C , and P D. In FIG. 9, a shooting interval (key frame interval) between shooting positions adjacent in the vertical direction and the horizontal direction is set to 1. In the key frame image selection processing 44, for example, a plurality of key frame images P A , P B and P C whose distance from the user position Px is 1 or less are selected. The number of key frame images selected may be four or more, or two in some cases.

3つのキーフレーム画像A,B,Cが選択された場合、それぞれの画像A、B,Cに乗じられるα値(α,α,α)は、ユーザ位置Pxから各画像A,B,Cの撮影位置P,P,Pまでの距離d,d,dの関数で表される。α,α,αは、例えば、以下の式で算出される。
When three key frame images A, B, C are selected, the α values (α 1 , α 2 , α 3 ) by which the respective images A, B, C are multiplied are the images A, B from the user position Px. , C, which is a function of the distances d 1 , d 2 , d 3 to the shooting positions P A , P B , P C. α 1 , α 2 and α 3 are calculated, for example, by the following equation.

ユーザ位置Pxのための補間フレーム画像Xは、以下の式のように、複数のキーフレーム画像A,B,Cそれぞれにα値(α,α,α)を乗じることで得られる。
The interpolation frame image X for the user position Px is obtained by multiplying each of a plurality of key frame images A, B and C by an α value (α 1 , α 2 , α 3 ) as in the following equation.

移動空間が2次元である場合においても、移動速度vが所定の閾値よりも小さい場合、選択される複数のキーフレーム画像のキーフレーム間隔が1になるように、位置P,P,Pで撮影されたキーフレーム画像A,B,Cが選択される。また、移動速度が所定の閾値よりも大きい場合、選択される複数のキーフレーム画像のキーフレーム間隔が2になるように、位置P,PE,,P撮影されたキーフレーム画像A,E,F,Gが選択される(図10参照)。 Even when the moving space is two-dimensional, when the moving speed v is smaller than a predetermined threshold, the positions P A , P B , P are set so that the key frame intervals of the plurality of key frame images to be selected become one. shot key frame image A with C, B, C are selected. In addition, when the moving speed is larger than a predetermined threshold, the key frame images captured at positions P A , P E, P F , and P G so that the key frame intervals of the plurality of key frame images to be selected become two. A, E, F, G are selected (see FIG. 10).

[2.5 3次元空間におけるキーフレーム画像の選択]
仮想的な移動空間は、図11に示すように3次元であってもよい。サーバ20のキーフレーム画像データベース22には、3次元空間の各地点P〜Pにて撮影されたキーフレーム画像A〜Hが、それらの撮影位置P〜Pと対応付けられて記憶されている。
[2.5 Selection of Keyframe Image in 3D Space]
The virtual movement space may be three-dimensional as shown in FIG. In the key frame image database 22 of the server 20, key frame images A to H captured at points P A to P H in a three-dimensional space are stored in association with their shooting positions P A to P H It is done.

図11では、ユーザ位置Pxが、位置P〜Pに囲まれた位置にあるものとする。図13において、3次元の各方向において隣接する撮影位置同士の撮影間隔(キーフレーム間隔)を1とする。キーフレーム画像選択処理44では、例えば、ユーザ位置Pxからの距離が1以下である複数のキーフレーム画像P,P,P,P選択される。選択されるキーフレーム画像の数は、5以上でもよいし、場合によっては2又は3でもよい。 In FIG. 11, it is assumed that the user position Px is at a position surrounded by the positions P A to P H. In FIG. 13, an imaging interval (key frame interval) between imaging positions adjacent in each of three-dimensional directions is set to 1. In the key frame image selection processing 44, for example, a plurality of key frame images P A , P B , P C , and P F whose distances from the user position Px are one or less are selected. The number of key frame images selected may be five or more, or two or three in some cases.

3つのキーフレーム画像A,B,C,Fが選択された場合、それぞれの画像A、B,C,Fに乗じられるα値(α,α,α,α)は、ユーザ位置Pxから各画像A,B,CFの撮影位置P,P,P,Pまでの距離d,d,d,αの関数で表される。α,α,α,αは、例えば、以下の式で算出される。
When three key frame images A, B, C, F are selected, the α values (α 1 , α 2 , α 3 , α 4 ) by which the respective images A, B, C, F are multiplied are the user position It is expressed as a function of distances d 1 , d 2 , d 3 and α 4 from Px to shooting positions P A , P B , P C and P F of the respective images A, B, C and F. α 1 , α 2 , α 3 and α 4 are calculated, for example, by the following equation.

ユーザ位置Pxのための補間フレーム画像Xは、以下の式のように、複数のキーフレーム画像A,B,C,Fそれぞれにα値(α,α,α,α)を乗じることで得られる。
The interpolation frame image X for the user position Px multiplies each of a plurality of key frame images A, B, C, and F by an α value (α 1 , α 2 , α 3 , α 4 ) as in the following equation It is obtained by

移動空間が3次元である場合においても、移動速度vに応じて、選択されるキーフレーム画像を異ならせることができる。   Even in the case where the movement space is three-dimensional, the key frame images to be selected can be made different according to the movement speed v.

[3.サーバからの画像取得処理]
処理装置40は、ユーザの移動に応じて、補間フレーム画像Xを高速に生成する必要がある。このため、処理装置40は、ユーザ位置Pxが得られてから補間フレーム画像Xの生成に用いられるキーフレーム画像をサーバ20から取得するのではなく、現在のユーザ位置Px等に基づいて、将来必要となるキーフレーム画像を先取り的に取得しても良い。
[3. Image acquisition process from server]
The processing device 40 needs to generate the interpolation frame image X at high speed according to the movement of the user. For this reason, the processing device 40 does not acquire from the server 20 a key frame image used to generate the interpolation frame image X after the user position Px is obtained, but based on the current user position Px, etc. Alternatively, key frame images to be obtained may be acquired in advance.

図13は、キーフレーム画像の先取り的な取得のための処理手順を示している。処理装置31は、動画生成処理の開始に伴って、ユーザの初期位置Pを取得すると(ステップS31)、その位置P周辺が撮影位置である複数のキーフレーム画像の取得を開始する(ステップS32)。 FIG. 13 shows a processing procedure for proactive acquisition of key frame images. When acquiring the user's initial position P 0 with the start of the moving image generation processing (step S 31), the processing device 31 starts acquisition of a plurality of key frame images whose positions around the position P 0 are shooting positions (step S 31) S32).

その後、処理装置40は、移動するユーザの移動速度、ユーザ位置Px、移動方向を取得すると(ステップS33)、移動速度、ユーザ位置Px、移動方向に基づいて、キーフレーム画像取得のための優先度を設定する(ステップS34)。処理装置40は、設定された優先度に従って順序で、現在のユーザ位置Pxの周辺が撮影位置である複数のキーフレーム画像をサーバ20から取得する。   Thereafter, when the processing device 40 acquires the moving speed of the moving user, the user position Px, and the moving direction (step S33), the priority for key frame image acquisition is obtained based on the moving speed, the user position Px, and the moving direction. Are set (step S34). The processing device 40 acquires, from the server 20, a plurality of key frame images whose shooting positions are around the current user position Px in the order according to the set priority.

図14は、優先度の設定例を示している。図14において、ユーザ位置Pxは、位置Pと位置Pの間にあり、位置PBの方が近い。ユーザの移動方向は、図の左から右に向かう方向である。この場合、処理装置40がサーバ20から最も有線して取得すべきキーフレーム画像は、ユーザ位置Pxに最も近い撮影位置Pのキーフレーム画像Bである。ユーザの移動速度が低速の場合、ユーザ移動方向にみてユーザ位置Pxから遠ざかるにつれて、優先度が低下する。ユーザ位置Pxに最も近い撮影位置Pからみてユーザ移動方向とは逆方向にある撮影位置Pのキーフレーム画像Aの優先度は相対的に低くなる。 FIG. 14 shows an example of setting the priority. 14, the user position Px is between the position P C and the position P B, close better position PB. The moving direction of the user is from the left to the right in the figure. In this case, the key frame image processing apparatus 40 is to be acquired by most wired from the server 20 is a key frame image B closest photographing position P B to the user position Px. When the moving speed of the user is low, the priority decreases as the user moves away from the user position Px in the moving direction of the user. Priority keyframe image A photographing position P A is the user moving direction in the opposite direction as viewed from the closest photographing position P B to the user position Px is relatively low.

ユーザの移動速度が高速の場合は、ユーザ移動方向にみてユーザ位置Pxから遠ざかるにつれて、優先度が低下するが、撮影位置PBからみて、キーフレーム間隔が2の倍数である撮影位置P,Pのキーフレーム画像D,Fの優先度は、それ以外のキーフレーム画像C,E,Gよりも相対的に高くなる。 When the moving speed of the user is high, the priority decreases as the user moves away from the user position Px in the moving direction of the user, but the shooting positions P D and P where the key frame interval is a multiple of 2 as viewed from the shooting position PB F keyframe image D, the priority of F is the other key frame image C, E, relatively higher than G.

優先度を決定する際には、移動速度及び移動方向の少なくともいずれか一方を省略してもよい。   When determining the priority, at least one of the moving speed and the moving direction may be omitted.

[4.動画像生成システムの応用例]
動画像生成システム10は、トレッドミルなどの運動器具とともに用いられるほか、場所案内などに用いることもできる。
[4. Application example of moving image generation system]
The moving image generation system 10 is used together with exercise equipment such as a treadmill, and can also be used for location guidance and the like.

[5.付記]
本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。
[5. Appendix]
The present invention is not limited to the above embodiment, and various modifications are possible.

10 動画像生成システム
20 サーバ(記憶部;第1記憶装置)
30 動画像生成装置
40 処理装置
41 プロセッサ
42 メモリ(記憶部;第2記憶装置)
43 ユーザ位置取得処理(取得部)
44 キーフレーム画像選択処理(選択部)
45 キーフレーム画像取得処理(画像取得部)
46 補間処理(補間処理部)
50 表示装置
52 速度検出器
54 方向検出器
X 補間フレーム画像
A,B キーフレーム画像
Px ユーザ位置
,P 撮影位置
10 Moving image generation system 20 server (storage unit; first storage device)
30 moving image generation device 40 processing device 41 processor 42 memory (storage unit; second storage device)
43 User position acquisition process (acquisition unit)
44 Key frame image selection processing (selection section)
45 Key frame image acquisition processing (image acquisition unit)
46 Interpolation processing (Interpolation processing unit)
50 display device 52 speed detector 54 direction detector X interpolation frame image A, B key frame image Px user position P A , P B shooting position

Claims (10)

複数の位置で撮影された複数のキーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する記憶部と、
仮想的に移動するユーザ位置を取得する取得部と、
前記記憶部に記憶された複数のキーフレーム画像の中から、前記撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択する選択部と、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの前記撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得る補間処理部と、を備え、
前記補間処理は、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの前記撮影位置との距離に基づいて設定された透明度で、選択された複数の前記キーフレーム画像を重ね合わせる第1処理と、
選択された複数の前記キーフレーム画像の少なくとも一つに対して、前記ユーザ位置と前記撮影位置との距離に応じた画像強調化又は画像非強調化のための第2処理と、を含む動画像生成システム。
A storage unit that stores a plurality of key frame images shot at a plurality of positions in association with shooting positions of each of the plurality of key frame images;
An acquisition unit that acquires a virtually moving user position;
A selection unit that selects, from among the plurality of key frame images stored in the storage unit, the plurality of key frame images whose photographing position is near the user position;
An interpolation frame image at the user position is obtained from at least one of the selected plurality of key frame images by interpolation processing based on the distance between the user position and the photographing position of each of the plurality of selected key frame images. And an interpolation processing unit,
The interpolation process is
A first process of overlapping the plurality of selected key frame images with the transparency set based on the distance between the user position and each of the plurality of selected key frame images;
A moving image including a second process for image enhancement or image de-emphasis according to the distance between the user position and the shooting position for at least one of the plurality of selected key frame images Generation system.
前記透明度は、前記ユーザ位置と前記撮影位置との距離が小さい前記キーフレーム画像ほど低く設定される
請求項1に記載の動画像生成システム。
The moving image generation system according to claim 1, wherein the transparency is set lower for the key frame image in which the distance between the user position and the photographing position is smaller.
前記第2処理は、明るさ調整処理、コントラスト調整処理、ぼかし処理、エッジ強調処理、解像度調整、減色処理、及び増色処理からなる群から選択される一又は複数の処理を含む
請求項又はに記載の動画像生成システム。
The second processing is brightness adjustment processing, contrast adjustment processing, blur processing, edge enhancement processing, resolution adjustment, color reduction, and claim 1 or comprising one or more treatment selected from the group consisting of increasing color processing The moving image generation system as described in 2 .
前記選択部は、選択される複数の前記キーフレーム画像の撮影位置間距離が、ユーザの仮想的な移動速度に応じて異なるように、複数の前記キーフレーム画像を選択する
請求項1〜のいずれか1項に記載の動画像生成システム。
The selection unit includes a photographing position distance between the plurality of the key frame image to be selected, varied according to a virtual moving speed of the user, according to claim 1 to 3 for selecting a plurality of said key frame image A moving image generation system according to any one of the items.
前記ユーザ位置及び前記撮影位置は、一次元空間における位置、二次元空間における位置、又は三次元空間における位置である
請求項1〜のいずれか1項に記載の動画像生成システム。
The moving image generation system according to any one of claims 1 to 4 , wherein the user position and the imaging position are a position in a one-dimensional space, a position in a two-dimensional space, or a position in a three-dimensional space.
前記記憶部は、
複数の前記キーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する第1記憶装置と、
前記第1記憶装置から複数の前記キーフレーム画像及びそれらの撮影位置を取得して、前記第1記憶装置における数よりも少ない数の複数の前記キーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する第2記憶装置と、
を含み、
前記選択部は、前記第2記憶装置に記憶された複数のキーフレーム画像の中から、前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択するよう構成され、
前記第2記憶装置は、前記ユーザ位置及びユーザの仮想的な移動方向に基づいて決定される優先度に従って、前記第1記憶装置に記憶された複数の前記キーフレーム画像及びそれらの撮影位置を取得する
請求項1〜のいずれか1項に記載の動画像生成システム。
The storage unit is
A first storage device that stores a plurality of key frame images and shooting positions of the plurality of key frame images in association with each other;
The plurality of key frame images and their shooting positions are acquired from the first storage device, and the number of the plurality of key frame images and the number of the key frame images are smaller than the number in the first storage device. A second storage device which stores the imaging position in association with each other;
Including
The selection unit is configured to select a plurality of the key frame images near the user position from among the plurality of key frame images stored in the second storage device.
The second storage device obtains a plurality of the key frame images stored in the first storage device and their shooting positions according to the priority determined based on the user position and the virtual movement direction of the user. The moving image generation system according to any one of claims 1 to 5 .
前記記憶部は、
複数の前記キーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する第1記憶装置と、
前記第1記憶装置から複数の前記キーフレーム画像及びそれらの撮影位置を取得して、前記第1記憶装置における数よりも少ない数の複数の前記キーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する第2記憶装置と、
を含み、
前記選択部は、前記第2記憶装置に記憶された複数のキーフレーム画像の中から、前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択するよう構成され、
前記第2記憶装置は、前記ユーザ位置及びユーザの仮想的な移動速度に基づいて決定される優先度に従って、前記第1記憶装置に記憶された複数の前記キーフレーム画像及びそれらの撮影位置を取得する
請求項1〜のいずれか1項に記載の動画像生成システム。
The storage unit is
A first storage device that stores a plurality of key frame images and shooting positions of the plurality of key frame images in association with each other;
The plurality of key frame images and their shooting positions are acquired from the first storage device, and the number of the plurality of key frame images and the number of the key frame images are smaller than the number in the first storage device. A second storage device which stores the imaging position in association with each other;
Including
The selection unit is configured to select a plurality of the key frame images near the user position from among the plurality of key frame images stored in the second storage device.
The second storage device acquires a plurality of the key frame images stored in the first storage device and their shooting positions according to the priority determined based on the user position and the virtual movement speed of the user The moving image generation system according to any one of claims 1 to 6 .
仮想的に移動するユーザ位置を取得する取得部と、
複数のキーフレーム画像の中から、撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択する選択部と、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得る補間処理部と、を備え、
前記補間処理は、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの前記撮影位置との距離に基づいて設定された透明度で、選択された複数の前記キーフレーム画像を重ね合わせる第1処理と、
選択された複数の前記キーフレーム画像の少なくとも一つに対して、前記ユーザ位置と前記撮影位置との距離に応じた画像強調化又は画像非強調化のための第2処理と、を含む動画像生成装置。
An acquisition unit that acquires a virtually moving user position;
A selection unit that selects, from among a plurality of key frame images, a plurality of key frame images whose shooting position is near the user position;
Interpolation to obtain an interpolated frame image at the user position from at least one of the selected plurality of key frame images by interpolation processing based on the distance between the user position and the photographing position of each of the plurality of selected key frame images And a processing unit,
The interpolation process is
A first process of overlapping the plurality of selected key frame images with the transparency set based on the distance between the user position and each of the plurality of selected key frame images;
A moving image including a second process for image enhancement or image de-emphasis according to the distance between the user position and the shooting position for at least one of the plurality of selected key frame images Generator.
仮想的に移動するユーザ位置を取得し、
複数のキーフレーム画像の中から、撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択し、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得る
ことを含み、
前記補間フレーム画像を得ることは、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの前記撮影位置との距離に基づいて設定された透明度で、選択された複数の前記キーフレーム画像を重ね合わせることと、
選択された複数の前記キーフレーム画像の少なくとも一つに対して、前記ユーザ位置と前記撮影位置との距離に応じた画像強調化又は画像非強調化のための処理を行うことと、をさらに含む動画像生成方法。
Get the user position to move virtually,
From the plurality of key frame images, select the plurality of key frame images whose shooting position is near the user position;
Obtaining an interpolated frame image at the user position from at least one of the selected plurality of key frame images by interpolation processing based on a distance between the user position and a photographing position of each of the plurality of selected key frame images; Including
To obtain the interpolated frame image,
Superimposing the plurality of selected key frame images with the transparency set based on the distance between the user position and each of the plurality of selected key frame images.
And performing processing for image enhancement or image de-emphasis according to the distance between the user position and the imaging position on at least one of the selected plurality of key frame images. Moving image generation method.
仮想的に移動するユーザ位置を取得する取得部と、
複数のキーフレーム画像の中から、撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択する選択部と、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得る補間処理部と、
を備え、
前記補間処理は、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの前記撮影位置との距離に基づいて設定された透明度で、選択された複数の前記キーフレーム画像を重ね合わせる第1処理と、
選択された複数の前記キーフレーム画像の少なくとも一つに対して、前記ユーザ位置と前記撮影位置との距離に応じた画像強調化又は画像非強調化のための第2処理と、を含む動画像生成装置として、コンピュータを機能させるためのコンピュータプログラム。
An acquisition unit that acquires a virtually moving user position;
A selection unit that selects, from among a plurality of key frame images, a plurality of key frame images whose shooting position is near the user position;
Interpolation to obtain an interpolated frame image at the user position from at least one of the selected plurality of key frame images by interpolation processing based on the distance between the user position and the photographing position of each of the plurality of selected key frame images A processing unit,
Equipped with
The interpolation process is
A first process of overlapping the plurality of selected key frame images with the transparency set based on the distance between the user position and each of the plurality of selected key frame images;
A moving image including a second process for image enhancement or image de-emphasis according to the distance between the user position and the shooting position for at least one of the plurality of selected key frame images A computer program for causing a computer to function as a generation device.
JP2014188099A 2014-09-16 2014-09-16 Moving image generation system, moving image generation device, moving image generation method, and computer program Active JP6544719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014188099A JP6544719B2 (en) 2014-09-16 2014-09-16 Moving image generation system, moving image generation device, moving image generation method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014188099A JP6544719B2 (en) 2014-09-16 2014-09-16 Moving image generation system, moving image generation device, moving image generation method, and computer program

Publications (2)

Publication Number Publication Date
JP2016062184A JP2016062184A (en) 2016-04-25
JP6544719B2 true JP6544719B2 (en) 2019-07-17

Family

ID=55795987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014188099A Active JP6544719B2 (en) 2014-09-16 2014-09-16 Moving image generation system, moving image generation device, moving image generation method, and computer program

Country Status (1)

Country Link
JP (1) JP6544719B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111348A1 (en) * 2017-12-06 2019-06-13 株式会社典雅 Video processing device, video processing method, computer program, and video processing system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348165A (en) * 1999-06-04 2000-12-15 Mitsubishi Electric Corp Scene display device
JP3918518B2 (en) * 2001-11-09 2007-05-23 ソニー株式会社 Information processing system, information processing method, program, recording medium, moving object, and information processing apparatus

Also Published As

Publication number Publication date
JP2016062184A (en) 2016-04-25

Similar Documents

Publication Publication Date Title
CN109615703B (en) Augmented reality image display method, device and equipment
CN108885799B (en) Information processing apparatus, information processing system, and information processing method
CN108292489B (en) Information processing apparatus and image generating method
US9014414B2 (en) Information processing apparatus and information processing method for processing image information at an arbitrary viewpoint in a physical space or virtual space
JP2014238731A (en) Image processor, image processing system, and image processing method
US8509521B2 (en) Method and apparatus and computer program for generating a 3 dimensional image from a 2 dimensional image
JP5645450B2 (en) Image processing apparatus and method
CN106997618A (en) A kind of method that virtual reality is merged with real scene
US10885651B2 (en) Information processing method, wearable electronic device, and processing apparatus and system
JP6821646B2 (en) Virtual / augmented reality system with dynamic domain resolution
KR20180099703A (en) Configuration for rendering virtual reality with adaptive focal plane
CN109799899B (en) Interaction control method and device, storage medium and computer equipment
CN106971426A (en) A kind of method that virtual reality is merged with real scene
TWI589150B (en) Three-dimensional auto-focusing method and the system thereof
JP6558365B2 (en) Image processing apparatus, image processing method, and program
KR101212223B1 (en) Device taking a picture and method to generating the image with depth information
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
JP6544719B2 (en) Moving image generation system, moving image generation device, moving image generation method, and computer program
JP6768933B2 (en) Information processing equipment, information processing system, and image processing method
JP2019102828A (en) Image processing system, image processing method, and image processing program
US20130106845A1 (en) Stereoscopic image display apparatus
KR102287939B1 (en) Apparatus and method for rendering 3dimensional image using video
KR20180000417A (en) See-through type head mounted display apparatus and method of controlling display depth thereof
JP6930011B2 (en) Information processing equipment, information processing system, and image processing method
JP5539486B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170807

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190409

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190610

R150 Certificate of patent or registration of utility model

Ref document number: 6544719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250