JP2017123006A - Portable information terminal and program - Google Patents

Portable information terminal and program Download PDF

Info

Publication number
JP2017123006A
JP2017123006A JP2016000953A JP2016000953A JP2017123006A JP 2017123006 A JP2017123006 A JP 2017123006A JP 2016000953 A JP2016000953 A JP 2016000953A JP 2016000953 A JP2016000953 A JP 2016000953A JP 2017123006 A JP2017123006 A JP 2017123006A
Authority
JP
Japan
Prior art keywords
display
video
metadata
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016000953A
Other languages
Japanese (ja)
Inventor
健介 上路
Kensuke Ueji
健介 上路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jolly Good Inc
Original Assignee
Jolly Good Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jolly Good Inc filed Critical Jolly Good Inc
Priority to JP2016000953A priority Critical patent/JP2017123006A/en
Publication of JP2017123006A publication Critical patent/JP2017123006A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for enabling a user to select a partial area displayed at a display part without touching the display part.SOLUTION: In a portable information terminal 1, an azimuth inclination detection part 20 detects a direction and inclination of a display part 50. A video reproduction part 15 reproduces an omnidirectional video at least partially including a meta data area in which meta data are set. A video determination part 14 determines a display video to be displayed at the display part 50 among the omnidirectional video on the basis of the direction and inclination. An area selection part 16 selects the meta data area when at least a part of the meta data area included in the display video is displayed at a predetermined display position determined at the display part 50. An execution part 11 executes an operation specified by the meta data set in the meta data area selected by the area selection part 16.SELECTED DRAWING: Figure 2

Description

本発明は、携帯情報端末及び携帯情報端末が実行可能なプログラムに関する。   The present invention relates to a portable information terminal and a program executable by the portable information terminal.

スマートフォン等の携帯情報端末の表示部を映像提示部として利用する簡易的なヘッドマウントディスプレイ(Head Mounted Display;HMD)を提供するための筐体が知られている。この筐体に手持ちのスマートフォンを差し込むことにより、ユーザは専用のHMDを購入することなく手軽にバーチャルリアリティ(Virtual Reality;VR)を楽しむことができる。   A housing for providing a simple head mounted display (HMD) that uses a display unit of a portable information terminal such as a smartphone as a video presentation unit is known. By inserting a hand-held smartphone into this housing, the user can easily enjoy virtual reality (VR) without purchasing a dedicated HMD.

米国特許出願公開第2010/0079356号明細書US Patent Application Publication No. 2010/0079356

一般にスマートフォン等の携帯情報端末はその表示画面がタッチスクリーンとなっており、表示画面自体がユーザ操作のためのインタフェースとなっている。上記の文献に示されたような技術では、ひとたび携帯情報端末を筐体に取り付けると、ユーザは携帯情報端末を操作することが難しくなる。上記文献では、携帯情報端末とは異なる操作補助のための装置を提供することも開示しているが、携帯情報端末をHMDとして用いている間は、ユーザは手元を見るのが難しい。このため、補助操作のための装置があったとしても、ユーザが携帯情報端末を操作しづらいことには変わりない。   Generally, the display screen of a portable information terminal such as a smartphone is a touch screen, and the display screen itself is an interface for user operation. In the technique as described in the above-mentioned document, once the portable information terminal is attached to the housing, it becomes difficult for the user to operate the portable information terminal. Although the above document also discloses providing a device for assisting operation different from the portable information terminal, it is difficult for the user to see the hand while using the portable information terminal as the HMD. For this reason, even if there is a device for auxiliary operation, it does not change that the user has difficulty operating the portable information terminal.

本発明はこれらの点に鑑みてなされたものであり、ユーザが表示部に触れることなく表示部に表示された部分領域を選択できる技術を提供することを目的とする。   The present invention has been made in view of these points, and an object of the present invention is to provide a technique that allows a user to select a partial area displayed on a display unit without touching the display unit.

本発明の第1の態様のプログラムは、当該プログラムを実行する携帯情報端末に、前記携帯情報端末の向き及び傾きを検出する方位傾斜検出機能と、メタデータが設定されたメタデータ領域を少なくとも一部に含む全方位映像を再生する映像再生機能と、前記向き及び傾きに基づいて前記全方位映像のうち前記携帯情報端末の表示部に表示させる表示映像を決定する映像決定機能と、前記表示映像に含まれるメタデータ領域の少なくとも一部が、前記表示部に定められた所定の表示位置で表示された場合、当該メタデータ領域を選択する領域選択機能と、選択された前記メタデータ領域に設定されたメタデータに応じた動作を実行する実行機能と、を実現させる。   The program according to the first aspect of the present invention provides at least one azimuth / inclination detection function for detecting the orientation and inclination of the portable information terminal and a metadata area in which metadata is set to the portable information terminal that executes the program. A video playback function for playing back an omnidirectional video included in the display unit, a video determination function for determining a display video to be displayed on the display unit of the portable information terminal based on the orientation and tilt, and the display video When at least a part of the metadata area included in is displayed at a predetermined display position defined on the display unit, an area selection function for selecting the metadata area and the selected metadata area are set. And an execution function that executes an operation according to the metadata that has been performed.

前記携帯情報端末に、前記表示部に定められた所定の表示位置に、メタデータ領域を選択するためのマーカを表示するマーカ表示制御機能と、前記マーカと前記表示映像に含まれるメタデータ領域とが重なっていることを示すアイコンを、前記表示部に表示させるアイコン表示制御機能と、をさらに実現させてもよい。   A marker display control function for displaying a marker for selecting a metadata area at a predetermined display position defined on the display unit on the portable information terminal; a metadata area included in the marker and the display video; An icon display control function for causing the display unit to display an icon indicating that the icons overlap each other may be further realized.

前記アイコン表示制御機能は、前記表示映像に含まれるメタデータ領域の少なくとも一部が前記表示部に定められた所定の表示位置に表示されてから経過した時間を示す情報を含むアイコンを、前記表示部に表示させてもよい。   The icon display control function displays an icon including information indicating a time elapsed since at least a part of a metadata area included in the display video is displayed at a predetermined display position defined in the display unit. May be displayed on the screen.

前記領域選択機能は、前記表示映像に含まれるメタデータ領域の少なくとも一部が、前記表示部に定められた所定の表示位置に、領域選択の有無を決定するために予め定められた選択決定時間が経過する間継続して表示された場合、前記表示映像に含まれるメタデータ領域を選択してもよい。   The area selection function has a predetermined selection determination time for determining whether or not an area is selected at a predetermined display position determined in the display unit at least a part of the metadata area included in the display video. In the case where the display is continued during the elapse of time, a metadata area included in the display video may be selected.

前記メタデータ領域に設定されたメタデータは、当該メタデータ領域における全方位映像の被写体に関連するコンテンツを示すデータであってもよく、前記実行機能は、前記領域選択機能が選択したメタデータ領域の被写体に関連するコンテンツを前記表示部に表示させる動作を実行してもよい。   The metadata set in the metadata area may be data indicating content related to the subject of the omnidirectional video in the metadata area, and the execution function is the metadata area selected by the area selection function An operation of displaying content related to the subject on the display unit may be executed.

前記実行機能は、前記領域選択機能が選択したメタデータ領域の被写体を認識し、認識した被写体に関連するコンテンツを前記表示部に表示させる動作を実行してもよい。   The execution function may execute an operation of recognizing a subject in the metadata region selected by the region selection function and displaying content related to the recognized subject on the display unit.

前記領域選択機能は、前記表示部に表示されたコンテンツの少なくとも一部が、前記表示部に定められた所定の表示位置で表示された場合、当該コンテンツを選択してもよい。   The area selection function may select the content when at least a part of the content displayed on the display unit is displayed at a predetermined display position defined on the display unit.

前記携帯情報端末に、前記全方位映像に含まれる複数の部分領域のそれぞれについて、前記表示部に定められた所定の表示位置において前記部分領域が表示された時間を計測する時間計測機能をさらに実現させてもよく、前記映像再生機能は、前記時間計測機能が計測した時間の長短を示す情報を計測対象とした部分領域毎に重畳した前記全方位映像を再生してもよい。   The portable information terminal further implements a time measurement function for measuring the time at which the partial area is displayed at a predetermined display position defined on the display unit for each of the plurality of partial areas included in the omnidirectional video. The video playback function may play back the omnidirectional video in which information indicating the length of the time measured by the time measurement function is superimposed for each partial region to be measured.

本発明の第2の態様に係る携帯情報端末は、表示部と、前記表示部の向き及び傾きを検出する方位傾斜検出部と、メタデータが設定されたメタデータ領域を少なくとも一部に含む全方位映像を再生する映像再生部と、前記向き及び傾きに基づいて前記全方位映像のうち前記表示部に表示させる表示映像を決定する映像決定部と、前記表示映像に含まれるメタデータ領域の少なくとも一部が、前記表示部に定められた所定の表示位置で表示された場合、当該メタデータ領域を選択する領域選択部と、前記領域選択部が選択した前記メタデータ領域に設定されたメタデータが規定する動作を実行する実行部と、を備える。   The portable information terminal according to the second aspect of the present invention includes at least a part of a display unit, an azimuth / inclination detection unit that detects the orientation and inclination of the display unit, and a metadata area in which metadata is set. A video playback unit that plays back a azimuth video, a video determination unit that determines a display video to be displayed on the display unit out of the omnidirectional video based on the orientation and tilt, and at least a metadata area included in the display video When a part is displayed at a predetermined display position defined on the display unit, an area selection unit for selecting the metadata area, and metadata set in the metadata area selected by the area selection unit And an execution unit that executes an operation specified by.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and the expression of the present invention converted between a method, an apparatus, a system, a computer program, a data structure, a recording medium, and the like are also effective as an aspect of the present invention.

また、以上の構成要素を方法に変換した場合における各ステップをコンピュータに実現させるプログラムも、本発明の態様として有効である。このプログラムは、携帯情報端末等のハードウェア資源の基本的な制御を行うために機器に組み込まれるファームウェアの一部として提供されてもよい。このファームウェアは、例えば、携帯情報端末内のROM(Read Only Memory)やフラッシュメモリなどの半導体メモリに格納される。このファームウェアを提供するため、あるいはファームウェアの一部をアップデートするために、このプログラムを記録したコンピュータ読み取り可能な記録媒体が提供されてもよく、また、このプログラムが通信回線で伝送されてもよい。   In addition, a program that causes a computer to realize each step when the above components are converted into a method is also effective as an aspect of the present invention. This program may be provided as a part of firmware incorporated in a device in order to perform basic control of hardware resources such as a portable information terminal. This firmware is stored in a semiconductor memory such as a ROM (Read Only Memory) or a flash memory in the portable information terminal, for example. In order to provide the firmware or to update a part of the firmware, a computer-readable recording medium storing the program may be provided, and the program may be transmitted through a communication line.

本発明によれば、ユーザが表示部に触れることなく表示部に表示された部分領域を選択できる技術を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which can select the partial area | region displayed on the display part without a user touching a display part can be provided.

実施の形態に係る携帯情報端末の外観及び使用例を示す図である。It is a figure which shows the external appearance and usage example of the portable information terminal which concerns on embodiment. 実施の形態に係る携帯情報端末の機能構成を模式的に示す図である。It is a figure which shows typically the function structure of the portable information terminal which concerns on embodiment. 実施の形態に係る映像再生部が再生する全方位映像を説明するための図である。It is a figure for demonstrating the omnidirectional video which the video reproduction part which concerns on embodiment reproduce | regenerates. 実施の形態に係る領域選択部によるメタデータ領域の選択を説明するための図である。It is a figure for demonstrating selection of the metadata area | region by the area | region selection part which concerns on embodiment. 実施の形態に係る携帯情報端末が扱う全方位映像のメタデータを説明するための図である。It is a figure for demonstrating the metadata of the omnidirectional video which the portable information terminal which concerns on embodiment handles. 実施の形態に係る携帯情報端末が提供する仮想店舗を説明するための図である。It is a figure for demonstrating the virtual store which the portable information terminal which concerns on embodiment provides. 実施の形態に係るヒートマップを示す模式図である。It is a schematic diagram which shows the heat map which concerns on embodiment. 実施の形態に係る携帯情報端末が実行する領域選択処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the area | region selection process which the portable information terminal which concerns on embodiment performs.

<実施の形態の概要>
図1(a)−(b)は、実施の形態に係る携帯情報端末1の外観及び使用例を示す図である。具体的には、図1(a)は実施の形態に係る携帯情報端末1の表示部50が映像を表示している様子を示す図であり、図1(b)は、実施の形態に係る携帯情報端末1の好適な使用例を示す図である。以下、図1を参照しながら、実施の形態に係る携帯情報端末1の概要を述べる。
<Outline of the embodiment>
Fig.1 (a)-(b) is a figure which shows the external appearance and usage example of the portable information terminal 1 which concerns on embodiment. Specifically, FIG. 1A is a diagram illustrating a state in which the display unit 50 of the portable information terminal 1 according to the embodiment is displaying an image, and FIG. 1B is related to the embodiment. It is a figure which shows the suitable usage example of the portable information terminal. Hereinafter, the outline of the portable information terminal 1 according to the embodiment will be described with reference to FIG.

実施の形態に係る携帯情報端末1は、全方位映像を表示するためのプログラムを実行可能なデバイスであり、具体的には図1(a)に示すようなスマートフォンや、タブレットPC(Personal Computer)である。ここで「全方位映像」とは、球面形状のスクリーン又は仮想スクリーン上に投影するに足りる情報量を持った映像である。全方位映像は、既知の全方位カメラを用いて撮影することで取得できる。   The portable information terminal 1 according to the embodiment is a device that can execute a program for displaying an omnidirectional video. Specifically, the mobile information terminal 1 is a smartphone or a tablet PC (Personal Computer) as shown in FIG. It is. Here, the “omnidirectional image” is an image having an amount of information sufficient to be projected onto a spherical screen or virtual screen. An omnidirectional video can be acquired by photographing using a known omnidirectional camera.

図1(a)に示すように、実施の形態に係る携帯情報端末1が備える表示部50は平面であり、球面形状である全方位映像の全てを一度に表示することは難しい。このため携帯情報端末1は、表示部50に全方位映像の一部分を表示する。この際、携帯情報端末1は、表示部50の方位及び傾きに連動して、表示部50に表示する映像を変更する。   As shown to Fig.1 (a), the display part 50 with which the portable information terminal 1 which concerns on embodiment is provided is a plane, and it is difficult to display all the omnidirectional videos which are spherical shapes at once. For this reason, the portable information terminal 1 displays a part of the omnidirectional video on the display unit 50. At this time, the portable information terminal 1 changes the image displayed on the display unit 50 in conjunction with the orientation and tilt of the display unit 50.

実施の形態に係る携帯情報端末1は、図1(b)に示すように、携帯情報端末1を収容するための筐体70に収容して用いることができる。筐体70は紙又は樹脂性の略直方体形状であり、一つの面に開口部が設けられている。筐体70は、ユーザPが開口部をのぞき込むとユーザPの目の前方に外部の光を遮蔽する空間が形成されるように構成されている。また筐体70の開口部の対面には、携帯情報端末1を差し込んで保持する保持部(不図示)が設けられている。したがって、筐体70の内側に表示部50が向くように携帯情報端末1を保持部に差し込むと、筐体70をのぞくユーザPの目の前方に表示部50が表示する映像が提示される。すなわち、筐体70は携帯情報端末1を用いることで簡易的なHMDを実現することができる。   As shown in FIG. 1B, the portable information terminal 1 according to the embodiment can be housed and used in a housing 70 for housing the portable information terminal 1. The casing 70 has a substantially rectangular parallelepiped shape made of paper or resin, and an opening is provided on one surface. The housing 70 is configured such that when the user P looks into the opening, a space for shielding external light is formed in front of the user P's eyes. A holding unit (not shown) for inserting and holding the portable information terminal 1 is provided on the opposite side of the opening of the housing 70. Therefore, when the portable information terminal 1 is inserted into the holding unit so that the display unit 50 faces the inside of the housing 70, an image displayed on the display unit 50 in front of the eyes of the user P looking through the housing 70 is presented. That is, the housing 70 can realize a simple HMD by using the portable information terminal 1.

筐体70を使用することでユーザPに深い没入感を伴った仮想現実体験を提供することができる。ユーザPが筐体70をのぞきながら顔の向きや傾きを変えると、それと連動して表示部50が表示する映像も変化する。これにより、ユーザPはあたかも表示部50が表示する映像の中にいるかのような体験をすることができる。   By using the housing 70, a virtual reality experience with a deep immersion feeling can be provided to the user P. When the user P changes the orientation and inclination of the face while looking through the housing 70, the video displayed on the display unit 50 is also changed in conjunction with the change. Thereby, the user P can experience as if it is in the image | video which the display part 50 displays.

一方、筐体70を使用すると、ユーザPは携帯情報端末1の表示部50に触れたり、携帯情報端末1が備えるボタン等を押下したりすることが難しくなる。一般に、携帯情報端末1の表示部50はタッチスクリーンとなっており、表示部50はユーザPが携帯情報端末1を操作するためのユーザインタフェースともなっている。ユーザPがタッチスクリーンに表示された操作用のアイコン等をタップして選択すると、携帯情報端末は、そのアイコンに関連付けられている動作を実行する。しかしながら、携帯情報端末1を筐体70に収容して使用している状態では、ユーザPはタッチスクリーンを介して携帯情報端末1を操作することが困難となる。   On the other hand, when the housing 70 is used, it becomes difficult for the user P to touch the display unit 50 of the portable information terminal 1 or to press a button or the like provided in the portable information terminal 1. Generally, the display unit 50 of the portable information terminal 1 is a touch screen, and the display unit 50 is also a user interface for the user P to operate the portable information terminal 1. When the user P taps and selects an operation icon or the like displayed on the touch screen, the portable information terminal executes an operation associated with the icon. However, in a state where the portable information terminal 1 is housed in the housing 70 and used, it becomes difficult for the user P to operate the portable information terminal 1 via the touch screen.

このため実施の形態に係る携帯情報端末1は、表示部50が表示する映像中のアイコン等の選択可能な領域が、表示部50の表示領域に設定された所定の場所に表示されると、その選択可能な領域が選択されるように構成されている。これにより、ユーザPは表示部50の向きや傾きを変更して選択可能な領域の表示位置を動かすことにより、表示部50に触れることなくアイコン等を選択することができる。
以下、実施の形態に係る携帯情報端末1をより詳細に説明する。
For this reason, in the portable information terminal 1 according to the embodiment, when a selectable area such as an icon in the video displayed on the display unit 50 is displayed at a predetermined location set in the display area of the display unit 50, The selectable area is selected. Accordingly, the user P can select an icon or the like without touching the display unit 50 by changing the orientation and inclination of the display unit 50 and moving the display position of the selectable region.
Hereinafter, the portable information terminal 1 according to the embodiment will be described in more detail.

<携帯情報端末の機能構成>
図2は、実施の形態に係る携帯情報端末1の機能構成を模式的に示す図である。実施の形態に係る携帯情報端末1は、制御部10、方位傾斜検出部20、記憶部30、一時記憶部40、表示部50、及び通信部60を備える。また制御部10は、実行部11、アイコン表示制御部12、マーカ表示制御部13、映像決定部14、映像再生部15、領域選択部16、及び時間計測部17を備える。
<Functional configuration of portable information terminal>
FIG. 2 is a diagram schematically illustrating a functional configuration of the portable information terminal 1 according to the embodiment. The portable information terminal 1 according to the embodiment includes a control unit 10, an azimuth / inclination detection unit 20, a storage unit 30, a temporary storage unit 40, a display unit 50, and a communication unit 60. The control unit 10 includes an execution unit 11, an icon display control unit 12, a marker display control unit 13, a video determination unit 14, a video playback unit 15, a region selection unit 16, and a time measurement unit 17.

図2は、実施の形態に係る携帯情報端末1を実現するための機能構成を示しており、その他の構成は省略している。図2において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には携帯情報端末1のCPU(Central Processing Unit)、メインメモリ、その他のLSI(Large Scale Integration)で構成することができる。またソフトウェア的には、メインメモリにロードされたプログラム等によって実現される。したがってこれらの機能ブロックが、携帯情報端末1の計算リソースによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   FIG. 2 shows a functional configuration for realizing the portable information terminal 1 according to the embodiment, and other configurations are omitted. In FIG. 2, each element described as a functional block for performing various processes is configured by a CPU (Central Processing Unit), a main memory, and other LSI (Large Scale Integration) of the portable information terminal 1 in terms of hardware. be able to. In terms of software, it is realized by a program loaded in the main memory. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms depending on the calculation resource of the portable information terminal 1, and is not limited to any one.

通信部60は、インターネットや携帯電話通信網等のネットワークを介して他の装置と情報のやり取りをする。通信部60は、WiFi(登録商標)やLTE(Long Term Evolution)モジュール、又は3G(3rd Generation)モジュール等の既知の通信モジュールを用いて実現できる。   The communication unit 60 exchanges information with other devices via a network such as the Internet or a mobile phone communication network. The communication unit 60 can be realized using a known communication module such as WiFi (registered trademark), LTE (Long Term Evolution) module, or 3G (3rd Generation) module.

記憶部30は、携帯情報端末1の動作を制御するオペレーティングシステム(Operating System;以下、「OS」と記載する。)と、携帯情報端末1に制御部10の各部の機能を実現させるためのアプリケーションプログラム(以下、単に「アプリ」と記載する。)とを格納する。記憶部30はまた、表示部50に表示させる全方位映像や、全方位映像に関連付けられたメタデータ等の電子情報も記憶している。記憶部30は、例えばSSD(Solid State Drive)等の大容量記憶ストレージで実現できる。なお、記憶部30は、例えば全方位映像を撮影するための撮像装置から全方位映像を取得したり、通信部60及びネットワークを介してサーバ等の他の装置から取得したりして、全方位映像を格納する。   The storage unit 30 includes an operating system (hereinafter referred to as “OS”) for controlling the operation of the portable information terminal 1 and an application for causing the portable information terminal 1 to realize the functions of the respective units of the control unit 10. A program (hereinafter simply referred to as “application”) is stored. The storage unit 30 also stores electronic information such as omnidirectional video to be displayed on the display unit 50 and metadata associated with the omnidirectional video. The storage unit 30 can be realized by a large-capacity storage such as an SSD (Solid State Drive). Note that the storage unit 30 acquires the omnidirectional video from, for example, an imaging device for capturing the omnidirectional video, or acquires the omnidirectional video from another device such as a server via the communication unit 60 and the network. Store the video.

制御部10は、携帯情報端末1のCPU及びGPU(Graphic Processing Unit)である。制御部10は、記憶部30から読み出したOSを実行することにより、携帯情報端末1の動作を制御する。制御部10はまた、記憶部30から読み出したアプリを実行することにより、制御部10内の各部の機能に対応する実行機能、アイコン表示制御機能、マーカ表示制御機能、映像決定機能、映像再生機能、領域選択機能、及び時間計測機能を実現する。
一時記憶部40は、制御部10の作業領域を提供する揮発性メモリである。一時記憶部40は、例えばDRAM(Dynamic Random Access Memory)を用いて実現できる。
The control unit 10 is the CPU and GPU (Graphic Processing Unit) of the portable information terminal 1. The control unit 10 controls the operation of the portable information terminal 1 by executing the OS read from the storage unit 30. The control unit 10 also executes an application read from the storage unit 30, thereby executing an execution function corresponding to the function of each unit in the control unit 10, an icon display control function, a marker display control function, a video determination function, and a video playback function. Realize an area selection function and a time measurement function.
The temporary storage unit 40 is a volatile memory that provides a work area for the control unit 10. The temporary storage unit 40 can be realized using, for example, a DRAM (Dynamic Random Access Memory).

方位傾斜検出部20は、携帯情報端末1の方位及び傾き、すなわち携帯情報端末1が備える表示部50の方位及び傾きを検出する。方位傾斜検出部20は、例えば既知の方位角センサと加速度センサとを用いたり、6軸センサを用いたりして実現できる。
映像再生部15は、記憶部30が記憶する全方位映像を読み出して、全方位映像を再生する。映像再生部15が再生する全方位映像は動画像であり、映像再生部15は全方位映像の全部又は少なくとも一部を再生して、フレームバッファとなる一時記憶部40に記憶する。なお、映像再生部15は、全方位映像を通常の2次元動画として再生してもよいし、ユーザPの右目用の視差画像と左目用の視差画像とのそれぞれを再生することによって立体動画像として再生してもよい。
The azimuth detecting unit 20 detects the azimuth and inclination of the portable information terminal 1, that is, the azimuth and inclination of the display unit 50 provided in the portable information terminal 1. The azimuth inclination detecting unit 20 can be realized by using, for example, a known azimuth angle sensor and an acceleration sensor, or using a six-axis sensor.
The video playback unit 15 reads out the omnidirectional video stored in the storage unit 30 and plays back the omnidirectional video. The omnidirectional video reproduced by the video reproduction unit 15 is a moving image, and the video reproduction unit 15 reproduces all or at least a part of the omnidirectional video and stores it in the temporary storage unit 40 serving as a frame buffer. Note that the video playback unit 15 may play back the omnidirectional video as a normal two-dimensional video, or by playing back each of the parallax image for the right eye and the parallax image for the left eye of the user P. You may play as.

図3(a)−(b)は、実施の形態に係る映像再生部15が再生する全方位映像80を説明するための図である。具体的に、図3(a)は仮想的な球面スクリーンに投影される全方位映像80を説明するための図であり、図3(b)は映像再生部15が再生する全方位映像80と、携帯情報端末1の表示部50が表示する表示映像51との関係を示す図である。   FIGS. 3A to 3B are diagrams for explaining the omnidirectional video 80 reproduced by the video reproduction unit 15 according to the embodiment. Specifically, FIG. 3A is a diagram for explaining an omnidirectional video 80 projected on a virtual spherical screen, and FIG. 3B is an omnidirectional video 80 reproduced by the video reproduction unit 15. It is a figure which shows the relationship with the display image 51 which the display part 50 of the portable information terminal 1 displays.

映像再生部15は、図3(a)に示すように、ユーザPを中心とする所定の半径の球面に、仮想的な球面スクリーンに投影することを仮定して全方位映像80を再生する。図3(a)において、符号51で示す領域は、映像決定部14が携帯情報端末1の表示部50に表示させる映像として決定した表示映像51である。図3(a)は、方位傾斜検出部20が検出した表示部50の方位が、真東よりやや北寄りの方位である場合の例を示している。また図3(b)に示すように、方位傾斜検出部20は、表示部50の傾き、すなわち仰角がαであることを示している。映像決定部14は、方位傾斜検出部20が検出した方位及び傾きに基づいて、表示映像51を決定する。映像決定部14は、全方位映像80から表示映像51を切り出してフレームバッファに格納する。表示部50は、フレームバッファに格納された表示映像51を表示する。   As shown in FIG. 3A, the video playback unit 15 plays back the omnidirectional video 80 on the assumption that a spherical surface with a predetermined radius centered on the user P is projected onto a virtual spherical screen. In FIG. 3A, an area denoted by reference numeral 51 is a display video 51 determined as a video to be displayed on the display unit 50 of the portable information terminal 1 by the video determination unit 14. FIG. 3A shows an example in which the azimuth of the display unit 50 detected by the azimuth inclination detecting unit 20 is an azimuth slightly north from true east. Further, as shown in FIG. 3B, the azimuth inclination detection unit 20 indicates that the inclination of the display unit 50, that is, the elevation angle is α. The video determination unit 14 determines the display video 51 based on the azimuth and tilt detected by the azimuth tilt detection unit 20. The video determination unit 14 cuts out the display video 51 from the omnidirectional video 80 and stores it in the frame buffer. The display unit 50 displays the display video 51 stored in the frame buffer.

ユーザPが携帯情報端末1を動かして表示部50の方位及び傾きを変化させると、それに連動して映像決定部14が全方位映像80から切り出す表示映像51も変化する。これにより、表示映像51を観察するユーザPは、あたかも全方位映像80が映し出すシーンの中にいるかのような体験を得ることができる。   When the user P moves the portable information terminal 1 to change the azimuth and inclination of the display unit 50, the display video 51 cut out from the omnidirectional video 80 by the video determination unit 14 also changes accordingly. Thereby, the user P who observes the display image 51 can obtain an experience as if he is in a scene where the omnidirectional image 80 is projected.

実施の形態に係る映像再生部15が再生する全方位映像80は、少なくとも一部にメタデータが設定されたメタデータ領域を含んでいる。領域選択部16は、表示映像51に含まれるメタデータ領域の少なくとも一部が、表示部50に定められた所定の表示位置で表示された場合、そのメタデータ領域を選択する。実行部11は、領域選択部16が選択したメタデータ領域に設定されたメタデータに応じた動作を実行する。   The omnidirectional video 80 reproduced by the video reproduction unit 15 according to the embodiment includes a metadata region in which metadata is set at least in part. The area selection unit 16 selects a metadata area when at least a part of the metadata area included in the display video 51 is displayed at a predetermined display position defined on the display unit 50. The execution unit 11 executes an operation corresponding to the metadata set in the metadata area selected by the area selection unit 16.

メタデータ領域に設定されたメタデータは、実行部11に何らかの動作を指示する命令を含んでいる。例えば、領域選択部16が選択したメタデータ領域に設定されているメタデータが、映像再生部15による全方位映像80の再生を終了すること指示する命令を含むとする。この場合、実行部11は、映像再生部15による全方位映像80の再生を終了させる。同様に、選択されたメタデータが、映像再生部15が再生する全方位映像80を別の全方位映像80に切り替えることを指示する命令を含んでいる場合、実行部11は、映像再生部15に別の全方位映像80を再生させる。これにより、携帯情報端末1のユーザPは、表示部50の方位及び傾きを変えてメタデータ領域を選択することにより、表示部50に触れることなく、携帯情報端末1を操作することができる。   The metadata set in the metadata area includes a command that instructs the execution unit 11 to perform some operation. For example, it is assumed that the metadata set in the metadata area selected by the area selection unit 16 includes a command instructing to end the reproduction of the omnidirectional video 80 by the video reproduction unit 15. In this case, the execution unit 11 ends the reproduction of the omnidirectional video 80 by the video reproduction unit 15. Similarly, when the selected metadata includes an instruction to switch from the omnidirectional video 80 reproduced by the video reproduction unit 15 to another omnidirectional video 80, the execution unit 11 performs the video reproduction unit 15. Then, another omnidirectional video 80 is reproduced. Thereby, the user P of the portable information terminal 1 can operate the portable information terminal 1 without touching the display unit 50 by changing the orientation and inclination of the display unit 50 and selecting the metadata area.

図4(a)−(b)は、実施の形態に係る領域選択部16によるメタデータ領域の選択を説明するための図である。具体的に、図4(a)は表示映像51にあるメタデータ領域53を例示する図であり、図4(b)は、選択されたメタデータ領域53を例示する図である。図4(a)及び図4(b)は、第1メタデータ領域53a、第2メタデータ領域53b、及び第3メタデータ領域53cの3つのメタデータ領域53が表示されている場合の例を示している。図4(a)−(b)において、符号53a、符号53b、及び符号53cが付された平行四辺形又は矩形が、それぞれ第1メタデータ領域53a、第2メタデータ領域53b、及び第3メタデータ領域53cである。なお、表示映像51に含まれるメタデータ領域53の数は3つに限られず、1又は2であってもよいし、4以上であってもよい。本明細書においては、複数のメタデータ領域53を区別しない場合は、それらを総称して「メタデータ領域53」と記載する。   FIGS. 4A and 4B are diagrams for explaining selection of a metadata area by the area selection unit 16 according to the embodiment. Specifically, FIG. 4A illustrates the metadata area 53 in the display video 51, and FIG. 4B illustrates the selected metadata area 53. As illustrated in FIG. FIG. 4A and FIG. 4B show an example in which three metadata areas 53 of the first metadata area 53a, the second metadata area 53b, and the third metadata area 53c are displayed. Show. 4A to 4B, parallelograms or rectangles denoted by reference numerals 53a, 53b, and 53c are respectively a first metadata area 53a, a second metadata area 53b, and a third metadata. This is a data area 53c. Note that the number of metadata areas 53 included in the display video 51 is not limited to three, and may be one or two, or four or more. In this specification, when a plurality of metadata areas 53 are not distinguished, they are collectively referred to as “metadata areas 53”.

図4(a)−(b)に示す3つのメタデータ領域53は、それぞれ新たな映像コンテンツを再生することを示す命令を含むメタデータが設定されている。図4(a)−(b)に図示はしていないが、映像再生部15は、各メタデータ領域53に、そのメタデータ領域53に関連付けて再生される映像コンテンツのサムネイル動画を表示してもよい。   In the three metadata areas 53 shown in FIGS. 4A and 4B, metadata including a command indicating that a new video content is to be reproduced is set. Although not shown in FIGS. 4A and 4B, the video playback unit 15 displays thumbnail videos of video content to be played back in association with the metadata area 53 in each metadata area 53. Also good.

マーカ表示制御部13は、表示部50に定められた所定の表示位置に、メタデータ領域53を選択するためのマーカ52を表示する。図4(a)−(b)に示す例では、マーカ表示制御部13は、表示部50の中心に位置するように、表示映像51の大きさに対して十分小さなマーカ52を表示する。マーカ表示制御部13が表示部50に表示させるマーカ52の位置、大きさ、及び形状は、携帯情報端末1の表示部50のサイズや携帯情報端末1が再生する映像の種類等に応じて実験により定めればよい。一例としては、図4(a)−(b)に示すように、マーカ表示制御部13は、表示部50の中央部に縦5ピクセル、横5ピクセルの矩形をマーカ52として表示している。   The marker display control unit 13 displays a marker 52 for selecting the metadata area 53 at a predetermined display position determined on the display unit 50. In the example shown in FIGS. 4A and 4B, the marker display control unit 13 displays a marker 52 that is sufficiently small with respect to the size of the display video 51 so as to be positioned at the center of the display unit 50. The position, size, and shape of the marker 52 displayed on the display unit 50 by the marker display control unit 13 are tested according to the size of the display unit 50 of the portable information terminal 1, the type of video reproduced by the portable information terminal 1, and the like. It may be determined by As an example, as shown in FIGS. 4A and 4B, the marker display control unit 13 displays a rectangle of 5 pixels vertically and 5 pixels horizontally as a marker 52 at the center of the display unit 50.

図4(a)は、マーカ52がいずれのメタデータ領域53とも重なっていない場合の例を示している。表示映像51を観察するユーザPは、表示部50の方位及び傾きを変化させて、表示部50に表示させる表示映像51を変える。例えば、図4(a)に示す表示映像51に対し、マーカ52が第2メタデータ領域53bと重なるようにユーザPが表示部50の傾きを変えると、図4(b)に示すようにマーカ52が第2メタデータ領域53bと重なる。なお、図1(b)に示すようにユーザPが携帯情報端末1を筐体70とともにHMDとして使用している場合には、ユーザPは顔を上方向に動かすことによって、マーカ52を第2メタデータ領域53bと重ねることができる。   FIG. 4A shows an example in which the marker 52 does not overlap any metadata area 53. The user P who observes the display image 51 changes the display image 51 displayed on the display unit 50 by changing the azimuth and inclination of the display unit 50. For example, when the user P changes the tilt of the display unit 50 so that the marker 52 overlaps the second metadata area 53b with respect to the display video 51 shown in FIG. 4A, the marker is shown in FIG. 4B. 52 overlaps the second metadata area 53b. As shown in FIG. 1B, when the user P uses the portable information terminal 1 as an HMD together with the housing 70, the user P moves the face upward to move the marker 52 to the second position. It can be overlapped with the metadata area 53b.

アイコン表示制御部12は、マーカ52と表示映像51に含まれるメタデータ領域53とが重なっていることを示すアイコン54を、表示部50に表示させる。図4(b)に示す例では、アイコン54は、マーカ52を中心とする十字と、その十字を囲む円とで構成されている。このように、マーカ52がメタデータ領域53と重なることがアイコン54によって示されるため、ユーザPはメタデータ領域53を適切に選択できたことを確認することができる。なお、アイコン表示制御部12は、マーカ52がメタデータ領域53の少なくとも一部と重なることを契機として、アイコン54を表示部50に表示させる。   The icon display control unit 12 causes the display unit 50 to display an icon 54 indicating that the marker 52 and the metadata area 53 included in the display video 51 overlap. In the example shown in FIG. 4B, the icon 54 includes a cross centered on the marker 52 and a circle surrounding the cross. Thus, since the icon 54 indicates that the marker 52 overlaps the metadata area 53, the user P can confirm that the metadata area 53 has been properly selected. The icon display control unit 12 displays the icon 54 on the display unit 50 when the marker 52 overlaps at least a part of the metadata area 53.

図4(b)に示すように、アイコン表示制御部12が表示部50に表示させるアイコン54は、表示映像51に含まれるメタデータ領域53の少なくとも一部がマーカ52に表示されてから経過した時間を示す情報を含む。より具体的には、図4(b)に示す例では、アイコン54の構成要素の一つである円が、マーカ52が第2メタデータ領域53bと重なってから経過した時間を示している。いわばこの円はウエイトバー(Wait Bar)ないしプログレスバー(Progress Bar)と呼ばれるGUI(Graphical User Interface)として機能する。   As shown in FIG. 4B, the icon 54 that the icon display control unit 12 displays on the display unit 50 has elapsed since at least a part of the metadata area 53 included in the display video 51 is displayed on the marker 52. Contains information indicating time. More specifically, in the example shown in FIG. 4B, a circle that is one of the components of the icon 54 indicates the time that has elapsed since the marker 52 overlapped the second metadata area 53b. In other words, this circle functions as a graphical user interface (GUI) called a wait bar or progress bar.

マーカ52が第2メタデータ領域53bと重なることを契機として、アイコン表示制御部12はアイコン54を表示部50に表示させる。この時点では、アイコン54の円は白色である。その後、マーカ52が第2メタデータ領域53bと重なっている時間の経過とともに、白色部分が黒色に変化する。全ての円が黒色となると、領域選択部16は、第2メタデータ領域53bの選択を確定する。   When the marker 52 overlaps the second metadata area 53b, the icon display control unit 12 causes the display unit 50 to display the icon 54. At this time, the circle of the icon 54 is white. Thereafter, the white portion changes to black with the passage of time when the marker 52 overlaps the second metadata area 53b. When all the circles become black, the area selection unit 16 determines the selection of the second metadata area 53b.

このように、領域選択部16は、表示映像51に含まれるメタデータ領域53の少なくとも一部とマーカ52とが、領域選択の有無を決定するために予め定められた選択決定時間が経過する間継続して重なって表示された場合、そのメタデータ領域53を選択する。マーカ52がメタデータ領域53と重なってから領域選択部16によるメタデータ領域53の選択が確定するまでに時間差を設けることにより、ユーザPが表示部50を動かしたときに意図せずメタデータ領域53を選択してしまうことを軽減できる。また、マーカ52が第2メタデータ領域53bと重なっている時間の経過をアイコン54を用いてユーザPに明示することにより、ユーザPが意図的にメタデータ領域53を選択する際のユーザビリティを向上することができる。なお、「選択決定時間」の具体的な長さは、メタデータ領域53に関連付けられたメタデータの内容や、表示部50に表示させるコンテンツ等によって実験により定めればよいが、一例としては3秒である。   As described above, the area selection unit 16 allows at least a part of the metadata area 53 included in the display video 51 and the marker 52 while the predetermined selection determination time elapses to determine whether or not the area is selected. If the images are displayed continuously overlapping, the metadata area 53 is selected. By providing a time difference from when the marker 52 overlaps the metadata area 53 until the selection of the metadata area 53 by the area selection unit 16 is confirmed, the metadata area is unintentionally moved when the user P moves the display unit 50. The selection of 53 can be reduced. Further, the elapse of time when the marker 52 overlaps the second metadata area 53b is clearly indicated to the user P using the icon 54, thereby improving usability when the user P intentionally selects the metadata area 53. can do. Note that the specific length of the “selection determination time” may be determined by experiments according to the content of metadata associated with the metadata area 53, the content displayed on the display unit 50, and the like. Seconds.

<メタデータのデータ構造>
図5(a)−(b)は、実施の形態に係る携帯情報端末1が扱う全方位映像のメタデータを説明するための図である。具体的に図5(a)は表示映像51に定義されたメタデータ領域53の境界線を例示する図であり、図5(b)は図5(a)に定義されたメタデータ領域53のうちの一つのメタデータ領域53に設定されているメタデータのデータ構造を示す模式図である。
<Metadata structure>
FIGS. 5A to 5B are diagrams for explaining metadata of an omnidirectional video handled by the portable information terminal 1 according to the embodiment. Specifically, FIG. 5A is a diagram illustrating a boundary line of the metadata area 53 defined in the display video 51, and FIG. 5B is a diagram of the metadata area 53 defined in FIG. 4 is a schematic diagram showing a data structure of metadata set in one metadata area 53. FIG.

図5(a)が示す表示映像51は、ある果物屋を撮影した映像である。表示映像51には、果物屋の店主を示す第4メタデータ領域53d、客を示す第5メタデータ領域53e、商品であるバナナを示す第6メタデータ領域53fが定義されている。また、図5(b)は、第6メタデータ領域53fに設定されているメタデータのデータ構造を示す模式図である。各メタデータは、それぞれを一意に特定するメタデータID(IDentifier)、メタデータの概要、全方位映像80におけるメタデータ領域53の位置を表す絶対座標、表示映像51におけるメタデータ領域53の表示位置を示す相対座標、メタデータ領域53に関連付けられている1又は複数の関連コンテンツを特定するための情報、メタデータ領域53がアクティブか否か、すなわち、メタデータ領域53をユーザPに提示して選択させることができるか否か等の情報を含んでいる。   A display image 51 shown in FIG. 5A is an image of a fruit store. In the display video 51, a fourth metadata area 53d indicating a fruit shop owner, a fifth metadata area 53e indicating a customer, and a sixth metadata area 53f indicating a banana as a product are defined. FIG. 5B is a schematic diagram showing the data structure of metadata set in the sixth metadata area 53f. Each metadata includes a metadata ID (IDentifier) that uniquely identifies each metadata, an outline of the metadata, absolute coordinates that indicate the position of the metadata area 53 in the omnidirectional video 80, and the display position of the metadata area 53 in the display video 51. Relative coordinates indicating information, information for specifying one or more related contents associated with the metadata area 53, whether or not the metadata area 53 is active, that is, presenting the metadata area 53 to the user P It contains information such as whether or not it can be selected.

なお、絶対座標は、全方位映像80において表示位置を特定するためにあらかじめ定められている座標である。絶対座標は全方位映像80の位置を一意に特定できるのであればどのようなものでもよい。例えば図3(a)における東西を結ぶ線分をX軸、南北を結ぶ線分をY軸、ユーザPから天頂に向かう線分をZ軸としたときの、方位角と仰角(又は俯角)を用いて全体座標を表現することができる。なお、方位角はXY平面における極座標の角度であり、仰角はXY平面の上側の角度、俯角はXY平面の下側の角度である。   The absolute coordinates are coordinates determined in advance for specifying the display position in the omnidirectional video 80. The absolute coordinates may be any as long as the position of the omnidirectional video 80 can be uniquely specified. For example, the azimuth angle and elevation angle (or depression angle) when the line segment connecting the east and west in FIG. 3A is the X axis, the line segment connecting the north and south is the Y axis, and the line segment from the user P to the zenith is the Z axis. Can be used to represent the global coordinates. The azimuth angle is the polar coordinate angle on the XY plane, the elevation angle is the angle above the XY plane, and the depression angle is the angle below the XY plane.

図5(a)において、第7メタデータ領域53g、第8メタデータ領域53h、及び第9メタデータ領域53iは、ユーザPが第6メタデータ領域53fを選択したときにアクティブとなり、映像再生部15が表示部50に表示させるメタデータ領域53である。より具体的には、第6メタデータ領域53fに関連付けられている関連コンテンツをユーザPに提示するためのメタデータ領域である。図5(a)−(b)に示す例では、ユーザPがバナナを示す第6メタデータ領域53fを選択すると、その産地を紹介するURL(Uniform Resource Locator)や、類似商品の画像、その商品を使った料理のレシピ等の関連コンテンツがアクティブとなり、表示部50に表示される。   In FIG. 5A, the seventh metadata area 53g, the eighth metadata area 53h, and the ninth metadata area 53i become active when the user P selects the sixth metadata area 53f, and the video reproduction unit Reference numeral 15 denotes a metadata area 53 to be displayed on the display unit 50. More specifically, this is a metadata area for presenting related content associated with the sixth metadata area 53f to the user P. In the example shown in FIGS. 5A and 5B, when the user P selects the sixth metadata area 53f indicating a banana, a URL (Uniform Resource Locator) that introduces the production area, an image of a similar product, the product Related content such as a recipe for cooking using is activated and displayed on the display unit 50.

ユーザPがマーカ52をアクティブとなった関連コンテンツに重ねると、領域選択部16は、その関連コンテンツを選択する。実行部11は、領域選択部16が選択したメタデータ領域53の被写体に関連するコンテンツを表示部50に表示させる動作を実行する。このように、全方位映像80の被写体に関連するコンテンツを示すデータをメタデータとしてあらかじめ設定することにより、実行部11は、領域選択部16が選択したメタデータ領域53の被写体に関連するコンテンツを表示部50に表示させる動作を実行することができる。これにより、ユーザPは全方位映像80の被写体に関連する情報を得ることができるようになる。   When the user P puts the marker 52 on the related content that has been activated, the region selection unit 16 selects the related content. The execution unit 11 performs an operation of causing the display unit 50 to display content related to the subject in the metadata area 53 selected by the area selection unit 16. As described above, the execution unit 11 sets the content related to the subject in the metadata region 53 selected by the region selection unit 16 by setting data indicating the content related to the subject in the omnidirectional video 80 in advance as metadata. An operation to be displayed on the display unit 50 can be executed. As a result, the user P can obtain information related to the subject of the omnidirectional video 80.

<全方位映像を利用したショッピング>
図5(a)−(b)を参照して説明した技術を用いることにより、例えば全方位映像80を利用したショッピングの場をユーザPに提供することが可能となる。
図6(a)−(b)は、実施の形態に係る携帯情報端末1が提供する仮想店舗を説明するための図である。具体的には、図6(a)−(b)における表示映像51は、ある服飾店におけるジャケット売り場である場合の例を示している。
<Shopping using omnidirectional video>
By using the technique described with reference to FIGS. 5A and 5B, for example, a shopping place using the omnidirectional video 80 can be provided to the user P.
FIGS. 6A to 6B are diagrams for explaining a virtual store provided by the portable information terminal 1 according to the embodiment. Specifically, the display video 51 in FIGS. 6A to 6B shows an example in the case of a jacket section in a clothing store.

図6(a)に示す表示映像51に撮影されている各ジャケットはあらかじめ全方位映像80の制作者によってメタデータ領域53に設定されている。このため図6(a)に示すように、ユーザPがマーカ52を表示映像51内の所望のジャケットと重ねると、領域選択部16はそのジャケットに対応するメタデータ領域53を選択する。図6(a)−(b)に示す例では、ジャケットである各メタデータ領域53には、そのジャケットとの類似商品や、そのジャケットに合う他の服飾品等の情報がメタデータとして設定されている。例えば図6(b)は、ユーザPが選択したジャケットと類似するジャケットを示す第10メタデータ領域53j及び第11メタデータ領域53kが表示されている様子を示している。図6(b)にはさらに、ユーザPが選択したジャケットに合う靴としてユーザPに推薦される靴を示す第12メタデータ領域53lもアクティブとなっている。   Each jacket photographed in the display video 51 shown in FIG. 6A is set in the metadata area 53 by the producer of the omnidirectional video 80 in advance. Therefore, as shown in FIG. 6A, when the user P overlaps the marker 52 with a desired jacket in the display video 51, the region selection unit 16 selects a metadata region 53 corresponding to the jacket. In the example shown in FIGS. 6A and 6B, in each metadata area 53 that is a jacket, information such as similar products to the jacket and other clothing items that match the jacket is set as metadata. ing. For example, FIG. 6B shows a state in which a tenth metadata area 53j and an eleventh metadata area 53k indicating jackets similar to the jacket selected by the user P are displayed. In FIG. 6B, a twelfth metadata area 53l indicating shoes recommended to the user P as shoes matching the jacket selected by the user P is also active.

この他、図6(a)−(b)に図示はしないが、ユーザPがジャケットであるメタデータ領域53を選択すると、そのジャケットを購入するための決済ページに移動するためのメタデータ領域53が表示される。これにより、あたかも本当のお店でジャケットを選んで購入するかのような体験をユーザPに提供することができる。
なお以下では、実施の形態に係る携帯情報端末1は、図示しないサーバから全方位映像80を取得して再生することを前提として説明する。
In addition, although not shown in FIGS. 6A and 6B, when the user P selects the metadata area 53 that is a jacket, the metadata area 53 for moving to a settlement page for purchasing the jacket. Is displayed. Thereby, it is possible to provide the user P with an experience as if he / she purchased a jacket at a real shop.
Note that the following description is based on the assumption that the portable information terminal 1 according to the embodiment acquires and reproduces the omnidirectional video 80 from a server (not shown).

<ヒートマップ>
このように、ユーザPは、マーカ52を全方位映像80中のメタデータ領域53と重ねることにより、所望のメタデータ領域53を選択する。これはつまり、マーカ52はユーザPが、全方位映像80のうちどの点を注目しているかを計る指標となり得る。このため、時間計測部17は、全方位映像80に定められた複数の部分領域それぞれについて、マーカ52が部分領域に表示された時間を計測する。
<Heat map>
In this way, the user P selects the desired metadata area 53 by overlapping the marker 52 with the metadata area 53 in the omnidirectional video 80. That is, the marker 52 can be an index for measuring which point of the omnidirectional video 80 the user P is paying attention to. For this reason, the time measuring unit 17 measures the time when the marker 52 is displayed in the partial area for each of the plurality of partial areas defined in the omnidirectional video 80.

通信部60は、時間計測部17が計測した時間と、全方位映像80における計測位置を示す全体座標とを、全方位映像80を提供するサーバに送信する。サーバは、ネットワークを介して通信する複数の携帯情報端末1から時間情報と位置情報とを集計し、ヒートマップを作成する。ここで「ヒートマップ」とは、1以上の携帯情報端末1の時間計測部17が計測した時間の長短を示す情報を、計測対象とした部分領域毎に重畳した全方位映像である。ヒートマップは、携帯情報端末1のユーザPが全方位映像80のある部分領域を注目すること、すなわちマーカ52を部分領域と重ねる行為をした時間の長短を視覚的に示す情報となる。映像再生部15は、サーバからヒートマップを取得して、表示部50に表示させる。   The communication unit 60 transmits the time measured by the time measurement unit 17 and the overall coordinates indicating the measurement position in the omnidirectional video 80 to the server that provides the omnidirectional video 80. The server aggregates time information and position information from a plurality of portable information terminals 1 communicating via a network, and creates a heat map. Here, the “heat map” is an omnidirectional video in which information indicating the length of time measured by the time measuring unit 17 of one or more portable information terminals 1 is superimposed for each partial region to be measured. The heat map is information that visually indicates the length of time when the user P of the portable information terminal 1 pays attention to a partial area of the omnidirectional video 80, that is, the act of overlapping the marker 52 with the partial area. The video reproduction unit 15 acquires a heat map from the server and causes the display unit 50 to display the heat map.

図7は、実施の形態に係るヒートマップを示す模式図である。図7において、符号55で示す破線の矩形は、一つの部分領域55を示している。煩雑となるために全てに符号を付していないが、図7において、破線で囲まれた矩形領域は、それぞれ異なる部分領域55である。図7に示す例では、画素の輝度値が小さい領域、すなわち黒色に観察される部分は、画素の輝度値が大きく白色に観察される部分よりもユーザPがマーカ52を重ねた時間が長いことを示している。   FIG. 7 is a schematic diagram showing a heat map according to the embodiment. In FIG. 7, a broken-line rectangle indicated by reference numeral 55 indicates one partial region 55. In order to complicate, not all symbols are attached, but in FIG. 7, rectangular regions surrounded by broken lines are different partial regions 55. In the example shown in FIG. 7, the region where the pixel luminance value is small, that is, the portion observed in black has a longer time for the user P to overlap the marker 52 than the portion where the pixel luminance value is large and observed white. Is shown.

ヒートマップは、例えば図6(a)−(b)に示すような全方位映像80を利用したショッピングにおいて、顧客となるユーザPの注目領域を推測する上で有用な指標となり得る。例えば、全方位映像80を利用したショッピングの提供者が、デザインの異なる複数の全方位映像80を用意し、それぞれのデザインにおけるユーザPの注目領域を計測することができる。これにより、全方位映像80を用いたABテストを実現することができる。全方位映像80を利用したショッピングの提供者は、どのような全方位映像80を用意すれば商品に対するユーザPの注目時間が増加するか等の知見が得られるため、ユーザPにとって利用のしやすいショッピングの場を提供することを実現しうる。   The heat map can be a useful index for estimating the attention area of the user P as a customer in shopping using the omnidirectional video 80 as shown in FIGS. 6A to 6B, for example. For example, a shopping provider using the omnidirectional video 80 can prepare a plurality of omnidirectional videos 80 with different designs and measure the attention area of the user P in each design. Thereby, the AB test using the omnidirectional video 80 can be realized. A shopping provider using the omnidirectional video 80 can easily find out what kind of omnidirectional video 80 should be prepared so that the attention time of the user P for the product increases. It is possible to provide a shopping place.

<処理フロー>
図8は、実施の形態に係る携帯情報端末1が実行する領域選択処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば携帯情報端末1が起動した時に開始する。
<Processing flow>
FIG. 8 is a flowchart for explaining the flow of area selection processing executed by portable information terminal 1 according to the embodiment. The process in this flowchart is started when the portable information terminal 1 is activated, for example.

映像再生部15は、記憶部30から読み出した全方位映像80を再生する(S2)。方位傾斜検出部20は、携帯情報端末1の表示部50が向いている方向を示す方位、及び表示部50の傾きを検出する(S4)。映像決定部14は、方位傾斜検出部20が検出した方位及び傾きに基づいて、全方位映像80のうち表示部50に表示させる表示映像51を決定する(S6)。   The video playback unit 15 plays back the omnidirectional video 80 read from the storage unit 30 (S2). The azimuth detecting unit 20 detects the azimuth indicating the direction in which the display unit 50 of the portable information terminal 1 is facing and the inclination of the display unit 50 (S4). The video determination unit 14 determines the display video 51 to be displayed on the display unit 50 among the omnidirectional video 80 based on the azimuth and tilt detected by the azimuth tilt detection unit 20 (S6).

領域選択部16は、ユーザPが表示部50を動かしてマーカ52をメタデータ領域53に重ねることにより、メタデータ領域53を選択するまで待機する(S8)。ユーザPによるメタデータ領域53の選択の候補がない間(S10のNO)、ステップS2に戻ってステップS2からステップS8に至るまでの処理を繰り返す。ユーザPによるメタデータ領域53の選択候補がある場合(S10のYES)、アイコン表示制御部12は、マーカ52に重ねてアイコン54が表示されるように、表示部50を制御する(S12)。   The area selection unit 16 stands by until the user P selects the metadata area 53 by moving the display section 50 and overlaying the marker 52 on the metadata area 53 (S8). While there is no candidate for selecting the metadata area 53 by the user P (NO in S10), the process returns to step S2 and repeats the process from step S2 to step S8. If there is a selection candidate for the metadata area 53 by the user P (YES in S10), the icon display control unit 12 controls the display unit 50 so that the icon 54 is displayed over the marker 52 (S12).

アイコン表示制御部12は、マーカ52がメタデータ領域53と重なった状態となってからの経過時間を計測する(S14)。アイコン表示制御部12が計測した時間が所定の選択決定時間を経過するまでは(S16のNO)、アイコン表示制御部12は時間計測を継続する。アイコン表示制御部12が計測した時間が所定の選択決定時間を経過すると(S16のYES)、領域選択部16はマーカ52が重なっているメタデータ領域53の選択を確定する(S18)。実行部11は、選択が確定したメタデータ領域53に設定されているメタデータに応じた動作を実行する(S20)。領域選択処理を終了しない間(S22のNO)、ステップS2に戻ってステップS2からステップS20に至るまでの処理を実行する。領域選択処理を終了する場合(S22のYES)、本フローチャートにおける処理は終了する。   The icon display control unit 12 measures an elapsed time after the marker 52 is overlapped with the metadata area 53 (S14). Until the time measured by the icon display control unit 12 passes a predetermined selection determination time (NO in S16), the icon display control unit 12 continues the time measurement. When the time measured by the icon display control unit 12 has passed the predetermined selection determination time (YES in S16), the region selection unit 16 confirms the selection of the metadata region 53 on which the marker 52 overlaps (S18). The execution unit 11 executes an operation corresponding to the metadata set in the metadata area 53 whose selection is confirmed (S20). While the region selection process is not finished (NO in S22), the process returns to step S2 and executes the process from step S2 to step S20. When the area selection process is ended (YES in S22), the process in this flowchart is ended.

以上説明したように、実施の形態に係る携帯情報端末1によれば、ユーザPが携帯情報端末1の表示部50に触れることなく表示部50に表示されたメタデータ領域53を選択することができる。
特に、ユーザPがマーカ52をメタデータ領域53に重ねたとき表示部50にアイコン54が表示されるので、ユーザPはメタデータ領域53を選択していることが一見して把握できる。また、各メタデータ領域53には実行部11が実行する動作がメタデータとして設定されているため、ユーザPは表示部50に触れることなく、携帯情報端末1に種々の動作を実行させることができる。これは例えば音声認識による指示と比較して指示の精度が高くなる点で有利である。また、単に携帯情報端末1の傾きを指示とする場合と比較して、指示できる動作のバリエーションを増やせる点で有利である。
As described above, according to the portable information terminal 1 according to the embodiment, the user P can select the metadata area 53 displayed on the display unit 50 without touching the display unit 50 of the portable information terminal 1. it can.
In particular, since the icon 54 is displayed on the display unit 50 when the user P puts the marker 52 on the metadata area 53, it can be understood at a glance that the user P has selected the metadata area 53. In addition, since the operation executed by the execution unit 11 is set as metadata in each metadata area 53, the user P can cause the portable information terminal 1 to execute various operations without touching the display unit 50. it can. This is advantageous, for example, in that the accuracy of the instruction is higher than the instruction by voice recognition. Further, it is advantageous in that the variation of the operation that can be instructed can be increased as compared with the case where the inclination of the portable information terminal 1 is simply used as an instruction.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。以下そのような変形例を説明する。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention. Such modifications will be described below.

撮影した全方位映像80の被写体である果物屋の店先のバナナや、服飾店のジャケットのような商品は、全方位映像80の作成者が手動でメタデータ領域53及び関連付けるメタデータを設定する。一方、近年、機械学習を用いて映像中の被写体を認識する被写体認識技術が急速に発展してきている。この中でも、特に映像中の人物を検出し、その人物が誰であるかまでも特定する人物認識技術は実用段階に入っている。   The product of the omnidirectional video 80 is manually set by the creator of the omnidirectional video 80 and associated metadata for products such as a banana at a fruit shop storefront or a clothing store jacket, which is the subject of the omnidirectional video 80 taken. On the other hand, in recent years, a subject recognition technique for recognizing a subject in a video using machine learning has been rapidly developed. Among these, in particular, a person recognition technique for detecting a person in a video and specifying who the person is is in a practical stage.

そこで、既知の人物認識技術を用いて、全方位映像80に撮影された人物を認識して自動でメタデータ領域53を作成してもよい。これは例えば実行部11が表示映像51中の人物を認識し、輪郭抽出を実行してメタデータ領域53を生成することで実現できる。また、実行部11は、認識した人物の名前に基づいて図示しないSNS(Social Networking System)のサーバに問い合わせることにより、メタデータ領域53に人物の情報を示すメタデータを特定することができる。これにより、実行部11は、認識した被写体の顔画像や名前等、被写体に関連するコンテンツを表示部50に表示させる動作を実行することができる。   Therefore, the metadata area 53 may be automatically created by recognizing a person photographed in the omnidirectional video 80 using a known person recognition technique. This can be realized, for example, by the execution unit 11 recognizing a person in the display video 51 and executing contour extraction to generate the metadata area 53. The execution unit 11 can identify metadata indicating person information in the metadata area 53 by making an inquiry to a SNS (Social Networking System) server (not shown) based on the recognized person name. Accordingly, the execution unit 11 can execute an operation of causing the display unit 50 to display content related to the subject, such as the face image and name of the recognized subject.

実行部11による被写体認識機能を利用することにより、例えば撮影者自身が撮影されている全方位映像80のショートムービーを投稿するSNSサービスを仮定した場合、そのSNSサービスを利用するユーザが、投稿されている全方位映像80に撮影されている撮影者等の被写体を選択したとする。この被写体の選択を契機として、ユーザがその被写体を「フォロー」することができるようになる。いわば全方位映像版の短文投稿型SNSである。これにより、このSNSサービスを利用するユーザは、表示部50の方向及び傾きを変えて全方位映像80に写っている被写体を選択するだけで、その被写体が過去に投稿した他の全方位映像80や、これから投稿する全方位映像80を簡単に追いかけることができるようになる。   By using the subject recognition function by the execution unit 11, for example, assuming an SNS service that posts a short movie of an omnidirectional video 80 taken by the photographer himself, a user using the SNS service is posted. It is assumed that a subject such as a photographer photographed in the omnidirectional video 80 is selected. In response to the selection of the subject, the user can “follow” the subject. In other words, it is an omnidirectional video version of a short posting SNS. Thereby, the user who uses this SNS service only changes the direction and inclination of the display unit 50 and selects a subject shown in the omnidirectional video 80, and the other omnidirectional video 80 posted by the subject in the past can be obtained. In addition, the omnidirectional video 80 to be posted can be easily followed.

1・・・携帯情報端末
10・・・制御部
11・・・実行部
12・・・アイコン表示制御部
13・・・マーカ表示制御部
14・・・映像決定部
15・・・映像再生部
16・・・領域選択部
17・・・時間計測部
20・・・方位傾斜検出部
30・・・記憶部
40・・・一時記憶部
50・・・表示部
51・・・表示映像
53・・・メタデータ領域
54・・・アイコン
55・・・部分領域
60・・・通信部
70・・・筐体
80・・・全方位映像
DESCRIPTION OF SYMBOLS 1 ... Portable information terminal 10 ... Control part 11 ... Execution part 12 ... Icon display control part 13 ... Marker display control part 14 ... Video determination part 15 ... Video reproduction part 16 ... area selection part 17 ... time measurement part 20 ... azimuth inclination detection part 30 ... storage part 40 ... temporary storage part 50 ... display part 51 ... display video 53 ... Metadata area 54 ... Icon 55 ... Partial area 60 ... Communication unit 70 ... Housing 80 ... Omni-directional video

Claims (9)

携帯情報端末に、
前記携帯情報端末の向き及び傾きを検出する方位傾斜検出機能と、
メタデータが設定されたメタデータ領域を少なくとも一部に含む全方位映像を再生する映像再生機能と、
前記向き及び傾きに基づいて前記全方位映像のうち前記携帯情報端末の表示部に表示させる表示映像を決定する映像決定機能と、
前記表示映像に含まれるメタデータ領域の少なくとも一部が、前記表示部に定められた所定の表示位置で表示された場合、当該メタデータ領域を選択する領域選択機能と、
選択された前記メタデータ領域に設定されたメタデータに応じた動作を実行する実行機能と、
を実現させることを特徴とするプログラム。
On your mobile device,
An azimuth tilt detection function for detecting the orientation and tilt of the portable information terminal;
A video playback function for playing back an omnidirectional video including at least a part of a metadata area in which metadata is set;
A video determination function for determining a display video to be displayed on the display unit of the portable information terminal out of the omnidirectional video based on the orientation and the inclination;
An area selection function for selecting the metadata area when at least a part of the metadata area included in the display video is displayed at a predetermined display position defined in the display unit;
An execution function for executing an operation according to the metadata set in the selected metadata area;
A program characterized by realizing.
前記携帯情報端末に、
前記表示部に定められた所定の表示位置に、メタデータ領域を選択するためのマーカを表示するマーカ表示制御機能と、
前記マーカと前記表示映像に含まれるメタデータ領域とが重なっていることを示すアイコンを、前記表示部に表示させるアイコン表示制御機能と、
をさらに実現させることを特徴とする請求項1に記載のプログラム。
In the portable information terminal,
A marker display control function for displaying a marker for selecting a metadata area at a predetermined display position determined in the display unit;
An icon display control function for causing the display unit to display an icon indicating that the marker and a metadata area included in the display video overlap;
The program according to claim 1, further comprising:
前記アイコン表示制御機能は、前記表示映像に含まれるメタデータ領域の少なくとも一部が前記表示部に定められた所定の表示位置に表示されてから経過した時間を示す情報を含むアイコンを、前記表示部に表示させることを特徴とする請求項2に記載のプログラム。   The icon display control function displays an icon including information indicating a time elapsed since at least a part of a metadata area included in the display video is displayed at a predetermined display position defined in the display unit. The program according to claim 2, wherein the program is displayed on a screen. 前記領域選択機能は、前記表示映像に含まれるメタデータ領域の少なくとも一部が、前記表示部に定められた所定の表示位置に、領域選択の有無を決定するために予め定められた選択決定時間が経過する間継続して表示された場合、前記表示映像に含まれるメタデータ領域を選択することを特徴とする請求項1から3のいずれか一項に記載のプログラム。   The area selection function has a predetermined selection determination time for determining whether or not an area is selected at a predetermined display position determined in the display unit at least a part of the metadata area included in the display video. 4. The program according to claim 1, wherein a metadata area included in the display video is selected when the image is continuously displayed for a while. 前記メタデータ領域に設定されたメタデータは、当該メタデータ領域における全方位映像の被写体に関連するコンテンツを示すデータであり、
前記実行機能は、前記領域選択機能が選択したメタデータ領域の被写体に関連するコンテンツを前記表示部に表示させる動作を実行する、
ことを特徴とする請求項1から4のいずれか一項に記載のプログラム。
The metadata set in the metadata area is data indicating content related to the subject of the omnidirectional video in the metadata area,
The execution function executes an operation of causing the display unit to display content related to a subject in the metadata area selected by the area selection function.
The program according to any one of claims 1 to 4, wherein:
前記実行機能は、前記領域選択機能が選択したメタデータ領域の被写体を認識し、認識した被写体に関連するコンテンツを前記表示部に表示させる動作を実行する、
ことを特徴とする請求項1から5のいずれか一項に記載のプログラム。
The execution function executes an operation of recognizing a subject in the metadata region selected by the region selection function and displaying content related to the recognized subject on the display unit.
The program according to any one of claims 1 to 5, wherein:
前記領域選択機能は、前記表示部に表示されたコンテンツの少なくとも一部が、前記表示部に定められた所定の表示位置で表示された場合、当該コンテンツを選択することを特徴とする請求項5又は6に記載のプログラム。   6. The area selection function selects content when at least a part of the content displayed on the display unit is displayed at a predetermined display position defined on the display unit. Or the program of 6. 前記携帯情報端末に、前記全方位映像に含まれる複数の部分領域のそれぞれについて、前記表示部に定められた所定の表示位置において前記部分領域が表示された時間を計測する時間計測機能をさらに実現させ、
前記映像再生機能は、前記時間計測機能が計測した時間の長短を示す情報を計測対象とした部分領域毎に重畳した前記全方位映像を再生する、
ことを特徴とする請求項1から7のいずれか一項に記載のプログラム。
The portable information terminal further implements a time measurement function for measuring the time at which the partial area is displayed at a predetermined display position defined on the display unit for each of the plurality of partial areas included in the omnidirectional video. Let
The video playback function plays back the omnidirectional video that is superimposed for each partial area that is the measurement target information indicating the length of time measured by the time measurement function.
The program according to any one of claims 1 to 7, characterized by:
表示部と、
前記表示部の向き及び傾きを検出する方位傾斜検出部と、
メタデータが設定されたメタデータ領域を少なくとも一部に含む全方位映像を再生する映像再生部と、
前記向き及び傾きに基づいて前記全方位映像のうち前記表示部に表示させる表示映像を決定する映像決定部と、
前記表示映像に含まれるメタデータ領域の少なくとも一部が、前記表示部に定められた所定の表示位置で表示された場合、当該メタデータ領域を選択する領域選択部と、
前記領域選択部が選択した前記メタデータ領域に設定されたメタデータが規定する動作を実行する実行部と、
を備えることを特徴とする携帯情報端末。
A display unit;
An azimuth inclination detection unit for detecting the orientation and inclination of the display unit;
A video playback unit that plays back an omnidirectional video including at least part of a metadata area in which metadata is set;
A video determination unit for determining a display video to be displayed on the display unit among the omnidirectional video based on the orientation and the inclination;
An area selection unit that selects the metadata area when at least a part of the metadata area included in the display video is displayed at a predetermined display position defined in the display unit;
An execution unit that executes an operation defined by the metadata set in the metadata region selected by the region selection unit;
A portable information terminal comprising:
JP2016000953A 2016-01-06 2016-01-06 Portable information terminal and program Pending JP2017123006A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016000953A JP2017123006A (en) 2016-01-06 2016-01-06 Portable information terminal and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016000953A JP2017123006A (en) 2016-01-06 2016-01-06 Portable information terminal and program

Publications (1)

Publication Number Publication Date
JP2017123006A true JP2017123006A (en) 2017-07-13

Family

ID=59306408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016000953A Pending JP2017123006A (en) 2016-01-06 2016-01-06 Portable information terminal and program

Country Status (1)

Country Link
JP (1) JP2017123006A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160112A (en) * 2018-03-16 2019-09-19 株式会社スクウェア・エニックス Picture display system, method for displaying picture, and picture display program
JP2020030853A (en) * 2019-11-07 2020-02-27 株式会社コナミデジタルエンタテインメント Information processing device, information processing device program, head-mount display and information processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160112A (en) * 2018-03-16 2019-09-19 株式会社スクウェア・エニックス Picture display system, method for displaying picture, and picture display program
JP2020030853A (en) * 2019-11-07 2020-02-27 株式会社コナミデジタルエンタテインメント Information processing device, information processing device program, head-mount display and information processing system

Similar Documents

Publication Publication Date Title
US20200099923A1 (en) 3D User Interface - 360-degree Visualization of 2D Webpage Content
US9443353B2 (en) Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects
JP6470356B2 (en) Program and method executed by computer for providing virtual space, and information processing apparatus for executing the program
US20200264695A1 (en) A cloud-based system and method for creating a virtual tour
JP6392945B1 (en) Program and method executed by computer for providing virtual space, and information processing apparatus for executing the program
US20120026376A1 (en) Anamorphic projection device
JP6677890B2 (en) Information processing system, its control method and program, and information processing apparatus, its control method and program
TW201502860A (en) Human-body-gesture-based region and volume selection for HMD
US20180143757A1 (en) 3D User Interface
TW201741853A (en) Virtual reality real-time navigation method and system through which a narrator can conveniently make a corresponding narration through a screen to help users to understand more easily
KR102089614B1 (en) Method for taking spherical panoramic image and an electronic device thereof
CN109448050B (en) Method for determining position of target point and terminal
JPWO2018025825A1 (en) Imaging system
JP6617547B2 (en) Image management system, image management method, and program
US10061492B2 (en) Path-linked viewpoints from point of interest
JP2017123006A (en) Portable information terminal and program
US20180144541A1 (en) 3D User Interface - Non-native Stereoscopic Image Conversion
JP2005044102A (en) Image reproduction method and device
JP2016122443A (en) Information processing apparatus, control method thereof, program, information processing system, control method thereof, and program
JP2019021324A (en) Program executed by computer providing virtual space, method and information processing device executing program
JP6371547B2 (en) Image processing apparatus, method, and program
KR101960046B1 (en) Method for producing virtual reality image, portable device in which VR photographing program for performing the same is installed, and server supplying the VR photographing program to the portable device
JP7439042B2 (en) Image processing device, image processing method and program
JP7296164B1 (en) Information processing apparatus, method, content creation program, and content playback program
TW201908951A (en) Real-time navigation method and system for virtual reality including at least one reality display apparatus and a navigation control interface