JP7020024B2 - Information processing equipment and programs - Google Patents

Information processing equipment and programs Download PDF

Info

Publication number
JP7020024B2
JP7020024B2 JP2017185161A JP2017185161A JP7020024B2 JP 7020024 B2 JP7020024 B2 JP 7020024B2 JP 2017185161 A JP2017185161 A JP 2017185161A JP 2017185161 A JP2017185161 A JP 2017185161A JP 7020024 B2 JP7020024 B2 JP 7020024B2
Authority
JP
Japan
Prior art keywords
viewpoint
user
image
angle
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017185161A
Other languages
Japanese (ja)
Other versions
JP2018139096A (en
Inventor
聖 三井
将人 高田
仁美 水谷
啓太郎 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US15/825,216 priority Critical patent/US10614606B2/en
Publication of JP2018139096A publication Critical patent/JP2018139096A/en
Priority to US16/793,793 priority patent/US10891771B2/en
Application granted granted Critical
Publication of JP7020024B2 publication Critical patent/JP7020024B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置およびプログラムに関する。 The present invention relates to an information processing apparatus and a program.

近年、全天球カメラの普及に伴って、撮影地点の全方位を撮影した全天球画像を、専用ビューワを用いて鑑賞する機会が増えてきている。ここで、全天球画像の専用ビューワとは、全天球画像を所定の3次元オブジェクトの表面にマッピングして3次元モデルを生成し、ユーザの表示範囲変更操作(パン・チルト・ズーム)に応じて、全天球画像の3次元モデルの一部の領域を射影変換した2次元画像を表示するアプリケーションである。 In recent years, with the spread of omnidirectional cameras, there are increasing opportunities to view omnidirectional images taken in all directions of shooting points using a dedicated viewer. Here, the dedicated viewer for the all-sky image is to map the all-sky image to the surface of a predetermined three-dimensional object to generate a three-dimensional model, and to perform the user's display range change operation (pan, tilt, zoom). Correspondingly, it is an application that displays a two-dimensional image obtained by projecting and transforming a part of a region of a three-dimensional model of an all-sky sphere image.

ここで、従来の専用ビューワを使用して、全天球画像の中の注目領域を探索しようとする場合、ユーザは、手動操作(パン・チルト・ズーム)を行って表示領域を変更しながら全天球画像の全体を目で追って確認しなければならなかった。 Here, when trying to search the area of interest in the spherical image using the conventional dedicated viewer, the user performs a manual operation (pan / tilt / zoom) to change the display area. I had to visually check the entire spherical image.

この点につき、特開2015-18013号公報(特許文献1)は、全天球画像の中に含まれる注目領域を予めサムネイル化して一覧表示し、サムネイルが選択されたことに連動して、対応する注目領域を全体表示する表示制御装置を開示する。 Regarding this point, Japanese Patent Application Laid-Open No. 2015-18013 (Patent Document 1) responds to the fact that the areas of interest included in the spherical image are thumbnailed in advance and displayed in a list, and the thumbnails are selected. Disclose a display control device that displays the entire area of interest.

特許文献1の表示制御装置によれば、全天球画像の注目領域を探索する手間が省けるが、一方で、サムネイルを手動で選択するという手間が依然として残り、その手間は、注目領域の数が増えるにつれて増える。 According to the display control device of Patent Document 1, the time and effort of searching the attention area of the spherical image can be saved, but on the other hand, the time and effort of manually selecting the thumbnail still remains, and the time and effort is the number of attention areas. It increases as it increases.

本発明は、上記に鑑みてなされたものであり、ユーザの操作の手間を低減しつつ、全天球画像の注目領域をわかりやすく提示することができる情報処理装置を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an information processing apparatus capable of presenting a region of interest of a spherical image in an easy-to-understand manner while reducing the time and effort of a user's operation. ..

本発明者らは、ユーザの操作の手間を低減しつつ、全天球画像の注目領域をわかりやすく提示することができる情報処理装置の構成につき鋭意検討した結果、以下の構成に想到し、本発明に至ったのである。 As a result of diligent studies on the configuration of an information processing device that can present the area of interest of the spherical image in an easy-to-understand manner while reducing the time and effort of the user's operation, the present inventors have come up with the following configuration. It led to the invention.

すなわち、本発明によれば、全天球画像において、ユーザが指定する視点をその指定順に登録する視点管理部と、全天球画像における第1の視点と該第1の視点の次に指定された第2の視点の間を補間する経路に沿って視点を遷移させる視点制御部と、遷移する各視点を中心とした部分画像を生成する演算部と、生成された複数の部分画像を視点の遷移順に繋ぎ合わせたアニメーション表示を実行する制御部と、を含む情報処理装置が提供される。 That is, according to the present invention, in the spherical image, the viewpoint management unit that registers the viewpoints designated by the user in the designated order, and the first viewpoint in the spherical image and the first viewpoint are designated next to the first viewpoint. A viewpoint control unit that transitions the viewpoint along a path that interpolates between the second viewpoints, a calculation unit that generates a partial image centered on each transition viewpoint, and a plurality of generated partial images of the viewpoint. An information processing device including a control unit that executes an animation display connected in the order of transition is provided.

上述したように、本発明によれば、ユーザの操作の手間を低減しつつ、全天球画像の注目領域をわかりやすく提示することができる情報処理装置が提供される。 As described above, according to the present invention, there is provided an information processing apparatus capable of presenting a region of interest of a spherical image in an easy-to-understand manner while reducing the time and effort of a user's operation.

本実施形態の情報処理装置を含む撮像システムの構成例を示す図。The figure which shows the structural example of the image pickup system which includes the information processing apparatus of this embodiment. 本実施形態の情報処理装置のハードウェア構成図。The hardware configuration diagram of the information processing apparatus of this embodiment. 第1実施形態の情報処理装置の外観図。The external view of the information processing apparatus of 1st Embodiment. 第1実施形態の情報処理装置の機能ブロック図。The functional block diagram of the information processing apparatus of 1st Embodiment. 部分画像を説明するための図。The figure for demonstrating a partial image. 視点登録時のアプリ画面を示す図。The figure which shows the application screen at the time of viewpoint registration. 視点登録時のアプリ画面を示す図。The figure which shows the application screen at the time of viewpoint registration. プレビュー再生時のアニメーションを示す図。The figure which shows the animation at the time of preview playback. 視点登録時の部分画像を示す図。The figure which shows the partial image at the time of viewpoint registration. 視点編集時のアプリ画面を示す図。The figure which shows the application screen at the time of viewpoint editing. 詳細設定時のアプリ画面を示す図。The figure which shows the application screen at the time of a detailed setting. 動画生成時のアプリ画面を示す図。The figure which shows the application screen at the time of moving image generation. 視点登録時に実行される処理を示すシーケンス図。A sequence diagram showing the processing executed when registering the viewpoint. 視点情報管理テーブルを示す図。The figure which shows the viewpoint information management table. プレビュー再生時に実行される処理を示すシーケンス図。A sequence diagram showing the processing executed during preview playback. 第2実施形態の視点登録時のアプリ画面を示す図。The figure which shows the application screen at the time of viewpoint registration of 2nd Embodiment. 遷移方向の設定を説明するための図。The figure for demonstrating the setting of a transition direction. プリセットデータを示す図。The figure which shows the preset data. プリセットデータ利用時のアプリ画面を示す図。The figure which shows the application screen when using the preset data. プリセットデータ利用時のアプリ画面を示す図。The figure which shows the application screen when using the preset data. プリセットデータ利用時のアプリ画面を示す図。The figure which shows the application screen when using the preset data. プリセットデータ利用時のアプリ画面を示す図。The figure which shows the application screen when using the preset data. 映像表現を変更するために使用されるパラメータについて説明する図。A diagram illustrating parameters used to change the visual representation. プロジェクションタイプの例を示す図。The figure which shows the example of the projection type. プロジェクションタイプの例を示す図。The figure which shows the example of the projection type. プロジェクションタイプの例を示す図。The figure which shows the example of the projection type. プロジェクションタイプ設定時のアプリ画面を示す図。The figure which shows the application screen at the time of setting a projection type. 視点登録時に実行される処理を示すシーケンス図。A sequence diagram showing the processing executed when registering the viewpoint. プロジェクションタイプ間のアニメーションの遷移について説明する図。A diagram illustrating animation transitions between projection types. プロジェクションタイプ間のアニメーションの遷移について説明する図。A diagram illustrating animation transitions between projection types. プロジェクションタイプ間のアニメーションの遷移について説明する図。A diagram illustrating animation transitions between projection types. プレビュー再生時に実行される処理を示すシーケンス図。A sequence diagram showing the processing executed during preview playback.

以下、本発明を、実施形態をもって説明するが、本発明は後述する実施形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。 Hereinafter, the present invention will be described with reference to embodiments, but the present invention is not limited to the embodiments described later. In each of the figures referred to below, the same reference numerals are used for common elements, and the description thereof will be omitted as appropriate.

図1は、本実施形態の情報処理装置100を含む撮像システムの構成例を示す。撮像システムは、少なくとも1つの情報処理装置100と、少なくとも1つの撮像装置110とを含み、互いに通信可能に接続されている。図1に示す例では、3つの情報処理装置100a~100cと、1つの撮像装置110とで構成され、3つの情報処理装置100a~100cのそれぞれと、撮像装置110とが無線接続されている。 FIG. 1 shows a configuration example of an imaging system including the information processing apparatus 100 of the present embodiment. The image pickup system includes at least one information processing device 100 and at least one image pickup device 110, and is communicably connected to each other. In the example shown in FIG. 1, it is composed of three information processing devices 100a to 100c and one image pickup device 110, and each of the three information processing devices 100a to 100c and the image pickup device 110 are wirelessly connected.

撮像装置110としては、全天球画像を撮像する全天球カメラを用いることができる。ここで、“全天球画像”とは、一度の撮像で全天球カメラを中心として概ね全方位を撮像した画像である。全天球画像は、必ずしも360°の全方位を撮像した画像でなくてもよく、例えば全天球カメラの持ち手の部分がある数度あるいは数十度の方位を除く画像も含まれる。全天球カメラは、ハードウェアとして、少なくとも2つの魚眼レンズ、少なくとも2つの撮像素子、コントローラ、通信インタフェースを含む。 As the image pickup device 110, a spherical camera that captures a spherical image can be used. Here, the "omnidirectional image" is an image obtained by capturing a substantially omnidirectional image centered on the spherical camera in one imaging. The omnidirectional image does not necessarily have to be an image captured in all directions of 360 °, and includes, for example, an image excluding the direction of several degrees or several tens of degrees with the handle portion of the omnidirectional camera. The spherical camera includes at least two fisheye lenses, at least two image sensors, a controller, and a communication interface as hardware.

魚眼レンズは、180°以上の画角を有する。画角は、カメラで撮像される画像の範囲を角度で表したものである。撮像素子は、魚眼レンズにより光が集光する位置(結像位置)に配置され、集光された光により形成される光学像を電気信号の画像データに変換して出力する。撮像素子としては、CMOSセンサやCCDセンサなどの画像センサを用いることができる。 The fisheye lens has an angle of view of 180 ° or more. The angle of view represents the range of the image captured by the camera as an angle. The image pickup element is arranged at a position (imaging position) where light is focused by a fisheye lens, and converts an optical image formed by the focused light into image data of an electric signal and outputs it. As the image pickup element, an image sensor such as a CMOS sensor or a CCD sensor can be used.

撮像装置110は、例えば2つの魚眼レンズと、2つの撮像素子とを含み、2つの魚眼レンズは、互いに背面対向して配置され、互いに180°以上の方位を撮像した画像(半球画像)を撮像する。 The image pickup apparatus 110 includes, for example, two fisheye lenses and two image pickup elements, and the two fisheye lenses are arranged so as to face each other back to each other and capture an image (hemispherical image) in which an orientation of 180 ° or more is captured.

コントローラは、各半球画像に対して所定の処理を行い、2つの半球画像を繋ぎ合わせて全天球画像を生成し、通信インタフェースを介して全天球画像を要求する情報処理装置100a~100cへ送信する。なお、全天球カメラについて簡単に説明したが、本発明とは直接関係しないので、これ以上の詳細なハードウェア構成や機能などについては説明を省略する。 The controller performs predetermined processing on each hemispherical image, joins the two hemispherical images to generate a spherical image, and processes the information processing devices 100a to 100c that request the spherical image via the communication interface. Send. Although the spherical camera has been briefly described, since it is not directly related to the present invention, further detailed hardware configurations and functions will be omitted.

3つの情報処理装置100a~100cは、撮像装置110と無線通信を行い、撮像装置110により撮像された全天球画像を、撮像装置110から取得し、表示する。したがって、情報処理装置100a~100cは、撮像装置110との間で無線通信を行い、取得した全天球画像を表示し、その全天球画像に対して所定の処理を実行することができる装置であれば、いかなる装置であってもよい。図1に示す例では、情報処理装置100aが、スマートフォンとされ、情報処理装置100bが、タブレットPCとされ、情報処理装置100cが、ノートPCとされている。情報処理装置100は、これらの装置に限られるものではなく、デスクトップPC、デジタルカメラ、プロジェクタ、電子黒板、MFP(Multifunction Peripheral)などであってもよい。 The three information processing devices 100a to 100c perform wireless communication with the image pickup device 110, acquire the spherical image captured by the image pickup device 110 from the image pickup device 110, and display the image. Therefore, the information processing devices 100a to 100c can perform wireless communication with the image pickup device 110, display the acquired spherical image, and execute a predetermined process on the spherical image. Any device may be used as long as it is used. In the example shown in FIG. 1, the information processing device 100a is a smartphone, the information processing device 100b is a tablet PC, and the information processing device 100c is a notebook PC. The information processing device 100 is not limited to these devices, and may be a desktop PC, a digital camera, a projector, an electronic blackboard, an MFP (Multifunction Peripheral), or the like.

図1に示す例では、3つの情報処理装置100a~100cと、撮像装置110とが無線LAN等により無線接続されているが、これに限られるものではなく、ケーブルなどを使用して有線接続されていてもよい。また、3つの情報処理装置100a~100cと、撮像装置110とは、無線または有線により直接接続されることに限られるものではなく、インターネットなどのネットワークを介して接続されていてもよい。 In the example shown in FIG. 1, the three information processing devices 100a to 100c and the image pickup device 110 are wirelessly connected by a wireless LAN or the like, but the present invention is not limited to this, and the three information processing devices 100a to 100c are connected by wire using a cable or the like. May be. Further, the three information processing devices 100a to 100c and the image pickup device 110 are not limited to being directly connected by wireless or wired, and may be connected via a network such as the Internet.

システム構成は以上の通りであるが、次に図2を参照して、本実施形態の情報処理装置100のハードウェア構成について説明する。図1に示す情報処理装置100a~100cのいずれも、図2に示すハードウェア構成を採用することができる。 The system configuration is as described above. Next, the hardware configuration of the information processing apparatus 100 of the present embodiment will be described with reference to FIG. Any of the information processing devices 100a to 100c shown in FIG. 1 can adopt the hardware configuration shown in FIG.

情報処理装置100は、装置全体の動作を制御するプロセッサ10と、ブートプログラムやファームウェアプログラムなどを保存するROM12と、プログラムの実行空間を提供するRAM13と、情報処理装置100を後述する各手段として機能させるためのプログラムやオペレーティングシステム(OS)などを保存するための補助記憶装置14と、ディスプレイ18などを接続するための入出力インタフェース15と、撮像装置110との間で通信を行うための通信インタフェース16とを備えている。 The information processing apparatus 100 functions as a processor 10 that controls the operation of the entire apparatus, a ROM 12 that stores a boot program, a firmware program, and the like, a RAM 13 that provides an execution space for the program, and the information processing apparatus 100 as means described later. A communication interface for communicating between an auxiliary storage device 14 for storing a program, an operating system (OS), and the like, an input / output interface 15 for connecting a display 18 and the like, and an image pickup device 110. It is equipped with 16.

プロセッサ10は、補助記憶装置14からプログラムを読み出して実行し、通信インタフェース16を介して撮像装置110に対して全天球画像の取得を要求する。また、プロセッサ10は、プログラムの実行の下で、通信インタフェース16を介して取得した全天球画像を、RAM13や補助記憶装置14に保存し、ディスプレイ18に表示し、全天球画像に対して所定の処理を実行する。これらの詳細については後述する。 The processor 10 reads a program from the auxiliary storage device 14 and executes it, and requests the image pickup device 110 to acquire a spherical image via the communication interface 16. Further, the processor 10 stores the spherical image acquired via the communication interface 16 in the RAM 13 or the auxiliary storage device 14 under the execution of the program, displays it on the display 18, and displays the spherical image on the spherical image. Executes a predetermined process. Details of these will be described later.

(第1実施形態)
図3は、本発明の第1実施形態である情報処理装置100の外観を示す。本実施形態の情報処理装置100は、ディスプレイ18を備える情報処理装置であり、上記の所定の処理を実行するためにプログラムとして、全天球画像に含まれる任意の領域を連続的に表示する動画を生成するためのアプリケーション・プログラム(以下、専用アプリという)がインストールされている。なお、図3に示す例では、情報処理装置100として、スマートフォンを示しているが、情報処理装置100は、スマートフォンに限定されるものではなく、上述したタブレットPC、ノートPC、デスクトップPCなどであってもよい。以下では、情報処理装置100として、スマートフォンを採用した場合を例にとって説明を行うものとする。
(First Embodiment)
FIG. 3 shows the appearance of the information processing apparatus 100 according to the first embodiment of the present invention. The information processing device 100 of the present embodiment is an information processing device including a display 18, and is a moving image that continuously displays an arbitrary area included in the whole celestial sphere image as a program for executing the above-mentioned predetermined processing. An application program (hereinafter referred to as a dedicated application) for generating information is installed. In the example shown in FIG. 3, a smartphone is shown as the information processing device 100, but the information processing device 100 is not limited to the smartphone, and may be the above-mentioned tablet PC, notebook PC, desktop PC, or the like. You may. In the following, a case where a smartphone is adopted as the information processing apparatus 100 will be described as an example.

図3に示すように、専用アプリの操作画面は、領域20と、領域22と、領域23とを含んで構成されている。ここで、領域20には、全天球画像(3次元モデル)の一部の領域を射影変換した2次元画像が表示されるようになっている。また、領域22には、登録視点(後述する)のサムネイルが表示されるようになっている。さらに、領域23には、遷移速度(後述する)を設定するためのスライダーと、生成した動画をプレビュー再生するための「プレビュー」ボタンと、登録視点(後述する)を削除するための「削除」ボタンと、生成した動画を保存するための「保存」ボタンと、詳細設定を行うための「詳細設定」ボタンといった各種操作ボタンが表示されるようになっている。 As shown in FIG. 3, the operation screen of the dedicated application includes an area 20, an area 22, and an area 23. Here, in the area 20, a two-dimensional image obtained by projecting and transforming a part of the whole celestial sphere image (three-dimensional model) is displayed. Further, in the area 22, thumbnails of registered viewpoints (described later) are displayed. Further, in the area 23, a slider for setting the transition speed (described later), a "preview" button for previewing the generated video, and a "deletion" for deleting the registration viewpoint (described later). Various operation buttons such as a button, a "save" button for saving the generated video, and a "detailed setting" button for making detailed settings are displayed.

続いて、図4に示す機能ブロック図に基づいて、情報処理装置100の機能構成を説明する。情報処理装置100は、プロセッサ10が上述した専用アプリを実行することで、情報処理装置100を各手段として機能させることから、専用アプリを実行する情報処理装置100は、各手段を備えているということができる。ここでは、専用アプリの実行により各手段として機能させることとして説明するが、これに限られるものではなく、一部または全部の機能について専用の回路などのハードウェアで実現してもよい。 Subsequently, the functional configuration of the information processing apparatus 100 will be described with reference to the functional block diagram shown in FIG. Since the information processing device 100 causes the information processing device 100 to function as each means by executing the above-mentioned dedicated application by the processor 10, the information processing device 100 that executes the dedicated application is said to have each means. be able to. Here, it is described that it functions as each means by executing a dedicated application, but the present invention is not limited to this, and some or all of the functions may be realized by hardware such as a dedicated circuit.

図4に示すように、情報処理装置100は、上記の各手段として、表示部102と、制御部103と、演算部104と、視点管理部105と、視点制御部106と、動画データ生成部107とを含み、さらにRAM13や補助記憶装置14により実現される記憶領域108を含んで構成される。 As shown in FIG. 4, the information processing apparatus 100 has a display unit 102, a control unit 103, a calculation unit 104, a viewpoint management unit 105, a viewpoint control unit 106, and a moving image data generation unit as each of the above means. It includes 107, and further includes a storage area 108 realized by the RAM 13 and the auxiliary storage device 14.

表示部102は、ディスプレイ18に表示する画像を生成するとともに、ディスプレイ18にUIを表示して、ユーザの操作を受け付ける手段である。 The display unit 102 is a means for generating an image to be displayed on the display 18 and displaying a UI on the display 18 to accept a user's operation.

視点管理部105は、全天球画像を所定の3次元オブジェクトの表面(例えば、球体の内面)にマッピングした3次元モデルにおいて、ユーザが指定する視点をその指定順に登録・管理する手段である。 The viewpoint management unit 105 is a means for registering and managing viewpoints designated by the user in a three-dimensional model in which a spherical image is mapped to the surface of a predetermined three-dimensional object (for example, the inner surface of a sphere).

視点制御部106は、全天球画像の3次元モデルにおいて、第1の視点から当該第1の視点の次に指定された第2の視点を補間する経路に沿って視点を遷移させる手段である。 The viewpoint control unit 106 is a means for transitioning the viewpoint from the first viewpoint along a path that interpolates the second viewpoint designated after the first viewpoint in the three-dimensional model of the spherical image. ..

演算部104は、各種画像処理や幾何学演算を実行する手段であり、上記経路上を遷移する各視点を中心とした部分画像を生成する手段である。ここで、本実施形態における“部分画像”とは、全天球画像の3次元モデル上の任意の視点を画像の中心とする一部の領域を射影変換した2次元画像を意味する。 The calculation unit 104 is a means for executing various image processing and geometric calculation, and is a means for generating a partial image centered on each viewpoint transitioning on the path. Here, the "partial image" in the present embodiment means a two-dimensional image obtained by projecting and transforming a part of a region centered on an arbitrary viewpoint on the three-dimensional model of the whole celestial sphere image.

制御部103は、生成された複数の部分画像を視点の遷移順に繋ぎ合わせたアニメーション表示を実行する手段である。 The control unit 103 is a means for executing an animation display in which a plurality of generated partial images are connected in the order of transition of viewpoints.

動画データ生成部107は、生成された複数の部分画像を汎用ファイル形式の動画データに変換する手段である。 The moving image data generation unit 107 is a means for converting a plurality of generated partial images into moving image data in a general-purpose file format.

記憶領域108は、各種データを記憶する手段である。 The storage area 108 is a means for storing various data.

以上、情報処理装置100の機能構成について説明してきたが、続いて、本実施形態の専用アプリの使用方法を説明する。 The functional configuration of the information processing apparatus 100 has been described above, but subsequently, a method of using the dedicated application of the present embodiment will be described.

本実施形態の情報処理装置100の表示部102は、スマートフォンのディスプレイ画面(タッチパネル)の領域20に演算部104が生成した部分画像を表示し、領域20に対するユーザの操作に応じて、全天球画像上の視点および画角の変更(パン・チルト・ズームイン・ズームアウト)を受け付ける。図5(a)~(d)は、ユーザの操作に応じて、パン・チルト・ズームイン・ズームアウトされた部分画像を例示的に示す。 The display unit 102 of the information processing apparatus 100 of the present embodiment displays a partial image generated by the calculation unit 104 in the area 20 of the display screen (touch panel) of the smartphone, and the spherical image is omnidirectional in response to the user's operation on the area 20. Accepts changes in the viewpoint and angle of view on the image (pan, tilt, zoom in, zoom out). 5 (a) to 5 (d) schematically show partial images pan / tilt / zoom in / zoom out according to a user's operation.

本実施形態の専用アプリの使用にあたり、まず、ユーザは、図6(a)に示すように、長押しあるいはダブルタップなどの所定の操作によって、領域20に表示される部分画像内の所望の位置を1番目の視点(視点1)として指定する。これを受けて、アプリ画面は、図6(b)に示す状態に遷移し、部分画像内のユーザが指定した位置に、視点1が登録されたことを示すアイコン21が表示されるともに、領域22に、視点1を呼び出すためのアイコン24がサムネイル表示される。 In using the dedicated application of the present embodiment, the user first, as shown in FIG. 6A, a desired position in the partial image displayed in the area 20 by a predetermined operation such as a long press or a double tap. Is specified as the first viewpoint (viewpoint 1). In response to this, the application screen transitions to the state shown in FIG. 6B, and the icon 21 indicating that the viewpoint 1 is registered is displayed at the position specified by the user in the partial image, and the area is displayed. An icon 24 for calling the viewpoint 1 is displayed as a thumbnail on 22.

続いて、ユーザは、領域20を操作して視点を変更し、別の部分画像を表示させた後に、図7(a)に示すように、当該部分画像内の所望の位置を2番目の視点(視点2)として指定する。これを受けて、アプリ画面は、図7(b)に示す状態に遷移し、部分画像内のユーザが指定した位置に、視点2が登録されたことを示すアイコン21が表示されるともに、領域22の先ほどのアイコン24の隣に、視点2を呼び出すためのアイコン25がサムネイル表示される。 Subsequently, the user operates the area 20 to change the viewpoint, displays another partial image, and then, as shown in FIG. 7 (a), the desired position in the partial image is the second viewpoint. Designate as (viewpoint 2). In response to this, the application screen transitions to the state shown in FIG. 7B, and the icon 21 indicating that the viewpoint 2 is registered is displayed at the position specified by the user in the partial image, and the area is displayed. Next to the icon 24 mentioned earlier in 22, the icon 25 for calling the viewpoint 2 is displayed as a thumbnail.

ここで、本実施形態では、登録した視点(以下、登録視点という場合がある)が2点以上になると、2点の登録視点を繋ぎ合わせてアニメーションとしてプレビュー再生することができるようになっている。 Here, in the present embodiment, when the number of registered viewpoints (hereinafter, may be referred to as registered viewpoints) becomes two or more, the two registered viewpoints can be connected and preview-played as an animation. ..

上述した例では、図7(b)に示すアプリ画面において、ユーザが領域23に表示される「プレビュー」ボタンを選択すると、図8に示すようなアニメーションが領域20に再生表示される。このプレビュー再生により、ユーザは、全天球画像のアニメーションが意図したものとなっているか否かを確認することができる。なお、視点2までアニメーションの再生表示が終了すると再生開始アイコン30が表示される。この再生開始アイコン30をタップすることにより、アニメーションのプレビューを再度実行するようにしてもよい。 In the above example, on the application screen shown in FIG. 7B, when the user selects the "preview" button displayed in the area 23, the animation as shown in FIG. 8 is reproduced and displayed in the area 20. This preview playback allows the user to confirm whether or not the animation of the spherical image is intended. When the reproduction display of the animation is completed up to the viewpoint 2, the reproduction start icon 30 is displayed. By tapping the playback start icon 30, the animation preview may be executed again.

本実施形態では、上述したように「視点1」と「視点2」という2つの視点(始点と終点)が登録された状態が最小構成となり、これ以降は、直近に登録された視点(終点)を次の始点と見立てて、新たな視点(終点)を登録する、という手順を繰り返すことによって登録視点を増やすことができる。なお、アプリケーションがアニメーション最初の起点(視点)をデフォルトで登録するようにしてもよく、その場合は、ユーザが最低1つの視点を指定すれば最小構成が成立する。 In the present embodiment, as described above, the state in which the two viewpoints (start point and end point) of "viewpoint 1" and "viewpoint 2" are registered is the minimum configuration, and thereafter, the most recently registered viewpoint (end point). The number of registered viewpoints can be increased by repeating the procedure of registering a new viewpoint (end point) with the above as the next start point. The application may register the starting point (viewpoint) of the first animation by default, and in that case, the minimum configuration is established if the user specifies at least one viewpoint.

例えば、上述した2つの「視点1」、「視点2」に続けて、図9に示すような4つの視点(「視点3」、「視点4」、「視点5」、「視点6」)を追加することができる。なお、視点を登録する際には、領域20に表示される部分画像に対して、ズームイン・ズームアウト操作を行って画角を変更することができる。このように、画角の異なる視点を登録することにより、ズームイン・ズームアウトの演出をアニメーションの中に盛り込むことができるようになる。 For example, following the two "viewpoint 1" and "viewpoint 2" described above, four viewpoints ("viewpoint 3", "viewpoint 4", "viewpoint 5", and "viewpoint 6") as shown in FIG. 9 are used. Can be added. When registering the viewpoint, the angle of view can be changed by performing a zoom-in / zoom-out operation on the partial image displayed in the area 20. By registering viewpoints with different angles of view in this way, it becomes possible to incorporate zoom-in / zoom-out effects into the animation.

図10(a)は、上述した6つの視点(視点1~6)を登録した後のアプリ画面を示す。この場合、領域22には、6つの視点に対応する6つのアイコンがサムネイル表示されている。 FIG. 10A shows an application screen after registering the above-mentioned six viewpoints (viewpoints 1 to 6). In this case, six icons corresponding to the six viewpoints are displayed as thumbnails in the area 22.

本実施形態では、このように3つ以上の視点が登録されている場合には、最初の登録視点と最後の登録視点を除く任意の視点を始点として、途中からプレビュー再生することができるようになっており、これにより、アニメーションの確認時間を短縮することができる。 In the present embodiment, when three or more viewpoints are registered in this way, preview playback can be performed from the middle with any viewpoint other than the first registered viewpoint and the last registered viewpoint as the starting point. This makes it possible to shorten the animation confirmation time.

さらに、本実施形態では、領域22にサムネイル表示される視点のアイコンを介して各視点を呼び出し、その内容を編集することができるようになっている。 Further, in the present embodiment, each viewpoint can be called and its contents can be edited via the viewpoint icon displayed as a thumbnail in the area 22.

例えば、図10(b)に示すように、ユーザが「視点4」のアイコンを選択すると、領域20の表示が、「視点4」を中心とした部分画像に切り替わる。これを受けて、ユーザは、切り替わった部分画像を操作することによって、図10(b)、(c)に示すように、4番目の視点の内容を編集することができる。なお、図10(b)、(c)は、登録視点の座標を変更するケースを例示したが、同様の手順で視点を呼び出すことにより、視点に紐付いたその他のパラメータの編集を行うこともできる。 For example, as shown in FIG. 10B, when the user selects the "viewpoint 4" icon, the display of the area 20 is switched to a partial image centered on the "viewpoint 4". In response to this, the user can edit the content of the fourth viewpoint as shown in FIGS. 10 (b) and 10 (c) by manipulating the switched partial image. Although FIGS. 10 (b) and 10 (c) exemplify a case where the coordinates of the registered viewpoint are changed, other parameters associated with the viewpoint can be edited by calling the viewpoint in the same procedure. ..

さらに、任意の視点のアイコンを選択した後に、領域23に表示される「削除」ボタンを選択することによって、当該視点を削除することもできる。さらに、任意の視点のアイコンを選択した後に、領域23に表示されるスライダーで「遷移速度(後述する)」を変更することもできる。 Further, the viewpoint can be deleted by selecting the "Delete" button displayed in the area 23 after selecting the icon of any viewpoint. Further, after selecting the icon of any viewpoint, the "transition speed (described later)" can be changed by the slider displayed in the area 23.

さらに、本実施形態では、図11(a)に示すように、ユーザが領域23に表示される「詳細設定」ボタンを選択すると、アプリ画面が図11(b)に示す詳細設定画面に遷移する。図11(b)に示すように、詳細設定画面は、領域26と、領域27と、領域28とを含んで構成されている。 Further, in the present embodiment, as shown in FIG. 11A, when the user selects the "detailed setting" button displayed in the area 23, the application screen transitions to the detailed setting screen shown in FIG. 11B. .. As shown in FIG. 11B, the detailed setting screen includes a region 26, a region 27, and a region 28.

領域26には、遷移速度を設定するためのスライダーと、遷移時間を設定するための数値入力ボックスが、各登録視点に対応付けられており、両者がラジオボタンによって択一的に選択されるようになっている。これにより、ユーザは、視点の遷移態様を、遷移速度または遷移時間で調整できるようになる。 In the area 26, a slider for setting the transition speed and a numerical input box for setting the transition time are associated with each registration viewpoint, and both are selectively selected by a radio button. It has become. As a result, the user can adjust the transition mode of the viewpoint by the transition speed or the transition time.

ここで、“遷移速度”とは、全天球画像の3次元モデルにおける第1の視点と当該第1の視点の次に指定された第2の視点の間を補間する経路に沿って視点を遷移させる速度を意味し、“遷移時間”とは、視点が第1の視点から出発して第2の視点に至るまでに要する時間を意味する。 Here, the "transition speed" refers to the viewpoint along the path of interpolating between the first viewpoint in the three-dimensional model of the spherical image and the second viewpoint designated after the first viewpoint. The transition speed is meant, and the "transition time" means the time required for the viewpoint to start from the first viewpoint and reach the second viewpoint.

さらに、領域26には、イージングカーブを選択するためのプルダウンメニューが各登録視点に対応付けられており、これにより、ユーザは、視点の遷移態様をイージングカーブを用いて演出することができるようになる。ここで、イージングカーブとは、アニメーションの速度の時間変化を示すカーブであり、「linear」を設定した場合には、一定の速度で視点間を遷移する演出となり、「easeIn」を設定した場合には、始めゆっくり遷移して徐々に加速した後に一定の速度となる演出となり、「easeOut」を設定した場合には、「easeIn」の逆の演出となり、「easeInOut」が設定された場合には、「easeIn」と「easeOut」を併せたような演出となる。 Further, in the area 26, a pull-down menu for selecting an easing curve is associated with each registered viewpoint so that the user can produce a transition mode of the viewpoint using the easing curve. Become. Here, the easing curve is a curve showing the time change of the speed of the animation, and when "linear" is set, it is an effect of transitioning between viewpoints at a constant speed, and when "easeIn" is set. Is an effect that makes a slow transition at the beginning and gradually accelerates to a constant speed, and when "easeOut" is set, it is the opposite effect of "easeIn", and when "easeInOut" is set, it becomes an effect. It will be a combination of "ease In" and "ease Out".

本実施形態では、上述した各パラメータを「視点パラメータ」と呼ぶ。本実施形態では、各視点パラメータを視点間毎に個別的に設定することで、変化に富んだダイナミックなアニメーション表示を実行することが可能になる。 In this embodiment, each of the above-mentioned parameters is referred to as a "viewpoint parameter". In the present embodiment, by individually setting each viewpoint parameter for each viewpoint, it is possible to execute a dynamic animation display rich in variation.

一方、領域27には、「全体設定」を選択するためのアイコンが表示されており、当該アイコンに対して、遷移速度を設定するためのスライダーと、遷移時間を設定するための数値入力ボックスと、イージングカーブを選択するためのプルダウンメニューが対応付けられている。「全体設定」を選択した場合、上述した各パラメータは、最初の視点から最後の視点に至る全体に対して適用されるので、アニメーション全体に統一感が生まれ、自然な挙動を演出することができる。「全体設定」は、例えば、同一方向に回転し続ける様なアニメーション表示を実行したい、といった場合に適している。 On the other hand, in the area 27, an icon for selecting "overall setting" is displayed, and for the icon, a slider for setting the transition speed and a numerical input box for setting the transition time are displayed. , A pull-down menu for selecting the easing curve is associated. When "Global setting" is selected, each of the above parameters is applied to the entire animation from the first viewpoint to the last viewpoint, so that a sense of unity is created in the entire animation and natural behavior can be produced. .. The "overall setting" is suitable, for example, when you want to execute an animation display that keeps rotating in the same direction.

さらに、領域28には、視点パラメータのプリセット(プリセット1~5)を選択するためのアイコンが表示されている。本実施形態では、事前に、代表的な視点の遷移パターン(遷移経路)とこれに対応する視点パラメータの1以上のセットをプリセットデータとして用意し、記憶領域108に保持しておくことができる。ユーザが領域28に表示されるアイコンを選択した場合、当該アイコンに対応するプリセットデータが記憶領域108から読み出され、それがユーザが読み込んだ全天球画像に適用されることにより、アニメーション表示が自動的に実行される。そして、この場合も、各視点を呼び出すためのアイコンが領域22にサムネイル表示される。この場合、ユーザは、プリセットデータに基づいて自動実行されたアニメーションをそのまま利用してもよいし、領域22に表示される任意の視点を編集してアニメーションをカスタマイズすることもできる。さらに、別の実施形態では、ユーザが作成したアニメーション表示に対応する視点パラメータのセットをプリセットとして記憶領域108に保存して再利用できるようにしてもよい。 Further, in the area 28, an icon for selecting a viewpoint parameter preset (presets 1 to 5) is displayed. In the present embodiment, one or more sets of a representative viewpoint transition pattern (transition path) and a corresponding viewpoint parameter can be prepared in advance as preset data and stored in the storage area 108. When the user selects an icon to be displayed in the area 28, the preset data corresponding to the icon is read from the storage area 108 and applied to the spherical image read by the user to display the animation. It will be executed automatically. Also in this case, the icon for calling each viewpoint is displayed as a thumbnail in the area 22. In this case, the user may use the animation automatically executed based on the preset data as it is, or may edit an arbitrary viewpoint displayed in the area 22 to customize the animation. Further, in another embodiment, a set of viewpoint parameters corresponding to the animation display created by the user may be stored as a preset in the storage area 108 so that it can be reused.

さらに、本実施形態では、ユーザは、図12(a)に示すように、領域23に表示される「保存」ボタンを選択すると、アプリ画面は、図12(b)に示す状態に遷移する。この間、上述した手順で表示方法が作成されたアニメーションが表示画面のサイズでクロップされ、MPEGやAVIといった汎用的な動画ファイル形式の動画データに変換され、記憶領域108に保存される。なお、別の実施形態では、アニメーションを表示画面のサイズ以外の任意のクロップ領域でクロップしてもよく、また、アニメーションに任意の背景音声を合成してもよい。 Further, in the present embodiment, when the user selects the "save" button displayed in the area 23 as shown in FIG. 12 (a), the application screen transitions to the state shown in FIG. 12 (b). During this time, the animation for which the display method is created by the above procedure is cropped to the size of the display screen, converted into video data in a general-purpose video file format such as MPEG or AVI, and stored in the storage area 108. In another embodiment, the animation may be cropped in an arbitrary crop area other than the size of the display screen, or an arbitrary background sound may be combined with the animation.

このようにして汎用ファイル形式に変換された動画は、全天球画像の専用ビューワがなくても、標準的な動画再生アプリケーションで簡単に再生することができる。図12(c)は、変換された動画が標準的な動画再生アプリケーションで再生される様子を示す。よって、本実施形態によれば、全天球画像に基づいて作成された視点間を移動する部分画像を汎用的な動画ファイル形式に変換した動画像を動画投稿サイトに投稿したり、SNSで共有したりすることができる。 The video converted to the general-purpose file format in this way can be easily played by a standard video playback application without a dedicated viewer for spherical images. FIG. 12 (c) shows how the converted video is played back in a standard video playback application. Therefore, according to the present embodiment, a moving image obtained by converting a partial image moving between viewpoints created based on a spherical image into a general-purpose video file format can be posted on a video posting site or shared on SNS. Can be done.

以上、本実施形態の専用アプリの使用方法について説明してきたが、続いて、情報処理装置100の上述した各手段(図4参照)が実行する具体的な処理の内容を説明する。ここでは、まず、情報処理装置100が視点登録時に実行する処理の内容を図13に示すシーケンス図に基づいて説明する。 The method of using the dedicated application of the present embodiment has been described above, and subsequently, the content of specific processing executed by each of the above-mentioned means (see FIG. 4) of the information processing apparatus 100 will be described. Here, first, the contents of the processing executed by the information processing apparatus 100 at the time of viewpoint registration will be described with reference to the sequence diagram shown in FIG.

まず、ユーザが上述した手順で視点を登録する操作を行うと(S1)、これに応答して、表示部102は、下記(1)および(2)の視点パラメータを読み込んで取得する(S2)。
(1)現在設定されている遷移速度または遷移時間
(2)現在設定されているイージングカーブ
First, when the user performs an operation of registering the viewpoint according to the procedure described above (S1), in response to this, the display unit 102 reads and acquires the viewpoint parameters of the following (1) and (2) (S2). ..
(1) Currently set transition speed or transition time (2) Currently set easing curve

次に、表示部102は、S2で取得したパラメータを引数として、ユーザより視点登録が要求されたことを制御部103に通知する(S3)。これを受けて、制御部103は、演算部104に対して、ユーザが指定した視点の画像座標(x,y)に対応する視点の球面座標(θ,φ)の計算を命令して、その計算結果を取得し(S4)、現在の表示倍率(初期画角に対するズーム倍率)の計算を命令して、その計算結果を取得する(S5)。 Next, the display unit 102 notifies the control unit 103 that the viewpoint registration has been requested by the user, using the parameter acquired in S2 as an argument (S3). In response to this, the control unit 103 orders the calculation unit 104 to calculate the spherical coordinates (θ, φ) of the viewpoint corresponding to the image coordinates (x, y) of the viewpoint specified by the user. The calculation result is acquired (S4), the calculation of the current display magnification (zoom magnification with respect to the initial angle of view) is ordered, and the calculation result is acquired (S5).

次に、制御部103は、表示部102から取得した上記(1)および(2)の視点パラメータと、演算部104から取得した視点座標(θ,φ)および表示倍率とを併せて、視点管理部105に通知して、新規の視点の登録を要求する(S6)。 Next, the control unit 103 manages the viewpoint by combining the viewpoint parameters (1) and (2) acquired from the display unit 102 with the viewpoint coordinates (θ, φ) and the display magnification acquired from the calculation unit 104. Notify the unit 105 and request the registration of a new viewpoint (S6).

これを受けて、視点管理部105は、図14(a)に示す視点情報管理テーブル500を新規に生成して、制御部103から通知された各値を登録する。図14(a)に示すように、視点情報管理テーブル500は、登録視点のインデックスを格納するためのフィールド501と、登録視点の水平角(θ)を格納するためのフィールド502と、登録視点の仰角(φ)を格納するためのフィールド503と、表示倍率を格納するためのフィールド504と、遷移速度を格納するためのフィールド505と、遷移時間を格納するためのフィールド506と、イージングカーブを格納するためのフィールド507とを含んで構成されており、視点管理部105は、S6で制御部103から通知された各値(以下、視点情報という)を該当するフィールドに格納する。 In response to this, the viewpoint management unit 105 newly generates the viewpoint information management table 500 shown in FIG. 14A, and registers each value notified from the control unit 103. As shown in FIG. 14A, the viewpoint information management table 500 includes a field 501 for storing the index of the registered viewpoint, a field 502 for storing the horizontal angle (θ) of the registered viewpoint, and the registered viewpoint. A field 503 for storing the elevation angle (φ), a field 504 for storing the display magnification, a field 505 for storing the transition speed, a field 506 for storing the transition time, and an easing curve are stored. The viewpoint management unit 105 stores each value (hereinafter referred to as viewpoint information) notified from the control unit 103 in S6 in the corresponding field.

視点の登録が完了したことを受けて、制御部103は、登録視点のサムネイルアイコンを表示部102に返す(S7)。これを受けて、表示部102が当該アイコンを領域22にサムネイル表示して(S8)、視点登録が完了したことをユーザに示す。 Upon completing the registration of the viewpoint, the control unit 103 returns the thumbnail icon of the registered viewpoint to the display unit 102 (S7). In response to this, the display unit 102 displays the icon as a thumbnail in the area 22 (S8) to indicate to the user that the viewpoint registration is completed.

以降、ユーザが視点登録操作を行う度に、上述したS1~S8の処理が繰り返し実行され、これに伴って、視点情報管理テーブル500に、ユーザが指定する視点がその指定順に登録される。図14(b)は、6つの視点が登録された後の視点情報管理テーブル500を例示する。なお、直近の登録視点は、その時点の終点となり、終点に対応するレコードのフィールド505~507には、値が無いことを表す情報(NONE)が格納される。本実施形態では、視点情報管理テーブル500は、全天球画像のメタデータとして対応付けられた状態で記憶領域108に保存される。 After that, every time the user performs the viewpoint registration operation, the above-mentioned processes S1 to S8 are repeatedly executed, and along with this, the viewpoints designated by the user are registered in the viewpoint information management table 500 in the order of their designation. FIG. 14B exemplifies the viewpoint information management table 500 after the six viewpoints are registered. The latest registration viewpoint is the end point at that time, and information (NONE) indicating that there is no value is stored in the fields 505 to 507 of the record corresponding to the end point. In the present embodiment, the viewpoint information management table 500 is stored in the storage area 108 in a state of being associated with the metadata of the spherical image.

なお、上述した視点の編集操作に応答して、視点情報管理テーブル500の各フィールドの値が更新されることはいうまでもない。また、視点情報管理テーブル500は、全天球画像のメタデータとして使用する用途の他に、視点情報管理テーブル500の内容を単体でプリセットデータとして登録することもできる。さらに、視点情報管理テーブル500を、全天球画像と対応付けた状態、あるいは、それ単体で、外部のデータベースに出力することもできる。 Needless to say, the value of each field of the viewpoint information management table 500 is updated in response to the above-mentioned viewpoint editing operation. In addition to the use of the viewpoint information management table 500 as metadata for spherical images, the contents of the viewpoint information management table 500 can be registered as preset data by itself. Further, the viewpoint information management table 500 can be output to an external database in a state associated with the spherical image or by itself.

以上、情報処理装置100が視点登録時に実行する処理について説明してきたが、続いて、情報処理装置100がプレビュー再生時に実行する処理の内容を図15に示すシーケンス図に基づいて説明する。 The process executed by the information processing apparatus 100 at the time of registering the viewpoint has been described above, but subsequently, the content of the process executed by the information processing apparatus 100 at the time of preview reproduction will be described with reference to the sequence diagram shown in FIG.

まず、ユーザが上述した手順でプレビュー再生の操作を行うと(S1)、これを受けて、表示部102は、ユーザよりアニメーションの再生が要求されたことを制御部103に通知する(S2)。 First, when the user performs the preview reproduction operation according to the procedure described above (S1), the display unit 102 notifies the control unit 103 that the user has requested the reproduction of the animation (S2).

これを受けて、制御部103は、該当する全天球画像に係る視点情報を視点管理部105に要求し、視点管理部105から、該当する全天球画像に対応付けて記憶領域108に保存されている視点情報管理テーブル500に格納された視点情報のセットを取得する(S3)。 In response to this, the control unit 103 requests the viewpoint information related to the corresponding spherical image from the viewpoint management unit 105, and the viewpoint management unit 105 stores the viewpoint information in the storage area 108 in association with the corresponding spherical image. The set of viewpoint information stored in the viewpoint information management table 500 is acquired (S3).

次に、制御部103は、1番目の登録視点(始点)と2番目の登録視点(終点)に係る視点情報のセットを引数として、視点制御部106にアニメーションの制御の開始を要求する(S4)。 Next, the control unit 103 requests the viewpoint control unit 106 to start controlling the animation by using a set of viewpoint information related to the first registered viewpoint (start point) and the second registered viewpoint (end point) as arguments (S4). ).

これを受けて、視点制御部106は、1番目の登録視点(始点)から2番目の登録視点(終点)の間を補間する経路に沿って視点を遷移させる制御を実施する。具体的には、2つの登録視点間の距離と、1番目の登録視点(始点)から2番目の登録視点(終点)に遷移する遷移速度または遷移時間(1番目の登録視点に係る視点パラメータ)に基づいて、フレーム(アニメーションを構成する個々の部分画像)毎の視点の変位量を算出する(S5)。なお、S5では、1番目の登録視点(始点)と2番目の登録視点(終点)の間の最短距離を補間して視点が遷移するという前提で、視点の変位量を算出する。 In response to this, the viewpoint control unit 106 implements control for transitioning the viewpoint along a path that interpolates between the first registered viewpoint (start point) and the second registered viewpoint (end point). Specifically, the distance between the two registered viewpoints and the transition speed or transition time for transitioning from the first registered viewpoint (start point) to the second registered viewpoint (end point) (viewpoint parameter related to the first registered viewpoint). Based on the above, the displacement amount of the viewpoint for each frame (individual partial image constituting the animation) is calculated (S5). In S5, the displacement amount of the viewpoint is calculated on the premise that the viewpoint transitions by interpolating the shortest distance between the first registered viewpoint (start point) and the second registered viewpoint (end point).

フレーム毎の視点の変位量の算出を終えると、視点制御部106は、制御部103に対してアニメーションの開始を通知する(S6)。その後、視点制御部106は、フレーム数にフレーム期間を乗じた値が遷移時間を超えるまでの間、制御部103に対して、フレーム毎に視点の変位量を通知することを繰り返す(S7)。 When the calculation of the displacement amount of the viewpoint for each frame is completed, the viewpoint control unit 106 notifies the control unit 103 of the start of the animation (S6). After that, the viewpoint control unit 106 repeatedly notifies the control unit 103 of the displacement amount of the viewpoint for each frame until the value obtained by multiplying the number of frames by the frame period exceeds the transition time (S7).

一方、視点制御部106から視点の変位量を通知されたことを受けて、制御部103は、演算部104に視点移動の演算処理を要求し、その演算結果として、変位した視点を中心とする部分画像を取得する(S9)。これを受けて、制御部103は、S9で取得した部分画像を表示部102に渡して、表示の更新を要求する(S10)。 On the other hand, in response to the notification of the displacement amount of the viewpoint from the viewpoint control unit 106, the control unit 103 requests the calculation unit 104 to perform the operation of moving the viewpoint, and as the calculation result, the displaced viewpoint is the center. Acquire a partial image (S9). In response to this, the control unit 103 passes the partial image acquired in S9 to the display unit 102 and requests the display to be updated (S10).

一方、フレーム数にフレーム期間を乗じた値が遷移時間を超えた時点で、視点制御部106は、1番目の登録視点(始点)から2番目の登録視点(終点)に至るアニメーションが終了したことを制御部103に通知し(S8)、後処理とともに次の遷移の処理へと移行する。以後、登録している視点のセット(始点と終点)の数だけS4~S10の処理が繰り返し実行され、アニメーション回数が登録視点の総数に達した時点で、制御部103がアニメーション完了を表示部102に通知する(S11)。 On the other hand, when the value obtained by multiplying the number of frames by the frame period exceeds the transition time, the viewpoint control unit 106 ends the animation from the first registered viewpoint (start point) to the second registered viewpoint (end point). Is notified to the control unit 103 (S8), and the process proceeds to the next transition process together with the post-processing. After that, the processes of S4 to S10 are repeatedly executed for the number of registered viewpoint sets (start point and end point), and when the number of animations reaches the total number of registered viewpoints, the control unit 103 indicates that the animation is completed. (S11).

以上の手順により、制御部103は、演算部104が生成した複数の部分画像を視点の遷移順に繋ぎ合わせたアニメーションを実行する。 By the above procedure, the control unit 103 executes an animation in which a plurality of partial images generated by the calculation unit 104 are connected in the order of viewpoint transition.

なお、本実施形態では、視点の補間に加えて、2つの登録視点間で画角を補間して遷移することが好ましい。この場合、視点制御部106は、2つの登録視点間の表示倍率の差分からフレーム毎の画角の変位量を算出し、演算部104は、算出された画角の変位量に基づいてフレーム毎に画角が変化した部分画像を生成する。これにより、アニメーションにおいて、なめらかなズームイン・ズームアウト表現が可能になる。 In the present embodiment, in addition to the interpolation of the viewpoints, it is preferable to interpolate the angle of view between the two registered viewpoints to make a transition. In this case, the viewpoint control unit 106 calculates the displacement amount of the angle of view for each frame from the difference in the display magnification between the two registered viewpoints, and the calculation unit 104 calculates the displacement amount of the angle of view for each frame based on the calculated displacement amount of the angle of view. Generates a partial image with a different angle of view. This enables smooth zoom-in / zoom-out expression in animation.

さらに、動画データ生成部107は、演算部104が生成した複数の部分画像をMPEGやAVIといった汎用的な動画ファイル形式の動画データに変換して、記憶領域108に保存する。 Further, the moving image data generation unit 107 converts a plurality of partial images generated by the calculation unit 104 into moving image data in a general-purpose moving image file format such as MPEG or AVI, and stores the plurality of partial images in the storage area 108.

以上、説明したように、本実施形態によれば、ユーザに視点の探索や選択の手間をかけること無く、全天球画像の注目領域を動画でわかりやすく提示することができる。 As described above, according to the present embodiment, the region of interest of the spherical image can be presented in an easy-to-understand manner as a moving image without the user having to search for and select a viewpoint.

以上、本発明の第1実施形態を説明してきたが、続いて、本発明の第2実施形態を説明する。なお、以下では、第1実施形態の内容と共通する部分の説明を省略し、専ら、第1実施形態との相違点のみを説明するものとする。 The first embodiment of the present invention has been described above, and then the second embodiment of the present invention will be described. In the following, the description of the parts common to the contents of the first embodiment will be omitted, and only the differences from the first embodiment will be described.

(第2実施形態)
先に説明した第1実施形態では第1の登録視点(始点)と第2の登録視点(終点)の間の最短距離を補間して視点が遷移するという前提に立って、視点制御部106が視点の変位量を算出していたが、第2実施形態では、視点が遷移する方向を視点パラメータとしてユーザが設定できる点で第1実施形態と異なる。
(Second Embodiment)
In the first embodiment described above, the viewpoint control unit 106 determines that the viewpoint transitions by interpolating the shortest distance between the first registered viewpoint (start point) and the second registered viewpoint (end point). Although the displacement amount of the viewpoint has been calculated, the second embodiment is different from the first embodiment in that the user can set the direction in which the viewpoint transitions as a viewpoint parameter.

第2実施形態では、図16(a)に示すように、ユーザが領域20に表示される部分画像内に視点を指定すると、アプリ画面は、図16(b)に示す状態に遷移し、部分画像内に視点が登録されたことを示すアイコン29が表示される。 In the second embodiment, as shown in FIG. 16A, when the user specifies a viewpoint in the partial image displayed in the area 20, the application screen transitions to the state shown in FIG. 16B, and the portion An icon 29 indicating that the viewpoint has been registered is displayed in the image.

このアイコン29は、部分画像の上下方向(チルト方向)および左右方向(パン方向)を指定するための4つの矢印型の方向指示ボタンを備えており、図16(c)に示すように、ユーザがいずれかの方向指示ボタンを選択したことに応答して、次に登録される視点に遷移する遷移方向が設定されるようになっている。なお、図16では、上下左右の四方向を指示する方向指示ボタンを例示したが、八方向など、遷移方向をより細かく設定できるようにしてもよい。また、方向指示ボタンは2つ目以降の視点の登録時に矢印の向きを登録中の視点に向かうように表示して、1つ前の視点から登録中の視点に対してどの方向で視点を遷移するかを指定するようにしてもよい。 The icon 29 includes four arrow-shaped direction indicating buttons for designating the vertical direction (tilt direction) and the horizontal direction (pan direction) of the partial image, and as shown in FIG. 16 (c), the user. In response to selecting one of the direction instruction buttons, the transition direction for transitioning to the next registered viewpoint is set. Although FIG. 16 exemplifies a direction instruction button for instructing four directions of up, down, left, and right, a transition direction such as eight directions may be set in more detail. In addition, the direction instruction button displays the direction of the arrow so that it faces the registered viewpoint when registering the second and subsequent viewpoints, and transitions the viewpoint from the previous viewpoint to the registered viewpoint. You may specify whether to do it.

図17(a)~(d)は、アイコン29における方向指示ボタンの選択と、第1の登録視点から第2の登録視点に至る遷移方向の対応関係を示す。第2実施形態では、視点を登録時に、遷移方向の指定を受け付けることによって、図17に示すように、視点の遷移経路につき、最短の経路に加えて、遠回りの経路を設定することができ、アニメーションの演出バリエーションが豊富になる。 17 (a) to 17 (d) show the correspondence between the selection of the direction instruction button in the icon 29 and the transition direction from the first registration viewpoint to the second registration viewpoint. In the second embodiment, by accepting the designation of the transition direction at the time of registering the viewpoint, as shown in FIG. 17, it is possible to set a detour route in addition to the shortest route for the transition route of the viewpoint. There will be a wide variety of animation effects.

なお、第2実施形態では、視点登録時に設定される遷移方向が視点パラメータとして、視点情報管理テーブルに登録される。図14(c)は、第2実施形態で作成される視点情報管理テーブル550を示す。図14(c)に示すように、視点情報管理テーブル550は、上述したフィールド501~507に加えて、遷移方向を格納するためのフィールド508を備えている。 In the second embodiment, the transition direction set at the time of viewpoint registration is registered in the viewpoint information management table as a viewpoint parameter. FIG. 14C shows the viewpoint information management table 550 created in the second embodiment. As shown in FIG. 14 (c), the viewpoint information management table 550 includes a field 508 for storing the transition direction in addition to the above-mentioned fields 501 to 507.

以上、本発明の第2実施形態を説明してきたが、続いて、本発明の第3実施形態を説明する。なお、以下では、先の実施形態の内容と共通する部分の説明を省略し、専ら、相違点のみを説明するものとする。 The second embodiment of the present invention has been described above, and subsequently, the third embodiment of the present invention will be described. In the following, the description of the parts common to the contents of the previous embodiment will be omitted, and only the differences will be described.

(第3実施形態)
先の実施形態では、(1)プリセットデータを用いたアニメーションの自動実行、(2)アニメーションのクロップ、(3)アニメーションと背景音声の合成、について概略的に述べたが、第3実施形態では、他の実装例に基づいて上記(1)~(3)を具体的に説明する。
(Third Embodiment)
In the previous embodiment, (1) automatic execution of animation using preset data, (2) cropping of animation, and (3) composition of animation and background sound have been schematically described, but in the third embodiment, The above (1) to (3) will be specifically described based on other implementation examples.

図18(a)は、本実施形態のプリセットデータ600を示す。本実施形態のプリセットデータ600は、全天球画像における2以上の視点を順序付けて登録したものであり、アニメーションの生成において、視点情報管理テーブル500(図14参照)と同等の役割を果たすデータである。本実施形態では、1以上のプリセットデータ600が記憶領域108に保持されていることを前提とする。 FIG. 18A shows the preset data 600 of this embodiment. The preset data 600 of this embodiment is registered in order of two or more viewpoints in the spherical image, and is data that plays the same role as the viewpoint information management table 500 (see FIG. 14) in the generation of animation. be. In this embodiment, it is assumed that one or more preset data 600s are held in the storage area 108.

図18(a)に示すように、プリセットデータ600は、登録視点のインデックスを格納するためのフィールド601と、登録視点の水平角(θ)を格納するためのフィールド602と、登録視点の仰角(φ)を格納するためのフィールド603と、表示倍率(初期画角に対するズーム倍率)を格納するためのフィールド604とを含んで構成されている。なお、本実施形態では、プリセットデータ600を用いる場合に、先に説明した「全体設定」と同様に、視点の全体に対して共通の「遷移速度」および「イージングカーブ」を適用するため、プリセットデータ600には、「遷移速度」および「イージングカーブ」が登録されない。 As shown in FIG. 18A, the preset data 600 includes a field 601 for storing the index of the registered viewpoint, a field 602 for storing the horizontal angle (θ) of the registered viewpoint, and an elevation angle of the registered viewpoint (as shown in FIG. 18A). It is configured to include a field 603 for storing φ) and a field 604 for storing a display magnification (zoom magnification with respect to the initial angle of view). In this embodiment, when the preset data 600 is used, a common "transition speed" and "easing curve" are applied to the entire viewpoint as in the "overall setting" described above, so that the preset is used. The "transition speed" and the "easing curve" are not registered in the data 600.

また、本実施形態においては、1以上の「クロップ領域」が記憶領域108に保持されていることを前提とする。ここでいう「クロップ領域」とは、生成したアニメーション画像をクロップする領域を定義するための矩形フレームであり、本実施形態では、任意のアスペクト比を持った矩形フレームを「クロップ領域」として登録することができる。 Further, in the present embodiment, it is assumed that one or more "cropped areas" are held in the storage area 108. The "crop area" here is a rectangular frame for defining an area for cropping the generated animation image, and in the present embodiment, a rectangular frame having an arbitrary aspect ratio is registered as a "crop area". be able to.

さらに、本実施形態においては、1以上の「背景音声」が記憶領域108に保持されていることを前提とする。ここでいう「背景音声」とは、任意の音声データであり、好ましい実施形態では、ユーザが所望の音声データを「背景音声」として登録できるようにしてもよい。 Further, in the present embodiment, it is premised that one or more "background sounds" are held in the storage area 108. The "background voice" referred to here is arbitrary voice data, and in a preferred embodiment, the user may be able to register the desired voice data as the "background voice".

図19(a)は、本実施形態におけるアプリ画面を示す。図19(a)に示すように、本実施形態では、アプリ画面の領域23に、プリセットデータを呼び出すための「プリセット」ボタンが表示され、ユーザが「プリセット」ボタンを選択すると、アプリ画面は、図19(b)に示すプリセット利用画面に遷移するようになっている。 FIG. 19A shows an application screen in this embodiment. As shown in FIG. 19A, in the present embodiment, a "preset" button for recalling preset data is displayed in the area 23 of the application screen, and when the user selects the "preset" button, the application screen is displayed. The screen transitions to the preset usage screen shown in FIG. 19 (b).

図19(b)に示すように、本実施形態のプリセット利用画面は、領域40と、領域42と、領域43と、領域44とを含んで構成されている。本実施形態では、領域40に全天球画像の部分画像が表示される。また、領域43には、プリセットデータ600を呼び出すための「プリセット」ボタンと、背景音声を呼び出すための「サウンド」ボタンと、クロップ領域を呼び出すための「クロップ」ボタンと、遷移速度を設定するための「遷移速度」ボタンが表示されている。さらに、領域44には、プレビュー再生を要求するための「プレビュー」ボタンと、生成した動画を保存するための「保存」ボタンが表示されている。なお、領域42は、領域43に表示された各ボタンに対応するUIが表示される領域となる。 As shown in FIG. 19B, the preset usage screen of the present embodiment includes a region 40, a region 42, a region 43, and a region 44. In the present embodiment, a partial image of the spherical image is displayed in the area 40. Further, in the area 43, a "preset" button for calling the preset data 600, a "sound" button for calling the background sound, a "crop" button for calling the crop area, and a transition speed are set. "Transition speed" button is displayed. Further, in the area 44, a "preview" button for requesting preview playback and a "save" button for saving the generated moving image are displayed. The area 42 is an area in which the UI corresponding to each button displayed in the area 43 is displayed.

本実施形態では、ユーザが「プリセット」ボタンを選択すると、図20(a)に示すように、記憶領域108に保持されているプリセットデータ600に対応するアイコンが領域42に選択可能に表示される。これを受けて、ユーザがいずれかのアイコンを選択すると、当該アイコンに対応するプリセットデータ600が記憶領域108から読み出され、一時記憶にセットされる。なお、図20(a)に示す例では、各アイコンにプリセットデータ600の内容を抽象化したイメージが表示されている。 In the present embodiment, when the user selects the "preset" button, as shown in FIG. 20 (a), the icon corresponding to the preset data 600 held in the storage area 108 is selectively displayed in the area 42. .. In response to this, when the user selects any of the icons, the preset data 600 corresponding to the icon is read from the storage area 108 and set in the temporary storage. In the example shown in FIG. 20A, an image in which the contents of the preset data 600 are abstracted is displayed on each icon.

また、ユーザが「サウンド」ボタンを選択すると、図20(b)に示すように、記憶領域108に保持された背景音声に対応するアイコンが領域42に選択可能に表示される。ユーザがいずれかのアイコンを選択した場合、記憶領域108から対応する音声データが読み出され、背景音声として設定される。なお、ユーザが背景音声を選択しない場合は、デフォルト値(無音)が設定される。 Further, when the user selects the "sound" button, as shown in FIG. 20 (b), an icon corresponding to the background sound held in the storage area 108 is displayed in the area 42 so as to be selectable. When the user selects any of the icons, the corresponding voice data is read from the storage area 108 and set as the background voice. If the user does not select the background sound, the default value (silence) is set.

また、ユーザが「遷移速度」ボタンを選択すると、図20(c)に示すように、遷移速度を設定するためのスライダーが領域42に表示される。ユーザがこのスライダーを操作して遷移速度を指定した場合、指定された遷移速度がアニメーションを生成する際の視点の遷移速度として設定される。なお、ユーザが遷移速度を指定しない場合は、デフォルト値(所定の遷移速度)が設定される。また、イージングカーブについては、常にデフォルト値(例えば、「linear」)が設定される。 Further, when the user selects the "transition speed" button, as shown in FIG. 20 (c), a slider for setting the transition speed is displayed in the area 42. When the user operates this slider to specify the transition speed, the specified transition speed is set as the transition speed of the viewpoint when generating the animation. If the user does not specify the transition speed, a default value (predetermined transition speed) is set. A default value (for example, "linear") is always set for the easing curve.

さらに、ユーザが「クロップ」ボタンを選択すると、図21(a)に示すように、記憶領域108に保持されたクロップ領域に対応するアイコンが領域42に選択可能に表示される。これを受けて、ユーザがいずれかのアイコンを選択した場合、記憶領域108から対応する矩形パターンが読み出され、クロップ領域として設定される。 Further, when the user selects the "crop" button, as shown in FIG. 21A, an icon corresponding to the crop area held in the storage area 108 is selectively displayed in the area 42. In response to this, when the user selects any of the icons, the corresponding rectangular pattern is read out from the storage area 108 and set as the crop area.

例えば、ユーザがクロップ領域として「2:1」を選択した場合、アニメーションは、図21(b)に示す態様でクロップされる。また、ユーザがクロップ領域として「フリー」を選択した場合、図21(c)に示すように、領域40上に矩形の枠45が表示される。ここで、枠45は、その大きさが可変となっており、ユーザが手動で枠45の大きさを任意に変えることによって、クロップ領域を自由に設定できるようになっている。なお、ユーザがクロップ領域を選択しない場合は、デフォルト値(例えば、表示画面のサイズ)が設定される。 For example, if the user selects "2: 1" as the crop area, the animation will be cropped in the manner shown in FIG. 21 (b). Further, when the user selects "free" as the crop area, a rectangular frame 45 is displayed on the area 40 as shown in FIG. 21 (c). Here, the size of the frame 45 is variable, and the user can freely set the crop area by manually changing the size of the frame 45 arbitrarily. If the user does not select the crop area, a default value (for example, the size of the display screen) is set.

本実施形態では、ユーザは、必要に応じて、上述した各値(「プリセットデータ」、「背景音声」、「遷移速度」、「クロップ領域」)を何度でも設定し直すことができ、その度にプレビュー再生することができる。 In the present embodiment, the user can reset each of the above-mentioned values (“preset data”, “background sound”, “transition speed”, “crop area”) as many times as necessary. It can be previewed every time.

例えば、図22(a)に示すように、ユーザが領域42に表示されたアイコンQを選択した後に、「プレビュー」ボタンを選択すると、これに応答して、制御部103が、視点管理部105を介して記憶領域108からアイコンQに対応するプリセットデータ600を取得する。その後、取得されたプリセットデータ600に格納された視点と表示倍率(画角)のセットに基づき、制御部103、視点制御部106、演算部104および表示部102が協働してプレビュー再生(アニメーション表示)を実行する。なお、プレビュー再生時に実行される処理の内容は、視点情報管理テーブル500の代わりにプリセットデータ600が用いる点を除いて、図15で説明した内容と実質的に同じなので、ここでは詳細な説明を省略する。 For example, as shown in FIG. 22A, when the user selects the icon Q displayed in the area 42 and then selects the “preview” button, the control unit 103 responds to the viewpoint management unit 105. The preset data 600 corresponding to the icon Q is acquired from the storage area 108 via the storage area 108. After that, based on the set of the viewpoint and the display magnification (angle of view) stored in the acquired preset data 600, the control unit 103, the viewpoint control unit 106, the calculation unit 104, and the display unit 102 cooperate to perform preview playback (animation). Display) is executed. The content of the process executed during preview playback is substantially the same as the content described with reference to FIG. 15, except that the preset data 600 is used instead of the viewpoint information management table 500. Omit.

図22(b)は、プレビュー再生が終了した時点の画面を示す。このとき、領域40には、アニメーションの最終フレーム画像が停止した状態で映し出される。ここで、このアニメーションを動画投稿サイトやSNSに公開して評価を受けることを考えた場合、視聴者が最後に目にすることになる最終フレーム画像の印象が、そのアニメーションに対する評価を決定づける可能性がある。また、公開されるアニメーションのサムネイルに最終フレーム画像が使用されることも少なくない。 FIG. 22B shows a screen at the time when the preview reproduction is completed. At this time, the final frame image of the animation is projected in the area 40 in a stopped state. Here, when considering publishing this animation to a video posting site or SNS and receiving an evaluation, the impression of the final frame image that the viewer will see last may determine the evaluation of the animation. There is. In addition, the final frame image is often used as the thumbnail of the published animation.

ここで、プリセットデータ600を利用する場合、アニメーションの最終フレーム画像は、そのプリセットデータ600の最後順に登録された視点と画角によって決まるが、そのようにして偶然的に決まった最終フレーム画像の内容が必ずしもユーザの希望に添うものになるとは限らない。例えば、アニメーション全体が非常に興味深いものであったとしても、その最終フレーム画像がたまたま特徴に乏しい画像であった場合、ネガティブな印象が視聴者に残る可能性があり、また、特徴に乏しい画像がサムネイルになったのでは、視聴者の興味を十分に引きつけられない可能性がある。 Here, when the preset data 600 is used, the final frame image of the animation is determined by the viewpoint and the angle of view registered in the last order of the preset data 600, but the content of the final frame image thus accidentally determined. Does not always meet the user's wishes. For example, if the entire animation is very interesting, but the final frame image happens to be a featureless image, it can leave a negative impression on the viewer and the featureless image. The thumbnails may not be enough to attract the viewer's interest.

この点につき、本実施形態では、図22(b)に示すように、プレビュー再生終了時に、領域40に終点調整ボタン50が表示される。ユーザは、この終点調整ボタン50を選択することによって、アニメーションの最終フレーム画像を所望の内容に変更することができるようになる。 Regarding this point, in the present embodiment, as shown in FIG. 22B, the end point adjustment button 50 is displayed in the area 40 at the end of the preview reproduction. By selecting the end point adjustment button 50, the user can change the final frame image of the animation to a desired content.

ユーザが終点調整ボタン50を選択した場合、表示部102は、プリセットデータ600に登録された最後順の視点と当該視点に紐付いた画角の変更を受け付けるために、領域40を、ユーザの画面操作(パン・チルト・ズームイン・ズームアウト)を受け付ける状態に遷移させる。これを受けて、ユーザが、図22(c)に示すように、領域40を操作して新たな視点および画角を指定すると、制御部103は、その時点で一時記憶にセットされているプリセットデータ600に登録された最後順の視点および当該視点に紐付いた画角を、ユーザが新たに指定した視点および画角に置き換えて更新する。図18(b)は、プリセットデータ600に登録された最後順の視点6の座標と表示倍率(画角)の値が置き換わった様子を示す。このとき、新たな視点が登録されたことを示すアイコン21が領域40に表示される。なお、ユーザが終点調整ボタン50を選択した場合に実行される処理は、先の実施形態において、視点のアイコンを選択して視点の内容を編集する際に実行される処理(図10参照)と実質的に同じなので、ここでは詳細な説明を省略する When the user selects the end point adjustment button 50, the display unit 102 operates the area 40 on the user's screen in order to receive the change of the viewpoint in the last order registered in the preset data 600 and the angle of view associated with the viewpoint. Transition to the state of accepting (pan / tilt / zoom in / zoom out). In response to this, when the user operates the area 40 to specify a new viewpoint and angle of view as shown in FIG. 22 (c), the control unit 103 sets the preset in the temporary storage at that time. The viewpoint in the last order registered in the data 600 and the angle of view associated with the viewpoint are replaced with the viewpoint and the angle of view newly specified by the user and updated. FIG. 18B shows how the coordinates of the viewpoint 6 in the last order registered in the preset data 600 and the value of the display magnification (angle of view) are replaced. At this time, the icon 21 indicating that the new viewpoint has been registered is displayed in the area 40. The process executed when the user selects the end point adjustment button 50 is the process executed when the viewpoint icon is selected and the contents of the viewpoint are edited in the above embodiment (see FIG. 10). Since they are substantially the same, detailed explanations are omitted here.

このタイミングで、ユーザが「プレビュー」ボタンを選択すると、更新後のプリセットデータ600に基づいてアニメーションが生成される。すなわち、この場合、視点制御部106は、変更された最後順の視点に基づいて補間した経路に沿って視点を遷移させ、演算部104は、変更された経路に沿って遷移する視点ならびに変更された最後順の画角に基づいて部分画像を生成し、制御部103は、そのようにして生成された複数の部分画像を繋ぎ合わせたアニメーションを領域40に表示する。このとき、制御部103は、その時点で設定されているクロップ領域に基づいてアニメーションをクロップし、その時点で背景音声が設定されている場合は、その背景音声をアニメーションと同期して再生する。 When the user selects the "preview" button at this timing, an animation is generated based on the updated preset data 600. That is, in this case, the viewpoint control unit 106 changes the viewpoint along the route interpolated based on the changed last-order viewpoint, and the arithmetic unit 104 changes the viewpoint along the changed route and the changed viewpoint. A partial image is generated based on the angle of view in the last order, and the control unit 103 displays an animation in which the plurality of partially images generated in this way are joined together in the area 40. At this time, the control unit 103 crops the animation based on the crop area set at that time, and if the background sound is set at that time, reproduces the background sound in synchronization with the animation.

一方、このタイミングで、ユーザが「保存」ボタンを選択すると、動画データ生成部107は、上述したのと同様の手順で作成された複数の部分画像を汎用的な動画ファイル形式の動画データに変換して、記憶領域108に保存する。このとき、動画データ生成部107は、その時点でクロップ領域が設定されているクロップ領域に基づいてアニメーションをクロップし、その時点で背景音声が設定されている場合は、その背景音声を動画データに合成する。 On the other hand, when the user selects the "Save" button at this timing, the video data generation unit 107 converts a plurality of partial images created by the same procedure as described above into video data in a general-purpose video file format. Then, it is stored in the storage area 108. At this time, the moving image data generation unit 107 crops the animation based on the crop area in which the crop area is set at that time, and if the background sound is set at that time, the background sound is used as the moving image data. Synthesize.

以上、説明したように、本実施形態によれば、予め用意されたプリセットデータを利用することで簡単に全天球画像の注目領域を提示する動画を生成することができる。また、本実施形態によれば、プリセットデータを利用する場合であっても、動画の最後を意図した画像で締めくくることができるようになる。 As described above, according to the present embodiment, it is possible to easily generate a moving image that presents the region of interest of the spherical image by using the preset data prepared in advance. Further, according to the present embodiment, even when the preset data is used, the end of the moving image can be concluded with the intended image.

ここまで本発明の第3実施形態を説明してきたが、続いて、本発明の第4実施形態を説明する。なお、以下では、先の実施形態の内容と共通する部分の説明を省略し、専ら、相違点のみを説明するものとする。 The third embodiment of the present invention has been described so far, and then the fourth embodiment of the present invention will be described. In the following, the description of the parts common to the contents of the previous embodiment will be omitted, and only the differences will be described.

(第4実施形態)
先に説明した第1実施形態から第3実施形態までは、全天球画像における視点や画角といったパラメータを変更することにより、多くの映像表現を可能にしている。しかしながら、パラメータは、これらに限られるものではなく、これら以外のパラメータも調整することで、例えば投影方式(プロジェクションタイプ)を変えることができ、躍動感のある(ダイナミックな)映像表現が可能となる。
(Fourth Embodiment)
From the first embodiment to the third embodiment described above, many video expressions are possible by changing parameters such as the viewpoint and the angle of view in the spherical image. However, the parameters are not limited to these, and by adjusting parameters other than these, for example, the projection method (projection type) can be changed, and a dynamic (dynamic) image expression becomes possible. ..

プロジェクションタイプは、3次元物体(3次元オブジェクト)の表面(例えば球体の内面)に貼り付けられる(マッピングされる)全天球画像を2次元平面上に表現する方法であり、地図投影法に類似するものである。プロジェクションタイプについて説明する前に、映像表現を変更するためのパラメータについて説明する。 The projection type is a method of expressing (mapped) an all-sky image attached (mapped) to the surface of a three-dimensional object (three-dimensional object) (for example, the inner surface of a sphere) on a two-dimensional plane, similar to the map projection method. It is something to do. Before explaining the projection type, the parameters for changing the video expression will be described.

全天球画像は、所定の3次元オブジェクトの表面にマッピングされる。図23は、X軸、Y軸、Z軸の3つの軸で表される3次元空間のうちのY軸とZ軸で表される2次元平面上に球体200を表現した図である。なお、Y軸は、高さ方向(鉛直方向)で、Z軸は、地面に対して平行な水平方向の1つである。図23では、球体200の中心を原点201とし、原点201を通るZ軸上の球体200の外側に、部分画像を生成するために該部分画像を撮像して取得するカメラ202が配置されている。これらの球体200、カメラ202は、仮想的なものである。 The spherical image is mapped to the surface of a predetermined 3D object. FIG. 23 is a diagram showing a sphere 200 on a two-dimensional plane represented by the Y-axis and the Z-axis in a three-dimensional space represented by the three axes of the X-axis, the Y-axis, and the Z-axis. The Y-axis is in the height direction (vertical direction), and the Z-axis is one in the horizontal direction parallel to the ground. In FIG. 23, the center of the sphere 200 is the origin 201, and a camera 202 that captures and acquires the partial image in order to generate a partial image is arranged outside the sphere 200 on the Z axis passing through the origin 201. .. These spheres 200 and cameras 202 are virtual.

パラメータには、第1実施形態から第3実施形態で説明したように、部分画像内の所望の位置として指定される視点と、カメラ202の視野範囲の角度を示す画角αがある。 As described in the first to third embodiments, the parameters include a viewpoint designated as a desired position in the partial image and an angle of view α indicating the angle of the viewing range of the camera 202.

パラメータには、そのほか、図23に示すようなカメラ202の位置を示す情報であるカメラ座標、カメラ202の上方向を示す情報である該上方向をベクトルで表現したカメラUP、カメラ202が注目している位置(注視点)を示す情報であるカメラ注視点座標、全天球画像をマッピングする3次元オブジェクトである球体200の半径などがある。 Other parameters include camera coordinates, which are information indicating the position of the camera 202 as shown in FIG. 23, camera UP, which is information indicating the upward direction of the camera 202 and expressing the upward direction as a vector, and camera 202. There are camera gaze point coordinates, which are information indicating the position (gaze point), and the radius of the sphere 200, which is a three-dimensional object that maps the spherical image.

これらのパラメータは一例であり、その他のパラメータを含んでいてもよい。なお、これらのパラメータは、プロジェクションタイプを変えるために必要なパラメータである。 These parameters are examples and may include other parameters. It should be noted that these parameters are necessary parameters for changing the projection type.

図23に示す例では、球体200の半径が1、注視点が球体200の原点201、画角αが120°、カメラ座標が(0,0,-1.8)、カメラUPが(0,1,0)に設定されている。 In the example shown in FIG. 23, the radius of the sphere 200 is 1, the gazing point is the origin 201 of the sphere 200, the angle of view α is 120 °, the camera coordinates are (0,0, -1.8), and the camera UP is (0, It is set to 1,0).

実際に、プロジェクションタイプとしてどのようなものがあるかについて、図24~図26を参照して説明する。なお、図24~図26に示すプロジェクションタイプは、一例であるため、これらのタイプに限定されるものではない。以下、図23に示した例と同様、全天球画像は、球体200の表面にマッピングされているものとし、球体200の半径を1、球体200の中心を原点201とし、Y軸とZ軸で表される2次元平面上に球体200を表現した図を使用して説明する。 Actually, what kind of projection type is available will be described with reference to FIGS. 24 to 26. The projection types shown in FIGS. 24 to 26 are examples, and are not limited to these types. Hereinafter, as in the example shown in FIG. 23, the whole celestial sphere image is assumed to be mapped to the surface of the sphere 200, the radius of the sphere 200 is 1, the center of the sphere 200 is the origin 201, and the Y-axis and the Z-axis. This will be described using a diagram representing the sphere 200 on a two-dimensional plane represented by.

図24は、球体200の外側にカメラ202を配置して見ている状態を表現するプロジェクションタイプ(第1のタイプ)を示す。第1のタイプは、ミラーボールの表面に広範囲の画像(パノラマ画像)を貼り付けたような映像を表現することができる。 FIG. 24 shows a projection type (first type) that expresses a state in which the camera 202 is arranged outside the sphere 200 and viewed. The first type can express an image in which a wide range of images (panoramic images) are attached to the surface of a mirror ball.

第1のタイプは、図24(a)に示すように、注視点を球体200の中心を示す原点201とし、カメラ202が球体200の外側のZ軸上に原点201から球体200の半径より大きい、例えば1.8ほど離れた位置にあり、画角が、例えば120°とされる。このため、パラメータは、図24(b)に示すように、画角120°、カメラ注視点座標(0,0,0)、カメラ座標(0,0,-1.8)、カメラUP(0,1,0)とされる。 In the first type, as shown in FIG. 24A, the gazing point is the origin 201 indicating the center of the sphere 200, and the camera 202 is on the Z axis outside the sphere 200 and is larger than the radius of the sphere 200 from the origin 201. For example, it is located at a distance of about 1.8, and the angle of view is, for example, 120 °. Therefore, as shown in FIG. 24B, the parameters are an angle of view of 120 °, camera gazing point coordinates (0,0,0), camera coordinates (0,0, -1.8), and camera UP (0). , 1,0).

図25は、カメラ202のY座標を球体200の半径と同等にし、球体200の内部全体を上から見下ろした状態を表現するプロジェクションタイプ(第2のタイプ)を示す。第2のタイプは、小さな惑星の上に人や建物などが立っているような映像を表現することができる。 FIG. 25 shows a projection type (second type) in which the Y coordinate of the camera 202 is made equal to the radius of the sphere 200 and the entire inside of the sphere 200 is viewed from above. The second type can express an image of a person or a building standing on a small planet.

第2のタイプは、図25(a)に示すように、限りなく境界に近い球体200の内側にカメラ202を配置し、画角を超広角(170°以上)とし、注視点を原点201とする。このため、パラメータは、図25(b)に示すように、例えば画角が170°とされ、カメラ注視点座標(0,0,0)、カメラ座標(0,1,0)、カメラUP(0,0,1)とされる。 In the second type, as shown in FIG. 25 (a), the camera 202 is placed inside the sphere 200 as close to the boundary as possible, the angle of view is set to an ultra-wide angle (170 ° or more), and the gazing point is set to the origin 201. do. Therefore, as shown in FIG. 25 (b), the parameters have, for example, an angle of view of 170 °, the camera gazing point coordinates (0,0,0), the camera coordinates (0,1,0), and the camera UP ( It is set to 0, 0, 1).

図26は、原点201にカメラ202を配置し、原点201から球体200を見ている状態を表現するプロジェクションタイプ(第3のタイプ)を示す。第3のタイプは、中心から周囲に向かって放射状に引き伸ばしたイメージを表現することができる。 FIG. 26 shows a projection type (third type) in which the camera 202 is arranged at the origin 201 and the sphere 200 is viewed from the origin 201. The third type can express an image stretched radially from the center toward the periphery.

第3のタイプは、図26(a)に示すように、原点201にカメラ202を配置し、球体200の表面を表す円周とZ軸との交点を注視点とする。このため、パラメータは、図26(b)に示すように、例えば画角が205°とされ、カメラ注視点座標(0,0,1)、カメラ座標(0,0,0)、カメラUP(0,1,0)とされる。 In the third type, as shown in FIG. 26A, the camera 202 is arranged at the origin 201, and the point of interest is the intersection of the circumference representing the surface of the sphere 200 and the Z axis. Therefore, as shown in FIG. 26 (b), the parameters have, for example, an angle of view of 205 °, the camera gazing point coordinates (0,0,1), the camera coordinates (0,0,0), and the camera UP ( 0,1,0).

第1実施形態から第3実施形態までは、プロジェクションタイプを、例えば第1のタイプとして視点1、視点2、…を登録し、2点の登録視点を繋ぎ合わせてアニメーションとしてプレビュー再生を実行している。したがって、どの視点でも、プロジェクションタイプが同一である。また、注視点も、原点201であるため、パラメータとして考慮していない。 From the first embodiment to the third embodiment, the projection type is registered as the first type, for example, the viewpoint 1, the viewpoint 2, ..., And the two registered viewpoints are connected to execute preview playback as an animation. There is. Therefore, the projection type is the same from all viewpoints. Further, since the gazing point is also the origin 201, it is not considered as a parameter.

第4実施形態では、視点1については第1のタイプ、視点2については第2のタイプといったように、異なるプロジェクションタイプで各視点や各注視点などを登録し、視点や注視点などの遷移に伴ってプロジェクションタイプが変更されるようにプレビュー再生を実行する。 In the fourth embodiment, each viewpoint and each gaze point are registered with different projection types, such as the first type for the viewpoint 1 and the second type for the viewpoint 2, and the transition of the viewpoint and the gaze point is performed. Perform preview playback so that the projection type is changed accordingly.

図27を参照して、プロジェクションタイプを選択する方法について説明する。ユーザは、表示する全天球画像のファイルを選択し、任意のプロジェクションタイプの部分画像を表示させた後、表示された部分画像の領域20に対してパン・チルト・ズームイン・ズームアウトなどの操作を行う前に、必要に応じて、図27(a)に示すスマートフォンのディスプレイ画面(タッチパネル)の領域23に表示される「タイプ選択」ボタンを選択し、図27(b)に示すプロジェクションタイプを選択する画面に切り替える。 A method of selecting a projection type will be described with reference to FIG. 27. The user selects a file of the spherical image to be displayed, displays a partial image of an arbitrary projection type, and then performs operations such as pan / tilt / zoom in / zoom out on the displayed partial image area 20. If necessary, select the "type selection" button displayed in the area 23 of the display screen (touch panel) of the smartphone shown in FIG. 27 (a), and select the projection type shown in FIG. 27 (b). Switch to the screen to select.

ユーザは、図27(b)に示す画面の領域46に表示される「第1のタイプ」、「第2のタイプ」、「第3のタイプ」のうちの1つのボタンを選択する。任意のプロジェクションタイプは、デフォルトで設定されたプロジェクションタイプで、ユーザは、任意のプロジェクションタイプ以外のプロジェクションタイプで視点の登録を行いたい場合に、所望するプロジェクションタイプを選択することができる。図27(b)に示す例では、「第2のタイプ」を選択している。選択後は、選択されたプロジェクションタイプの部分画像に切り替わり、その部分画像が表示される領域20の上側にある元の画面に戻るボタン51を押下し、図27(a)に示す画面に戻ることができる。 The user selects one of the "first type", "second type", and "third type" buttons displayed in the screen area 46 shown in FIG. 27 (b). Any projection type is a projection type set by default, and the user can select a desired projection type when he / she wants to register a viewpoint with a projection type other than any projection type. In the example shown in FIG. 27 (b), the "second type" is selected. After selection, the screen is switched to the selected projection type partial image, and the button 51 for returning to the original screen above the area 20 where the partial image is displayed is pressed to return to the screen shown in FIG. 27 (a). Can be done.

本実施形態の情報処理装置100では、表示部102が、ユーザの操作に応じて、プロジェクションタイプの選択を受け付ける。表示部102は、現在表示している部分画像を、選択されたプロジェクションタイプの部分画像に切り替えて更新する。なお、プロジェクションタイプが選択されず、プロジェクションタイプが変更されない場合は、この処理は実行されない。 In the information processing apparatus 100 of the present embodiment, the display unit 102 accepts the selection of the projection type according to the operation of the user. The display unit 102 switches and updates the currently displayed partial image to the selected projection type partial image. If the projection type is not selected and the projection type is not changed, this process is not executed.

詳細には、表示部102は、プロジェクションタイプの選択を受け付け、図24(b)、図25(b)、図26(b)に示したような投影情報としてのパラメータのうちの、選択されたプロジェクションタイプで投影するための当該タイプと紐付けられたパラメータを取得し、取得したパラメータを使用して、選択されたプロジェクションタイプの部分画像を生成し、現在表示している部分画像から生成した部分画像に切り替える。 Specifically, the display unit 102 accepts the selection of the projection type, and is selected from the parameters as projection information as shown in FIGS. 24 (b), 25 (b), and 26 (b). Acquires the parameters associated with the type for projection by the projection type, uses the acquired parameters to generate a partial image of the selected projection type, and the part generated from the currently displayed partial image. Switch to image.

その後、ユーザは、第1実施形態から第3実施形態と同様に、長押しあるいはダブルタップなどの所定の操作によって、領域20に表示される部分画像内の所望の位置を視点1として指定する。視点1を指定する際、ズームインまたはズームアウトし、表示倍率を変更してもよい。これを受けて、アプリ画面は、部分画像内のユーザが指定した位置に、視点1が登録されたことを示すアイコンを表示するとともに、領域22に、視点1を呼び出すためのアイコンをサムネイル表示する。 After that, the user designates a desired position in the partial image displayed in the area 20 as the viewpoint 1 by a predetermined operation such as a long press or a double tap, as in the first to third embodiments. When designating the viewpoint 1, the display magnification may be changed by zooming in or out. In response to this, the application screen displays an icon indicating that the viewpoint 1 has been registered at a position specified by the user in the partial image, and displays a thumbnail of an icon for calling the viewpoint 1 in the area 22. ..

続いて、ユーザは、必要に応じて、領域23に表示される「ビュー選択」ボタンを選択し、画面を切り替え、領域46に表示される「第1のタイプ」、「第2のタイプ」、「第3のタイプ」のうちの1つのボタンを選択する。表示部102は、現在表示している部分画像を選択されたプロジェクションタイプの部分画像に切り替えて更新する。この場合も、プロジェクションタイプが選択されず、プロジェクションタイプが変更されない場合は、この処理は実行されない。 Subsequently, the user selects the "view selection" button displayed in the area 23, switches the screen, and displays the "first type", "second type", in the area 46, if necessary. Select one of the "third type" buttons. The display unit 102 switches and updates the currently displayed partial image to the selected projection type partial image. Again, if the projection type is not selected and the projection type does not change, this process will not be executed.

その後、ユーザは、表示された部分画像内の所望の位置を視点2として指定する。視点2を指定する際、ズームインまたはズームアウトし、表示倍率を変更してもよい。これを受けて、アプリ画面は、その部分画像内のユーザが指定した位置に、視点2が登録されたことを示すアイコンを表示するとともに、領域22に、視点2を呼び出すためのアイコンをサムネイル表示する。 After that, the user designates a desired position in the displayed partial image as the viewpoint 2. When designating the viewpoint 2, the display magnification may be changed by zooming in or out. In response to this, the application screen displays an icon indicating that the viewpoint 2 has been registered at a position specified by the user in the partial image, and displays a thumbnail of an icon for calling the viewpoint 2 in the area 22. do.

このような操作を繰り返し、視点1、視点2に続けて、視点3、視点4、…を追加することができる。この場合も、登録視点が2点以上になると、2点の登録視点を繋ぎ合わせてアニメーションとしてプレビュー再生することができる。 By repeating such an operation, the viewpoint 3, the viewpoint 4, ... Can be added after the viewpoint 1 and the viewpoint 2. Also in this case, when the number of registered viewpoints is two or more, the two registered viewpoints can be connected and previewed as an animation.

ここで、情報処理装置100が視点登録時に実行する処理の内容を図28に示すシーケンス図に基づいて説明する。ユーザは、視点を登録する操作を行う前に、プロジェクションタイプを選択する(S1)。これに応答して、表示部102は、選択されたプロジェクションタイプに紐付けられたパラメータを取得する。 Here, the content of the process executed by the information processing apparatus 100 at the time of viewpoint registration will be described with reference to the sequence diagram shown in FIG. 28. The user selects the projection type before performing the operation of registering the viewpoint (S1). In response to this, the display unit 102 acquires the parameter associated with the selected projection type.

パラメータは、プロジェクションタイプ毎に設定された部分画像を表示するために使用されるカメラ座標などの値で、視点管理部105によりテーブルを使用して管理される。テーブルは、具体的には図24(b)、図25(b)、図26(b)に示すようなテーブルである。したがって、表示部102は、視点管理部105に対して選択されたプロジェクションタイプを通知し、通知したプロジェクションタイプに紐付けられたパラメータを取得する。このパラメータは、予め設定されたカメラ座標などの初期値(デフォルト値)である。 The parameters are values such as camera coordinates used to display the partial image set for each projection type, and are managed by the viewpoint management unit 105 using a table. Specifically, the table is a table as shown in FIGS. 24 (b), 25 (b), and 26 (b). Therefore, the display unit 102 notifies the viewpoint management unit 105 of the selected projection type, and acquires the parameter associated with the notified projection type. This parameter is an initial value (default value) such as preset camera coordinates.

選択されたプロジェクションタイプが第1のタイプで、パラメータとしてカメラ座標、画角、カメラ注視点座標、カメラUPを取得した場合、表示部102は、当該半径の球体200の表面に全天球画像をマッピングし、当該カメラ座標にカメラ202を配置し、当該カメラUPの方向をカメラ202の上方向とし、当該画角で、当該カメラ注視点座標に焦点を合わせた部分画像を生成し、現在表示している部分画像から生成した部分画像に切り替えて更新する。 When the selected projection type is the first type and the camera coordinates, the angle of view, the camera gaze point coordinates, and the camera UP are acquired as parameters, the display unit 102 displays an all-sky image on the surface of the sphere 200 having the radius. Map and place the camera 202 at the camera coordinates, set the direction of the camera UP to the upward direction of the camera 202, generate a partial image focused on the camera gaze point coordinates at the angle of view, and display it now. Switch to the generated partial image from the existing partial image and update.

ユーザによる視点を登録する操作(S3)から現在の表示倍率の計算結果の取得(S7)までは、図11に示したS1からS5までの処理と同様であるため、ここでは説明を省略する。視点を登録する操作では、視点を変更し、表示倍率も変更するため、S6で視点座標を算出し、S7で表示倍率を算出している。視点を登録する操作では、視点の変更などによって、カメラ202の上方向やカメラ座標が変わるため、これらも算出しなければならない。 Since the operation from the operation of registering the viewpoint by the user (S3) to the acquisition of the calculation result of the current display magnification (S7) is the same as the processing from S1 to S5 shown in FIG. 11, the description thereof is omitted here. In the operation of registering the viewpoint, the viewpoint is changed and the display magnification is also changed. Therefore, the viewpoint coordinates are calculated in S6 and the display magnification is calculated in S7. In the operation of registering the viewpoint, the upward direction of the camera 202 and the camera coordinates change due to the change of the viewpoint, etc., so these must also be calculated.

そこで、制御部103は、演算部104に対して、カメラUPの計算を命令して、その計算結果を取得する(S8)。カメラUPは、視点を指定する際の全天球画像の上方向の情報と、S6で算出された視点座標(視点の球面座標)と、カメラ注視点座標とに基づき算出される。カメラ注視点座標は、第1のタイプ、第2のタイプについては球体200の原点201の座標(0,0,0)であるため、算出する必要はないが、第3のタイプについては、原点201から視点座標に基づいて決定されるカメラ202が見る方向に延びる直線と球体200の表面を表す円周とが交差する点の座標として算出される。カメラUPは、カメラ202が見る方向に延びる直線に対して垂直な方向であって、画像の上方向をカメラの上方向としたベクトルとして算出される。カメラ注視点座標を計算する必要がある場合、ここで計算を命令し、その計算結果を取得することができる。 Therefore, the control unit 103 instructs the calculation unit 104 to calculate the camera UP, and acquires the calculation result (S8). The camera UP is calculated based on the information in the upward direction of the spherical image when designating the viewpoint, the viewpoint coordinates (spherical coordinates of the viewpoint) calculated in S6, and the camera gazing point coordinates. The camera gazing point coordinates do not need to be calculated because they are the coordinates (0,0,0) of the origin 201 of the sphere 200 for the first type and the second type, but the origin for the third type. It is calculated as the coordinates of the point where the straight line extending in the viewing direction of the camera 202, which is determined from 201 based on the viewpoint coordinates, intersects with the circumference representing the surface of the sphere 200. The camera UP is a direction perpendicular to a straight line extending in the viewing direction of the camera 202, and is calculated as a vector in which the upward direction of the image is the upward direction of the camera. If it is necessary to calculate the camera gaze point coordinates, the calculation can be ordered here and the calculation result can be obtained.

制御部103は、演算部104に対して、カメラ座標の計算を命令して、その計算結果を取得する(S9)。カメラ座標は、S6で算出された視点座標と、S7で算出された表示倍率と、カメラ注視点座標とに基づき算出される。表示倍率は、その倍率に応じて画角を変化させ、画角に応じて注視点からカメラ202までの距離を決定する焦点距離を変化させる。このため、カメラ座標は、例えば表示倍率から、注視点からカメラ202までの距離を算出し、視点座標に基づいて決定されるカメラ202が見る方向とその距離とから算出することができる。なお、ここで例示した算出方法は一例であるため、カメラUPおよびカメラ座標を算出することができれば、これらの方法に限定されるものではない。 The control unit 103 commands the calculation unit 104 to calculate the camera coordinates, and acquires the calculation result (S9). The camera coordinates are calculated based on the viewpoint coordinates calculated in S6, the display magnification calculated in S7, and the camera gazing point coordinates. The display magnification changes the angle of view according to the magnification, and changes the focal length that determines the distance from the gazing point to the camera 202 according to the angle of view. Therefore, the camera coordinates can be calculated from, for example, the distance from the gazing point to the camera 202 from the display magnification, and the viewing direction and the distance of the camera 202 determined based on the viewpoint coordinates. Since the calculation method exemplified here is an example, it is not limited to these methods as long as the camera UP and the camera coordinates can be calculated.

その後は、図11に示したS6からS8までの処理と同様であるため、ここでは説明を省略する。なお、パラメータ登録(S10)では、視点管理部105が各値を視点情報管理テーブルに登録するが、第4実施形態における視点情報管理テーブルは、選択されたプロジェクションタイプ、カメラUP、カメラ座標、カメラ注視点座標を格納するためのフィールドを含み、選択されたタイプ、算出された各値を該当するフィールドに格納する。画角については、初期画角に対するズーム倍率である表示倍率として格納することもできるし、表示倍率とは別に画角の値を格納してもよい。 After that, since it is the same as the processing from S6 to S8 shown in FIG. 11, the description thereof is omitted here. In the parameter registration (S10), the viewpoint management unit 105 registers each value in the viewpoint information management table, but the viewpoint information management table in the fourth embodiment has the selected projection type, camera UP, camera coordinates, and camera. Contains a field for storing the gaze point coordinates, and stores the selected type and each calculated value in the corresponding field. The angle of view may be stored as a display magnification which is a zoom magnification with respect to the initial angle of view, or the value of the angle of view may be stored separately from the display magnification.

以降、ユーザが視点登録操作を行う度に、S1~S12の処理が繰り返し実行され、これに伴って、視点管理テーブルに、ユーザが指定する視点がその指定順に登録される。 After that, each time the user performs the viewpoint registration operation, the processes S1 to S12 are repeatedly executed, and along with this, the viewpoints designated by the user are registered in the viewpoint management table in the order specified.

次に、視点を登録した後に、プロジェクションタイプが異なる2つの登録視点間でプレビュー再生する際の視点の遷移について、図29~図31を参照して説明する。 Next, after registering the viewpoints, the transition of the viewpoints during preview reproduction between two registered viewpoints having different projection types will be described with reference to FIGS. 29 to 31.

図29は、第1のタイプに設定した視点1から第2のタイプに設定した視点2への遷移について説明する図である。図29(a)中、「A」は、第1のタイプを示す図24(a)と同様の状態で、「C」は、第2のタイプを示す図25(a)と同様の状態である。「B」は、遷移途中の状態である。図29~図31においては、説明を容易にするために、「B」における視点が、「A」における視点1と「C」における視点2の中間の位置にあるものして説明する。 FIG. 29 is a diagram illustrating a transition from the viewpoint 1 set in the first type to the viewpoint 2 set in the second type. In FIG. 29 (a), "A" is in the same state as in FIG. 24 (a) showing the first type, and "C" is in the same state as in FIG. 25 (a) showing the second type. be. "B" is a state in the middle of transition. In FIGS. 29 to 31, in order to facilitate the explanation, the viewpoint in “B” is assumed to be located between the viewpoint 1 in “A” and the viewpoint 2 in “C”.

「A」の状態から「C」の状態に遷移する場合、いずれの状態も注視点は同じ位置(原点201)となるが、画角、カメラ座標、カメラUPは変化する。このため、視点間を補間する経路に沿って視点を遷移させるとともに、画角、カメラ座標、カメラUPも視点間で補間して遷移させる。 When transitioning from the "A" state to the "C" state, the gazing point is at the same position (origin 201) in each state, but the angle of view, camera coordinates, and camera UP change. Therefore, the viewpoint is transitioned along the path of interpolating between the viewpoints, and the angle of view, the camera coordinates, and the camera UP are also interpolated and transitioned between the viewpoints.

「A」、「C」の状態におけるパラメータは、図24(b)、図25(b)に示したパラメータと同じであるため、ここでは説明を省略する。遷移途中の状態における画角は、視点制御部106により「A」、「C」の状態における画角を用いて算出される。具体的には、視点制御部106が、視点1における画角と視点2における画角との差分に基づいて、フレーム毎の画角の変位量を算出する。 Since the parameters in the states of "A" and "C" are the same as the parameters shown in FIGS. 24 (b) and 25 (b), the description thereof will be omitted here. The angle of view in the state during the transition is calculated by the viewpoint control unit 106 using the angle of view in the states of "A" and "C". Specifically, the viewpoint control unit 106 calculates the displacement amount of the angle of view for each frame based on the difference between the angle of view at the viewpoint 1 and the angle of view at the viewpoint 2.

図29(b)に示すように、「A」の状態の視点1における画角が120°で、「C」の状態の視点2における画角が170°であるため、その差分は50°である。「B」の状態に遷移したときの画角は、視点1における画角に、視点1から中間の位置までのフレーム数の画角の変位量の和を加算することにより算出される。この例では、視点1における画角120°に、当該変位量の和である、差分50°の半分の25°を加算して145°と算出される。 As shown in FIG. 29 (b), the angle of view at viewpoint 1 in the "A" state is 120 °, and the angle of view at viewpoint 2 in the "C" state is 170 °, so the difference is 50 °. be. The angle of view at the time of transition to the "B" state is calculated by adding the sum of the displacement amounts of the angle of view of the number of frames from the viewpoint 1 to the intermediate position to the angle of view at the viewpoint 1. In this example, it is calculated as 145 ° by adding 25 °, which is the sum of the displacement amounts, which is half of the difference of 50 °, to the angle of view of 120 ° at the viewpoint 1.

遷移途中の状態におけるカメラ座標は、視点制御部106により「A」、「C」の状態におけるカメラ座標を用いて算出される。具体的には、視点制御部106が、視点1におけるカメラ座標と視点2におけるカメラ座標との間の距離に基づいて、フレーム毎のカメラ座標の変位量を算出する。 The camera coordinates in the state during the transition are calculated by the viewpoint control unit 106 using the camera coordinates in the states of "A" and "C". Specifically, the viewpoint control unit 106 calculates the displacement amount of the camera coordinates for each frame based on the distance between the camera coordinates at the viewpoint 1 and the camera coordinates at the viewpoint 2.

「B」の状態に遷移したときの座標は、視点1におけるカメラ座標に、視点1から中間の位置までのフレーム数のカメラ座標の変位量の和を加算することにより算出される。この例では、視点1のカメラ座標(0,0,-1.8)に、変位量の和である、視点1と視点2の間のY軸方向の距離1、Z軸方向の距離1.8の半分の0.5、0.9を変位するy座標、z座標につき加算し、(0,0.5,-0.9)と算出される。両方を加算するのは、視点1から視点2に向けてy座標も、z座標も値が大きくなる方向に遷移するからである。 The coordinates when the state transitions to the "B" state are calculated by adding the sum of the displacement amounts of the camera coordinates of the number of frames from the viewpoint 1 to the intermediate position to the camera coordinates at the viewpoint 1. In this example, the distance 1 in the Y-axis direction and the distance 1. It is calculated as (0, 0.5, -0.9) by adding 0.5 and 0.9, which are half of 8, for the y-coordinates and z-coordinates to be displaced. Both are added because the y-coordinate and the z-coordinate transition in the direction of increasing values from the viewpoint 1 to the viewpoint 2.

遷移途中の状態におけるカメラUPは、視点制御部106により「A」、「C」の状態におけるカメラUPを用いて算出される。具体的には、視点制御部106が、視点1におけるカメラUPと視点2におけるカメラUPとから得られる回転角度に基づいて、フレーム毎のカメラUPの変位量を算出する。 The camera UP in the state during the transition is calculated by the viewpoint control unit 106 using the camera UP in the states of "A" and "C". Specifically, the viewpoint control unit 106 calculates the displacement amount of the camera UP for each frame based on the rotation angles obtained from the camera UP at the viewpoint 1 and the camera UP at the viewpoint 2.

「B」の状態に遷移したときのカメラUPは、視点1におけるカメラUPに、視点1から中間の位置までのフレーム数のカメラUPの変位量の和を加算、もしくは減算、またはその両方を行うことにより算出される。図29(b)に示すように、視点1におけるカメラUPが(0,1,0)で、視点2におけるカメラUPが(0,0,1)であるため、カメラ202の上向き方向はY軸方向からZ軸方向に90°回転していることを示す。この例では、カメラUP(0,1,0)に、変位量の和である、回転角度90°の半分の45°に相当する0.5、0.5を変位するy座標につき減算し、z座標につき加算し、(0,0.5,0.5)と算出される。y座標を減算し、z座標を加算するのは、視点1から視点2に向けてy座標は小さく、z座標は値が大きくなる方向に遷移するからである。 The camera UP at the time of transition to the "B" state adds, subtracts, or both the sum of the displacement amounts of the camera UP of the number of frames from the viewpoint 1 to the intermediate position to the camera UP at the viewpoint 1. It is calculated by. As shown in FIG. 29 (b), since the camera UP at the viewpoint 1 is (0,1,0) and the camera UP at the viewpoint 2 is (0,0,1), the upward direction of the camera 202 is the Y axis. It is shown that the camera is rotated 90 ° in the Z-axis direction from the direction. In this example, 0.5, 0.5, which corresponds to 45 °, which is half of the rotation angle of 90 °, which is the sum of the displacement amounts, is subtracted from the camera UP (0,1,0) for the y-coordinate to be displaced. It is calculated as (0, 0.5, 0.5) by adding each z coordinate. The reason why the y-coordinate is subtracted and the z-coordinate is added is that the y-coordinate transitions from the viewpoint 1 to the viewpoint 2 in the direction in which the y-coordinate is small and the value is large.

図30は、第2のタイプに設定した視点1から第3のタイプに設定した視点2への遷移について説明する図である。図30(a)中、「A」は、第2のタイプを示す図25(a)と同様の状態で、「C」は、第3のタイプを示す図26(a)と同様の状態である。「B」は、遷移途中の状態である。 FIG. 30 is a diagram illustrating a transition from the viewpoint 1 set in the second type to the viewpoint 2 set in the third type. In FIG. 30 (a), "A" is in the same state as in FIG. 25 (a) showing the second type, and "C" is in the same state as in FIG. 26 (a) showing the third type. be. "B" is a state in the middle of transition.

「A」の状態から「C」の状態に遷移する場合、画角、カメラ座標、カメラUP、カメラ注視点座標のすべてが変化する。このため、視点間を補間する経路に沿って視点を遷移させるとともに、画角、カメラ座標、カメラUP、カメラ注視点座標も視点間で補間して遷移させる。 When transitioning from the "A" state to the "C" state, the angle of view, camera coordinates, camera UP, and camera gazing point coordinates all change. Therefore, the viewpoint is transitioned along the path of interpolating between the viewpoints, and the angle of view, the camera coordinates, the camera UP, and the camera gazing point coordinates are also interpolated and transitioned between the viewpoints.

「A」、「C」の状態におけるパラメータは、図25(b)、図26(b)に示したパラメータと同じであるため、ここでは説明を省略する。遷移途中の状態における画角は、視点制御部106により「A」、「C」の状態における画角を用いて、図29を参照して説明した方法と同様の方法で算出される。 Since the parameters in the states of "A" and "C" are the same as the parameters shown in FIGS. 25 (b) and 26 (b), the description thereof will be omitted here. The angle of view in the state during the transition is calculated by the viewpoint control unit 106 by the viewpoint control unit 106 by the same method as the method described with reference to FIG. 29 using the angle of view in the states of “A” and “C”.

この例では、「B」の状態に遷移したときの画角は、視点1における画角170°に、変位量の和である、差分35°の半分の17.5°を加算して187.5°と算出される。 In this example, the angle of view when transitioning to the "B" state is 187. The angle of view at viewpoint 1 is 170 ° plus 17.5 °, which is the sum of the displacements, which is half of the difference of 35 °. It is calculated as 5 °.

遷移途中の状態におけるカメラ座標は、視点制御部106により「A」、「C」の状態におけるカメラ座標を用いて、図29を参照して説明した方法と同様の方法で算出される。 The camera coordinates in the state during the transition are calculated by the viewpoint control unit 106 by the viewpoint control unit 106 by the same method as the method described with reference to FIG. 29 using the camera coordinates in the states of “A” and “C”.

この例では、「B」の状態に遷移したときのカメラ座標は、視点1のカメラ座標(0,1,0)に、変位量の和である、視点1と視点2の間のY軸方向の距離1の半分の0.5を変位するy座標につき減算し、(0,0.5,0)と算出される。 In this example, the camera coordinates when the state transitions to the "B" state are the sum of the displacement amounts to the camera coordinates (0, 1, 0) of the viewpoint 1, and the Y-axis direction between the viewpoint 1 and the viewpoint 2. It is calculated as (0,0.5,0) by subtracting 0.5, which is half of the distance 1 of, for the y-coordinate to be displaced.

遷移途中の状態におけるカメラUPは、視点制御部106により「A」、「C」の状態におけるカメラUPの値を用いて、図29を参照して説明した方法と同様の方法で算出される。 The camera UP in the state during the transition is calculated by the viewpoint control unit 106 by the viewpoint control unit 106 by the same method as the method described with reference to FIG. 29 using the values of the camera UP in the states of “A” and “C”.

図30(b)に示すように、視点1におけるカメラUPが(0,0,1)で、視点2におけるカメラUPが(0,1,0)であるため、カメラ202の上向き方向はZ軸方向からY軸方向に90°回転していることを示す。この例では、カメラUP(0,0,1)に、変位量の和である、回転角度90°の半分の45°に相当する0.5、0.5を変位するy座標につき加算し、z座標につき減算し、(0,0.5,0.5)と算出される。 As shown in FIG. 30B, since the camera UP at the viewpoint 1 is (0,0,1) and the camera UP at the viewpoint 2 is (0,1,0), the upward direction of the camera 202 is the Z axis. It is shown that the camera is rotated 90 ° in the Y-axis direction from the direction. In this example, 0.5 and 0.5, which are the sum of the displacement amounts and correspond to 45 °, which is half of the rotation angle of 90 °, are added to the camera UP (0, 0, 1) for the y-coordinates to be displaced. It is calculated as (0,0.5,0.5) by subtracting the z-coordinates.

遷移途中の状態におけるカメラ注視点座標は、視点制御部106により「A」、「C」の状態におけるカメラ注視点座標を用いて算出される。具体的には、視点制御部106が、視点1における注視点1と視点2における注視点2の距離に基づいて、フレーム毎の注視点の変位量を算出する。 The camera gazing point coordinates in the state during the transition are calculated by the viewpoint control unit 106 using the camera gazing point coordinates in the states of "A" and "C". Specifically, the viewpoint control unit 106 calculates the displacement amount of the gazing point for each frame based on the distance between the gazing point 1 at the viewpoint 1 and the gazing point 2 at the viewpoint 2.

「B」の状態に遷移したときのカメラ注視点座標は、視点1におけるカメラ注視点座標(0,0,0)に、変位量の和である、視点1における注視点と視点2における注視点のZ軸方向の距離1の半分の0.5を変位するz座標につき加算し、(0,0,0.5)と算出される。 The camera gazing point coordinates at the time of transition to the "B" state are the sum of the displacement amounts to the camera gazing point coordinates (0, 0, 0) at the viewpoint 1, and the gazing point at the viewpoint 1 and the gazing point at the viewpoint 2. 0.5, which is half of the distance 1 in the Z-axis direction, is added for each z coordinate to be displaced, and calculated as (0, 0, 0.5).

図31は、第3のタイプに設定した視点1から第1のタイプに設定した視点2への遷移について説明する図である。図31(a)中、「A」は、第3のタイプを示す図26(a)と同様の状態で、「C」は、第1のタイプを示す図24(a)と同様の状態である。「B」は、遷移途中の状態である。 FIG. 31 is a diagram illustrating a transition from the viewpoint 1 set in the third type to the viewpoint 2 set in the first type. In FIG. 31 (a), "A" is in the same state as in FIG. 26 (a) showing the third type, and "C" is in the same state as in FIG. 24 (a) showing the first type. be. "B" is a state in the middle of transition.

「A」の状態から「C」の状態に遷移する場合、いずれの状態もカメラUPは同じであるが、画角、カメラ座標、注視点は変化する。このため、視点間を補間する経路に沿って視点を遷移させるとともに、画角、カメラ座標、カメラ注視点座標を視点間で補間して遷移させる。 When transitioning from the "A" state to the "C" state, the camera UP is the same in all states, but the angle of view, camera coordinates, and gazing point change. Therefore, the viewpoint is changed along the path of interpolating between the viewpoints, and the angle of view, the camera coordinates, and the camera gazing point coordinates are interpolated between the viewpoints to make the transition.

「A」、「C」の状態におけるパラメータは、図26(b)、図24(b)に示したパラメータと同じであるため、ここでは説明を省略する。遷移途中の状態における画角は、視点制御部106により「A」、「C」の状態における画角を用いて、図29を参照して説明した方法と同様の方法で算出される。 Since the parameters in the states of "A" and "C" are the same as the parameters shown in FIGS. 26 (b) and 24 (b), description thereof will be omitted here. The angle of view in the state during the transition is calculated by the viewpoint control unit 106 by the viewpoint control unit 106 by the same method as the method described with reference to FIG. 29 using the angle of view in the states of “A” and “C”.

この例では、「B」の状態に遷移したときの画角は、視点1における画角205°に、変位量の和である、差分85°の半分の42.5°を減算して162.5°として算出される。 In this example, the angle of view when transitioning to the "B" state is 162. The angle of view at viewpoint 1 is obtained by subtracting 42.5 °, which is the sum of the displacements, which is half of the difference of 85 °. Calculated as 5 °.

遷移途中の状態におけるカメラ座標は、視点制御部106により「A」、「C」の状態におけるカメラ座標を用いて、図29を参照して説明した方法と同様の方法で算出される。 The camera coordinates in the state during the transition are calculated by the viewpoint control unit 106 by the viewpoint control unit 106 by the same method as the method described with reference to FIG. 29 using the camera coordinates in the states of “A” and “C”.

この例では、「B」の状態に遷移したときのカメラ座標は、視点1のカメラ座標(0,0,0)に、変位量の和である、視点1と視点2の間のZ軸方向の距離1.8の半分の0.9を減算し、(0,0,-0.9)と算出される。 In this example, the camera coordinates when the state transitions to the "B" state are the sum of the displacement amounts of the camera coordinates (0, 0, 0) of the viewpoint 1, and the Z-axis direction between the viewpoint 1 and the viewpoint 2. It is calculated as (0,0, -0.9) by subtracting 0.9, which is half of the distance of 1.8.

遷移途中の状態におけるカメラ注視点座標は、視点制御部106により「A」、「C」の状態におけるカメラ注視点座標を用いて、図30を参照して説明した方法と同様の方法で算出される。 The camera gazing point coordinates in the state in the middle of the transition are calculated by the viewpoint control unit 106 by the same method as the method described with reference to FIG. 30 using the camera gazing point coordinates in the states of “A” and “C”. The coordinates.

この例では、「B」の状態に遷移したときのカメラ注視点座標は、視点1におけるカメラ注視点座標(0,0,1)に、視点1における注視点と視点2における注視点の間のZ軸方向の距離1の半分の0.5をz座標につき減算し、(0,0,0.5)として算出される。 In this example, the camera gazing point coordinates at the time of transition to the "B" state are the camera gazing point coordinates (0, 0, 1) at the viewpoint 1, and the gazing point at the viewpoint 1 and the gazing point at the viewpoint 2. It is calculated as (0,0,0.5) by subtracting 0.5, which is half of the distance 1 in the Z-axis direction, for each z coordinate.

図29~図31を参照して、第1のタイプから第2のタイプへ、第2のタイプから第3のタイプへ、第3のタイプから第2のタイプへ遷移する例について説明してきたが、それ以外の第2のタイプから第1のタイプへ、第3のタイプから第2のタイプへ、第1のタイプから第3のタイプへ遷移する場合なども同様にしてフレーム毎に画角、カメラ座標、カメラUP、カメラ注視点座標が変化した部分画像を生成し、アニメーションにおいて、滑らかな視点、注視点、カメラUPの遷移やズームイン・ズームアウト表現が可能となる。また、タイプの変更により、全天球画像を使用したダイナミックな映像表現が可能となる。 With reference to FIGS. 29 to 31, an example of transitioning from the first type to the second type, from the second type to the third type, and from the third type to the second type has been described. In the same way, when transitioning from the second type to the first type, from the third type to the second type, from the first type to the third type, etc., the angle of view for each frame, A partial image in which the camera coordinates, the camera UP, and the camera gaze point coordinates are changed is generated, and smooth viewpoint, gaze point, camera UP transition, zoom-in / zoom-out expression can be performed in the animation. In addition, by changing the type, dynamic video expression using spherical images becomes possible.

ここで、情報処理装置100がプレビュー再生時に実行する処理の内容を図32に示すシーケンス図に基づいて説明する。プレビュー再生時の処理は、図13に示した第1実施形態における処理とほぼ同様であるが、S5、S7における処理のみが異なるため、ここではS5、S7における処理のみを説明する。 Here, the contents of the processing executed by the information processing apparatus 100 at the time of preview reproduction will be described with reference to the sequence diagram shown in FIG. 32. The processing at the time of preview reproduction is substantially the same as the processing in the first embodiment shown in FIG. 13, but only the processing in S5 and S7 is different, so only the processing in S5 and S7 will be described here.

S5では、視点制御部106が、1番目の登録視点(始点)から2番目の登録視点(終点)の間を補間する経路に沿って視点を遷移させる制御を実施する。その制御において、上記のようにしてフレーム毎の視点の変位量を算出するとともに、始点と終点に登録されたプロジェクションタイプに応じて、フレーム毎の画角、カメラ座標、カメラUP、カメラ注視点座標の変位量を算出する。 In S5, the viewpoint control unit 106 controls to transition the viewpoint along a path that interpolates between the first registered viewpoint (start point) and the second registered viewpoint (end point). In the control, the displacement amount of the viewpoint for each frame is calculated as described above, and the angle of view, camera coordinates, camera UP, and camera gazing point coordinates for each frame are calculated according to the projection types registered at the start point and the end point. Calculate the displacement of.

S7では、視点制御部106が、フレーム数にフレーム期間を乗じた値が遷移時間を超えるまでの間、制御部103に対して、フレーム毎に視点の変位量、始点と終点に登録されたプロジェクションタイプに応じた画角、カメラ座標、カメラUP、カメラ注視点座標の変位量を通知することを繰り返す。このとき、変位方向、すなわち加算するのか、減算するのかも通知することができる。 In S7, the viewpoint control unit 106 registers the displacement amount of the viewpoint, the start point and the end point for each frame with respect to the control unit 103 until the value obtained by multiplying the number of frames by the frame period exceeds the transition time. It repeats notifying the displacement amount of the angle of view, the camera coordinates, the camera UP, and the camera gaze point coordinates according to the type. At this time, it is also possible to notify the displacement direction, that is, whether to add or subtract.

このようにして登録視点間でプロジェクションタイプを変えることで、視点変更や画角変更だけでは表現できないような多様な全天球の映像表現が可能となる。 By changing the projection type between the registered viewpoints in this way, it is possible to express various spherical images that cannot be expressed only by changing the viewpoint or the angle of view.

なお、第4実施形態においても、第2実施形態で説明した視点が遷移する方向を視点パラメータとしてユーザが設定し、その設定した方向に視点を遷移させることができる。また、第4実施形態においても、第3実施形態で説明したプリセットデータを用いてアニメーションを自動実行させ、アニメーションをクロップし、アニメーションと背景音声を合成して再生させることが可能である。 Also in the fourth embodiment, the user can set the direction in which the viewpoint described in the second embodiment changes as a viewpoint parameter, and the viewpoint can be changed in the set direction. Further, also in the fourth embodiment, it is possible to automatically execute the animation using the preset data described in the third embodiment, crop the animation, and synthesize and reproduce the animation and the background sound.

上述した実施形態の各機能は、C、C++、C#、Java(登録商標)などで記述されたプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD-ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROMなどの記録媒体に格納して頒布することができ、また他の装置が可能な形式でネットワークを介して伝送することができる。 Each function of the above-described embodiment can be realized by a program described in C, C ++, C #, Java (registered trademark), etc., and the program of this embodiment is a hard disk device, CD-ROM, MO, DVD, flexible. It can be stored and distributed on recording media such as disks, EEPROMs, and EPROMs, and can be transmitted over a network in a format that other devices can.

以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the present invention has been described above with embodiments, the present invention is not limited to the above-described embodiments, and as long as the present invention exerts its actions and effects within the range of embodiments that can be inferred by those skilled in the art. , Is included in the scope of the present invention.

10…プロセッサ
12…ROM
13…RAM
14…補助記憶装置
15…入出力インタフェース
16…ネットワーク・インターフェース
18…ディスプレイ
20…領域
21,24,25,29…アイコン
22,23,26,27,28…領域
40,42,43,44,46…領域
50…終点調整ボタン
51…戻るボタン
30…再生開始アイコン
100,100a,100b,100c…情報処理装置
102…表示部
103…制御部
104…演算部
105…視点管理部
106…視点制御部
107…動画データ生成部
108…記憶領域
110…撮像装置
200…球体
201…原点
202…カメラ
500…視点情報管理テーブル
501,502,503,504,505,506,507,508…フィールド
550…視点情報管理テーブル
600…プリセットデータ
601,602,603,604…フィールド
10 ... Processor 12 ... ROM
13 ... RAM
14 ... Auxiliary storage 15 ... Input / output interface 16 ... Network interface 18 ... Display 20 ... Area 21,24,25,29 ... Icon 22,23,26,27,28 ... Area 40,42,43,44,46 ... ... Area 50 ... End point adjustment button 51 ... Back button 30 ... Playback start icon 100, 100a, 100b, 100c ... Information processing device 102 ... Display unit 103 ... Control unit 104 ... Calculation unit 105 ... Viewpoint management unit 106 ... Viewpoint control unit 107 ... Movie data generation unit 108 ... Storage area 110 ... Image pickup device 200 ... Sphere 201 ... Origin 202 ... Camera 500 ... Viewpoint information management table 501,502,503,504,505,506,507,508 ... Field 550 ... Viewpoint information management Table 600 ... Preset data 601,602,603,604 ... Field

特開2015-18013号公報JP-A-2015-18013

Claims (26)

全天球画像において、ユーザが指定する視点をその指定順に登録する視点管理部と、
全天球画像における第1の視点と該第1の視点の次に指定された第2の視点の間を補間する経路に沿って視点を遷移させる視点制御部と、
遷移する各視点を中心とした部分画像を生成する演算部と、
表示部と、
前記表示部における表示画面に、生成された複数の部分画像を視点の遷移順に繋ぎ合わせたアニメーション表示を実行する制御部と、
を含み、
前記表示部は、
前記部分画像を表示画面に投影して表示する際の投影方式の選択を受け付け、
前記視点管理部は、
ユーザが指定する視点と選択された投影方式で投影するための投影情報とを紐付けて登録し、
前記演算部は、
ユーザが指定した視点に紐付いた前記投影情報に基づいて前記部分画像を生成する、
情報処理装置。
In the spherical image, the viewpoint management unit that registers the viewpoints specified by the user in the specified order,
A viewpoint control unit that shifts the viewpoint along a path that interpolates between the first viewpoint and the second viewpoint designated after the first viewpoint in the spherical image.
An arithmetic unit that generates a partial image centered on each transition viewpoint,
Display and
On the display screen of the display unit, a control unit that executes an animation display in which a plurality of generated partial images are connected in the order of transition of viewpoints, and a control unit.
Including
The display unit is
Accepts the selection of the projection method when projecting the partial image on the display screen and displaying it.
The viewpoint management unit
Register the viewpoint specified by the user and the projection information for projection by the selected projection method in association with each other.
The arithmetic unit
Generate the partial image based on the projection information associated with the viewpoint specified by the user.
Information processing equipment.
前記視点管理部は、
ユーザが指定する視点とユーザが指定する画角を紐付けて登録し、
前記演算部は、
ユーザが指定した視点に紐付いた前記画角に基づいて前記部分画像を生成する、
請求項1に記載の情報処理装置。
The viewpoint management unit
Register the viewpoint specified by the user and the angle of view specified by the user in association with each other.
The arithmetic unit
Generate the partial image based on the angle of view associated with the viewpoint specified by the user.
The information processing apparatus according to claim 1.
前記視点管理部は、
ユーザが指定する視点とユーザが指定する視点の遷移速度または遷移時間を紐付けて登録し、
前記視点制御部は、
ユーザが指定した前記遷移速度または前記遷移時間に基づいて前記視点を遷移させる、
請求項1または2に記載の情報処理装置。
The viewpoint management unit
Register the transition speed or transition time of the viewpoint specified by the user and the viewpoint specified by the user in association with each other.
The viewpoint control unit
Transitioning the viewpoint based on the transition speed or the transition time specified by the user.
The information processing apparatus according to claim 1 or 2.
前記視点管理部は、
ユーザが指定する視点とユーザが指定する視点の遷移方向を紐付けて登録し、
前記視点制御部は、
ユーザが指定した前記遷移方向に基づいて決定される前記経路に沿って前記視点を遷移させる、
請求項1~3のいずれか一項に記載の情報処理装置。
The viewpoint management unit
Register the transition direction of the viewpoint specified by the user and the viewpoint specified by the user in association with each other.
The viewpoint control unit
The viewpoint is transitioned along the path determined based on the transition direction specified by the user.
The information processing apparatus according to any one of claims 1 to 3.
生成された前記複数の部分画像を動画データに変換する動画データ生成部を含む、
請求項1~4のいずれか一項に記載の情報処理装置。
Includes a video data generator that converts the generated plurality of partial images into video data.
The information processing apparatus according to any one of claims 1 to 4.
前記表示部は、前記表示画面に、ユーザが指定した前記視点に対応するアイコンをサムネイル表示する
請求項5に記載の情報処理装置。
The display unit displays thumbnails of icons corresponding to the viewpoint specified by the user on the display screen .
The information processing apparatus according to claim 5.
前記表示部は、
ユーザが指定した前記視点および該視点に紐付いて登録された情報の編集を受け付ける、
請求項6に記載の情報処理装置。
The display unit is
Accepts editing of the viewpoint specified by the user and information registered in association with the viewpoint.
The information processing apparatus according to claim 6.
前記表示部は、
1以上の背景音声を選択可能に表示し、
前記動画データ生成部は、
ユーザが選択した前記背景音声を前記動画データに合成する、
請求項5~のいずれか一項に記載の情報処理装置。
The display unit is
Display one or more background sounds in a selectable manner,
The moving image data generation unit is
Synthesize the background sound selected by the user with the moving image data.
The information processing apparatus according to any one of claims 5 to 7.
前記表示部は、
1以上のクロップ領域を選択可能に表示し、
前記動画データ生成部は、
前記複数の部分画像を繋ぎ合わせたアニメーションをユーザが選択した前記クロップ領域に基づいてクロップする、
請求項~8のいずれか一項に記載の情報処理装置。
The display unit is
One or more crop areas are displayed selectably,
The moving image data generation unit is
An animation in which the plurality of partial images are stitched together is cropped based on the crop area selected by the user.
The information processing apparatus according to any one of claims 5 to 8.
前記情報処理装置は、
全天球画像における2以上の視点を順序付けて登録したプリセットデータを1以上保持し、
前記表示部は、
1以上の前記プリセットデータを選択可能に表示し、
前記視点制御部は、
ユーザが選択した前記プリセットデータに登録された第1の視点と該第1の視点の次順の第2の視点の間を補間する経路に沿って視点を遷移させる、
請求項~9のいずれか一項に記載の情報処理装置。
The information processing device is
Holds 1 or more preset data registered in order of 2 or more viewpoints in the spherical image,
The display unit is
One or more of the preset data can be displayed selectably,
The viewpoint control unit
The viewpoint is changed along a path that interpolates between the first viewpoint registered in the preset data selected by the user and the second viewpoint in the next order of the first viewpoint.
The information processing apparatus according to any one of claims 1 to 9.
前記プリセットデータは、各前記視点に紐付けて登録された画角を含み、
前記演算部は、
ユーザが選択した前記プリセットデータに登録された前記視点に紐付いた前記画角に基づいて前記部分画像を生成する、
請求項10に記載の情報処理装置。
The preset data includes an angle of view registered in association with each viewpoint.
The arithmetic unit
The partial image is generated based on the angle of view associated with the viewpoint registered in the preset data selected by the user.
The information processing apparatus according to claim 10.
前記表示部は、
ユーザが選択した前記プリセットデータに登録された最後順の視点および該視点に紐付いた画角の変更を受け付け、
前記視点制御部は、
前記最後順の視点が変更された場合、変更後の最後順の視点に基づいて補間した経路に沿って視点を遷移させ、
前記演算部は、
前記最後順の視点に紐付いた画角が変更された場合、変更後の画角に基づいて前記部分画像を生成する、
請求項11に記載の情報処理装置。
The display unit is
Accepts changes in the last-order viewpoint registered in the preset data selected by the user and the angle of view associated with the viewpoint.
The viewpoint control unit
When the last-order viewpoint is changed, the viewpoint is changed along the interpolated path based on the changed last-order viewpoint.
The arithmetic unit
When the angle of view associated with the last-order viewpoint is changed, the partial image is generated based on the changed angle of view.
The information processing apparatus according to claim 11.
前記視点管理部は、
前記第1の視点と前記第2の視点とで異なる投影方式の投影情報を紐付けて登録し、
前記演算部は、
前記第1の視点に紐付いた投影情報と前記第2の視点に紐付いた投影情報とに基づいて、前記第1の視点から前記第2の視点へ遷移する各視点を中心とした部分画像を生成する、
請求項1~12のいずれか一項に記載の情報処理装置。
The viewpoint management unit
The projection information of the projection method different between the first viewpoint and the second viewpoint is linked and registered.
The arithmetic unit
Based on the projection information associated with the first viewpoint and the projection information associated with the second viewpoint, a partial image centered on each viewpoint transitioning from the first viewpoint to the second viewpoint is generated. do,
The information processing apparatus according to any one of claims 1 to 12 .
前記視点管理部は、
前記投影情報として、全天球画像を三次元物体の表面に貼り付け、撮像装置で撮像して前記部分画像を取得する場合の該撮像装置の画角と、該撮像装置の位置情報と、該撮像装置の上方向を示す情報と、該撮像装置の注視点の位置を示す注視点情報とを登録する、
請求項1~13のいずれか一項に記載の情報処理装置。
The viewpoint management unit
As the projection information, the angle of view of the image pickup device when the whole celestial sphere image is attached to the surface of a three-dimensional object and imaged by the image pickup device to acquire the partial image, the position information of the image pickup device, and the said. Information indicating the upward direction of the image pickup device and gaze point information indicating the position of the gaze point of the image pickup device are registered.
The information processing apparatus according to any one of claims 1 to 13 .
前記演算部は、
ユーザが指定する視点とユーザが指定する画角と視点を指定する際の全天球画像の上方向の情報と選択された投影方式とに基づいて、前記撮像装置の画角と、該撮像装置の位置情報と、該撮像装置の上方向を示す情報と、該撮像装置の注視点の位置を示す注視点情報とを生成する、
請求項14に記載の情報処理装置。
The arithmetic unit
The angle of view of the image pickup device and the image pickup device based on the upward information of the spherical image at the time of designating the viewpoint specified by the user, the angle of view specified by the user, and the selected projection method. Position information, information indicating the upward direction of the image pickup device, and gaze point information indicating the position of the gaze point of the image pickup device are generated.
The information processing apparatus according to claim 14 .
コンピュータを、
全天球画像において、ユーザが指定する視点をその指定順に登録する視点管理手段、
全天球画像における第1の視点と該第1の視点の次に指定された第2の視点の間を補間する経路に沿って視点を遷移させる視点制御手段、
遷移する各視点を中心とした部分画像を生成する演算手段、
表示手段、
生成された複数の部分画像を視点の遷移順に繋ぎ合わせたアニメーション表示を実行する制御手段、
として機能させ
前記表示手段は、
前記部分画像を表示画面に投影して表示する際の投影方式の選択を受け付け、
前記視点管理手段は、
ユーザが指定する視点と選択された投影方式で投影するための投影情報とを紐付けて登録し、
前記演算手段は、
ユーザが指定した視点に紐付いた前記投影情報に基づいて前記部分画像を生成するためのプログラム。
Computer,
A viewpoint management means for registering viewpoints specified by the user in the specified order in the spherical image.
A viewpoint control means for transitioning a viewpoint along a path that interpolates between a first viewpoint in a spherical image and a second viewpoint designated after the first viewpoint.
An arithmetic means that generates a partial image centered on each transition viewpoint,
Display means,
A control means that executes an animation display by connecting multiple generated partial images in the order of viewpoint transitions.
To function as
The display means is
Accepts the selection of the projection method when projecting the partial image on the display screen and displaying it.
The viewpoint management means is
Register the viewpoint specified by the user and the projection information for projection by the selected projection method in association with each other.
The calculation means is
A program for generating the partial image based on the projection information associated with the viewpoint specified by the user .
前記コンピュータを、さらに、
生成された前記複数の部分画像を動画データに変換する動画データ生成手段、
として機能させるための請求項16に記載のプログラム。
The computer,
A moving image data generation means for converting the generated plurality of partial images into moving image data,
16. The program of claim 16 .
前記表示手段は、
ユーザが指定した前記視点に対応するアイコンをサムネイル表示する
請求項17に記載のプログラム。
The display means is
Thumbnail the icon corresponding to the viewpoint specified by the user ,
The program according to claim 17 .
前記表示手段は、
1以上の背景音声を選択可能に表示し、
前記動画データ生成手段は、
ユーザが選択した前記背景音声を前記動画データに合成する、
請求項17または18に記載のプログラム。
The display means is
Display one or more background sounds in a selectable manner,
The moving image data generation means is
Synthesize the background sound selected by the user with the moving image data.
The program according to claim 17 or 18 .
前記表示手段は、
1以上のクロップ領域を選択可能に表示し、
前記動画データ生成手段は、
前記複数の部分画像を繋ぎ合わせたアニメーションをユーザが選択した前記クロップ領域に基づいてクロップする、
請求項17~19のいずれか一項に記載のプログラム。
The display means is
One or more crop areas are displayed selectably,
The moving image data generation means is
An animation in which the plurality of partial images are stitched together is cropped based on the crop area selected by the user.
The program according to any one of claims 17 to 19.
前記表示手段は、
全天球画像における2以上の視点を順序付けて登録した1以上のプリセットデータを選択可能に表示し、
前記視点制御手段は、
ユーザが選択した前記プリセットデータに登録された第1の視点と該第1の視点の次順の第2の視点の間を補間する経路に沿って視点を遷移させる、
請求項16~20のいずれか一項に記載のプログラム。
The display means is
One or more preset data registered in order of two or more viewpoints in the spherical image is displayed in a selectable manner.
The viewpoint control means is
The viewpoint is changed along a path that interpolates between the first viewpoint registered in the preset data selected by the user and the second viewpoint in the next order of the first viewpoint.
The program according to any one of claims 16 to 20 .
前記プリセットデータは、各前記視点に紐付けて登録された画角を含み、
前記演算手段は、
ユーザが選択した前記プリセットデータに登録された前記視点に紐付いた前記画角に基づいて前記部分画像を生成する、
請求項21に記載のプログラム。
The preset data includes an angle of view registered in association with each viewpoint.
The calculation means is
The partial image is generated based on the angle of view associated with the viewpoint registered in the preset data selected by the user.
21. The program of claim 21 .
前記表示手段は、
ユーザが選択した前記プリセットデータに登録された最後順の視点および該視点に紐付いた画角の変更を受け付け、
前記視点制御手段は、
前記最後順の視点が変更された場合、変更後の最後順の視点に基づいて補間した経路に沿って視点を遷移させ、
前記演算手段は、
前記最後順の視点に紐付いた画角が変更された場合、変更後の画角に基づいて前記部分画像を生成する、
請求項22に記載のプログラム。
The display means is
Accepts changes in the last-order viewpoint registered in the preset data selected by the user and the angle of view associated with the viewpoint.
The viewpoint control means is
When the last-order viewpoint is changed, the viewpoint is changed along the interpolated path based on the changed last-order viewpoint.
The calculation means is
When the angle of view associated with the last-order viewpoint is changed, the partial image is generated based on the changed angle of view.
22. The program of claim 22 .
前記視点管理手段は、
前記第1の視点と前記第2の視点とで異なる投影方式の投影情報を紐付けて登録し、
前記演算手段は、
前記第1の視点に紐付いた投影情報と前記第2の視点に紐付いた投影情報とに基づいて、前記第1の視点から前記第2の視点へ遷移する各視点を中心とした部分画像を生成する、
請求項16~23のいずれか一項に記載のプログラム。
The viewpoint management means is
The projection information of the projection method different between the first viewpoint and the second viewpoint is linked and registered.
The calculation means is
Based on the projection information associated with the first viewpoint and the projection information associated with the second viewpoint, a partial image centered on each viewpoint transitioning from the first viewpoint to the second viewpoint is generated. do,
The program according to any one of claims 16 to 23 .
前記視点管理手段は、
前記投影情報として、全天球画像を三次元物体の表面に貼り付け、撮像装置で撮像して前記部分画像を取得する場合の該撮像装置の画角と、該撮像装置の位置情報と、該撮像装置の上方向を示す情報と、該撮像装置の注視点の位置を示す注視点情報とを登録する、
請求項16~24のいずれか一項に記載のプログラム。
The viewpoint management means is
As the projection information, the angle of view of the image pickup device when the whole celestial sphere image is attached to the surface of a three-dimensional object and imaged by the image pickup device to acquire the partial image, the position information of the image pickup device, and the said. Information indicating the upward direction of the image pickup device and gaze point information indicating the position of the gaze point of the image pickup device are registered.
The program according to any one of claims 16 to 24 .
前記演算手段は、
ユーザが指定する視点とユーザが指定する画角と視点を指定する際の全天球画像の上方向の情報と選択された投影方式とに基づいて、前記撮像装置の画角と、該撮像装置の位置情報と、該撮像装置の上方向を示す情報と、該撮像装置の注視点の位置を示す注視点情報とを生成する、
請求項25に記載のプログラム。
The calculation means is
The angle of view of the image pickup device and the image pickup device based on the upward information of the spherical image when the viewpoint specified by the user, the angle of view specified by the user, and the viewpoint are specified, and the selected projection method. Position information, information indicating the upward direction of the image pickup device, and gaze point information indicating the position of the gaze point of the image pickup device are generated.
25. The program of claim 25 .
JP2017185161A 2016-11-30 2017-09-26 Information processing equipment and programs Active JP7020024B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/825,216 US10614606B2 (en) 2016-11-30 2017-11-29 Information processing apparatus for creating an animation from a spherical image
US16/793,793 US10891771B2 (en) 2016-11-30 2020-02-18 Information processing apparatus for creating an animation from a spherical image

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016233059 2016-11-30
JP2016233059 2016-11-30
JP2017037632 2017-02-28
JP2017037632 2017-02-28

Publications (2)

Publication Number Publication Date
JP2018139096A JP2018139096A (en) 2018-09-06
JP7020024B2 true JP7020024B2 (en) 2022-02-16

Family

ID=63451224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185161A Active JP7020024B2 (en) 2016-11-30 2017-09-26 Information processing equipment and programs

Country Status (1)

Country Link
JP (1) JP7020024B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7205323B2 (en) * 2019-03-18 2023-01-17 株式会社リコー Communication terminal, image communication system, display method, and program
JP7443100B2 (en) 2020-03-10 2024-03-05 キヤノン株式会社 Electronic devices, control methods for electronic devices, programs and storage media
WO2024024357A1 (en) * 2022-07-29 2024-02-01 ガラクーダ株式会社 Image display device and image display method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007055335A1 (en) 2005-11-11 2007-05-18 Sony Corporation Image processing device, image processing method, program thereof, and recording medium containing the program
JP2010093671A (en) 2008-10-10 2010-04-22 Olympus Imaging Corp Camera, reproducing device, and reproducing method
JP2012018237A (en) 2010-07-07 2012-01-26 Sony Corp Display control device, display control method and program therefor
JP2013012180A (en) 2011-06-03 2013-01-17 Nintendo Co Ltd Information processing system, information processing device, information processing program, and moving image reproduction control method
JP2014150352A (en) 2013-01-31 2014-08-21 Nippon Telegr & Teleph Corp <Ntt> Panorama video information reproduction method, panorama video information reproduction system and program
JP2015018296A (en) 2013-07-08 2015-01-29 株式会社リコー Display controller, program, and recording medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007055335A1 (en) 2005-11-11 2007-05-18 Sony Corporation Image processing device, image processing method, program thereof, and recording medium containing the program
JP2010093671A (en) 2008-10-10 2010-04-22 Olympus Imaging Corp Camera, reproducing device, and reproducing method
JP2012018237A (en) 2010-07-07 2012-01-26 Sony Corp Display control device, display control method and program therefor
JP2013012180A (en) 2011-06-03 2013-01-17 Nintendo Co Ltd Information processing system, information processing device, information processing program, and moving image reproduction control method
JP2014150352A (en) 2013-01-31 2014-08-21 Nippon Telegr & Teleph Corp <Ntt> Panorama video information reproduction method, panorama video information reproduction system and program
JP2015018296A (en) 2013-07-08 2015-01-29 株式会社リコー Display controller, program, and recording medium

Also Published As

Publication number Publication date
JP2018139096A (en) 2018-09-06

Similar Documents

Publication Publication Date Title
US10891771B2 (en) Information processing apparatus for creating an animation from a spherical image
US9851877B2 (en) Image processing apparatus, image processing method, and computer program product
JP7017175B2 (en) Information processing equipment, information processing method, program
WO2011064918A1 (en) Image data creation support device and image data creation support method
JP7020024B2 (en) Information processing equipment and programs
US20210349620A1 (en) Image display apparatus, control method and non-transitory computer-readable storage medium
JP5910447B2 (en) Image processing apparatus, image processing method, and image processing program
JP7183033B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2013210989A (en) Image processing device, image processing method, and image processing program
JP5966834B2 (en) Image processing apparatus, image processing method, and image processing program
WO2013129188A1 (en) Image processing device, image processing method, and image processing program
WO2020170604A1 (en) Information processing device, information processing method, and program
US20230033201A1 (en) Image processing apparatus, image processing method, and storage medium
JP5920152B2 (en) Image processing apparatus, image processing method, and image processing program
JP2013211821A (en) Image processing device, image processing method, and image processing program
JP7491297B2 (en) Information processing device, information processing method, and program
JP5983259B2 (en) Image processing apparatus, image processing method, and image processing program
JP5910446B2 (en) Image processing apparatus, image processing method, and image processing program
WO2021199714A1 (en) Information processing device, information processing method, and program
JP2023121126A (en) Electronic apparatus, method for controlling electronic apparatus, and program
WO2013129187A1 (en) Image processing device, image processing method, and image processing program
WO2013129190A1 (en) Image processing device, image processing method, and image processing program
CN114860134A (en) Video editing method and device, medium, terminal and equipment
JP2015092421A (en) Image display device and image display method
TW202207704A (en) Method for producing video, system thereof and user interface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R151 Written notification of patent or utility model registration

Ref document number: 7020024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151