JP2020096350A - Image processing device, imaging device, moving image reproduction system, method, and program - Google Patents

Image processing device, imaging device, moving image reproduction system, method, and program Download PDF

Info

Publication number
JP2020096350A
JP2020096350A JP2019188738A JP2019188738A JP2020096350A JP 2020096350 A JP2020096350 A JP 2020096350A JP 2019188738 A JP2019188738 A JP 2019188738A JP 2019188738 A JP2019188738 A JP 2019188738A JP 2020096350 A JP2020096350 A JP 2020096350A
Authority
JP
Japan
Prior art keywords
image
data
moving image
rotation
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019188738A
Other languages
Japanese (ja)
Other versions
JP7434797B2 (en
Inventor
達 山来
Tatsu Yamaki
達 山来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vecnos Inc
Original Assignee
Vecnos Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vecnos Inc filed Critical Vecnos Inc
Publication of JP2020096350A publication Critical patent/JP2020096350A/en
Application granted granted Critical
Publication of JP7434797B2 publication Critical patent/JP7434797B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an image processing device.SOLUTION: An image processing device 150 processes a moving image including continuous images represented by a coordinate system including at least angular coordinates around a predetermined axis. The moving image is a rotation-corrected image. The image processing device 150 includes: data acquisition means 252 for acquiring data indicating a predetermined direction during photographing for each frame of the moving image; and output control means 254 for performing control so as to output a screen including an image range of at least part of the moving image. In response to establishment of a predetermined condition, the output control means 254 performs control to add an expression indicating the predetermined direction during photographing in a screen based on the data.SELECTED DRAWING: Figure 4

Description

本開示は、画像処理装置、撮像装置、動画再生システム、方法およびプログラムに関する。 The present disclosure relates to an image processing device, an imaging device, a moving image reproduction system, a method, and a program.

従来、撮影地点の全方位を動画撮影する技術が知られている。また、全方位の動画の一部を、撮影地点から所定の方向を見ているような形式で、ディスプレイやヘッドマウントディスプレイ(HMD)などに表示する技術が知られている。さらに、近年、撮像装置を頭部に固定して撮影する固定器具なども知られている。頭部に撮像装置を固定することにより、自分の目線に近い位置で全方位を撮影することが可能になり、通常撮像装置を把持するための手も開放される。 2. Description of the Related Art Conventionally, a technique of shooting a moving image in all directions at a shooting point is known. Further, there is known a technique of displaying a part of an omnidirectional moving image on a display, a head mounted display (HMD), or the like in a format in which a predetermined direction is viewed from a shooting point. Further, in recent years, a fixture for fixing the image pickup device to the head and photographing the image has been known. By fixing the image pickup device to the head, it is possible to take an image in all directions at a position close to the user's line of sight, and the hand for holding the normal image pickup device is also released.

撮像装置を頭部に固定して撮影している場合、撮像された動画において、中央に撮像装置の撮影の中心方向が位置することになる。このため、そのように撮像された動画を視聴する場合、視聴者は、撮影者が見ていた方向を動画のフレームに合わせて共有することになる。しかしながら、首振りなどによるカメラの中心方向の変化が大きい場合、映像の変化も大きくなるため、視聴者に酔いを生じさせる虞があった。 When the image pickup device is fixed to the head and is being taken, the center direction of the image pickup of the image pickup device is located in the center of the taken moving image. For this reason, when viewing a moving image captured in such a manner, the viewer shares the direction in which the photographer is looking in accordance with the frame of the moving image. However, when the change in the center direction of the camera due to a swing or the like is large, the change in the image is also large, which may cause a sickness to the viewer.

上記全天球画像の視聴時の酔いへの対処として、特開2016−149752号公報(特許文献1)が知られている。特許文献1の従来技術では、カメラ本体が傾いた状態で動画を撮像した際に生じる酔いを防止することを目的として、撮像した動画の天頂方向が重力ベクトルの方向に向くように、動画像を回転座標変換するものである。特許文献1の従来技術によれば、映像の傾きによる視聴者の酔いを一定程度抑えることが可能になるが、重力方向周りの映像の急激な回転によって生じる酔いに対処したものではなかった。 Japanese Patent Laid-Open No. 2016-149752 (Patent Document 1) is known as a countermeasure against the motion sickness when viewing the spherical image. In the related art of Patent Document 1, a moving image is captured so that the zenith direction of the captured moving image is oriented in the direction of the gravity vector in order to prevent motion sickness that occurs when the moving image is captured while the camera body is tilted. It is for rotating coordinate conversion. According to the conventional technique of Patent Document 1, it is possible to suppress the viewer's motion sickness due to the inclination of the video to a certain extent, but it has not dealt with the motion sickness caused by the rapid rotation of the video around the direction of gravity.

本開示は、上記点に鑑みてなされたものであり、本開示は、動画における基準軸周りの回転によって生じる視聴者の酔いを抑えつつ、撮影中の所定方向を視聴者と共有することを可能とする、画像処理装置を提供することを目的とする。 The present disclosure has been made in view of the above point, and the present disclosure can share a predetermined direction during shooting with a viewer while suppressing motion sickness of the viewer caused by rotation around a reference axis in a moving image. An object of the present invention is to provide an image processing device.

本開示では、上記課題に対応するべく、少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を処理する、下記特徴を有する画像処理装置を提供する。ここで、動画は、画像が回転補正されたものである。画像処理装置は、動画の各フレームでの撮像時の所定方向を示すデータを取得するデータ取得手段と、動画の少なくとも一部の画像範囲を含む画面を出力するよう制御する出力制御手段とを含む。出力制御手段は、所定の条件が成立したことに応答して、前記データに基づいて、前記画面内に前記撮像時の所定方向を示す表現を付加するよう制御することを特徴とする。 In order to address the above problems, the present disclosure provides an image processing device having the following features, which processes a moving image including continuous images, which is represented by a coordinate system including at least angular coordinates around a predetermined axis. Here, the moving image is an image whose image has been rotationally corrected. The image processing device includes a data acquisition unit that acquires data indicating a predetermined direction at the time of capturing an image in each frame of a moving image, and an output control unit that controls to output a screen including an image range of at least a part of the moving image. .. The output control means is characterized in that, in response to the satisfaction of a predetermined condition, the output control means controls to add an expression indicating a predetermined direction at the time of the image pickup in the screen based on the data.

上記構成により、動画における基準軸周りの回転によって生じる視聴者の酔いを抑えつつ、撮影中の所定方向を視聴者と共有することが可能となる。 With the above configuration, it is possible to share the predetermined direction during shooting with the viewer while suppressing motion sickness of the viewer caused by rotation around the reference axis in the moving image.

本実施形態による全天球動画システムを構成する全天球カメラの断面図。Sectional drawing of the spherical camera which comprises the spherical video system by this embodiment. 本実施形態による全天球カメラを頭部に固定する場合を説明する図。The figure explaining the case where the spherical camera by this embodiment is fixed to a head. 本実施形態による全天球動画システムのハードウェア構成図。The hardware block diagram of the spherical video system by this embodiment. 本実施形態による全天球動画システム上に実現される全天球動画再生機能に関連する主要な機能ブロック図。FIG. 3 is a main functional block diagram related to a spherical video playback function realized on the spherical video system according to the present embodiment. (A)全天球画像の生成における画像データフロー図、および、全天球画像のデータ構造を(B)平面で表した場合および(C)球面で表した場合について説明する図。(A) An image data flow diagram in the generation of a spherical image, and a diagram illustrating a case where the data structure of the spherical image is represented by a plane (B) and a case (C) represented by a spherical surface. 本実施形態による全天球画像の天頂補正および回転補正について説明する図。The figure explaining zenith correction and rotation correction of the omnidirectional image by this embodiment. 本実施形態による全天球画像の天頂補正および回転補正によって得られる全天球画像を説明する図。The figure explaining the omnidirectional image obtained by the zenith correction and rotation correction of the omnidirectional image according to this embodiment. 特定の実施形態による全天球動画システムにおける動画の撮影から視聴するまでの処理を説明するシーケンス図。FIG. 6 is a sequence diagram illustrating processing from shooting to viewing of a moving image in the spherical video system according to a specific embodiment. 他の特定の実施形態による全天球動画システムにおける動画の撮影から視聴するまでの処理を説明するシーケンス図。FIG. 11 is a sequence diagram illustrating processing from shooting to viewing of a moving image in the spherical video system according to another specific embodiment. 本実施形態による全天球動画システムを構成する全天球カメラが実行するフレーム合成データに対する回転処理を示すフローチャート。6 is a flowchart showing a rotation process for frame composite data executed by the omnidirectional camera which constitutes the omnidirectional video system according to the present embodiment. 撮影者が頭部に全天球カメラを装着して移動した場合の進行方向と撮影正面方向の関係を、一例をもって説明する図。The figure explaining the relationship between the advancing direction and the front direction of photography when a photographer wears and moves the omnidirectional camera on his head. 撮影者が図11に示す動作をした場合の撮影された回転補正前の全天球画像および回転補正後の全天球画像を説明する図(1/2)。FIG. 12 is a diagram (1/2) illustrating a captured spherical image before rotation correction and a captured spherical image after rotation correction when the photographer performs the operation shown in FIG. 11. 撮影者が図11に示す動作をした場合の撮影された回転補正前の全天球画像および回転補正後の全天球画像を説明する図(2/2)。FIG. 12 is a diagram (2/2) illustrating a captured spherical image before rotation correction and a captured spherical image when the photographer performs the operation shown in FIG. 11. 他の実施形態による全天球動画システムを構成する全天球カメラが実行する、フレーム合成データに対する回転処理を示すフローチャート。9 is a flowchart showing a rotation process for frame composite data, which is executed by a omnidirectional camera that constitutes an omnidirectional video system according to another embodiment. 本実施形態による全天球動画システムを構成する情報端末が実行する、全天球動画再生処理を示すフローチャート。The flowchart which shows the spherical video reproduction process which the information terminal which comprises the spherical video system by this embodiment performs. 本実施形態において、補正後の全天球動画およびそれに設定される画像範囲を、撮影者が頭部に全天球カメラを装着して移動した場合の進行方向と撮影正面方向との状態および各時点で撮像される補正前の全天球動画に関連付けて時系列的に示す図。In the present embodiment, the corrected celestial sphere moving image and the image range set therein are in the traveling direction and the photographing front direction when the photographer wears the celestial sphere camera and moves, and FIG. 4 is a diagram showing in time series in association with an uncorrected spherical image captured at a time point. 特定の実施形態における指示アイコンの表示方法について説明する図。The figure explaining the display method of the instruction icon in a specific embodiment.

以下、本実施形態について説明するが、実施形態は、以下に説明する実施形態に限定されるものではない。なお、以下の実施形態では、画像処理装置、撮像装置および動画再生システムの一例として、それぞれ、情報端末、該情報端末に接続される全天球カメラおよび全天球動画システムを用いて説明する。 Hereinafter, the present embodiment will be described, but the embodiment is not limited to the embodiment described below. In the following embodiments, an information processing device, an omnidirectional camera connected to the information terminal, and an omnidirectional imaging system will be described as examples of an image processing device, an imaging device, and a moving image reproduction system, respectively.

以下、図1〜図3を参照しながら、本実施形態による全天球動画システムの全体構成について説明する。 Hereinafter, the overall configuration of the celestial sphere moving image system according to the present embodiment will be described with reference to FIGS. 1 to 3.

図1は、本実施形態による全天球動画システムを構成する全天球カメラ110の断面図である。図1に示す全天球カメラ110は、撮像体12と、上記撮像体12、コントローラ15およびバッテリ16などの部品を保持する筐体14と、上記筐体14に設けられたシャッター・ボタン18とを備える。 FIG. 1 is a cross-sectional view of a celestial sphere camera 110 that constitutes the celestial sphere video system according to the present embodiment. An omnidirectional camera 110 shown in FIG. 1 includes an image pickup body 12, a casing 14 that holds the image pickup body 12, components such as a controller 15 and a battery 16, and a shutter button 18 provided in the casing 14. Equipped with.

図1に示す撮像体12は、2つの結像光学系20A,20Bと、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの2つの撮像素子22A,22Bとを含み構成される。結像光学系20各々は、例えば6群7枚の魚眼レンズとして構成されている。上記魚眼レンズは、図1に示す実施形態では、180度(=360度/n;光学系の数n=2)より大きい全画角を有し、好適には、185度以上の画角を有し、より好適には、190度以上の画角を有する。このような広角な結像光学系20と撮像素子22とを1個ずつ組み合わせたものを広角撮像光学系と参照する。なお、説明する実施形態では、光学系の数が2である場合を一例として説明するが、広角な領域を撮影可能なものであれば、光学系の数は、1であってもよいし、3以上であってもよい。また、魚眼レンズのような180度以上の画角を持つものに限られるものではない。 The imaging body 12 shown in FIG. 1 includes two imaging optical systems 20A and 20B, and two imaging elements 22A and 22B such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor. It Each of the image forming optical systems 20 is configured as, for example, a fisheye lens with 7 elements in 6 groups. In the embodiment shown in FIG. 1, the fish-eye lens has a total angle of view larger than 180 degrees (=360 degrees/n; the number of optical systems n=2), and preferably has a field angle of 185 degrees or more. However, more preferably, the angle of view is 190 degrees or more. Such a combination of the wide-angle imaging optical system 20 and the image pickup device 22 is referred to as a wide-angle image pickup optical system. In the embodiment to be described, the case where the number of optical systems is 2 will be described as an example, but the number of optical systems may be 1 as long as it is possible to capture a wide-angle region. It may be 3 or more. Further, it is not limited to a fisheye lens having an angle of view of 180 degrees or more.

図1に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。撮像素子22A,22Bは、受光した光分布を画像信号に変換し、コントローラ上の画像処理手段に順次、画像フレームを出力する。詳細は後述するが、撮像素子22A,22Bでそれぞれ撮像された画像は、合成処理されて、これにより、立体角4πステラジアンの画像(以下「全天球画像」と参照する。)が生成される。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。そして、全天球画像の連続するフレームにより、全天球動画が構成される。 In the embodiment shown in FIG. 1, the image forming optical systems 20A and 20B have the same specifications, and they are combined in opposite directions so that their optical axes coincide with each other. The image pickup devices 22A and 22B convert the received light distribution into image signals and sequentially output image frames to the image processing means on the controller. As will be described in detail later, the images respectively captured by the image pickup devices 22A and 22B are combined to generate an image with a solid angle of 4π steradians (hereinafter referred to as a “spheroidal image”). .. The celestial sphere image is a photograph of all directions that can be viewed from the photographing point. Then, a spherical moving image is composed of continuous frames of the spherical image.

ここで、説明する実施形態では、全天球画像および全天球動画を生成するものとして説明するが、全天周画像や全天周動画、水平面のみ360度を撮影した、いわゆるパノラマ画像およびパノラマ動画であってもよいし、その他、180度の画角を撮影した半球の画像または半円筒の画像であってもよく、球面または円筒上の画像情報を持つ画像データであればよい。すなわち、本実施形態による動画およびそれに含まれる画像は、所定軸周りの角度座標を含む座標系で表される画像である。上記全天球画像・動画、半球画像・動画、部分的な球面の画像の場合は、動径を定数(例えば1)として、所定軸と動径とがなす角を表す角度座標および所定軸周りの角度座標を含む球面座標系で表される。上記パノラマ画像・動画またはその部分画像の場合は、動径を定数(例えば1)として、円筒の軸方向の座標および該軸周りの角度座標を含む円筒座標系で表される。 Here, in the embodiment to be described, it is assumed that a omnidirectional image and a omnidirectional moving image are generated. However, a omnidirectional image and a omnidirectional moving image, a so-called panoramic image and panorama obtained by photographing only 360 degrees in a horizontal plane It may be a moving image, or may be a hemispherical image or a semi-cylindrical image captured at an angle of view of 180 degrees, and may be image data having image information on a spherical surface or a cylinder. That is, the moving image and the image included in the moving image according to the present embodiment are images represented by a coordinate system including angular coordinates around a predetermined axis. In the case of the above-mentioned spherical image/moving image, hemispherical image/moving image, and partial spherical image, the radius vector is set as a constant (for example, 1), and the angular coordinate representing the angle between the predetermined axis and the radius vector and the predetermined axis It is represented by a spherical coordinate system that includes the angular coordinates of. In the case of the panoramic image/moving image or its partial image, the radius vector is represented by a cylindrical coordinate system including the coordinate in the axial direction of the cylinder and the angular coordinate around the axis, with the radius vector being a constant (for example, 1).

図2は、図1の全天球カメラ110を撮影者の頭部50に固定する場合を説明する。図2は、帽子型の固定器具52に、全天球カメラ110を固定している例である。このように撮影者の頭部50に全天球カメラ110を装着することで、全天球カメラ110によって撮像される画像データの撮影正面方向は、撮影者の首振り運動Hに追従する形となる。撮影正面方向はあらかじめ設定されている方向であって、動画データを再生する際に表示される基準となる方向である。図2には、撮影者の進行方向Tも併せて示してある。撮影者は、辺りを見渡しながら進む場合があり、首振り運動Hによる撮影正面方向と、進行方向Tとは必ずしも一致しない。図2に示すように全天球カメラ110を帽子型の固定器具52に固定して、頭部50に装着する以外にも、全天球カメラ110自体が頭部50に装着可能な形状のもの(全天球カメラの機能が埋め込まれたヘルメットや帽子)である場合もある。 FIG. 2 illustrates a case where the omnidirectional camera 110 of FIG. 1 is fixed to the photographer's head 50. FIG. 2 is an example in which the omnidirectional camera 110 is fixed to the hat-type fixing device 52. By mounting the omnidirectional camera 110 on the photographer's head 50 in this way, the image capturing front direction of the image data imaged by the celestial sphere camera 110 follows the photographer's swinging motion H. Become. The shooting front direction is a preset direction and is a reference direction displayed when playing back moving image data. FIG. 2 also shows the moving direction T of the photographer. The photographer may proceed while looking around the area, and the front direction of photographing by the swinging motion H and the traveling direction T do not necessarily match. As shown in FIG. 2, in addition to fixing the omnidirectional camera 110 to the hat-type fixing device 52 and attaching it to the head 50, the omnidirectional camera 110 itself can be attached to the head 50. It may be (helmet or hat with embedded spherical camera function).

図3(A)は、本実施形態による全天球動画システムを構成する全天球カメラ110のハードウェア構成を示す。全天球カメラ110は、説明する実施形態における画像処理装置または撮像装置に対応する。 FIG. 3A shows a hardware configuration of the omnidirectional camera 110 that constitutes the omnidirectional video system according to the present embodiment. The omnidirectional camera 110 corresponds to the image processing device or the imaging device in the embodiments described.

全天球カメラ110は、CPU(Central Processing Unit)112と、ROM(Read Only Memory)114と、画像処理ブロック116と、動画圧縮ブロック118と、DRAM(Dynamic Random Access Memory)インタフェース120を介して接続されるDRAM132と、外部センサインタフェース124を介して接続されるセンサ136とを含み構成される。ここで、CPU112、ROM114、画像処理ブロック116および動画圧縮ブロック118は、図1に示したコントローラ15上に搭載される。 The spherical camera 110 is connected via a CPU (Central Processing Unit) 112, a ROM (Read Only Memory) 114, an image processing block 116, a moving image compression block 118, and a DRAM (Dynamic Random Access Memory) interface 120. The DRAM 132 and the sensor 136 connected via the external sensor interface 124 are included. Here, the CPU 112, the ROM 114, the image processing block 116, and the moving image compression block 118 are mounted on the controller 15 shown in FIG.

CPU112は、全天球カメラ110の各部の動作および全体動作を制御する。ROM114は、CPU112が解読可能なコードで記述された、オペレーティング・システム(OS)や制御プログラムや各種パラメータを格納する。画像処理ブロック116は、2つの撮像素子130A,130B(図1における撮像素子22A,22Bである。)と接続され、それぞれで撮像された画像の画像信号が入力される。画像処理ブロック116は、ISP(Image Signal Processor)などを含み構成され、撮像素子130から入力された画像信号に対し、シェーディング補正、ベイヤー補間、ホワイト・バランス補正、ガンマ補正などを行う。 The CPU 112 controls the operation and overall operation of each unit of the spherical camera 110. The ROM 114 stores an operating system (OS), a control program, and various parameters described in a code that can be read by the CPU 112. The image processing block 116 is connected to the two image pickup devices 130A and 130B (the image pickup devices 22A and 22B in FIG. 1), and the image signals of the images picked up by the respective image pickup blocks 130A and 130B are input. The image processing block 116 is configured to include an ISP (Image Signal Processor) and the like, and performs shading correction, Bayer interpolation, white balance correction, gamma correction, and the like on the image signal input from the image sensor 130.

動画圧縮ブロック118は、MPEG−4 AVC/H.264などの動画圧縮および伸張を行うコーデック・ブロックである。DRAM132は、各種信号処理および画像処理を施す際にデータを一時的に保存する記憶領域を提供する。 The moving picture compression block 118 is an MPEG-4 AVC/H. It is a codec block that performs video compression and decompression such as H.264. The DRAM 132 provides a storage area for temporarily storing data when performing various kinds of signal processing and image processing.

センサ136は、図3(A)に示す実施形態では、角速度センサ136Aおよび加速度センサ136Bを含み構成される。角速度センサ136Aは、3軸の角速度成分を検出するセンサである。加速度センサ136Bは、3軸の加速度成分を検出するセンサである。検出された加速度成分および角速度成分は、後述するように、重力方向への全天球画像の天頂補正および重力方向周りの回転補正を施すために用いられる。センサ136としては、さらに、方位角などを求めるための地磁気センサ(電子コンパスともいう。)など他のセンサを備えてもよく、方位角を重力方向周りの回転補正を施すために用いてもよい。 In the embodiment shown in FIG. 3A, the sensor 136 includes an angular velocity sensor 136A and an acceleration sensor 136B. The angular velocity sensor 136A is a sensor that detects triaxial angular velocity components. The acceleration sensor 136B is a sensor that detects triaxial acceleration components. The detected acceleration component and angular velocity component are used to perform zenith correction of the omnidirectional image in the direction of gravity and rotation correction around the direction of gravity, as will be described later. As the sensor 136, another sensor such as a geomagnetic sensor (also referred to as an electronic compass) for obtaining an azimuth angle or the like may be further provided, and the azimuth angle may be used for correcting the rotation around the gravity direction. ..

全天球カメラ110は、さらに、外部ストレージインタフェース122と、USB(Universal Serial Bus)インタフェース126と、シリアルブロック128とを含み構成される。外部ストレージインタフェース122には、外部ストレージ134が接続される。外部ストレージインタフェース122は、メモリカードスロットに挿入されたメモリカードなどの外部ストレージ134に対する読み書きを制御する。USBインタフェース126には、USBコネクタ138が接続される。USBインタフェース126は、USBコネクタ138を介して接続されるスマートフォンなどの外部装置とのUSB通信を制御する。シリアルブロック128は、スマートフォンなどの外部装置とのシリアル通信を制御し、無線NIC(Network Interface Card)140が接続される。 The spherical camera 110 further includes an external storage interface 122, a USB (Universal Serial Bus) interface 126, and a serial block 128. An external storage 134 is connected to the external storage interface 122. The external storage interface 122 controls reading and writing with respect to the external storage 134 such as a memory card inserted in the memory card slot. A USB connector 138 is connected to the USB interface 126. The USB interface 126 controls USB communication with an external device such as a smartphone connected via the USB connector 138. The serial block 128 controls serial communication with an external device such as a smartphone and is connected to a wireless NIC (Network Interface Card) 140.

電源スイッチの操作によって電源がオン状態になると、上記OSや制御プログラムがメインメモリにロードされる。CPU112は、メインメモリに読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、全天球カメラ110の後述する各機能部および処理が実現される。 When the power is turned on by operating the power switch, the OS and the control program are loaded into the main memory. The CPU 112 controls the operation of each part of the device according to the program read into the main memory, and temporarily stores the data necessary for the control in the memory. As a result, the functional units and processes of the spherical camera 110 described later are realized.

図3(B)は、本実施形態による全天球動画システムを構成する情報端末150のハードウェア構成を示す。情報端末150は、説明する実施形態における情報処理装置に対応する。 FIG. 3B shows a hardware configuration of the information terminal 150 that constitutes the spherical video system according to the present embodiment. The information terminal 150 corresponds to the information processing device in the embodiment described.

図3(B)に示す情報端末150は、CPU152と、RAM154と、内部ストレージ156と、入力装置158と、外部ストレージ160と、ディスプレイ162と、無線NIC164と、USBコネクタ166とを含み構成される。 The information terminal 150 illustrated in FIG. 3B includes a CPU 152, a RAM 154, an internal storage 156, an input device 158, an external storage 160, a display 162, a wireless NIC 164, and a USB connector 166. ..

CPU152は、情報端末150の各部の動作および全体動作を制御する。RAM154は、CPU152の作業領域を提供する。内部ストレージ156は、CPU152が解読可能なコードで記述された、オペレーティング・システムや、本実施形態による情報端末150側の処理を担うアプリケーションなどの制御プログラムを格納する。CPU152は、複数のCPUによって成り立つものであっても良い。 The CPU 152 controls the operation of each unit of the information terminal 150 and the overall operation. The RAM 154 provides a work area for the CPU 152. The internal storage 156 stores a control program such as an operating system described in a code readable by the CPU 152 and an application responsible for processing on the information terminal 150 side according to the present embodiment. The CPU 152 may include a plurality of CPUs.

入力装置158は、タッチスクリーンなどの入力装置であり、ユーザ・インタフェースを提供する。入力装置158は、全天球動画の補正など操作者による各種の指示を受け付ける。外部ストレージ160は、メモリカードスロットなどに装着された着脱可能な記録媒体であり、動画形式の画像データや静止画データなどの各種データを記録する。ディスプレイ162は、ユーザ操作に応答して補正された全天球動画を画面表示する。無線NIC164は、全天球カメラ110などの外部機器との無線通信の接続を確立する。USBコネクタ166は、全天球カメラ110などの外部機器とのUSB接続をする。 The input device 158 is an input device such as a touch screen and provides a user interface. The input device 158 receives various instructions from the operator such as correction of spherical video. The external storage 160 is a removable recording medium mounted in a memory card slot or the like, and records various data such as moving image data and still image data. The display 162 displays the corrected spherical video in response to a user operation. The wireless NIC 164 establishes a wireless communication connection with an external device such as the spherical camera 110. The USB connector 166 makes a USB connection with an external device such as the spherical camera 110.

情報端末150に電源が投入され電源がオン状態になると、内部ストレージ156から制御プログラムが読み出され、RAM154にロードされる。CPU152は、RAM154に読み込まれた制御プログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、情報端末150の後述する各機能部および処理が実現される。 When the information terminal 150 is turned on and turned on, the control program is read from the internal storage 156 and loaded into the RAM 154. The CPU 152 controls the operation of each part of the device according to the control program read in the RAM 154, and temporarily stores the data necessary for the control in the memory. Thereby, each functional unit and processing of the information terminal 150, which will be described later, are realized.

以下、図4〜図9を参照しながら、本実施形態による全天球動画システムが備える全天球動画再生機能について説明する。 Hereinafter, with reference to FIG. 4 to FIG. 9, the omnidirectional video reproduction function provided in the omnidirectional video system according to the present embodiment will be described.

図4は、本実施形態による全天球動画システム上で実現される全天球動画再生機能に関連する主要な機能ブロック200を示す。全天球カメラ110の機能ブロックは、図4に示すように、画像処理部210と、出力部240とを含み構成される。画像処理部210は、第1撮像部212と、第2撮像部214と、角速度検出部216と、加速度検出部218と、画像合成部220と、天頂補正量計算部222と、第1回転量計算部224と、第2回転量計算部226と、記憶部228と、画像回転部230とを含み構成される。各部の処理は、コントローラ15が備えるCPU112や画像処理ブロック116が各種プログラムを実行することによって行われる。 FIG. 4 shows the main functional blocks 200 related to the spherical video playback function realized on the spherical video system according to the present embodiment. As shown in FIG. 4, the functional block of the omnidirectional camera 110 is configured to include an image processing unit 210 and an output unit 240. The image processing unit 210 includes a first imaging unit 212, a second imaging unit 214, an angular velocity detection unit 216, an acceleration detection unit 218, an image composition unit 220, a zenith correction amount calculation unit 222, and a first rotation amount. The calculation unit 224, the second rotation amount calculation unit 226, the storage unit 228, and the image rotation unit 230 are included. The processing of each unit is performed by the CPU 112 and the image processing block 116 included in the controller 15 executing various programs.

これに対して、情報端末150の機能ブロックは、同じく図4に示すように、受信部252と、表示制御部254とを含み構成される。各部の処理は、情報端末150が備えるCPU152が各種プログラムを実行することによって行われる。 On the other hand, the functional block of the information terminal 150 is configured to include the receiving unit 252 and the display control unit 254, as also shown in FIG. The processing of each unit is performed by the CPU 152 included in the information terminal 150 executing various programs.

以下、まず、全天球カメラ110側の機能ブロックについて説明する。 Hereinafter, first, the functional blocks on the spherical camera 110 side will be described.

第1撮像部212は、撮像素子130Aを用いて順次撮像し、時系列的に連続した魚眼画像Aを生成する。第2撮像部214は、撮像素子130Bを用いて順次撮像し、時系列的に連続した魚眼画像Bを生成する。画像合成部220は、時系列的に連続した魚眼画像A(第1フレームデータ)および時系列的に連続した魚眼画像B(第2フレームデータ)に対してスティッチング処理を施し、フレーム合成データを作成する。フレーム合成データは、撮影を開始してから終了するまでのそれぞれ全天球動画を構成する複数のフレームを含んだ、全天球動画データの本体となる動画データである。魚眼画像Aおよび魚眼画像Bは、全天球画像を構成するための部分画像であり、第1および第2フレームデータも、撮影を開始してから終了するまでのそれぞれ部分画像のフレームを含んだ、全天球動画を構成し得る動画データである。画像合成部220は、作成したフレーム合成データを画像回転部230に出力する。第1撮像部212、第2撮像部214および画像合成部220は、本実施形態における撮像手段を構成し得る。 The first image capturing unit 212 sequentially captures images using the image sensor 130A and generates a fish-eye image A that is continuous in time series. The second image capturing unit 214 sequentially captures images using the image sensor 130B and generates a fish-eye image B that is continuous in time series. The image combining unit 220 performs stitching processing on the fisheye image A (first frame data) that is continuous in time series and the fisheye image B (second frame data) that is continuous in time series to combine frames. Create the data. The frame composite data is moving image data which is a main body of the spherical moving image data and includes a plurality of frames each of which forms a spherical moving image from the start to the end of shooting. The fish-eye image A and the fish-eye image B are partial images for forming the omnidirectional image, and the first and second frame data also indicate the frames of the partial images from the start to the end of shooting. This is the moving picture data that can compose a spherical video. The image composition unit 220 outputs the created frame composition data to the image rotation unit 230. The first image capturing section 212, the second image capturing section 214, and the image synthesizing section 220 can configure the image capturing means in this embodiment.

以下、図5を参照しながら、全天球画像の生成および生成される全天球画像について説明する。図5(A)は、全天球画像生成における各画像のデータ構造および画像のデータフローを説明する。まず、撮像素子130各々で直接撮像される画像は、概ね全天球のうちの半球を視野に収めた画像である。結像光学系に入射した光は、所定の射影方式に従って撮像素子130の受光領域に結像される。ここで撮像される画像は、受光領域が平面エリアを成す2次元の撮像素子で撮像されたものであり、平面座標系で表現された画像データとなる。また、典型的には、得られる画像は、図5(A)において「魚眼画像A」および「魚眼画像B」で示されるように、各撮影範囲が投影されたイメージサークル全体を含む魚眼画像として構成される。 Hereinafter, generation of a spherical image and a generated spherical image will be described with reference to FIG. FIG. 5A illustrates the data structure of each image and the data flow of the image in the spherical image generation. First, the image directly captured by each of the image pickup devices 130 is an image in which the hemisphere of the whole celestial sphere is included in the visual field. The light incident on the imaging optical system is imaged on the light receiving area of the image sensor 130 according to a predetermined projection method. The image captured here is an image captured by a two-dimensional image sensor whose light-receiving area forms a planar area, and is image data expressed in a planar coordinate system. In addition, typically, the obtained image is a fish including the entire image circle in which each shooting range is projected, as shown by “fisheye image A” and “fisheye image B” in FIG. It is configured as an eye image.

この複数の撮像素子130で撮像された各フレームの複数の魚眼画像が、歪み補正および合成処理されて、各フレームに対応する1つの全天球画像が構成される。合成処理では、平面画像として構成される各魚眼画像から、まず、相補的な各半球部分を含む各半球画像が生成される。そして、各半球部分を含む2つの半球画像が、重複領域のマッチングに基づいてスティッチング(画像合成)され、全天球全体を含む全天球画像が生成される。 The plurality of fish-eye images of each frame captured by the plurality of image sensors 130 are subjected to distortion correction and synthesis processing to form one spherical image corresponding to each frame. In the combining process, first, each hemispherical image including each complementary hemispherical portion is generated from each fisheye image configured as a planar image. Then, the two hemispherical images including the respective hemispherical portions are stitched (image combination) based on the matching of the overlapping regions, and a spherical image including the entire spherical image is generated.

図5(B)は、本実施形態で用いられる全天球画像の画像データのデータ構造を平面で表して説明する図である。図5(C)は、全天球画像の画像データのデータ構造を球面で表して説明する図である。図5(B)に示すように、全天球画像の画像データは、所定の軸に対してなされる垂直角度φと、所定の軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。垂直角度φは、0度〜180度(あるいは−90度〜+90度)の範囲となり、水平角度θは、0度〜360度(あるいは−180度〜+180度)の範囲となる。 FIG. 5B is a diagram illustrating the data structure of the image data of the omnidirectional image used in the present embodiment by showing it in a plane. FIG. 5C is a diagram illustrating the data structure of the image data of the omnidirectional image represented by a spherical surface. As shown in FIG. 5B, the image data of the spherical image has coordinates of a vertical angle φ with respect to a predetermined axis and a horizontal angle θ corresponding to a rotation angle around the predetermined axis. It is expressed as an array of pixel values. The vertical angle φ is in the range of 0 degrees to 180 degrees (or -90 degrees to +90 degrees), and the horizontal angle θ is in the range of 0 degrees to 360 degrees (or -180 degrees to +180 degrees).

全天球フォーマットの各座標値(θ,φ)は、図5(C)に示すように、撮影地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上に対応付けられる。魚眼レンズで撮影された魚眼画像の平面座標と、全天球画像の球面上の座標とは、所定の変換テーブルにて対応付けされる。変換テーブルは、それぞれのレンズ光学系の設計データ等に基づいて、所定の投影モデルに従い製造元等で予め作成されたデータであり、魚眼画像を全天球画像へ変換するデータである。 Each coordinate value (θ, φ) in the omnidirectional format is associated with each point on the spherical surface that represents the azimuth around the shooting point, as shown in FIG. It is associated with the spherical image. The plane coordinates of the fisheye image captured by the fisheye lens and the spherical coordinates of the spherical image are associated with each other in a predetermined conversion table. The conversion table is data created in advance by a manufacturer or the like according to a predetermined projection model based on design data of each lens optical system, etc., and is data for converting a fisheye image into a spherical image.

なお、説明する実施形態では、魚眼画像から全天球画像に変換し、スティッチング処理後のフレーム合成データに対して画像回転部230により回転処理を施す流れとなっている。しかしながら、変換処理、合成処理および回転処理の順序は、特に限定されるものではない。部分画像である魚眼画像Aと魚眼画像B(それを変換した相補的な各半球部分を含む2つの半球画像)それぞれに対して画像回転部230で回転処理(補正)を施した後にスティッチング処理する流れとしてもよい。また、全天球フォーマットの画像に対して回転処理を施すほか、魚眼画像を全天球画像に変換する上記変換テーブルに回転処理を反映し、回転処理が反映された変換テーブルに基づいて、魚眼画像Aおよび魚眼画像Bから回転処理後の全天球画像を得ることもできる。本実施形態において、動画に関し補正を施すとは、変換処理、合成処理および回転処理の順序にかかわらず、最終的に所定の補正が反映された画像を含む動画を得ることをいう。また、本実施形態においては2つの魚眼画像をスティッチングすることで全天球画像を作成しているが、これに限られず、他の実施形態では、例えば3つ以上の画像をスティッチングして全天球画像やパノラマ画像を作成するものであってもよい。 It should be noted that in the embodiment to be described, the flow is such that the fisheye image is converted into a celestial sphere image, and the frame synthesizing data after the stitching process is rotated by the image rotating unit 230. However, the order of conversion processing, combination processing, and rotation processing is not particularly limited. The fisheye image A and the fisheye image B that are partial images (two hemisphere images including complementary hemisphere parts obtained by converting the fisheye images) are subjected to rotation processing (correction) by the image rotation unit 230 and then stitched. It is also possible to use a flow for performing a ring processing. Further, in addition to performing rotation processing on the image in the spherical format, the rotation processing is reflected in the conversion table for converting the fisheye image into a spherical image, and based on the conversion table in which the rotation processing is reflected, It is also possible to obtain the omnidirectional image after the rotation processing from the fisheye image A and the fisheye image B. In the present embodiment, “correcting a moving image” refers to finally obtaining a moving image including an image in which a predetermined correction is reflected, regardless of the order of the conversion process, the combining process, and the rotation process. Further, in the present embodiment, the spherical image is created by stitching two fish-eye images, but the present invention is not limited to this, and in other embodiments, for example, stitching three or more images. It may be one that creates a spherical image or a panoramic image.

ここで、再び図4を参照する。角速度検出部216は、角速度センサ136Aを含む角速度検出機構であり、撮影中、角速度センサ136Aを用いて3軸方向の角速度成分を計測して得られる角速度データを出力する。角速度データは、撮影を開始してから終了するまでの全天球カメラ110(内の角速度センサ136A)の3軸周りで生じた角速度の時系列データである。角速度データは、フレームに1対1に対応して記録されている必要はなく、典型的には、フレームレートよりも速いレートで記録することができる。この場合、タイムスタンプを手がかりとして、後で各フレームとの対応関係を求めることができる。あるいは、全天球動画の各フレームに1対1で対応して角速度が記録されてもよい。角速度検出部216は、本実施形態において、動画の各フレームに関連付けてセンサデータを記録する記録手段を構成し、角速度データは、本実施形態において、センサデータに含まれ得る。 Here, refer to FIG. 4 again. The angular velocity detection unit 216 is an angular velocity detection mechanism including an angular velocity sensor 136A, and outputs angular velocity data obtained by measuring the angular velocity components in the three axis directions using the angular velocity sensor 136A during shooting. The angular velocity data is time-series data of angular velocities generated around the three axes of the omnidirectional camera 110 (the angular velocity sensor 136A therein) from the start to the end of photographing. The angular velocity data does not need to be recorded in a one-to-one correspondence with a frame, but typically can be recorded at a rate faster than the frame rate. In this case, the time stamp can be used as a clue to find the correspondence with each frame later. Alternatively, the angular velocity may be recorded in a one-to-one correspondence with each frame of the spherical video. In the present embodiment, the angular velocity detection unit 216 constitutes a recording unit that records the sensor data in association with each frame of the moving image, and the angular velocity data may be included in the sensor data in the present embodiment.

加速度検出部218は、加速度センサ136Bを含む加速度検出機構であり、撮影中、加速度センサ136Bを用いて3軸方向の加速度成分を計測して得られる加速度データを出力する。加速度データは、撮影を開始してから終了するまでの全天球カメラ110(内の加速度センサ136B)の3軸の加速度の時系列データである。加速度データは、フレームに1対1に対応して記録されている必要はなく、典型的には、フレームレートよりも速いレートで記録することができる。この場合、タイムスタンプを手がかりとして、後で各フレームとの対応関係を求めることができる。あるいは、全天球動画の各フレームに1対1で対応して加速度が記録されてもよい。加速度検出部218は、本実施形態において、動画の各フレームに関連付けてセンサデータを記録する記録手段を構成し、加速度データは、本実施形態において、センサデータに含まれ得る。 The acceleration detection unit 218 is an acceleration detection mechanism including an acceleration sensor 136B, and outputs acceleration data obtained by measuring acceleration components in the three axis directions using the acceleration sensor 136B during shooting. The acceleration data is time-series data of three-axis acceleration of the celestial sphere camera 110 (the acceleration sensor 136B therein) from the start to the end of shooting. Acceleration data need not be recorded in a one-to-one correspondence with frames, but typically can be recorded at a rate faster than the frame rate. In this case, the time stamp can be used as a clue to find the correspondence with each frame later. Alternatively, the acceleration may be recorded in a one-to-one correspondence with each frame of the spherical video. In the present embodiment, the acceleration detection unit 218 constitutes a recording unit that records the sensor data in association with each frame of the moving image, and the acceleration data may be included in the sensor data in the present embodiment.

なお、加速度センサ116Bや角速度センサ136Aから直接得られる上述した加速度データおよび角速度データは、センサ座標系(あるいは全天球カメラ110の座標系)の3軸方向に基づくデータである。一方、加速度センサ136Bは、運動に基づく加速度と重力加速度との和を出力しており、上述した加速度データおよび角速度データは、重力加速度軸を基準とした絶対座標系に変換可能である。したがって、上述したセンサデータは、絶対座標系における変位量を示すものである。 The above-described acceleration data and angular velocity data directly obtained from the acceleration sensor 116B and the angular velocity sensor 136A are data based on the three axis directions of the sensor coordinate system (or the coordinate system of the omnidirectional camera 110). On the other hand, the acceleration sensor 136B outputs the sum of the acceleration based on the motion and the gravitational acceleration, and the above-described acceleration data and angular velocity data can be converted into an absolute coordinate system based on the gravitational acceleration axis. Therefore, the sensor data described above indicates the amount of displacement in the absolute coordinate system.

天頂補正量計算部222は、加速度検出部218から出力される加速度データに基づいて、各フレームでの基準軸に対する撮像時の傾き角を計算し、天頂補正データを作成する。天頂補正データは、全天球動画の各フレームに関連付けて記録される、撮影を開始してから終了するまでの基準軸に対する全天球カメラ110の傾き角の時系列データである。基準軸に対する傾き角は、典型的には加速度の次元の値からなるベクトルとして構成される。基準軸は、典型的には、重力加速度が作用する重力方向に一致し、以下、基準軸が重力方向であるとして説明を続ける。加速度センサ136Bは、重力と慣性力とを区別しないので、加速度センサ136Bから得られた傾き角は、好ましくは角速度センサ136Aで計測された信号に基づいて補正されてもよい。 The zenith correction amount calculation unit 222 calculates the tilt angle at the time of imaging with respect to the reference axis in each frame based on the acceleration data output from the acceleration detection unit 218, and creates zenith correction data. The zenith correction data is time-series data of the tilt angle of the omnidirectional camera 110 with respect to the reference axis from the start to the end of shooting, which is recorded in association with each frame of the omnidirectional video. The tilt angle with respect to the reference axis is typically configured as a vector composed of acceleration dimension values. The reference axis typically corresponds to the direction of gravity in which gravitational acceleration acts, and the description will be continued below assuming that the reference axis is the direction of gravity. Since the acceleration sensor 136B does not distinguish between gravity and inertial force, the tilt angle obtained from the acceleration sensor 136B may be corrected, preferably based on the signal measured by the angular velocity sensor 136A.

第1回転量計算部224は、加速度検出部218から出力される加速度データおよび角速度検出部216から出力される角速度データに基づいて、全天球カメラ110の相対角度の変化量から、重力方向に対し垂直方向の平面(水平面)の座標系における全天球カメラ110の撮影正面方向のベクトルをフレーム毎に算出し、第1回転補正データを記録する。第1回転補正データは、全天球動画の各フレームに関連付けて記録される、撮影を開始してから終了するまでの基準値からの撮影正面方向の角度変化量の時系列データである。撮影正面方向の角度変化量は、基準フレームにおける全天球カメラ110の姿勢に基づく上記水平面内での撮影正面方向と、対象フレームにおける全天球カメラ110の姿勢に基づく上記水平面内での撮影正面方向との差分で表される。ここで、基準フレームは、例えば撮影開始時点のフレームや本補正を適用開始時点(撮影開始後に補正の適用を指示できる実施形態の場合)のフレームとすることができる。第1回転補正データは例えば、回転角度を数値化したものやベクトルで表される。第1回転補正データも、本実施形態において、センサデータに含まれ得て、第1回転量計算部224は、本実施形態において、動画の各フレームに関連付けてセンサデータを記録する記録手段を構成し得る。 The first rotation amount calculation unit 224 determines, based on the acceleration data output from the acceleration detection unit 218 and the angular velocity data output from the angular velocity detection unit 216, from the amount of change in the relative angle of the omnidirectional camera 110 in the direction of gravity. On the other hand, a vector in the shooting front direction of the omnidirectional camera 110 in the coordinate system of a plane (horizontal plane) in the vertical direction is calculated for each frame, and the first rotation correction data is recorded. The first rotation correction data is time-series data of the angle change amount in the front direction of shooting from the reference value from the start to the end of shooting, which is recorded in association with each frame of the celestial sphere moving image. The angle change amount in the image capturing front direction is the image capturing front direction in the horizontal plane based on the posture of the spherical camera 110 in the reference frame and the image capturing front direction in the horizontal plane based on the posture of the spherical camera 110 in the target frame. It is represented by the difference from the direction. Here, the reference frame can be, for example, a frame at the start of shooting or a frame at the start of applying the main correction (in the case of an embodiment in which application of the correction can be instructed after the start of shooting). The first rotation correction data is represented by, for example, a numerical value of the rotation angle or a vector. The first rotation correction data may also be included in the sensor data in the present embodiment, and the first rotation amount calculation unit 224 constitutes a recording unit that records the sensor data in association with each frame of the moving image in the present embodiment. You can

第2回転量計算部226は、加速度検出部218から出力される加速度データおよび角速度検出部216から出力される角速度データに基づいて、重力方向に対し垂直方向の平面(水平面)の平面座標系における全天球カメラ110の進行方向のベクトルを規定フレーム数毎に計算し、第2回転補正データを生成する。撮影開始時のフレームにおける進行方向は、撮影開始時のフレームにおける全天球カメラ110の撮影正面方向に等しい。第2回転補正データは、全天球動画の各フレームないし各規定フレーム数分のフレームに関連付けて記録される、撮影を開始してから終了するまでの基準値からの進行方向の角度変化量の時系列データである。進行方向の角度変化量は、基準フレームにおける全天球カメラ110の上記水平面内での進行方向(撮影正面方向)と、対象フレームにおける全天球カメラ110の上記水平面内での進行方向との差分で表される。第2回転補正データは例えば、回転角度を数値化したものやベクトルである。第2回転補正データも、本実施形態において、センサデータに含まれ得て、第2回転量計算部226は、本実施形態において、動画の各フレームに関連付けてセンサデータを記録する記録手段を構成し得る。 The second rotation amount calculation unit 226 is based on the acceleration data output from the acceleration detection unit 218 and the angular velocity data output from the angular velocity detection unit 216 in the plane coordinate system of a plane (horizontal plane) perpendicular to the gravity direction. A vector in the traveling direction of the omnidirectional camera 110 is calculated for each prescribed number of frames, and second rotation correction data is generated. The traveling direction in the frame at the start of shooting is equal to the shooting front direction of the spherical camera 110 in the frame at the start of shooting. The second rotation correction data is recorded in association with each frame of the celestial celestial sphere moving image or each frame of the specified number of frames and is recorded as an angle change amount in the traveling direction from the reference value from the start to the end of shooting. It is time series data. The angle change amount of the traveling direction is the difference between the traveling direction of the celestial sphere camera 110 in the horizontal plane in the reference frame (imaging front direction) and the traveling direction of the celestial sphere camera 110 in the horizontal plane in the target frame. It is represented by. The second rotation correction data is, for example, a numerical value of a rotation angle or a vector. The second rotation correction data may also be included in the sensor data in the present embodiment, and the second rotation amount calculation unit 226 constitutes a recording unit that records the sensor data in association with each frame of the moving image in the present embodiment. You can

進行方向の変化は、加速度データのうち、全天球カメラ110の特定方向の加速度が所定条件を満たす場合、そのときの特定方向を進行方向と判断する。所定条件とは、複数のフレームのベクトルを合成したときに、特定方向の加速度が所定の閾値を超えている場合などとすることができる。所定条件を満たさない場合、進行方向は前のフレームのデータを引き継ぐことができる。進行方向の定義としては、特に限定されるものではなく、撮影者の進行方向としてもよいし、カメラ自体の進行方向としてもよい。第2回転量計算部226は、また、本実施形態における決定手段としても機能し得る。 Regarding the change in the traveling direction, if the acceleration of the omnidirectional camera 110 in the specific direction satisfies a predetermined condition in the acceleration data, the specific direction at that time is determined to be the traveling direction. The predetermined condition can be, for example, a case where the acceleration in the specific direction exceeds a predetermined threshold value when the vectors of a plurality of frames are combined. When the predetermined condition is not satisfied, the traveling direction can inherit the data of the previous frame. The definition of the traveling direction is not particularly limited, and may be the traveling direction of the photographer or the traveling direction of the camera itself. The second rotation amount calculation unit 226 can also function as the determination unit in this embodiment.

画像回転部230は、画像合成部220、天頂補正量計算部222、第1回転量計算部224および第2回転量計算部226により出力されたフレーム合成データ、天頂補正データ、第1回転補正データおよび第2回転補正データをそれぞれ取得する。画像回転部230は、取得したフレーム合成データの各フレームに対し、取得した天頂補正データ、第1回転補正データおよび第2回転補正データに基づいて回転処理(天頂補正および回転補正)を施し、補正された全天球フレームデータを出力する。 The image rotation unit 230 includes the frame synthesis data, the zenith correction data, and the first rotation correction data output by the image synthesis unit 220, the zenith correction amount calculation unit 222, the first rotation amount calculation unit 224, and the second rotation amount calculation unit 226. And the second rotation correction data, respectively. The image rotation unit 230 performs rotation processing (zenith correction and rotation correction) on each frame of the acquired frame composite data based on the acquired zenith correction data, the first rotation correction data, and the second rotation correction data, and performs correction. Output the omnidirectional spherical frame data.

ここで、図6および図7を参照しながら、天頂補正および回転補正について説明する。図6は、本実施形態において行われる全天球画像の天頂補正および回転補正を説明する図である。図7は、本実施形態において行われる全天球画像の天頂補正および回転補正によって得られる全天球画像を説明する図である。図7(A)は、天頂補正前の動画のフレームを示し、図7(B)は、天頂補正後の動画のフレームを示す。 Here, the zenith correction and the rotation correction will be described with reference to FIGS. 6 and 7. FIG. 6 is a diagram illustrating zenith correction and rotation correction of the omnidirectional image performed in the present embodiment. FIG. 7 is a diagram illustrating a omnidirectional image obtained by the zenith correction and the rotation correction of the omnidirectional image performed in the present embodiment. FIG. 7A shows a moving image frame before the zenith correction, and FIG. 7B shows a moving image frame after the zenith correction.

上述したように、全天球画像フォーマットの画像データは、所定の軸z0に対してなす垂直角度φと、上記所定の軸z0周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。ここで、所定の軸は、なんら補正がなされない場合は、全天球カメラ110を基準として定義される軸となる。例えば、図1に示す全天球カメラ110の撮像体12側を頭部としてその反対側を底部として、底部から頭部へ筐体の中心を通る中心軸を、水平角度θおよび垂直角度φを定義する所定の軸z0として全天球画像を定義することができる。また、例えば2つの結像光学系20A,20Bのうちの一方の光学素子の光軸方向が水平角度θで中心に位置するように、全天球画像の水平角度θを定義することができる。 As described above, the image data in the spherical image format has a pixel value in which the vertical angle φ with respect to the predetermined axis z0 and the horizontal angle θ corresponding to the rotation angle around the predetermined axis z0 are coordinates. Expressed as an array of. Here, the predetermined axis is an axis defined with the omnidirectional camera 110 as a reference when no correction is made. For example, with the imaging body 12 side of the omnidirectional camera 110 shown in FIG. 1 as the head and the opposite side as the bottom, the central axis passing through the center of the housing from the bottom to the head is represented by the horizontal angle θ and the vertical angle φ. A spherical image can be defined as a predetermined axis z0 to be defined. Further, for example, the horizontal angle θ of the spherical image can be defined so that the optical axis direction of one optical element of the two imaging optical systems 20A and 20B is centered at the horizontal angle θ.

天頂補正とは、図6の左図のように実際には重力方向に対して中心軸z0が傾いている状態で撮像された全天球画像(図7(A))を、図6の右図のようにあたかも中心軸z0が重力方向Zに一致した状態で撮影されたかのような全天球画像(図7(B))に補正する処理(Roll,Pitch方向の補正)をいう。画像回転部230は、天頂補正データに含まれる各フレームでの重力方向に対する傾き角に基づいて、各フレームに対し、所定軸(中心軸)が重力方向に略一致するように天頂補正を施す天頂補正手段として機能する。 The zenith correction is a celestial sphere image (FIG. 7(A)) captured in a state where the central axis z0 is actually inclined with respect to the gravity direction as shown in the left diagram of FIG. As shown in the figure, it refers to a process (correction in Roll and Pitch directions) for correcting a celestial sphere image (FIG. 7B) as if the image was taken with the central axis z0 coinciding with the gravity direction Z. The image rotation unit 230 performs zenith correction on each frame based on the tilt angle with respect to the gravity direction in each frame included in the zenith correction data so that a predetermined axis (center axis) substantially matches the gravity direction. It functions as a correction means.

これに対して、回転補正とは、天頂補正により基準方向に中心軸z0が一致するように補正された全天球画像において、さらに、重力方向Z周りの角度変化(図7の水平角度θ方向の変化)を打ち消し、表示の基準(例えば全天球フォーマットにおける水平角度θでの中央であり、動画データ再生時にデフォルトで表示される基準位置である。)を撮影中の特定方向に固定する補正(Yaw方向の補正)をいう。デフォルトで表示される基準位置とは、ユーザが動画データに対して表示する方向を変更する操作をしない場合に、表示される全天球フォーマットにおける領域である。特定方向は、例えば全天球カメラ110の正面方向である。画像回転部230は、第1回転補正データおよび第2回転補正データに基づいて、基準軸(天頂補正により重力方向に一致させられている。)周りの回転変化を打ち消す補正を施す回転補正手段として機能する。 On the other hand, the rotation correction is an omnidirectional image corrected by the zenith correction so that the central axis z0 coincides with the reference direction, and further an angular change around the gravity direction Z (horizontal angle θ direction in FIG. 7). Correction) to fix the display reference (for example, the center at the horizontal angle θ in the celestial sphere format, which is the reference position displayed by default when playing back video data) in a specific direction during shooting. (Correction in the Yaw direction). The reference position displayed by default is an area in the spherical format that is displayed when the user does not perform an operation to change the display direction for moving image data. The specific direction is, for example, the front direction of the spherical camera 110. The image rotation unit 230 serves as a rotation correction unit that performs a correction for canceling a rotation change around the reference axis (which is matched with the gravity direction by the zenith correction) based on the first rotation correction data and the second rotation correction data. Function.

ここで、角度変化が打ち消されて表示の基準に固定される撮影中の特定方向は、上述した基準フレームにおける全天球カメラ110の上記水平面内での撮影正面方向であってよい。また、全天球カメラ110の進行方向が求められた以降は、上記特定方向は、全天球カメラ110の上記水平面内での進行方向であってよい。 Here, the specific direction during shooting in which the change in angle is canceled and is fixed to the display reference may be the shooting front direction in the horizontal plane of the omnidirectional camera 110 in the reference frame described above. Further, after the traveling direction of the omnidirectional camera 110 is obtained, the specific direction may be the traveling direction of the omnidirectional camera 110 in the horizontal plane.

画像回転部230は、より具体的には、第1回転補正データおよび第2回転補正データに基づいて、動画の各フレームに対し、少なくとも一定期間の複数のフレームにわたり、表示の基準が撮影中の特定方向に略一致するように基準軸周りの回転変化を打ち消す補正を施す。ここで、打ち消される回転変化の量は、基準軸に垂直な平面内での特定方向(例えば撮影開始時の撮影正面方向または進行方向)と、補正対象フレームでの基準軸に垂直な平面内での撮影正面方向との差分に基づくものとなる。また、当該特定方向に固定される期間は、当該特定方向が決定されたタイミングから、次回特定方向を決定するタイミングまでとなる。 More specifically, the image rotation unit 230 is based on the first rotation correction data and the second rotation correction data, and for each frame of the moving image, at least a plurality of frames for a certain period of time, the display reference indicates that the shooting is being performed. Correction is performed to cancel the rotation change around the reference axis so that it substantially matches the specific direction. Here, the amount of rotation change to be canceled is determined in a specific direction in a plane perpendicular to the reference axis (for example, the shooting front direction or the advancing direction at the start of shooting) and in the plane perpendicular to the reference axis in the correction target frame. It is based on the difference from the image capturing front direction. Further, the period fixed in the specific direction is from the timing when the specific direction is determined to the timing when the specific direction is determined next time.

なお、説明する実施形態では、開始当初は、基準フレームにおける全天球カメラ110の上記水平面内での撮影正面方向を特定方向として表示の基準(画像の中心)を固定し、全天球カメラ110の進行方向が求められた以降は、上記水平面内での進行方向を特定方向として決定し、該進行方向に表示の基準(画像の中心)を固定するものとして説明する。この場合、図2に示した首振り運動Hにかかわらず、最初は、開始時点の撮影正面方向が画像の中心に来るように回転補正され、次第に進行方向Tが定まると、その進行方向Tが画像の中心に来るように回転補正がされることになる。 In the embodiment to be described, at the beginning, the reference (center of the image) of the display is fixed by setting the shooting front direction of the omnidirectional camera 110 in the reference frame in the horizontal plane as the specific direction, and the omnidirectional camera 110 is started. After the traveling direction of is determined, the traveling direction in the horizontal plane is determined as the specific direction, and the display reference (the center of the image) is fixed to the traveling direction. In this case, regardless of the swinging motion H shown in FIG. 2, initially, the rotation correction is performed so that the shooting front direction at the start time comes to the center of the image, and when the traveling direction T is gradually determined, the traveling direction T is determined. The rotation will be corrected so that it will come to the center of the image.

しかしながら、特定方向の決定の仕方は、特に限定されるものではない。他の実施形態では、進行方向Tにかかわらず、基準フレームにおける全天球カメラ110の上記水平面内での撮影正面方向に常にデフォルトで表示される基準位置が固定されているように構成してもよい。そのような実施形態では、第2回転量計算部226および第2回転補正データを用いた回転補正を省略することができる。またこの場合、撮影中に進行方向の変化によって特定方向が更新されないため、当該特定方向に固定される期間は、動画の開始時点または固定の開始を指示された時点から動画の終了時点または固定の終了を指示された時点までの全期間となる。 However, the method of determining the specific direction is not particularly limited. In another embodiment, regardless of the traveling direction T, the reference position that is always displayed by default may be fixed in the shooting front direction of the omnidirectional camera 110 in the horizontal plane in the reference frame. Good. In such an embodiment, the rotation correction using the second rotation amount calculation unit 226 and the second rotation correction data can be omitted. Further, in this case, since the specific direction is not updated due to a change in the traveling direction during shooting, the period fixed in the specific direction is from the start time of the video or the time when the start of the fixation is instructed to the end time of the video or the fixed time. It is the entire period until the time when the end is instructed.

記憶部228は、上述した第1フレームデータ、第2フレームデータ、フレーム合成データ、天頂補正および回転補正された補正済みフレーム合成データ、加速度データ、角速度データ、天頂補正データ、第1回転補正データおよび第2回転補正データを記憶するために用いられる。記憶部228は、図3(A)に示したDRAM132、外部ストレージ134や他のストレージなどの記憶領域の一部として与えられる。 The storage unit 228 stores the above-described first frame data, second frame data, frame composite data, corrected frame composite data that has undergone zenith correction and rotation correction, acceleration data, angular velocity data, zenith correction data, first rotation correction data, and It is used to store the second rotation correction data. The storage unit 228 is provided as a part of a storage area such as the DRAM 132, the external storage 134, or another storage illustrated in FIG.

なお、1度の撮影で取得した全天球動画は、例えば一つのファイルとして記憶部228に記録されてもよい。その場合、全天球動画の記録方法としては、種々の態様が想定される。 Note that the spherical moving image acquired by one shooting may be recorded in the storage unit 228 as one file, for example. In that case, various modes are conceivable as the recording method of the spherical video.

例えば、補正済みフレーム合成データを1つの全天球動画データとして記録することができる。その場合、加速度データ、角速度データ、天頂補正データ、第1回転補正データおよび第2回転補正データがメタデータとして補正済みフレーム合成データとともに記録され得る。この実施形態では、補正後のデータが必要になった場合には、補正済みフレーム合成データおよびそのメタデータを読み出せばよいということになる。 For example, the corrected frame composite data can be recorded as one spherical video data. In that case, the acceleration data, the angular velocity data, the zenith correction data, the first rotation correction data, and the second rotation correction data may be recorded as metadata together with the corrected frame combination data. In this embodiment, when the corrected data becomes necessary, the corrected frame composite data and its metadata should be read.

他の実施形態では、補正前のフレーム合成データを1つの全天球動画データとして記録することができる。その場合、加速度データ、角速度データ、天頂補正データ、第1回転補正データおよび第2回転補正データが所定の組み合わせでメタデータとして補正前のフレーム合成データとともに記録される。この他の実施形態では、補正後のデータが必要になった場合には、メタデータから、天頂補正データ、第1回転補正データおよび第2回転補正データが準備され(不足するデータが計算される。)、画像回転部230により補正前のフレーム合成データに画像回転が施される。例えば、加速度データおよび角速度データがあれば、天頂補正データ、第1回転補正データおよび第2回転補正データのうちの任意の不足するものを計算することができる。 In another embodiment, the frame composite data before correction can be recorded as one celestial sphere moving image data. In that case, the acceleration data, the angular velocity data, the zenith correction data, the first rotation correction data, and the second rotation correction data are recorded in a predetermined combination as metadata together with the frame combination data before correction. In this other embodiment, when the corrected data is needed, the zenith correction data, the first rotation correction data, and the second rotation correction data are prepared from the metadata (lacking data is calculated. .), and the image rotation unit 230 applies image rotation to the frame composite data before correction. For example, if acceleration data and angular velocity data are available, any of the zenith correction data, the first rotation correction data, and the second rotation correction data that are insufficient can be calculated.

画像回転部230により天頂補正および回転補正されたフレーム合成データは、出力部240に出力される。出力部240は、補正後のデータを、動画データとして、無線NIC140やUSBコネクタ138を介して外部の情報端末150に送信出力することができる。あるいは、出力部240は、補正後のデータを、動画データとして、所定のストレージにファイル出力することもできる。ここで、出力部240が出力するデータは、補正後の動画データを含み、さらに、上述したメタデータを含み得る。 The frame-combined data subjected to the zenith correction and the rotation correction by the image rotation unit 230 is output to the output unit 240. The output unit 240 can transmit and output the corrected data as moving image data to the external information terminal 150 via the wireless NIC 140 and the USB connector 138. Alternatively, the output unit 240 may output the corrected data as a moving image data to a file in a predetermined storage. Here, the data output by the output unit 240 may include the moving image data after the correction, and may further include the above-described metadata.

なお、「動画」と参照するが、動画が再生可能であれば、いかなる形態で記録されてもよい。例えば、H.264/MPEG−4 AVC(Advanced Video Coding)、H.265/HEVC(High Efficiency Video Coding)などの所定のコーデックで、複数のフレームを圧縮した動画データとして記録されていてもよい。また、Motion JPEG(Joint Photographic Experts Group)は、連続した静止画として動画を表現する形式であるが、このように、複数のフレームの静止画像の連続した系列として動画データが記録されていてもよいし、複数のフレームの静止画像のファイルの集合として動画が記録されてもよい。出力部240は、適切なコーデックを備える。 Although referred to as “moving image”, it may be recorded in any form as long as the moving image can be reproduced. For example, H.264. H.264/MPEG-4 AVC (Advanced Video Coding), H.264. It may be recorded as moving image data obtained by compressing a plurality of frames with a predetermined codec such as H.265/HEVC (High Efficiency Video Coding). Further, Motion JPEG (Joint Photographic Experts Group) is a format for expressing moving images as continuous still images, but moving image data may be recorded as a continuous series of still images of a plurality of frames in this way. However, the moving image may be recorded as a set of files of still images of a plurality of frames. The output unit 240 includes an appropriate codec.

以下、引き続き、情報端末150側の機能ブロックについて説明する。情報端末150は、全天球カメラ110と通信し、全天球画像を閲覧再生するためのアプリケーションがインストールされた端末装置である。情報端末150は、スマートフォンやタブレットコンピュータ、パーソナルコンピュータ、ヘッドマウントディスプレイ(HMD)などであってよい。情報端末150は、アプリケーションを介して操作者から各種指示を受け付けて、全天球カメラ110に対し各種要求を発行する。例えば、情報端末150は、操作者からの指定の全天球動画の再生指示(例えば回転補正を適応した動画再生の指示)を受け付けたことに応答して、全天球カメラ110に対し、所定の全天球動画の補正後の動画データを求める要求を発行する。 Hereinafter, the functional blocks on the information terminal 150 side will be continuously described. The information terminal 150 is a terminal device in which an application for communicating with the omnidirectional camera 110 and viewing and reproducing an omnidirectional image is installed. The information terminal 150 may be a smartphone, a tablet computer, a personal computer, a head mounted display (HMD), or the like. The information terminal 150 receives various instructions from the operator via the application and issues various requests to the omnidirectional camera 110. For example, the information terminal 150 responds to the reception of a specified spherical video reproduction instruction (for example, a video reproduction instruction in which rotation correction is applied) from the operator, and then the information terminal 150 instructs the spherical camera 110 to perform a predetermined operation. Issue a request for the corrected video data of the spherical video.

情報端末150の受信部252は、全天球カメラ110から出力される動画データを受信する。ここで、受信する動画データは、上述したように天頂補正および回転補正が施されたものであり、さらに、各フレームでの撮像時の所定方向を示すメタデータが付属している。ここで、メタデータとして、第1回転補正データおよび第2回転補正データを含むものとし、各フレームでの撮像時の所定方向は、各フレームでの撮影正面方向である。しかしながら、情報端末150側で第1回転補正データおよび第2回転補正データの計算を行うことを前提として、加速度データおよび角速度データをメタデータとして受信してもよい。受信部252は、本実施形態における、撮像時の所定方向を示すデータを取得するデータ取得手段を構成する。 The receiving unit 252 of the information terminal 150 receives the moving image data output from the spherical camera 110. Here, the received moving image data has been subjected to the zenith correction and the rotation correction as described above, and is further accompanied by metadata indicating the predetermined direction at the time of image capturing in each frame. Here, the metadata includes the first rotation correction data and the second rotation correction data, and the predetermined direction at the time of image capturing in each frame is the image capturing front direction in each frame. However, the acceleration data and the angular velocity data may be received as metadata on the assumption that the information terminal 150 side calculates the first rotation correction data and the second rotation correction data. The reception unit 252 constitutes a data acquisition unit that acquires data indicating a predetermined direction at the time of image capturing in the present embodiment.

情報端末150の表示制御部254は、受信した動画データに基づいて、補正が施された動画データの少なくとも一部の画像範囲を含む表示画面を出力するように制御する。好ましくは、表示画面は、情報端末150が備えるディスプレイ162などの表示装置上に、上述した表示の基準に基づいて画面表示される。表示制御部254は、本実施形態における出力制御手段を構成する。また、表示制御部254は、ユーザの操作により全天球フォーマットにおいて表示される方向を変更し、ディスプレイ162上に表示されている領域を変更する。 The display control unit 254 of the information terminal 150 performs control based on the received moving image data to output a display screen including at least a part of the image range of the corrected moving image data. Preferably, the display screen is displayed on the display device such as the display 162 included in the information terminal 150 based on the above-described display standard. The display control unit 254 constitutes the output control means in this embodiment. Further, the display control unit 254 changes the direction displayed in the omnidirectional format by the user's operation, and changes the area displayed on the display 162.

説明する実施形態では、表示制御部254は、全天球画像を球体オブジェクトに張り付けて、仮想カメラで所定の位置から所定の視野角で球体オブジェクトを観察した場合の画像として動画表示する。このとき、仮想カメラから観察される範囲が表示画面に含まれ得る画像範囲となる。これにより、視聴者は、撮影地点から所定の方向を見ているような形式で動画を視聴することが可能となる。 In the embodiment to be described, the display control unit 254 attaches the spherical image to the spherical object and displays a moving image as an image when the spherical object is observed from a predetermined position with a virtual camera at a predetermined viewing angle. At this time, the range observed from the virtual camera is the image range that can be included in the display screen. As a result, the viewer can watch the moving image in a format as if he or she were looking in a predetermined direction from the shooting point.

全天球フォーマットでは、所定の表示の基準が定義され、この表示の基準に基づいて、全天球画像が球体オブジェクトに張り付けられる。ここで、受信する動画データは、上述したように天頂補正および回転補正が施されたものであるため、撮像時の撮影正面方向にかかわらず、撮影中の特定方向(撮影開始時の撮影正面方向や進行方向)に表示の基準に固定されることになる。この表示画面では、中央に特定方向(例えば進行方向)が常に固定されるというわけではないが、画像範囲(仮想カメラの位置や方向)を変更しなければ、一定の方向(例えば進行方向の左手に表示範囲が設定されていればその進行方向左手)が常に表示画面の中央に固定されることになる。 In the spherical format, a predetermined display standard is defined, and the spherical image is attached to the spherical object based on the display standard. Here, since the received moving image data has been subjected to the zenith correction and the rotation correction as described above, regardless of the shooting front direction at the time of shooting, a specific direction during shooting (shooting front direction at the start of shooting) And the direction of travel) will be fixed to the display standard. On this display screen, the specific direction (for example, the traveling direction) is not always fixed in the center, but unless the image range (the position and the direction of the virtual camera) is changed, a certain direction (for example, the left hand in the traveling direction). If the display range is set to, the left hand in the traveling direction) is always fixed to the center of the display screen.

説明する実施形態において、表示制御部254は、さらに、所定の条件が成立したことに応答して、上述したメタデータに基づいて、表示画面内に撮影正面方向を示す表現を付加するよう制御するよう構成される。ここで、撮影正面方向を示す表現とは、表示画面内での撮影正面方向の位置を指し示す指示アイコンである。指示アイコンは、視聴者に撮影者が注目する画像内の位置を指し示す画像、図形、記号または文字である。上述したように、表示画面においては、撮像時の撮影正面方向にかかわらず、撮影中の特定方向(進行方向など)が表示の基準に固定されることになるところ、指示アイコンは、その際の撮像時の撮影正面方向へ視聴者の注目を促すものである。 In the described embodiment, the display control unit 254 further controls, in response to the satisfaction of the predetermined condition, to add an expression indicating the shooting front direction in the display screen based on the metadata described above. Is configured as follows. Here, the expression indicating the shooting front direction is an instruction icon that indicates a position in the shooting front direction on the display screen. The instruction icon is an image, a figure, a symbol, or a character that indicates a position in the image where the viewer pays attention to the viewer. As described above, on the display screen, regardless of the shooting front direction at the time of shooting, the specific direction during shooting (such as the traveling direction) is fixed as the display reference, and the instruction icon indicates This is to urge the viewer's attention in the shooting front direction at the time of shooting.

また、撮影者は、一般的に、注目している物体があるとき、その場所を数秒間にわたって見つめることが多いところ、上記所定の条件は、撮影正面方向が所定フレーム数以上にわたり留まっているという条件とすることができる。この場合、表示制御部254は、メタデータに基づいて所定の条件が成立したか否かを判定することができる。 Further, in general, when a photographer often looks at an object of interest for a few seconds when he or she has an object of interest, the predetermined condition is that the shooting front direction remains for a predetermined number of frames or more. It can be a condition. In this case, the display control unit 254 can determine whether or not the predetermined condition is satisfied based on the metadata.

情報端末150の機能ブロックは、図4に示すように、さらに、表示範囲変更指示受付部256を含み構成されてもよい。表示範囲変更指示受付部256は、表示画面内に含ませる画像範囲(仮想カメラの位置や方向)を変更する指示を受け付ける変更指示受付手段である。 As shown in FIG. 4, the functional block of the information terminal 150 may further include a display range change instruction accepting unit 256. The display range change instruction receiving unit 256 is a change instruction receiving unit that receives an instruction to change the image range (position and direction of the virtual camera) included in the display screen.

特定の実施形態では、表示制御部254は、表示画面内での画像範囲の中心が、表示画面内での撮影正面方向を示す座標を中心とした一定範囲に位置したことに応答して、上記表示した指示アイコンを非表示または半透明に表示させるよう制御することができる。 In a specific embodiment, the display control unit 254 responds to the fact that the center of the image range on the display screen is located within a certain range centered on the coordinate indicating the shooting front direction on the display screen, The displayed instruction icon can be controlled to be hidden or semi-transparently displayed.

情報端末150の機能ブロックは、図4に示すように、さらに、視線データ受信部258を含み構成されてもよい。視線データ受信部258は、例えば情報端末150がHMDである場合、または、HMDに接続されている場合に、アイトラッカーなどの視線検知手段により検知される、表示画面内での視聴者の注視点を示す視線データを受信する受信手段である。特定の実施形態では、表示制御部254は、表示画面内での注視点が、表示画面内での撮影正面方向を示す座標を中心とした一定範囲に位置したことに応答して、上記表示した指示アイコンを非表示または半透明に表示させるよう制御することができる。 As shown in FIG. 4, the functional block of the information terminal 150 may further include a line-of-sight data receiving unit 258. The line-of-sight data receiving unit 258 detects the point of sight of the viewer on the display screen, which is detected by a line-of-sight detection unit such as an eye tracker when the information terminal 150 is an HMD or is connected to the HMD. It is a receiving means for receiving the line-of-sight data indicating. In a specific embodiment, the display control unit 254 displays the above in response to the gazing point within the display screen being located within a certain range centered on the coordinates indicating the shooting front direction within the display screen. The instruction icon can be controlled to be hidden or semi-transparent.

さらに、好ましい実施形態では、表示制御部254は、指示アイコンを付加してから例えば指示アイコンを非表示または半透明表示するまでの所定期間、動画の再生を停止したり、または、スロー再生したりするように制御することができる。 Further, in a preferred embodiment, the display control unit 254 may stop the reproduction of the moving image or perform the slow reproduction for a predetermined period from the time when the instruction icon is added to the time when the instruction icon is hidden or semi-transparently displayed. Can be controlled.

なお、本実施形態では、情報端末150ではなく、全天球カメラ110側のリソースを用いて天頂補正および回転補正の実体的な処理を行い、情報端末150には補正結果を出力して表示させる構成を採用する。この構成により、全天球カメラ110側に充分なリソースを備えられる場合に、情報端末150が備える処理性能にかかわらず、天頂補正および回転補正を施しながらの動画再生を安定に行うことが可能となる。 In the present embodiment, the zenith correction and the rotation correction are actually performed using the resources of the celestial sphere camera 110 side instead of the information terminal 150, and the correction result is output and displayed on the information terminal 150. Adopt a configuration. With this configuration, when sufficient resources are provided on the omnidirectional camera 110 side, regardless of the processing performance of the information terminal 150, it is possible to stably perform moving image reproduction while performing zenith correction and rotation correction. Become.

なお、説明する実施形態では、出力の態様として、全天球動画の画像データを情報端末150へ送信するものとしているが、これに限定されるものではない。全天球カメラ110が表示装置を備える場合は、その表示装置上で表示する態様とすることもできる。 In addition, in the embodiment to be described, as the output mode, the image data of the spherical moving image is transmitted to the information terminal 150, but the present invention is not limited to this. When the omnidirectional camera 110 includes a display device, it is also possible to adopt a mode in which the display is performed on the display device.

図4に示す実施形態では、全天球カメラ110の機能ブロックは、画像処理部210および出力部240に加えて、指示受付部242をさらに含み構成されている。指示受付部242は、動画の撮影中に、回転補正により表示の基準を固定したい特定方向を指定する指示や、動画の撮影中に、指示アイコンで示したい撮影者が注目する方向を示す指示を受け付けることができる。なお、指示は、全天球カメラ110が備えるハードウェア・キーや、全天球カメラ110が接続される、撮影用のアプリケーションがインストールされた端末、専用のコントローラなどに操作することによって行われる。 In the embodiment shown in FIG. 4, the functional block of the omnidirectional camera 110 is configured to further include an instruction receiving unit 242 in addition to the image processing unit 210 and the output unit 240. The instruction receiving unit 242 gives an instruction to specify a specific direction in which the display reference is fixed by rotation correction during shooting of a moving image, or an instruction to indicate a direction in which a photographer wants to show an instruction icon during shooting of a moving image. Can be accepted. The instruction is given by operating a hardware key provided in the omnidirectional camera 110, a terminal to which the omnidirectional camera 110 is connected, in which a shooting application is installed, a dedicated controller, or the like.

上述した説明では、特定方向は、所定時点の撮影正面方向や進行方向であった。しかしながら、特定の実施形態では、指示受付部242を設けて特定方向を指定する指示を受け付けることにより、撮影中に任意のタイミングで画像の表示の基準に固定させたい方向(注目の被写体がある方向など)を指定することが可能となる。 In the above description, the specific direction has been the shooting front direction or the traveling direction at a predetermined time. However, in the specific embodiment, by providing the instruction receiving unit 242 to receive the instruction to specify the specific direction, the direction to be fixed to the image display reference at any timing during shooting (the direction in which the subject of interest exists) Etc.) can be specified.

また、上述した説明では、撮影正面方向が所定フレーム数以上にわたり留まっていることを条件として、指示アイコンを表示するものとしていた。しかしながら、特定の実施形態では、指示受付部242を設けて注目する方向を示す指示を受け付けることにより、撮影者が視聴時に上記指示アイコンを表示させるタイミングおよびその方向を明示的に決定することができる。受け付けた特定方向を指示する情報および注目する方向を指示する指示情報は、出力部240により動画データに付属して、所定のフレームに関連付けて出力されて、情報端末150の受信部252により受信されることになる。指示受付部242は、本実施形態における注目指示受付手段を構成する。 Further, in the above description, the instruction icon is displayed on condition that the shooting front direction remains for a predetermined number of frames or more. However, in the specific embodiment, by providing the instruction receiving unit 242 to receive the instruction indicating the direction of interest, the photographer can explicitly determine the timing and the direction in which the instruction icon is displayed during viewing. .. The received information instructing the specific direction and the instruction information instructing the attention direction are attached to the moving image data by the output unit 240, output in association with a predetermined frame, and received by the receiving unit 252 of the information terminal 150. Will be. The instruction receiving unit 242 constitutes an attention instruction receiving unit in this embodiment.

図8および図9は、種々の特定の実施形態における全天球動画システムで動画の撮影から視聴するまでの処理を説明するシーケンス図である。 FIG. 8 and FIG. 9 are sequence diagrams illustrating the processing from shooting to viewing of a moving image in the spherical spherical moving image system according to various specific embodiments.

図8(A)は、図4に示す実施形態に対応するものである。図8(A)に示す実施形態では、全天球カメラ110側で撮像、画像処理(画像合成、天頂補正および回転補正を含む。)が行われ、画像処理後の動画データが、メタデータとともに情報端末150に送信される。そして、情報端末150では、画像処理後の動画データおよびメタデータに基づいてディスプレイ表示が行われる。より具体的には、図8(A)の実施形態では、全天球カメラ110は、S10で撮像プロセスにより動画データを取得し、S11で動画データに対して画像処理を施し、S12で、画像処理後の動画データを情報処理端末に送信する。S13で情報処理端末は、ディスプレイ上に動画データを表示する。 FIG. 8A corresponds to the embodiment shown in FIG. In the embodiment shown in FIG. 8A, imaging and image processing (including image combination, zenith correction, and rotation correction) are performed on the omnidirectional camera 110 side, and moving image data after image processing is accompanied by metadata. It is transmitted to the information terminal 150. Then, in the information terminal 150, a display is performed based on the moving image data and the metadata after the image processing. More specifically, in the embodiment of FIG. 8(A), the omnidirectional camera 110 acquires moving image data by the image capturing process in S10, performs image processing on the moving image data in S11, and performs image processing in S12. The processed moving image data is transmitted to the information processing terminal. In S13, the information processing terminal displays the moving image data on the display.

図4および図8(A)で示した実施形態では、情報端末150が、データ取得手段(受信部252)、動画取得手段(受信部252)、出力制御手段(表示制御部254)および変更指示受付手段(表示範囲変更指示受付部256)を備える画像処理装置として動作する。 In the embodiment shown in FIGS. 4 and 8A, the information terminal 150 uses the data acquisition unit (reception unit 252), the moving image acquisition unit (reception unit 252), the output control unit (display control unit 254), and the change instruction. It operates as an image processing apparatus provided with a reception unit (display range change instruction reception unit 256).

図4および図8(A)では、全天球カメラ110側のリソースを用いて画像処理(画像合成、天頂補正および回転補正を含む。)を行う例を説明したが、これに限るものではない。例えば、第1フレームデータ、第2フレームデータ、フレーム合成データ、角速度データ、加速度データ、天頂補正データ、第1回転補正データおよび第2回転補正データの一部または全部を情報端末150側に送り、画像処理の一部または全部を情報端末150側で行っても良い。その場合、情報端末150側で図4の機能ブロック図に示した全天球カメラ110側の一部機能を情報端末150側のCPU152が各種プログラムを実行することで行う。これにより、例えば画像合成部220による第1フレームデータ(魚眼画像A)と第2フレームデータ(魚眼画像B)との合成処理のような負荷の大きい処理を、より処理速度の高いCPUを用いて実行することが可能になり、画素数の多いデータであっても短時間またはリアルタイムで処理することが可能になる。 4 and 8A, an example in which image processing (including image synthesis, zenith correction, and rotation correction) is performed using the resources on the omnidirectional camera 110 side has been described, but the present invention is not limited to this. .. For example, a part or all of the first frame data, the second frame data, the frame composite data, the angular velocity data, the acceleration data, the zenith correction data, the first rotation correction data and the second rotation correction data are sent to the information terminal 150 side, Part or all of the image processing may be performed on the information terminal 150 side. In that case, the information terminal 150 side performs some functions on the omnidirectional camera 110 side shown in the functional block diagram of FIG. 4 by the CPU 152 on the information terminal 150 side executing various programs. As a result, for example, the CPU having a higher processing speed can perform a heavy load process such as a process of combining the first frame data (fisheye image A) and the second frame data (fisheye image B) by the image combining unit 220. It becomes possible to carry out the processing by using it, and it becomes possible to process even data having a large number of pixels in a short time or in real time.

例えば、図8(B)に示す実施形態では、全天球カメラ110側で撮像のみが行われ(S30)、画像処理前のフレームデータおよび回転パラメータが情報端末150に送信される(S31)。ここで、回転パラメータとは、上述した加速度データ、角速度データ、天頂補正データ、第1回転補正データおよび第2回転補正データなど、フレームデータの補正に関するパラメータを総称するものである。そして、情報端末150では、受信したフレームデータに対し、受信した回転パラメータに基づいて天頂補正および回転補正などの画像処理が行われ(S32)、画像処理後の動画データおよびそれに付属するメタデータに基づいてディスプレイ表示が行われる(S33)。 For example, in the embodiment shown in FIG. 8B, only the omnidirectional camera 110 takes an image (S30), and the frame data before image processing and the rotation parameter are transmitted to the information terminal 150 (S31). Here, the rotation parameter is a general term for parameters related to correction of frame data such as the acceleration data, the angular velocity data, the zenith correction data, the first rotation correction data, and the second rotation correction data described above. Then, in the information terminal 150, image processing such as zenith correction and rotation correction is performed on the received frame data based on the received rotation parameter (S32), and the moving image data after the image processing and the metadata attached thereto are processed. Display is performed based on the display (S33).

図8(B)で示した実施形態では、情報端末150が、データ取得手段(受信部252)、動画取得手段(受信部252および画像回転部230に対応する手段)、出力制御手段(表示制御部254)および変更指示受付手段(表示範囲変更指示受付部256)を備える画像処理装置として動作する。 In the embodiment shown in FIG. 8B, the information terminal 150 includes a data acquisition unit (reception unit 252), a moving image acquisition unit (a unit corresponding to the reception unit 252 and the image rotation unit 230), and an output control unit (display control). Unit 254) and a change instruction receiving unit (display range change instruction receiving unit 256).

なお、画像合成は、この場合、全天球カメラ110および情報端末150のいずれで行われてもよい。全天球カメラ110側で画像合成をする場合は、全天球カメラ110から情報端末150に送信されるフレームデータは、フレーム合成データ(全天球フォーマット)である。情報端末150側で画像合成をする場合は、全天球カメラ110から情報端末150に送信されるフレームデータは、第1フレームデータ(魚眼画像A)および第2フレームデータ(魚眼画像B)である。第1フレームデータおよび第2フレームデータは、それぞれに対応する動画データとして送信されてもよいし、または、2つの魚眼画像を接合した一つの接合画像の動画データ(魚眼画像Aおよび魚眼画像Bを並べて接合して1つの画像とした場合の動画データ)が送信されていてもよい。この場合、情報端末150が動画取得手段として画像合成部220に対応する手段を備えることになる。 In this case, the image combination may be performed by either the omnidirectional camera 110 or the information terminal 150. When images are combined on the omnidirectional camera 110 side, the frame data transmitted from the omnidirectional camera 110 to the information terminal 150 is frame combined data (omnidirectional format). When image synthesis is performed on the information terminal 150 side, the frame data transmitted from the omnidirectional camera 110 to the information terminal 150 is the first frame data (fisheye image A) and the second frame data (fisheye image B). Is. The first frame data and the second frame data may be transmitted as moving image data corresponding to each of the first frame data and the second frame data, or moving image data of one combined image obtained by combining two fisheye images (the fisheye image A and the fisheye image). The moving image data in the case where the images B are arranged side by side and joined to form one image) may be transmitted. In this case, the information terminal 150 is equipped with a unit corresponding to the image synthesizing unit 220 as a moving image acquisition unit.

また、回転パラメータもいずれの段階でのデータが情報端末150に送信されるかは任意である。例えば、上述した加速度データおよび角速度データが回転パラメータとして情報端末150に送信されてもよい。この場合、加速度データおよび角速度データから、天頂補正データ、第1回転補正データおよび第2回転補正データが情報端末150側で計算されることになる。この場合、情報端末150が、データ取得手段として第1回転量計算部224および第1回転量計算部224に対応する手段を備えることになる。あるいは、天頂補正データ、第1回転補正データおよび第2回転補正データが回転パラメータとして情報端末150に送信されてもよい。この場合、情報端末150は、データ取得手段としては、天頂補正データ、第1回転補正データおよび第2回転補正データを受信する受信手段を備えればよいことになる。 Further, at which stage the rotation parameter data is transmitted to the information terminal 150 is arbitrary. For example, the acceleration data and the angular velocity data described above may be transmitted to the information terminal 150 as a rotation parameter. In this case, the zenith correction data, the first rotation correction data, and the second rotation correction data are calculated on the information terminal 150 side from the acceleration data and the angular velocity data. In this case, the information terminal 150 includes the first rotation amount calculation unit 224 and a unit corresponding to the first rotation amount calculation unit 224 as the data acquisition unit. Alternatively, the zenith correction data, the first rotation correction data, and the second rotation correction data may be transmitted to the information terminal 150 as rotation parameters. In this case, the information terminal 150 may include a receiving unit that receives the zenith correction data, the first rotation correction data, and the second rotation correction data as the data acquisition unit.

また、上述した図4、図8(A)および図8(B)を参照して説明した実施形態では、全天球動画システムは、全天球カメラ110および情報端末150の2つの装置から構成されていたが、これに限定されるものではない。 In the embodiment described with reference to FIGS. 4, 8A and 8B described above, the omnidirectional video system includes two devices, the omnidirectional camera 110 and the information terminal 150. However, the present invention is not limited to this.

例えば、図9(A)で示すように第1の情報端末150に接続される第2の情報端末170が含まれてもよい。ここで、第2の情報端末170は、例えば、スマートフォン、タブレット、パーソナルコンピュータなどの端末に接続されたヘッドマウントディスプレイなどである。図9(A)に示す実施形態では、全天球カメラ110側で撮像のみが行われ(S50)、画像処理前のフレームデータおよび回転パラメータが第1の情報端末150に送信される(S51)。第1の情報端末150では、受信したフレームデータに対し、天頂補正および回転補正などの画像処理が行われ(S52)、画像処理後の動画データが、メタデータとともに第2の情報端末170に送信される(S53)。第2の情報端末170では、画像処理後の動画データおよびメタデータに基づいてディスプレイ表示が行われる(S54)。 For example, as shown in FIG. 9A, the second information terminal 170 connected to the first information terminal 150 may be included. Here, the second information terminal 170 is, for example, a head mounted display connected to a terminal such as a smartphone, a tablet, a personal computer. In the embodiment shown in FIG. 9A, only the omnidirectional camera 110 takes an image (S50), and the frame data and the rotation parameter before image processing are transmitted to the first information terminal 150 (S51). .. In the first information terminal 150, the received frame data is subjected to image processing such as zenith correction and rotation correction (S52), and the moving image data after the image processing is transmitted to the second information terminal 170 together with the metadata. (S53). On the second information terminal 170, display is performed based on the moving image data and the metadata after the image processing (S54).

図9(A)で示した実施形態では、第2の情報端末170が、データ取得手段(受信部252)、動画取得手段(受信部252)、出力制御手段(表示制御部254)および変更指示受付手段(表示範囲変更指示受付部256)を備える画像処理装置として動作する。 In the embodiment shown in FIG. 9A, the second information terminal 170 uses the data acquisition unit (reception unit 252), the moving image acquisition unit (reception unit 252), the output control unit (display control unit 254), and the change instruction. It operates as an image processing apparatus provided with a reception unit (display range change instruction reception unit 256).

その他、図9(B)で示すように、全天球動画システムは、サーバ装置190を含んでいてもよい。図9(B)に示す実施形態では、全天球カメラ110側では撮像のみが行われ(S70)、画像処理前のフレームデータおよび回転パラメータが情報端末150に送信される(S71)。情報端末150では、受信したフレームデータおよび回転パラメータをサーバ装置190に転送し(S72)、サーバ装置190に、フレームデータに対する天頂補正および回転補正などの画像処理を行わせる(S73)。情報端末150は、画像処理後の動画データおよびメタデータをサーバ装置190からダウンロードまたはストリーミング配信を受信し(S74)、画像処理後の動画データおよびメタデータに基づいてディスプレイ表示を行う(S75)。また、サーバ装置190へのアクセスは情報端末150に限られるものではない。 In addition, as shown in FIG. 9B, the spherical moving image system may include a server device 190. In the embodiment shown in FIG. 9B, only the imaging is performed on the omnidirectional camera 110 side (S70), and the frame data before the image processing and the rotation parameter are transmitted to the information terminal 150 (S71). The information terminal 150 transfers the received frame data and the rotation parameter to the server device 190 (S72), and causes the server device 190 to perform image processing such as zenith correction and rotation correction on the frame data (S73). The information terminal 150 receives the moving image data and the metadata after the image processing from the server device 190 or receives the streaming distribution (S74), and displays the display based on the moving image data and the metadata after the image processing (S75). Further, access to the server device 190 is not limited to the information terminal 150.

図9(B)で示した実施形態では、情報端末150が、データ取得手段(受信部252)、動画取得手段(受信部252)、出力制御手段(表示制御部254)および変更指示受付手段(表示範囲変更指示受付部256)を備える画像処理装置として動作する。 In the embodiment shown in FIG. 9B, the information terminal 150 uses the data acquisition unit (reception unit 252), the moving image acquisition unit (reception unit 252), the output control unit (display control unit 254), and the change instruction reception unit ( It operates as an image processing apparatus including a display range change instruction receiving unit 256).

そのほか、全天球カメラ110が表示装置を備える場合は、全天球カメラ110単体で、全天球動画システムが構成されてもよい。その場合、全天球カメラ110が、画像処理装置として、自身が備える表示装置上で表示する態様とすることも可能である。 In addition, when the omnidirectional camera 110 includes a display device, the omnidirectional camera 110 alone may configure the omnidirectional video system. In this case, the omnidirectional camera 110 may be configured to display on a display device included in itself as an image processing device.

以下、図10〜図13を参照しながら、本実施形態における天頂補正および回転補正について、より詳細に説明する。図10は、本実施形態による全天球動画システムを構成する全天球カメラ110(特定の実施形態では情報端末150やサーバ装置190であってもよい。)が実行するフレーム合成データに対する回転処理を示すフローチャートである。 Hereinafter, the zenith correction and the rotation correction in the present embodiment will be described in more detail with reference to FIGS. 10 to 13. FIG. 10 is a rotation process for frame-combined data executed by the omnidirectional camera 110 (which may be the information terminal 150 or the server device 190 in a specific embodiment) included in the omnidirectional video system according to the present embodiment. It is a flowchart showing.

図10に示す処理は、全天球カメラ110が、補正された動画データを求める要求を受け付けたことに応答して、ステップS100から開始される。 The process shown in FIG. 10 is started from step S100 in response to the omnidirectional camera 110 receiving a request for the corrected moving image data.

ステップS101では、全天球カメラ110は、フレーム合成データおよび回転パラメータを取得する。なお、ここでは、説明の便宜上、回転処理の開始時点で、第1フレームデータおよび第2フレームデータの記録、画像合成によるフレーム合成データの生成、角速度データおよび加速度データの記録が完了しているものとする。しかしながら、他の実施形態では、リアルタイム配信を行う場合などにおいて、第1フレームデータおよび第2フレームデータの記録、角速度データおよび加速度データの記録、画像合成によるフレーム合成データの生成を順次行いながら、図10に示す回転処理を実行することもできる。またここでは、天頂補正データ、第1回転補正データおよび第2回転補正データは、未だ計算されていないものとして説明する。 In step S101, the celestial sphere camera 110 acquires frame synthesis data and rotation parameters. Here, for convenience of description, the recording of the first frame data and the second frame data, the generation of the frame composite data by image composition, and the recording of the angular velocity data and the acceleration data are completed at the start of the rotation process. And However, in another embodiment, when performing real-time distribution or the like, the first frame data and the second frame data are recorded, the angular velocity data and the acceleration data are recorded, and the frame combined data is generated by the image combination, The rotation process shown in 10 can also be performed. In addition, here, it is assumed that the zenith correction data, the first rotation correction data, and the second rotation correction data have not been calculated.

ステップS102では、全天球カメラ110は、当該全天球カメラ110の撮影正面方向の初期値を記憶する。この開始時点の全天球カメラ110の撮影正面方向は、第1回転補正データおよび第2回転補正データの基準を計算する際に用いられる。また、ステップS102では、最初のフレームが処理対象とされて、ステップS103へ処理が進められる。 In step S102, the omnidirectional camera 110 stores an initial value in the shooting front direction of the omnidirectional camera 110. The shooting front direction of the omnidirectional camera 110 at the start time is used when calculating the reference of the first rotation correction data and the second rotation correction data. Further, in step S102, the first frame is targeted for processing, and the process proceeds to step S103.

ステップS103では、全天球カメラ110は、天頂補正量計算部222により、少なくとも加速度データに基づいて、当該処理対象のフレームにおける重力方向に対する傾き角を計算し、天頂補正データに書き込む。 In step S103, the omnidirectional camera 110 calculates the tilt angle with respect to the gravity direction in the frame to be processed by the zenith correction amount calculation unit 222 based on at least the acceleration data, and writes it in the zenith correction data.

ステップS104では、全天球カメラ110は、第1回転量計算部224により、前フレームと比較した水平面内での回転角度の変化量を検出する。ステップS105では、全天球カメラ110は、第1回転量計算部224により、ステップS104で算出したフレーム間の角度変化量を積算して、初期値からの撮影正面方向の角度変化量を計算し、第1回転補正データを書き込む。第1回転補正データは、上述したように、水平面の座標系における、全天球カメラ110の撮影正面方向の初期値からの対象フレームでの撮影正面方向の角度変化量の時系列データである。 In step S104, the omnidirectional camera 110 detects the change amount of the rotation angle in the horizontal plane compared with the previous frame by the first rotation amount calculation unit 224. In step S105, the omnidirectional camera 110 uses the first rotation amount calculation unit 224 to integrate the angle change amount between the frames calculated in step S104, and calculate the angle change amount in the shooting front direction from the initial value. , Write the first rotation correction data. As described above, the first rotation correction data is time-series data of the angle change amount in the shooting front direction in the target frame from the initial value in the shooting front direction of the omnidirectional camera 110 in the horizontal coordinate system.

ステップS103〜ステップ105の処理は、フレーム毎に実行することができる。一方、ステップS106〜ステップS108の処理は、規定フレーム数毎に実行することができる。ここで、規定フレーム数は、任意の値に設定することが可能である。規定フレーム数を小さくすることで追従性を増すことが可能になるが、規定フレーム数が小さくなりすぎると進行時のブレ成分や静止時のブレ成分の影響が出やすい。そのため、1秒当たり60フレームの動画(60fps)であれば、規定フレーム数を、例えば10〜30フレーム程度となるように設定しておくとよい。 The processing of steps S103 to 105 can be executed for each frame. On the other hand, the processing of steps S106 to S108 can be executed for each specified number of frames. Here, the specified number of frames can be set to any value. Although it is possible to increase the followability by reducing the specified number of frames, if the specified number of frames is too small, the blur component at the time of progress and the blur component at the time of stillness are likely to be affected. Therefore, if the moving image is 60 frames per second (60 fps), the specified number of frames may be set to be, for example, about 10 to 30 frames.

ステップS106では、全天球カメラ110は、第2回転量計算部226により、水平面の座標系の規定フレーム規定フレーム数内での全天球カメラ110の移動距離および進行方向ベクトルを算出する。なお、ここで計算の対象となる規定フレームは、保存された全天球動画データの再生であれば、中心フレームの前後の所定数分のフレームとしてよいし、リアルタイム配信であれば、先頭フレームから所定数分までのフレームとしてよい。 In step S106, the celestial sphere camera 110 uses the second rotation amount calculation unit 226 to calculate the moving distance and the traveling direction vector of the celestial sphere camera 110 within the prescribed number of prescribed frames in the coordinate system of the horizontal plane. It should be noted that the specified frame to be calculated here may be a predetermined number of frames before and after the central frame in the case of reproducing the stored spherical video data, or in the case of real-time distribution from the first frame. The frame may be up to a predetermined number of minutes.

ステップS107では、全天球カメラ110は、第2回転量計算部226により、ステップS106で算出した移動距離が所定閾値以上であるか否かを判定する。ステップS107で移動距離が所定閾値以上であると判定された場合(YES)は、ステップS108へ処理を進める。ここで、移動距離とは、規定フレーム数において、水平面の座標系における最初のフレームの位置と最後のフレームの位置との差分を意味する。 In step S107, the omnidirectional camera 110 causes the second rotation amount calculation unit 226 to determine whether or not the movement distance calculated in step S106 is equal to or greater than a predetermined threshold. If it is determined in step S107 that the moving distance is equal to or greater than the predetermined threshold value (YES), the process proceeds to step S108. Here, the moving distance means the difference between the position of the first frame and the position of the last frame in the coordinate system of the horizontal plane in the specified number of frames.

ステップS108では、全天球カメラ110は、第2回転量計算部226により、初期値からのS105で算出した進行方向ベクトルの角度変化量を計算し、第2回転補正データを書き込む。ここで、第2回転補正データは、進行方向ベクトルの初期値(カメラ方向の初期値と等しい)と、上述したように規定フレーム数分の平均としての進行方向ベクトルとの差分の時系列データである。 In step S108, the omnidirectional camera 110 calculates the angle change amount of the traveling direction vector calculated in S105 from the initial value by the second rotation amount calculation unit 226, and writes the second rotation correction data. Here, the second rotation correction data is time-series data of the difference between the initial value of the traveling direction vector (equal to the initial value of the camera direction) and the traveling direction vector as an average for the specified number of frames as described above. is there.

一方、ステップS107で移動距離が閾値以下であると判定された場合(NO)は、ステップS109へ直接処理が進められる。 On the other hand, if it is determined in step S107 that the moving distance is less than or equal to the threshold value (NO), the process directly proceeds to step S109.

ステップS109では、全天球カメラ110は、画像回転部230により、天頂補正データ(その中の対象フレームの傾き角)に基づいて、フレーム合成データの対象フレームに対して天頂補正を施す。 In step S109, the omnidirectional camera 110 performs the zenith correction on the target frame of the frame composite data based on the zenith correction data (the tilt angle of the target frame therein) by the image rotation unit 230.

ステップS110では、全天球カメラ110は、画像回転部230により、第1回転補正データおよび第2回転補正データに基づいて、対象フレームで打ち消すべき水平面内での回転変化量(回転補正量)を計算する。上述したように、第1回転補正データは、水平面内における、基準フレームの撮影正面方向の初期値と、対象フレームの時点の撮影正面方向との差分であり、第2回転補正データは、水平面内における、基準フレームの進行方向(撮影正面方向と等しい)の初期値と、対象フレームの時点の進行方向との差分である。このため、第1回転補正データおよび第2回転補正データを合算することで、最終的に打ち消すべき回転変化量を計算することができる。なお、特定方向が撮影正面方向の初期値である場合、第2回転補正データは移動距離が閾値以上となるまではデフォルトの値(ゼロ)であるため、回転変化量は、第1回転補正データで規定される通り、撮影正面方向の初期値と、補正対象フレームでの水平面内での撮影正面方向との差分に基づくものとなる。一方、特定方向が進行方向に決定されると、回転変化量は、進行方向と、補正対象フレームでの撮影正面方向との差分に基づくものとなる。 In step S110, the omnidirectional camera 110 uses the image rotation unit 230 to determine the rotation change amount (rotation correction amount) in the horizontal plane to be canceled in the target frame based on the first rotation correction data and the second rotation correction data. calculate. As described above, the first rotation correction data is a difference between the initial value in the shooting front direction of the reference frame and the shooting front direction at the time of the target frame in the horizontal plane, and the second rotation correction data is in the horizontal plane. In the moving direction of the reference frame (equal to the shooting front direction) and the moving direction at the time of the target frame. Therefore, by adding the first rotation correction data and the second rotation correction data, it is possible to finally calculate the rotation change amount to be canceled. In addition, when the specific direction is the initial value of the shooting front direction, the second rotation correction data is the default value (zero) until the moving distance becomes equal to or more than the threshold, and therefore the rotation change amount is the first rotation correction data. As defined by, the difference is based on the difference between the initial value in the shooting front direction and the shooting front direction in the horizontal plane of the correction target frame. On the other hand, when the specific direction is determined to be the traveling direction, the rotation change amount is based on the difference between the traveling direction and the shooting front direction in the correction target frame.

ステップS111では、全天球カメラ110は、計算された回転補正量に基づいて対象フレームに対し、回転補正を施す。 In step S111, the omnidirectional camera 110 performs rotation correction on the target frame based on the calculated rotation correction amount.

ステップS112では、全天球カメラ110は、次フレームがあるか否かを判定する。ステップS112で、次フレームがあると判定された場合(YES)は、ステップS103へループさせる。一方、ステップS112で次フレームがないと判定された場合(NO)は、ステップS113で、本回転処理を終了する。 In step S112, the omnidirectional camera 110 determines whether or not there is a next frame. If it is determined in step S112 that there is a next frame (YES), the process loops to step S103. On the other hand, if it is determined in step S112 that there is no next frame (NO), the main rotation process ends in step S113.

上述した処理により、動画に対し、少なくとも一定期間の複数のフレームにわたり、表示の基準が撮影中の特定方向に略一致するように基準軸周りの回転変化を打ち消すような補正が施されることになる。 By the above-described processing, the moving image is corrected so as to cancel the rotational change around the reference axis so that the display reference substantially coincides with the specific direction during shooting over at least a plurality of frames for a certain period. Become.

なお、以上説明した実施形態では、ステップS110で、第1回転補正データおよび第2回転補正データに基づいて打ち消すべき回転量を計算し、ステップS111でまとめて回転補正を施すものとして説明した。しかしながら、これに特に限定されるものではなく、他の実施形態では、第1回転補正データに基づく回転補正と、第2回転補正データに基づく回転補正とを順次適用してもよい。さらに、他の実施形態では、天頂補正データ、第1回転補正データおよび第2回転補正データに基づいてまとめて天頂補正および回転補正を施すものとしてもよい。 In the above-described embodiment, the rotation amount to be canceled is calculated based on the first rotation correction data and the second rotation correction data in step S110, and the rotation correction is collectively performed in step S111. However, the present invention is not limited to this, and in other embodiments, the rotation correction based on the first rotation correction data and the rotation correction based on the second rotation correction data may be sequentially applied. Further, in another embodiment, the zenith correction and the rotation correction may be collectively performed based on the zenith correction data, the first rotation correction data, and the second rotation correction data.

上記回転補正により、首振りなどによる低周波数の回転変化に関わらず、画像の表示の基準を初期のカメラの撮影正面方向や進行方向などの特定方向に固定することが可能となる。 By the above rotation correction, it becomes possible to fix the reference for displaying an image in a specific direction such as the front direction of shooting of the camera or the advancing direction regardless of the low frequency rotation change due to swinging or the like.

以下、図11〜図13を参照しながら、進行方向と撮影正面方向の関係とおよびそのときの画像回転部による回転処理について説明する。図11は、撮影者が頭部50に全天球カメラ110を装着して移動した場合の進行方向Tと撮影正面方向Hの関係を、一例をもって説明する図である。図12および図13は、撮影者が図11に示す動作をした場合の撮影された回転補正前の全天球画像(左側)および回転補正後の全天球画像(右側)を説明する図である。 Hereinafter, the relationship between the traveling direction and the shooting front direction and the rotation processing by the image rotation unit at that time will be described with reference to FIGS. 11 to 13. FIG. 11 is a diagram for explaining an example of the relationship between the traveling direction T and the shooting front direction H when the photographer wears the omnidirectional camera 110 on the head 50 and moves. FIG. 12 and FIG. 13 are diagrams illustrating a captured spherical image before rotation correction (left side) and a rotationally corrected spherical image (right side) when the photographer performs the operation illustrated in FIG. 11. is there.

図11は、番号0、1、1’、1〜10で時系列的に示した図であり、図11には、番号で示す各時点での、撮影者の頭部50に固定された全天球カメラ110の状態が、撮影者(全天球カメラ110)の進行方向Hと、首振り動作に応じた全天球カメラ110の撮影正面方向Hとともに模式的に示されている。 FIG. 11 is a diagram showing the numbers 0, 1, 1 ′, and 1 to 10 in a time-series manner. In FIG. 11, all of the numbers fixed to the head 50 of the photographer at each time point indicated by the numbers. The state of the celestial sphere camera 110 is schematically shown together with the traveling direction H of the photographer (the celestial sphere camera 110) and the photographing front direction H of the celestial sphere camera 110 according to the swing motion.

図11において、進行方向Tに注目すると、この例では、撮影者は、番号0〜5の期間において「北」へ向かって進行していることが示されている。また、図11において撮影正面方向Hに注目すると、撮影者は、番号0〜1の時点では進行方向と同じ「北」を向いており、番号2〜4の時点で首振り動作によって周囲を見渡す動作が行われ、番号5の時点で進行方向左手の「西」を見ていることが示されている。なお、番号1,1’は、例えば、他者とすれ違う際に通路を譲る場合など、一旦右に平行移動した後に元の進路に戻った動作を表している。そして、撮影者は、「西」を見つつ、番号6〜7の間に「北」から「西」へ進行方向を転換し、番号7〜8の時点で、進行方向と同じ「西」を見ながら進んでいることが示される。また、番号9の時点では、「西」に進みながら進行方向左手の「南」を見ており、番号10の時点で、さらに見ていた「南」に進行方向を転換した様子が示されている。なお、東西南北は、便宜上に描いているが、必ずしも東西南北が識別されるというものではない。 In FIG. 11, focusing on the traveling direction T, in this example, it is shown that the photographer is traveling toward “North” in the period of numbers 0 to 5. Further, focusing on the shooting front direction H in FIG. 11, the photographer faces “North”, which is the same as the traveling direction at the time of numbers 0 to 1, and looks around by the swinging motion at the time of numbers 2 to 4. It is shown that the action is performed and at the time of number 5, the player is looking at “West” on the left side in the traveling direction. It should be noted that the numbers 1 and 1'represent the operation of returning to the original path after making a parallel translation to the right once, for example, in the case of yielding a passage when passing another person. Then, the photographer changes the traveling direction from "North" to "West" between the numbers 6 to 7 while looking at the "West", and at the time of the numbers 7 to 8, the same "West" as the traveling direction is set. It shows that you are progressing while watching. Also, at the time of number 9, while looking at the "west", you are looking at the "south" on the left side of the direction of travel, and at the time of number 10, you can see that you have changed the direction of travel to "south". There is. Note that the north, south, east, and west are drawn for convenience, but the north, south, east, and west are not necessarily identified.

図12および図13には、図11で示した番号0、1、1’、1〜10に対応した回転補正前の全天球画像(左側)300および回転補正後の全天球画像(右側)310が模式的に示されている。また、回転補正後の全天球画像(右側)310中には、全天球画像の中央に設定された画像範囲316が、情報端末150の表示画面上に表示されていることを模式的に表している。 12 and 13, the spherical image before rotation correction (left side) 300 and the spherical image after rotation correction (right side) corresponding to the numbers 0, 1, 1', 1 to 10 shown in FIG. ) 310 is shown schematically. Further, in the omnidirectional image (right side) 310 after the rotation correction, it is schematically shown that the image range 316 set at the center of the omnidirectional image is displayed on the display screen of the information terminal 150. It represents.

番号0、1、1’、1〜5の期間において、撮影者は「北」に進んでいるが、図12および図13の左側に示すように、補正前の全天球画像300では、撮影者の首振り動作に応じて画像が回転していることがわかる。より具体的には、番号0、1、1’、1〜5の期間において、撮影正面方向302が、「北」→「北西(北から左方向60度)」→「北東(北から右方向60度)」→「北西(北から左方向45度)」→「西(北から左方向90度)」へと変化している。一方、図12および図13の右側に示すように、補正後の全天球画像310では、番号0、1、1’、1〜5の各時点では、開始時点の撮影正面方向および進行方向である「北」に常に表示の基準314が固定されている。また、時点1,1’での平行移動では、全天球カメラ110の移動方向が瞬間的に変化するが、短時間の変化であるため、図10に示したステップS107では、規定数分のフレームでの移動距離が閾値未満であると判定され、進行方向としては再決定されず、「北」のままとなっている。 In the periods of numbers 0, 1, 1', 1 to 5, the photographer is moving to the "north", but as shown on the left side of FIGS. 12 and 13, in the uncorrected spherical image 300, It can be seen that the image is rotated according to the person's swinging motion. More specifically, in the periods of numbers 0, 1, 1', and 1 to 5, the shooting front direction 302 is "North" → "Northwest (60 degrees from north to left)" → "Northeast (from north to right). "60 degrees)" → "northwest (45 degrees left from north)" → "west (90 degrees left from north)". On the other hand, as shown on the right side of FIGS. 12 and 13, in the corrected celestial sphere image 310, at the time points of numbers 0, 1, 1 ′, 1 to 5, in the shooting front direction and the traveling direction at the start time point. The display standard 314 is always fixed to a certain "north". Further, in the parallel movement at the time points 1 and 1′, the moving direction of the omnidirectional camera 110 changes momentarily, but since it is a short time change, in step S107 shown in FIG. It is determined that the moving distance in the frame is less than the threshold value, the traveling direction is not redetermined, and “North” remains.

代表的な点を抜き出して回転補正について説明すると、図11において番号2の時点では、撮影者が北に向かって進んでいる一方、全天球カメラ110は、左方向に60度回転して、「北西」を向いている状態である。このとき、撮影者は、全天球カメラ110の撮影正面方向Hと進行方向Tとは異なる。ここで、図11の番号2の時点の状態に撮影者が変化したときの画像回転部230の回転処理について説明する。番号1の時点から番号2の時点の状態に撮影者が首の向きを変えたとき、すなわち全天球カメラ110の方向が60度左方向に回転しているとき、画像回転部230は、第1回転補正データに基づいて全天球画像の回転が打ち消されるよう右方向に60度回転させる回転処理を実行する。これにより、ディスプレイに表示されるデフォルトの方向を進行方向に固定することが可能になる。実際は時点1〜時点2の状態に変化するフレーム毎に、第1回転補正データに基づく回転処理が順次実行される。このとき、進行方向の変化は無いため、第2回転補正データに基づく回転処理は実行されない。なお、時点2〜時点3への変化、時点3〜時点4への変化、時点4〜時点5への変化についても同様である。 To explain the rotation correction by extracting representative points, at the time of number 2 in FIG. 11, the celestial sphere camera 110 rotates 60 degrees to the left while the photographer is heading north. It is facing northwest. At this time, the photographer is different from the shooting front direction H of the omnidirectional camera 110 and the traveling direction T. Here, the rotation process of the image rotation unit 230 when the photographer changes to the state of the number 2 in FIG. 11 will be described. When the photographer changes the direction of the neck from the time point of number 1 to the time point of number 2, that is, when the direction of the omnidirectional camera 110 is rotated leftward by 60 degrees, the image rotation unit 230 moves the A rotation process of rotating 60 degrees to the right is executed so as to cancel the rotation of the omnidirectional image based on the one rotation correction data. This makes it possible to fix the default direction shown on the display to the traveling direction. Actually, the rotation process based on the first rotation correction data is sequentially executed for each frame that changes from the time point 1 to the time point 2. At this time, since there is no change in the traveling direction, the rotation process based on the second rotation correction data is not executed. The same applies to changes from time point 2 to time point 3, changes from time point 3 to time point 4, and changes from time point 4 to time point 5.

番号5〜7では、撮影者は、見ている方向である「西」に徐々に進行方向を変えているが、図13の左側に示すように、補正前の全天球画像300では、撮影者の向きは常に「西」を見ており画像には変化がない。一方、図13の右側に示すように、補正後の全天球画像310では、更新された進行方向である「北西(番号6)」および「西(番号7)」に表示の基準314がそれぞれ固定されている。ここでは、時点6の進行方向は、充分に長い間進行方向が一定となっており、再決定された「北西」に一旦固定する方向が変化している様子が示されている。 In Nos. 5 to 7, the photographer gradually changes the traveling direction to “West” which is the viewing direction, but as shown on the left side of FIG. The direction of the person is always looking at "west" and there is no change in the image. On the other hand, as shown on the right side of FIG. 13, in the corrected celestial sphere image 310, the reference 314 displayed in the updated traveling directions “northwest (number 6)” and “west (number 7)” respectively. It is fixed. Here, it is shown that the traveling direction at time point 6 is constant for a sufficiently long period of time, and the direction to be fixed once at the re-determined “northwest” is changing.

ここで、図11の番号5、6および7の時点の状態に撮影者が変化したときの画像回転部の回転処理について説明する。5の時点から6の時点の状態に撮影者が撮影正面方向Hを変えず進行方向Tを変えたとき、第1回転補正データに基づけば、全天球画像の撮影正面方向に対する回転が初期値から打ち消されるよう右方向に90度回転させる回転処理を実行することになる。一方、第2回転補正データに基づけば、全天球画像の初期の進行方向(初期の撮影正面方向)からの進行方向の差分に基づいて左方向に45度回転させる回転処理を実行することになる。そして、第1回転補正データおよび第2回転補正データを合算すると、右方向に45度回転させる回転処理を実行することになる。 Here, the rotation process of the image rotation unit when the photographer changes to the state of the numbers 5, 6, and 7 in FIG. 11 will be described. When the photographer changes the traveling direction T without changing the photographing front direction H from the time point 5 to the time point 6, based on the first rotation correction data, the rotation of the spherical image with respect to the photographing front direction is the initial value. A rotation process of rotating 90 degrees to the right so as to be canceled by is executed. On the other hand, based on the second rotation correction data, the rotation processing of rotating the spherical image to the left by 45 degrees is executed based on the difference in the traveling direction from the initial traveling direction (the initial shooting front direction) of the spherical image. Become. Then, when the first rotation correction data and the second rotation correction data are summed up, a rotation process of rotating 45 degrees to the right is executed.

また、番号7の時点の状態では、第1回転補正データに基づけば、全天球画像の撮影正面方向に対する回転が初期値から打ち消されるよう右方向に90度回転させる回転処理を実行することになる。一方、第2回転補正データに基づけば、天球画像の初期の進行方向(初期の撮影正面方向)からの進行方向の差分に基づいて左方向に90度回転させる回転処理を実行することになる。そして、第1回転補正データおよび第2回転補正データを合算すると、回転補正なしとなる。 Further, in the state at the time of number 7, based on the first rotation correction data, a rotation process of rotating 90 degrees to the right is executed so that the rotation of the omnidirectional image with respect to the shooting front direction is canceled from the initial value. Become. On the other hand, based on the second rotation correction data, a rotation process of rotating the celestial sphere image 90 degrees to the left is executed based on the difference in the direction of travel from the initial direction of travel of the celestial sphere image (initial shooting front direction). Then, when the first rotation correction data and the second rotation correction data are added together, there is no rotation correction.

なお、進行方向の変化は、前の進行方向から次の進行方向へ滑らかに転換が起こるように補間されてもよい。つまり、時点5および時点6の期間、および時点6および時点7の期間の45度分の角度変化を、これらの間の各フレームで補間した値を適用することができる。あるいは、進行方向の変化は、瞬時に変化したものとしてもよい。例えば、画面表示を一旦ブラックアウトして、従前の進行方向に表示の基準を固定した状態から新たな進行方向に表示の基準が固定された状態へ切り替えてもよい。 The change in the traveling direction may be interpolated so that a smooth transition is made from the previous traveling direction to the next traveling direction. That is, it is possible to apply a value obtained by interpolating the angle change of 45 degrees in the periods of time points 5 and 6 and the periods of time points 6 and 7 in each frame therebetween. Alternatively, the change in the traveling direction may be an instantaneous change. For example, the screen display may be once blacked out, and the state in which the display reference is fixed in the previous traveling direction may be switched to the state in which the display reference is fixed in the new traveling direction.

一方、番号8から番号9への変化では、撮影者は、進行方向を変えず見ている方向を「西」から「南」へ変化させている。この場合、図13の左側に示すように、時点8および時点9では、補正前の全天球画像300では、撮影者の向きが「西」から「南」へ変化しているが、進行方向は「西」に固定されているため、図13の右側に示すように表示の基準314が「西」に固定されている。一方、番号9〜10では、撮影者は、見ている方向を変えず進行方向を「西」から「南」へ変化させている。この場合、図13の左側に示すように、時点9および時点10では、補正前の全天球画像300では、撮影者の向きは常に「南」を見ているが、図13の右側に示すように、進行方向は「西」から「南」へ表示の基準314が固定する方向が変化している。 On the other hand, in the change from the number 8 to the number 9, the photographer changes the viewing direction from “west” to “south” without changing the traveling direction. In this case, as shown on the left side of FIG. 13, at the time points 8 and 9, in the uncorrected spherical image 300, the orientation of the photographer changes from “west” to “south”, but Is fixed to "west", the display reference 314 is fixed to "west" as shown on the right side of FIG. On the other hand, with the numbers 9 to 10, the photographer changes the traveling direction from “west” to “south” without changing the viewing direction. In this case, as shown on the left side of FIG. 13, at the time points 9 and 10, in the uncorrected spherical image 300, the orientation of the photographer is always looking at “south”, but shown on the right side of FIG. As described above, the traveling direction is changed from “west” to “south” by the direction in which the reference 314 displayed is fixed.

ここで、図11の番号8、9および10の時点の状態に撮影者が変化したときの画像回転部の回転処理について説明する。番号8の時点から番号9の時点の状態に撮影者が進行方向Tを変えず撮影正面方向Hを変えたとき、第1回転補正データに基づけば、全天球画像の撮影正面方向に対する回転が初期値から打ち消されるよう右方向に180度回転させる回転処理を実行することになる。一方、第2回転補正データに基づけば、全天球画像の初期の進行方向(初期の撮影正面方向)からの進行方向の差分に基づいて左方向に90度回転させる回転処理を実行することになる。そして、第1回転補正データおよび第2回転補正データを合算すると、右方向に90度回転させる回転処理を実行することになる。また、番号10の時点の状態では、第1回転補正データに基づけば、全天球画像の撮影正面方向に対する回転が初期値から打ち消されるよう右方向に180度回転させる回転処理を実行することになる。一方、第2回転補正データに基づけば、全天球画像の初期の進行方向(初期の撮影正面方向)からの進行方向の差分に基づいて左方向に180度回転させる回転処理を実行することになる。そして、第1回転補正データおよび第2回転補正データを合算すると、回転補正なしとなる。 Here, the rotation process of the image rotation unit when the photographer changes to the state at the numbers 8, 9, and 10 in FIG. 11 will be described. When the photographer changes the shooting front direction H without changing the traveling direction T from the time point of number 8 to the time point of number 9, based on the first rotation correction data, the rotation of the spherical image with respect to the shooting front direction is changed. A rotation process of rotating 180 degrees to the right so as to be canceled from the initial value is executed. On the other hand, based on the second rotation correction data, the rotation processing of rotating 90 degrees to the left based on the difference in the traveling direction from the initial traveling direction of the celestial sphere image (the initial shooting front direction) is performed. Become. Then, when the first rotation correction data and the second rotation correction data are added together, a rotation process of rotating 90 degrees to the right is executed. Further, in the state at the time of the number 10, based on the first rotation correction data, the rotation process of rotating 180 degrees to the right is executed so that the rotation of the omnidirectional image with respect to the shooting front direction is canceled from the initial value. Become. On the other hand, based on the second rotation correction data, a rotation process of rotating 180 degrees to the left based on the difference in the traveling direction from the initial traveling direction of the celestial sphere image (the initial shooting front direction) is executed. Become. Then, when the first rotation correction data and the second rotation correction data are added together, there is no rotation correction.

このように、ディスプレイに表示されるデフォルトの方向を撮影開始時の撮影正面方向および進行方向のいずれかに固定することが可能になる。 In this way, the default direction displayed on the display can be fixed to either the shooting front direction at the start of shooting or the traveling direction.

以下、図14を参照しながら、他の実施形態における天頂補正および回転補正について、より詳細に説明する。図14は、他の実施形態による全天球動画システムを構成する全天球カメラ110(特定の実施形態では情報端末150やサーバ装置190であってもよい。)が実行するフレーム合成データに対する回転処理を示すフローチャートである。なお、図14は、進行方向の決定は行わず、常に、撮影開始時の撮影正面方向に表示の基準を固定する場合の実施形態を示す。 Hereinafter, the zenith correction and the rotation correction in another embodiment will be described in more detail with reference to FIG. FIG. 14 is a rotation with respect to the frame composite data executed by the omnidirectional camera 110 (which may be the information terminal 150 or the server device 190 in a specific embodiment) which constitutes the omnidirectional video system according to another embodiment. It is a flowchart which shows a process. Note that FIG. 14 shows an embodiment in which the advancing direction is not determined, and the display reference is always fixed in the shooting front direction at the start of shooting.

図14に示す処理は、全天球カメラ110が、補正された動画データを求める要求を受け付けたことに応答して、ステップS200から開始される。 The process shown in FIG. 14 is started from step S200 in response to the omnidirectional camera 110 accepting the request for the corrected moving image data.

ステップS201では、全天球カメラ110は、フレーム合成データおよび回転パラメータを取得する。図10に示した実施形態と同様に、説明の便宜上、回転処理の開始時点で、第1フレームデータおよび第2フレームデータの記録、画像合成によるフレーム合成データの生成、角速度データおよび加速度データの記録が完了しているものとする。 In step S201, the omnidirectional camera 110 acquires the frame composite data and the rotation parameter. Similar to the embodiment shown in FIG. 10, for convenience of description, at the start of the rotation process, recording of the first frame data and the second frame data, generation of frame composite data by image composition, recording of angular velocity data and acceleration data. Have been completed.

ステップS202では、全天球カメラ110は、当該全天球カメラ110の撮影正面方向の初期値を記憶する。ステップS203では、全天球カメラ110は、天頂補正量計算部222により、少なくとも加速度データに基づいて、当該処理対象のフレームにおける重力方向に対する傾き角を計算し、天頂補正データに書き込む。 In step S202, the omnidirectional camera 110 stores the initial value in the shooting front direction of the omnidirectional camera 110. In step S203, in the omnidirectional camera 110, the zenith correction amount calculation unit 222 calculates the tilt angle with respect to the gravity direction in the frame to be processed based on at least the acceleration data, and writes the tilt angle in the zenith correction data.

ステップS204では、全天球カメラ110は、第1回転量計算部224により、クロック毎の水平面の座標系の角度変化量を積算し、前フレームと比較した水平面内での回転角度の変化量を検出する。ステップS205では、全天球カメラ110は、第1回転量計算部224により、ステップS204で算出したフレーム間の角度変化量を積算して、初期値からの撮影正面方向の角度変化量を計算し、第1回転補正データを書き込む。 In step S204, the omnidirectional camera 110 causes the first rotation amount calculation unit 224 to integrate the angle change amount of the coordinate system of the horizontal plane for each clock and calculate the change amount of the rotation angle in the horizontal plane compared to the previous frame. To detect. In step S205, the omnidirectional camera 110 uses the first rotation amount calculation unit 224 to integrate the angle change amounts between the frames calculated in step S204, and calculate the angle change amount in the shooting front direction from the initial value. , Write the first rotation correction data.

ステップS206では、全天球カメラ110は、画像回転部230により、天頂補正データ(その中の対象フレームの傾き角)に基づいて、フレーム合成データの対象フレームに対して天頂補正を施す。 In step S206, the omnidirectional camera 110 performs the zenith correction on the target frame of the frame composite data based on the zenith correction data (the tilt angle of the target frame therein) by the image rotation unit 230.

ステップS207では、全天球カメラ110は、画像回転部230により、第1回転補正データに基づいて、対象フレームに対し、回転補正を施す。上述したように、第1回転補正データは、水平面内における、基準フレームの撮影正面方向の初期値と、対象フレームの時点の撮影正面方向との差分であり、対象フレームで打ち消すべき水平面内での回転変化量をそのまま表す。 In step S207, the omnidirectional camera 110 causes the image rotation unit 230 to perform rotation correction on the target frame based on the first rotation correction data. As described above, the first rotation correction data is the difference between the initial value in the shooting front direction of the reference frame and the shooting front direction at the time of the target frame in the horizontal plane, and the first rotation correction data in the horizontal plane to be canceled in the target frame. The amount of rotation change is expressed as it is.

ステップS208では、全天球カメラ110は、次フレームがあるか否かを判定する。ステップS208で、次フレームがあると判定された場合(YES)は、ステップS203へループさせる。一方、ステップS208で次フレームがないと判定された場合(NO)は、ステップS209で、本回転処理を終了する。 In step S208, the omnidirectional camera 110 determines whether there is a next frame. If it is determined in step S208 that there is a next frame (YES), the process loops to step S203. On the other hand, if it is determined in step S208 that there is no next frame (NO), the main rotation processing ends in step S209.

上記処理により、動画に対し、撮影を開始してから終了するまでの期間の複数のフレームにわたり、表示の基準が撮影開始時の撮影正面方向に略一致するように基準軸周りの回転変化を打ち消すような補正が施されることになる。 By the above process, the rotation change around the reference axis is canceled so that the display reference substantially coincides with the shooting front direction at the start of shooting over a plurality of frames from the start to the end of shooting for the moving image. Such correction will be applied.

以下、図15〜図17を参照しながら、本実施形態における天頂補正および回転補正が施された全天球動画を再生表示する、情報端末150側の表示処理についてより詳細に説明する。図15は、本実施形態による全天球動画システムを構成する情報端末150が実行する全天球動画再生処理を示すフローチャートである。 Hereinafter, the display processing on the information terminal 150 side for reproducing and displaying the zenith-corrected and rotation-corrected spherical video in the present embodiment will be described in more detail with reference to FIGS. 15 to 17. FIG. 15 is a flowchart showing the spherical video reproducing process executed by the information terminal 150 which constitutes the spherical video system according to the present embodiment.

図15に示す処理は、情報端末150が、視聴者である操作者からの補正された動画の再生を求める要求を受け付けたことに応答して、ステップS300から開始される。 The process illustrated in FIG. 15 is started from step S300 in response to the information terminal 150 receiving a request for reproduction of a corrected moving image from an operator who is a viewer.

ステップS301では、情報端末150は、受信部252により、全天球カメラ110から補正後の動画データおよびメタデータを受信し、表示制御部254により全天球動画の再生を開始する。 In step S301, the information terminal 150 causes the receiving unit 252 to receive the corrected moving image data and metadata from the omnidirectional camera 110, and causes the display control unit 254 to start reproducing the omnidirectional moving image.

なお、ここでは、説明の便宜上、動画再生の開始時点で、第1フレームデータおよび第2フレームデータの記録、画像合成によるフレーム合成データの生成、角速度データおよび加速度データの記録、天頂補正データ、第1回転補正データおよび第2回転補正データの計算およびフレーム合成データに対する天頂補正および回転補正が完了しているものとする。しかしながら、他の実施形態では、リアルタイム配信を行う場合などにおいて、第1フレームデータおよび第2フレームデータの記録、角速度データおよび加速度データの記録、画像合成によるフレーム合成データの生成、天頂補正データ、第1回転補正データおよび第2回転補正データの計算、フレーム合成データに対する天頂補正および回転補正を全天球カメラ110(一部を情報端末150で行う場合を含む。)で順次行いながら、図15に示す全天球動画再生処理を実行することもできる。またここでは、天頂補正データ、第1回転補正データおよび第2回転補正データがメタデータとして動画データに付属されているものとして説明する。 Here, for convenience of explanation, at the time of starting the reproduction of the moving image, recording of the first frame data and the second frame data, generation of frame combined data by image combination, recording of angular velocity data and acceleration data, zenith correction data, It is assumed that the calculation of the first rotation correction data and the second rotation correction data and the zenith correction and the rotation correction for the frame composite data have been completed. However, in another embodiment, when performing real-time distribution, etc., recording of the first frame data and the second frame data, recording of angular velocity data and acceleration data, generation of frame composite data by image composition, zenith correction data, FIG. 15 is shown while sequentially performing the calculation of the first rotation correction data and the second rotation correction data, the zenith correction and the rotation correction for the frame composite data by the omnidirectional camera 110 (including the case where a part is performed by the information terminal 150). It is also possible to execute the spherical video reproduction processing shown. In addition, here, it is assumed that the zenith correction data, the first rotation correction data, and the second rotation correction data are attached to the moving image data as metadata.

ステップS302では、情報端末150は、メタデータから、現在処理対象としているフレームの撮像時の撮影正面方向を示すデータを取得または算出する。上述したように動画データでは、第1回転補正データおよび第2回転補正データに基づいて回転補正が既に施されており、撮影開始時の撮影正面方向または進行方向などの特定方向に表示の基準が固定されている。第1回転補正データおよび第2回転補正データは、これらを合算することで打ち消された回転変化量を与えるものであり、特定方向と、補正対象フレームでの撮影正面方向との差分を与え、説明する実施形態では、各フレームでの撮影正面方向を示すデータとなる。なお、第2回転補正データがない場合は、第1回転補正データが打ち消された回転変化量を直接与えることになる。さらに、撮影正面方向を、重力方向に垂直な水平面内の方向だけでなく、重力方向に対する傾きを含めて求めるためには、天頂補正データを用いればよい。 In step S302, the information terminal 150 acquires or calculates, from the metadata, data indicating the shooting front direction at the time of shooting the frame currently being processed. As described above, in the moving image data, the rotation correction has already been performed based on the first rotation correction data and the second rotation correction data, and the display reference is set in a specific direction such as the shooting front direction or the traveling direction at the start of shooting. It is fixed. The first rotation correction data and the second rotation correction data give a rotation change amount canceled by adding them up, and give a difference between the specific direction and the shooting front direction in the correction target frame. In the embodiment, the data is data indicating the shooting front direction in each frame. If there is no second rotation correction data, the rotation change amount canceled by the first rotation correction data is directly given. Furthermore, the zenith correction data may be used in order to obtain the front direction of photographing not only in the direction within the horizontal plane perpendicular to the gravity direction but also in the inclination with respect to the gravity direction.

ステップS303では、情報端末150は、表示制御部254により、撮影正面方向の位置が所定範囲内にとどまっているか否かを判定する。ステップS303で、撮影正面方向の位置が所定範囲内にとどまっていないと判定された場合(NO)は、ステップS305で経過時間をリセットした上で、ステップS302へ処理がループされる。初回の場合は、ステップS303では、所定の範囲にとどまっていないと判定される。ステップS303で、撮影正面方向の位置が所定範囲内にとどまっていると判定された場合(YES)は、ステップS304へ処理が進められる。 In step S303, the display terminal 254 of the information terminal 150 determines whether or not the position in the shooting front direction is within the predetermined range. If it is determined in step S303 that the position in the shooting front direction is not within the predetermined range (NO), the elapsed time is reset in step S305, and then the process loops to step S302. In the case of the first time, it is determined in step S303 that it is not within the predetermined range. When it is determined in step S303 that the position in the shooting front direction remains within the predetermined range (YES), the process proceeds to step S304.

ステップS304では、情報端末150は、表示制御部254により、さらに、撮影正面方向の位置が所定範囲内にとどまった状態で所定時間経過したか否かを判定する。ステップS304で、所定時間経過していないと判定された場合(NO)は、ステップS302へ処理がループされる。一方、ステップS304で、所定時間経過したと判定された場合(YES)は、ステップS306へ処理が進められる。この場合、所定の条件が満たされたということになる。 In step S304, the information terminal 150 further determines, by the display control unit 254, whether or not a predetermined time has elapsed with the position in the shooting front direction remaining within the predetermined range. If it is determined in step S304 that the predetermined time has not elapsed (NO), the process loops to step S302. On the other hand, if it is determined in step S304 that the predetermined time has elapsed (YES), the process proceeds to step S306. In this case, it means that the predetermined condition is satisfied.

ステップS306では、情報端末150は、表示制御部254により、撮影正面方向を示すデータに基づいて、表示画面上に撮影正面方向を示す指示アイコンを表示する。特定の実施形態では、ステップS306で指示アイコンを表示するとともに、さらに、動画の再生を停止またはスロー再生してもよい。この処理により、よりリアルタイムで撮影者が注目していた場所を共有することが可能になる。 In step S306, the information terminal 150 causes the display control unit 254 to display an instruction icon indicating the shooting front direction on the display screen based on the data indicating the shooting front direction. In a specific embodiment, the instruction icon may be displayed in step S306, and further, the moving image may be stopped or slow-played. By this processing, it becomes possible to share the place where the photographer is paying attention in real time.

ステップS307では、情報端末150は、表示制御部254により、表示画面で表示している画像範囲の中心位置を取得する。ステップS308では、情報端末150は、表示制御部254により、指示アイコンの指し示す所定範囲内に中心位置が移動したか否かを判定する。ステップS308で、表示画面の中心位置が未だ所定範囲内に移動していないと判定された場合(NO)は、ステップS309へ処理を分岐する。ステップS309では、情報端末150は、表示制御部254により、さらに、指示アイコンを表示してからタイムアウトしたか否かを判定する。ステップS309で、タイムアウトしていないと判定された場合(NO)は、ステップS307へ処理をループさせる。 In step S307, the information terminal 150 uses the display control unit 254 to acquire the center position of the image range displayed on the display screen. In step S308, the display terminal 254 of the information terminal 150 determines whether or not the center position has moved within the predetermined range indicated by the instruction icon. If it is determined in step S308 that the center position of the display screen has not moved within the predetermined range (NO), the process branches to step S309. In step S309, the display terminal 254 of the information terminal 150 further determines whether or not a time-out has occurred after displaying the instruction icon. If it is determined in step S309 that the timeout has not occurred (NO), the process loops to step S307.

ステップS307~ステップS309のループ中、表示範囲変更指示受付部256は、表示画面内に含ませる画像範囲(仮想カメラの位置や方向)を変更する指示を受け付けている。ユーザによる表示する画像範囲を変更する指示は、例えば情報端末150がパーソナルコンピュータである場合は、マウスなどのドラッグなどの動作によって視聴領域を回転させることで行われる。情報端末150がスマートフォンやタブレット端末である場合は、タッチパネル上のフリックなどの動作によって視聴領域を回転させることで行われる。情報端末150がHMDである場合は、HMDを回転させる動作によって視聴領域を回転させることで行われる。表示範囲変更指示受付部256が指示を受け付けた結果、ステップS308で、表示画像の中心位置が既に所定範囲内に移動したと判定された場合(YES)は、ステップS310へ処理が分岐される。 During the loop of steps S307 to S309, the display range change instruction receiving unit 256 receives an instruction to change the image range (position and direction of the virtual camera) included in the display screen. When the information terminal 150 is a personal computer, for example, the user gives an instruction to change the image range to be displayed by rotating the viewing area by an operation such as dragging with a mouse. When the information terminal 150 is a smartphone or a tablet terminal, the viewing area is rotated by an operation such as a flick on the touch panel. When the information terminal 150 is an HMD, it is performed by rotating the viewing area by the operation of rotating the HMD. As a result of the display range change instruction receiving unit 256 receiving the instruction, if it is determined in step S308 that the center position of the display image has already moved within the predetermined range (YES), the process branches to step S310.

ステップS310では、情報端末150は、表示制御部254により、表示している指示アイコンを消去し、ステップS302へ処理をループさせる。一方、ステップS309で、タイムアウトしたと判定された場合(YES)も、ステップS310へ進められ、表示している指示アイコンが消去され、ステップS302へ処理がループされることになる。このとき、指示アイコンを表示するとともに動画の再生を停止またはスロー再生している場合は、動画の再生を開始または通常再生への変更を行ってもよい。なお、説明する実施形態では、指示アイコンが、所定の表示条件(例えば一定期間留まる)を満たしてから消去条件(例えば表示する画像範囲を撮影正面方向に移動させる)を満たすまで一つだけ表示されるものとして説明したが、所定の表示条件を満たしてから消去条件を満たすまでの間に、他の箇所で表示条件を満たしたことに応答して、複数の指示アイコンが結果的に表示されることを妨げるものではない。 In step S310, the information terminal 150 causes the display control unit 254 to delete the displayed instruction icon, and loops the processing to step S302. On the other hand, if it is determined in step S309 that the time-out has occurred (YES), the process proceeds to step S310, the displayed instruction icon is deleted, and the process loops to step S302. At this time, when the instruction icon is displayed and the reproduction of the moving image is stopped or slow-reproduced, the reproduction of the moving image may be started or changed to the normal reproduction. In the embodiment to be described, only one instruction icon is displayed until a predetermined display condition (for example, staying for a certain period of time) is satisfied and then a deletion condition (for example, the image range to be displayed is moved in the front direction of shooting) is satisfied. As described above, between the satisfaction of the predetermined display condition and the deletion condition, a plurality of instruction icons are displayed as a result in response to the satisfaction of the display condition at another place. It does not prevent things.

以下、図16および図17を参照しながら、アイコンの表示の仕方についてより詳細に説明する。図16は、本実施形態において、補正後の全天球動画およびそれに設定される画像範囲を、撮影者が頭部50に全天球カメラ110を装着して移動した場合の進行方向Tと撮影正面方向Hとの状態および各時点で撮像される補正前の全天球動画に関連付けて時系列的に示す図である。図16において、左側は、回転補正前の全天球画像300を示し、右側は、回転補正後の全天球画像310を示す。回転補正後の全天球画像310においては、そこに設定される画像範囲316やそこに付加される各種アイコン318,320も示されている。 Hereinafter, a method of displaying icons will be described in more detail with reference to FIGS. 16 and 17. FIG. 16 is an image of the corrected spherical moving image and the image range set in the corrected moving spherical direction T and the moving direction T when the photographer wears the spherical camera 110 on the head 50 and moves in this embodiment. It is a figure shown in time series linked|related with the state with frontal direction H, and the spherical image before correction image|photographed at each time. In FIG. 16, the left side shows the spherical image 300 before rotation correction, and the right side shows the spherical image 310 after rotation correction. In the spherical image 310 after the rotation correction, the image range 316 set therein and various icons 318 and 320 added thereto are also shown.

図16において、番号0は、特定方向(重力方向に垂直な水平面座標系において開始時の撮影正面方向または進行方向)とそのフレームでの撮影正面方向(同じく水平面座標系における)とが一致している状態を表している。撮影正面方向が白丸で表示されており、この白丸を中心アイコンと参照する。この場合、撮影正面方向を表す白丸は、全天球フォーマットの中央に位置し、全天球画像の中央に画像範囲316が設定される場合は、画像範囲316の中央に中心アイコンが表示されることになる。なお、中心アイコンは、白丸のほか、任意の画像、図形、記号または文字であってよい。 In FIG. 16, the number 0 indicates that the specific direction (the shooting front direction or the traveling direction at the start in the horizontal plane coordinate system perpendicular to the gravity direction) and the shooting front direction in the frame (also in the horizontal plane coordinate system) match. It shows the state of being. The shooting front direction is displayed as a white circle, and this white circle is referred to as a center icon. In this case, the white circle representing the shooting front direction is located at the center of the spherical image format, and when the image range 316 is set at the center of the spherical image, a center icon is displayed at the center of the image range 316. It will be. The center icon may be an arbitrary image, figure, symbol or character other than a white circle.

進行方向が変化しなければ、撮影者が視点を変えたとしても(首を動かして周囲を見た場合)、視聴者側の視点では特定方向は変化しないが、撮影正面方向は変化することになる。図16において、番号1〜4は、特定方向を変えず、撮影者の首振りにより各フレームでの撮影正面方向が変化した状態を表している。補正後の全天球画像310では、特定方向が「北」に固定されているため、画像に大きな変化が見られないが、補正前の全天球画像を参照すると明らかなように、全天球カメラ110の撮像時の撮影正面方向の変化に伴い、実際は大きく画像が変化している。図16において、番号1〜4では、この撮影正面方向の変化に応答して、番号0の場合と比較して白丸で示す中心アイコン318が左右に移動をしている様子が示されている。 If the direction of travel does not change, even if the photographer changes his/her viewpoint (when he/she moves his/her neck to look around), the specific direction does not change from the viewer's viewpoint, but the shooting front direction changes. Become. In FIG. 16, numbers 1 to 4 represent states in which the shooting front direction in each frame is changed by the photographer's swinging motion without changing the specific direction. In the corrected omnidirectional image 310, since the specific direction is fixed to "North", no large change is seen in the image, but as is apparent from the uncorrected omnidirectional image, the omnidirectional image is corrected. In reality, the image changes greatly due to the change in the shooting front direction when the ball camera 110 takes an image. In FIG. 16, numbers 1 to 4 show that the center icon 318 indicated by a white circle moves to the left and right in response to the change in the front direction of photographing, compared to the case of number 0.

一般的に、撮影者は注目している物体があるとき、その場所を数秒間にわたって見つめることが多い。番号5は、番号4で示す位置から撮影正面方向が所定期間変化しなかった状態を表す。番号5では、補正後の全天球画像310において、撮影正面方向を指し示す矢印である指示アイコン320が示されている。表示制御部254は、あるフレームから所定のフレーム間、あるフレームにおけるカメラの撮影正面方向が示す画素を中心とする所定領域内に撮影正面方向が示す画素が存在している場合に、撮影者がその場所に注目していると判断し、視聴者にそれを伝える指示アイコン320を表示させる。指示アイコン320をディスプレイ上に表示することで、撮影者が注目している方向を視聴者に伝えることが可能となる。 Generally, when a photographer has an object of interest, the photographer often looks at the place for several seconds. The number 5 represents a state in which the imaging front direction has not changed from the position indicated by the number 4 for a predetermined period. In number 5, in the corrected celestial sphere image 310, an instruction icon 320 that is an arrow pointing in the shooting front direction is shown. The display control unit 254 allows the photographer to determine whether a pixel indicated by the shooting front direction exists in a predetermined area centered on a pixel indicated by the shooting front direction of the camera in a certain frame from a certain frame to a predetermined frame. It is determined that the user is paying attention to the place, and the instruction icon 320 for notifying the viewer is displayed. By displaying the instruction icon 320 on the display, it is possible to notify the viewer of the direction in which the photographer is paying attention.

また、指示アイコン320は、ユーザによってディスプレイに表示する画像範囲316の中心が中心アイコン318の近くに移動されることで表示が消去されるように制御される。番号5’は、例えばドラッグ、タップおよびHMDの回転によって、画像範囲316の中心が中心アイコン318の近くにユーザによって移動された状態を表している。 Further, the instruction icon 320 is controlled so that the display is erased when the center of the image range 316 displayed on the display is moved to near the center icon 318 by the user. The number 5'represents a state in which the center of the image range 316 has been moved to the vicinity of the center icon 318 by the user by, for example, dragging, tapping, and rotating the HMD.

なお、図16に示す例では、所定条件が成立した場合の指示アイコン320に加えて中心アイコン318を常に表示するものとしているが、中心アイコン318は、必須のものではない。他の実施形態では、中心アイコン318を表示せずに、指示アイコン320のみ表示する態様であってもよい。また、他の実施形態では、中心アイコン318を常には表示せず、撮影正面方向が表示画面上に表示されており、且つ所定期間変化しなかった場合に、中心アイコン318を上記指示アイコンとして一時的に表示することとしてもよい。 In addition, in the example shown in FIG. 16, the center icon 318 is always displayed in addition to the instruction icon 320 when the predetermined condition is satisfied, but the center icon 318 is not essential. In another embodiment, it is possible to display only the instruction icon 320 without displaying the center icon 318. Further, in another embodiment, the center icon 318 is not always displayed, the front direction of shooting is displayed on the display screen, and if the center icon 318 does not change for a predetermined period, the center icon 318 is temporarily used as the instruction icon. It may be displayed as a message.

図17は、表示制御部254による指示アイコン320の表示方法について説明する図である。図17(A)および図17(B)において、格子は、座標を表している。図17(A)および図17(B)において、黒塗りされた座標は、撮影正面方向の位置350を示している。図17(A)は、撮影正面方向の位置350が所定期間変化せずに、指示アイコン320が表示された状態を示しており、星印で示す座標は、画面表示の中心点の座標354を表している。指示アイコン320は、星印で示す画面表示の中心点の座標354と撮影正面方向を示す座標350を結ぶ線上に撮影正面方向を示す位置の座標350の方向を示す矢印の形で表示される。 FIG. 17 is a diagram illustrating a method of displaying the instruction icon 320 by the display control unit 254. In FIGS. 17A and 17B, the grid represents coordinates. In FIG. 17A and FIG. 17B, the blackened coordinates indicate the position 350 in the shooting front direction. FIG. 17A shows a state in which the instruction icon 320 is displayed without changing the position 350 in the shooting front direction for a predetermined period, and the coordinates indicated by a star are the coordinates 354 of the center point of the screen display. It represents. The instruction icon 320 is displayed in the form of an arrow indicating the direction of the coordinate 350 at the position indicating the shooting front direction on the line connecting the coordinates 354 of the center point of the screen display indicated by the star and the coordinates 350 indicating the shooting front direction.

図17(B)は、表示画面の中心354’が、点線の星印で示す座標から実線の星印で示す座標に移動した場合の指示アイコン320’の表示のされ方を表している。指示アイコン320’は、画面表示の中心354が動くにつれ、移動後の画面表示の中心354’と撮影正面方向を示す位置350とを結ぶ線上に表示位置が更新される。なお、図17において、黒塗りされた撮影正面方向を示す座標350の周辺の灰色の領域352は、上述した指示アイコンを消去するための所定範囲を示す領域である。表示画面の中心354が灰色の領域352内に移動したことに応答して指示アイコン320’が消去される。なお、灰色で示す所定の領域352の大きさや形状は、任意に設定可能である。この他、上述したようにアイトラッキングが利用可能である場合には、視線データから視聴者の視線を読み取り、検出された注視点が示す座標が、灰色の領域352内に移動したことに応答して指示アイコン320の表示を消すという態様であってもよい。 FIG. 17B shows how the instruction icon 320' is displayed when the center 354' of the display screen moves from the coordinates shown by the dotted star to the coordinates shown by the solid star. As the center 354 of the screen display moves, the display position of the instruction icon 320' is updated on the line connecting the center 354' of the screen display after the movement and the position 350 indicating the front direction of shooting. Note that, in FIG. 17, a gray area 352 around the blacked coordinates 350 indicating the front direction of photographing is an area indicating a predetermined range for deleting the above-described instruction icon. In response to the center 354 of the display screen moving into the gray area 352, the indicator icon 320' is erased. The size and shape of the predetermined area 352 shown in gray can be arbitrarily set. In addition, as described above, when eye tracking is available, the viewer's line of sight is read from the line-of-sight data, and in response to the detected coordinates of the gazing point moving within the gray area 352, Alternatively, the display of the instruction icon 320 may be erased.

以上示したように、以上説明した実施形態によれば、動画における基準軸周りの回転によって生じる視聴者の酔いを抑えつつ、撮像時の所定方向を視聴者と共有することが可能な画像処理装置、撮像装置、動画再生システム、方法およびプログラムを提供することが可能となる。 As described above, according to the embodiments described above, an image processing apparatus capable of sharing a predetermined direction during image capturing with a viewer while suppressing motion sickness of the viewer caused by rotation around a reference axis in a moving image. It is possible to provide an imaging device, a moving image reproduction system, a method and a program.

特定の実施形態では、回転補正により、撮影者の進行方向に視聴時の表示の基準が固定されるので、視聴者の酔いを抑えることが可能となる。また、基準方向(開始時の方向又は進行方向)に表示の基準を固定している一方で、特定の条件下で指示アイコンが表示されることで、ユーザに対し動画の方向を回転させる動作を促し、ユーザ自身の操作や動作によって動画の表示する画像範囲を移動させるように構成されている。このため、視聴時の酔いを軽減しつつ撮影者が注目していた方向を視聴者が共有することが可能になる。 In a specific embodiment, the rotation correction fixes the display standard during viewing in the traveling direction of the photographer, and thus it is possible to suppress the motion sickness of the viewer. Also, while the display reference is fixed in the reference direction (starting direction or traveling direction), the operation of rotating the direction of the moving image for the user can be performed by displaying the instruction icon under specific conditions. It is configured to prompt and move the image range displayed by the moving image according to the user's own operation or action. Therefore, it is possible for the viewer to share the direction in which the photographer was paying attention while reducing motion sickness at the time of viewing.

なお、上述した実施形態では、アイコンとしては、撮影正面方向を示す指示アイコンおよび中心アイコンを例示した。さらに他の実施形態では、撮影正面方向を示す指示アイコンに代えて、進行方向を示す進行方向アイコンを表示することとしてもよい。これは、上述した特定方向として撮影開始時の撮影正面方向のみに表示の基準を固定し、進行方向に固定しない実施形態の場合に有効である。 It should be noted that in the above-described embodiment, as the icon, the instruction icon indicating the shooting front direction and the center icon are illustrated. In still another embodiment, a traveling direction icon indicating the traveling direction may be displayed instead of the instruction icon indicating the shooting front direction. This is effective in the case of the embodiment in which the display reference is fixed only in the front direction of shooting at the start of shooting as the specific direction and not fixed in the traveling direction.

なお、上述した実施形態では、撮影者の頭部50に全天球カメラ110が固定されるものとして説明した。本実施形態による回転補正機能は、このような場合に好適に適用できるが、適用のシーンは、特に限定されるものではなく、ユーザが手持ちで撮影し、注目領域に全天球カメラを向けるような場合にも適用可能であることは言うまでもない。 In addition, in the above-described embodiment, the spherical camera 110 is fixed to the head 50 of the photographer. The rotation correction function according to the present embodiment can be suitably applied in such a case, but the application scene is not particularly limited, and the user holds the image by hand and directs the spherical camera to the attention area. It goes without saying that it can be applied to any case.

また、上述した実施形態では、角速度センサ136Aおよび加速度センサ136Bを用いて第1回転補正データおよび第2回転補正データを算出するものとして説明した。しかしながら、他の実施形態では、角度変化量を算出する際に、地磁気センサを用いて第1回転補正データおよび第2回転補正データを算出してもよい。その場合は、地磁気センサの初期値を記憶し、地磁気センサの初期値と対象フレームにおける地磁気センサが示す方向との差分に基づいて水平面の座標系の回転角度を算出し、第1回転補正データおよび第2回転補正データを算出することができる。また、上述した説明では、フレーム合成データ、加速度データおよび角速度データが事前に保存されているものとして説明したが、本回転補正機能は、保存された動画データ以外にも、リアルタイムに配信される動画データのストリームに対しても適用可能である。 Moreover, in the above-described embodiment, the first rotation correction data and the second rotation correction data are calculated using the angular velocity sensor 136A and the acceleration sensor 136B. However, in other embodiments, the first rotation correction data and the second rotation correction data may be calculated using the geomagnetic sensor when calculating the angle change amount. In that case, the initial value of the geomagnetic sensor is stored, the rotation angle of the coordinate system of the horizontal plane is calculated based on the difference between the initial value of the geomagnetic sensor and the direction indicated by the geomagnetic sensor in the target frame, and the first rotation correction data and The second rotation correction data can be calculated. Further, in the above description, the frame synthesis data, the acceleration data, and the angular velocity data are described as being stored in advance. It can also be applied to a stream of data.

さらに、上述した実施形態では、座標系が2つの角度座標を含む球面座標系の動画に対して天頂補正を行うものとして説明した。しかしながら、実施形態によっては、天頂補正が必要なほどの重力方向の傾きが生じない場合があり、そのような場合に、天頂補正を省略することもできる。この場合、基準軸は、座標系が1つの角度座標を含む円筒座標系であれば、角度座標の軸としてよく、座標系が2つの角度座標を含む球面座標系であれば、二つの角度座標を与える軸としてよい。 Furthermore, in the above-described embodiment, the zenith correction is performed on the moving image of the spherical coordinate system whose coordinate system includes two angular coordinates. However, depending on the embodiment, there is a case in which the inclination in the direction of gravity that does not require the zenith correction does not occur, and in such a case, the zenith correction can be omitted. In this case, the reference axis may be an axis of the angular coordinate if the coordinate system is a cylindrical coordinate system including one angular coordinate, and two angular coordinates if the coordinate system is a spherical coordinate system including two angular coordinates. May be used as the axis for giving.

なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrated Circuits Hardware Description Language)、Verilog−HDLなどにより記述されたデータとして記録媒体により配布することができる。 The functional unit can be realized by a computer-executable program written in a legacy programming language such as assembler, C, C++, C#, Java (registered trademark), or an object-oriented programming language, and can be ROM, EEPROM, EPROM. , Flash memory, flexible disk, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disc, SD card, MO, or other device-readable recording medium, or through an electric communication line. It can be distributed. Further, a part or all of the above-mentioned functional units can be mounted on a programmable device (PD) such as a field programmable gate array (FPGA), or as an ASIC (application specific integration). Circuit configuration data (bit stream data) to be downloaded to the PD in order to realize the above functional unit on the PD, HDL (Hardware Description Language) for generating the circuit configuration data, and VHDL (Very High Speed Integrated Circuits). Hardware Description Language), Verilog-HDL, and the like can be distributed by a recording medium as data described.

これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the embodiments of the present invention have been described so far, the embodiments of the present invention are not limited to the above-described embodiments, and those skilled in the art can conceive of other embodiments, additions, changes, deletions, and the like. The present invention can be modified within the scope of the present invention, and is included in the scope of the present invention as long as the effects and advantages of the present invention are exhibited in any of the aspects.

12…撮像体、14…筐体、18…シャッター・ボタン、20…結像光学系、22,130…撮像素子、110…全天球カメラ、112,152…CPU、114…ROM、116…画像処理ブロック、118…動画圧縮ブロック、120,126…インタフェース、122…外部ストレージインタフェース、124…外部センサインタフェース、126…USBインタフェース、128…シリアルブロック、132…DRAM、134,160…外部ストレージ、136A…角速度センサ、136B…加速度センサ、138,166…USBコネクタ、150…情報端末、154…RAM、156…内部ストレージ、158…入力装置、162…ディスプレイ、164…無線NIC、200…機能ブロック、212…第1撮像部、214…第2撮像部、216…角速度検知部、218…加速度検知部、220…画像合成部、222…天頂補正量計算部、224…第1回転量計算部、226…第2回転量計算部、228…記憶部、230…画像回転部、240…出力部、242…指示受付部、252…受信部、254…表示制御部、256…表示範囲変更指示受付部、258…視線データ受信部 12... Imaging body, 14... Housing, 18... Shutter button, 20... Imaging optical system, 22, 130... Imaging element, 110... Spherical camera, 112, 152... CPU, 114... ROM, 116... Image Processing block, 118... Video compression block, 120, 126... Interface, 122... External storage interface, 124... External sensor interface, 126... USB interface, 128... Serial block, 132... DRAM, 134, 160... External storage, 136A... Angular velocity sensor 136B... Acceleration sensor, 138, 166... USB connector, 150... Information terminal, 154... RAM, 156... Internal storage, 158... Input device, 162... Display, 164... Wireless NIC, 200... Functional block, 212... First imaging unit, 214... Second imaging unit, 216... Angular velocity detection unit, 218... Acceleration detection unit, 220... Image combining unit, 222... Zenith correction amount calculation unit, 224... First rotation amount calculation unit, 226... 2 rotation amount calculation unit, 228... storage unit, 230... image rotation unit, 240... output unit, 242... instruction receiving unit, 252... receiving unit, 254... display control unit, 256... display range change instruction receiving unit, 258... Line-of-sight data receiver

特開2016−149752号公報JP, 2016-149752, A

Claims (16)

少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を処理する画像処理装置であって、前記動画は、画像が回転補正されたものであり、前記画像処理装置は、
前記動画の各フレームでの撮像時の所定方向を示すデータを取得するデータ取得手段と、
前記動画の少なくとも一部の画像範囲を含む画面を出力するよう制御する出力制御手段と
を含み、前記出力制御手段は、所定の条件が成立したことに応答して、前記データに基づいて、前記画面内に前記撮像時の所定方向を示す表現を付加するよう制御することを特徴とする、画像処理装置。
An image processing apparatus for processing a moving image including continuous images, which is represented by a coordinate system including at least angular coordinates around a predetermined axis, wherein the moving image is an image whose rotation is corrected. Is
Data acquisition means for acquiring data indicating a predetermined direction at the time of image capturing in each frame of the moving image,
Output control means for controlling to output a screen including at least a part of the image range of the moving image, wherein the output control means is responsive to a predetermined condition being satisfied, based on the data, An image processing apparatus, characterized in that control is performed so as to add an expression indicating a predetermined direction at the time of image pickup within a screen.
前記データは、前記動画に対応するセンサデータを含み、前記出力制御手段は、前記センサデータに基づいて、前記撮像時の所定方向が所定フレーム数以上にわたり留まっていることを条件として、前記所定の条件が成立したと判定する、請求項1に記載の画像処理装置。 The data includes sensor data corresponding to the moving image, and the output control unit determines, based on the sensor data, that the predetermined direction at the time of imaging remains for a predetermined number of frames or more. The image processing apparatus according to claim 1, wherein it is determined that the condition is satisfied. 前記データは、前記動画の撮影中に為された注目する方向を指示する指示情報を含み、前記出力制御手段は、フレームに前記指示情報が関連付けられることを条件として、前記所定の条件が成立したと判定する、請求項1または2に記載の画像処理装置。 The data includes instruction information for instructing a direction of interest made during the shooting of the moving image, and the output control unit satisfies the predetermined condition on condition that the instruction information is associated with a frame. The image processing apparatus according to claim 1, wherein the image processing apparatus determines. 前記画面内に含ませる前記画像範囲を変更する指示を受け付ける変更指示受付手段または前記画面内での視聴者の注視点を示す視線データを受信する受信手段
をさらに含み、前記出力制御手段は、前記画面内での前記画像範囲の中心または前記注視点が、前記画面内での前記撮像時の所定方向を示す座標を中心とした一定範囲に位置したことに応答して、前記撮像時の所定方向を示す前記表現を非表示または半透明に表示させるよう制御することを特徴とする、請求項1〜3のいずれか1項に記載の画像処理装置。
The output control means further includes: a change instruction receiving means for receiving an instruction to change the image range included in the screen or a receiving means for receiving line-of-sight data indicating a gazing point of the viewer on the screen. In response to the center of the image range or the gazing point on the screen being located within a certain range centered on the coordinate indicating the predetermined direction at the time of image capturing on the screen, the predetermined direction at the time of image capturing The image processing apparatus according to claim 1, wherein the image processing apparatus is controlled so as to be hidden or semi-transparently displayed.
前記出力制御手段は、前記撮像時の所定方向を示す前記表現を付加してからの所定期間、前記動画の再生を停止するか、または、スロー再生するように制御する、請求項1〜4のいずれか1項に記載の画像処理装置。 The output control means controls to stop the reproduction of the moving image or to perform the slow reproduction for a predetermined period after the expression indicating the predetermined direction at the time of the image capturing is added. The image processing apparatus according to any one of items. 前記撮像時の所定方向を示す前記表現は、前記画面内に含ませる前記画像範囲の中心座標から前記画面内での前記撮像時の所定方向の座標を指し示す画像、図形、記号または文字を含む、請求項1〜5のいずれか1項に記載の画像処理装置。 The expression indicating the predetermined direction at the time of imaging includes an image, a figure, a symbol, or a character indicating the coordinates of the predetermined direction at the time of imaging in the screen from the center coordinates of the image range included in the screen, The image processing apparatus according to claim 1. 前記動画は、該画像の元の所定軸を基準軸に略一致させる天頂補正および該画像の表示の基準を所定時点の撮影正面方向または所定時点の進行方向に固定するように前記基準軸周りの回転変化を打ち消す回転補正が施されたものであり、前記撮像時の所定方向は、各フレームの時点での撮影正面方向である、請求項1〜6のいずれか1項に記載の画像処理装置。 The moving image is set around the reference axis so that the zenith correction for making the original predetermined axis of the image substantially coincide with the reference axis and the display reference of the image are fixed in the shooting front direction at the predetermined time point or the traveling direction at the predetermined time point. The image processing apparatus according to any one of claims 1 to 6, wherein rotation correction is performed to cancel a rotation change, and the predetermined direction at the time of image capturing is a shooting front direction at a time point of each frame. .. 前記出力制御手段は、さらに、前記画面内で前記撮像時の所定方向を示す座標に配置した画像、図形、記号または文字および前記画面内で進行方向を示す画像、図形、記号または文字、またはこれらのいずれか一方を付加するように制御することを特徴とする、請求項1〜7のいずれか1項に記載の画像処理装置。 The output control means further includes an image, a figure, a symbol or a character arranged on the screen at a coordinate indicating a predetermined direction at the time of the image capturing, and an image, a figure, a symbol or a character indicating a traveling direction on the screen, or these. The image processing apparatus according to any one of claims 1 to 7, wherein the image processing apparatus is controlled so that any one of them is added. 少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を撮像する撮像装置であって、
動画の各フレームを撮像する撮像手段と、
前記動画の各フレームに関連付けて、前記動画の各フレームでの撮像時の所定方向を示すデータを記録する記録手段と、
前記動画に関し、画像の回転補正を施す回転補正手段と、
回転補正が施された動画とともに、再生時に前記動画の少なくとも一部の画像範囲を含む画面内で前記撮像時の所定方向を示す表現を付加させることを条件付ける情報を出力する出力手段と
を含む、撮像装置。
An imaging device for capturing a moving image including continuous images, which is represented by a coordinate system including at least angular coordinates around a predetermined axis,
Imaging means for imaging each frame of the moving image,
Recording means for recording data indicating a predetermined direction at the time of image capturing in each frame of the moving image in association with each frame of the moving image;
With respect to the moving image, rotation correction means for correcting the rotation of the image,
And an output unit that outputs, in addition to the rotation-corrected moving image, information that conditions addition of an expression indicating a predetermined direction at the time of image capturing within a screen including at least a part of the image range of the moving image. , Imaging device.
前記条件付ける情報は、前記撮像時の所定方向を示す前記データであり、前記データは、前記動画に対応するセンサデータを含み、前記撮像時の所定方向が所定フレーム数以上にわたり留まっていることを条件として、前記画面内に前記表現が付加されることを特徴とする、請求項9に記載の撮像装置。 The condition information is the data indicating a predetermined direction at the time of image capturing, the data includes sensor data corresponding to the moving image, and the predetermined direction at the time of image capturing is retained for a predetermined number of frames or more. The image pickup apparatus according to claim 9, wherein the expression is added to the screen as a condition. 前記動画の撮影中に、撮像時の所定方向を注目する方向とする指示を受け付ける注目指示受付手段をさらに含み、前記条件付ける情報は、該指示に応じた指示情報であり、フレームに前記指示情報が関連付けられることを条件として、前記画面内に前記表現が付加されることを特徴とする、請求項9または10に記載の撮像装置。 The apparatus further includes an attention instruction receiving unit that receives an instruction to set a predetermined direction at the time of image capturing while capturing the moving image, and the condition information is instruction information according to the instruction, and the frame includes the instruction information. 11. The image pickup apparatus according to claim 9, wherein the expression is added in the screen on the condition that is associated with. 少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を再生するための動画再生システムであって、
画像が回転補正された動画を取得する動画取得手段と、
前記動画の各フレームでの撮像時の所定方向を示すデータを取得するデータ取得手段と、
前記動画の少なくとも一部の画像範囲を含む画面を出力するよう制御する出力制御手段と
を含み、前記出力制御手段は、所定の条件が成立したことに応答して、前記データに基づいて、前記画面内に前記撮像時の所定方向を示す表現を付加するよう制御することを特徴とする、動画再生システム。
A moving image reproducing system for reproducing a moving image including continuous images, which is represented by a coordinate system including at least angular coordinates around a predetermined axis,
A video acquisition unit that acquires a video whose image has been rotation corrected,
Data acquisition means for acquiring data indicating a predetermined direction at the time of image capturing in each frame of the moving image,
Output control means for controlling to output a screen including at least a part of the image range of the moving image, wherein the output control means is responsive to a predetermined condition being satisfied, based on the data, A moving image reproducing system, characterized in that control is performed so as to add an expression indicating a predetermined direction at the time of image capturing within a screen.
動画の各フレームを撮像する撮像手段と、
前記動画の各フレームに対し、画像の回転補正を施す回転補正手段と
前記撮像手段とともに備えられたセンサから出力されるデータまたは該データから計算される補正データを、前記動画の各フレームに関連付けて記録する記録手段と、
をさらに含む、請求項12に記載の動画再生システム。
Imaging means for imaging each frame of the moving image,
For each frame of the moving image, a rotation correction unit that performs image rotation correction and data output from a sensor provided together with the image pickup unit or correction data calculated from the data is associated with each frame of the moving image. Recording means for recording,
The video playback system according to claim 12, further comprising:
前記動画の撮影中に、撮像時の所定方向を注目する方向とする指示を受け付け、前記データとして記録する注目指示受付手段をさらに含み、前記出力制御手段は、フレームに前記指示情報が関連付けられることを条件として、前記所定の条件が成立したと判定する、請求項12または13に記載の動画再生システム。 During the shooting of the moving image, further includes an attention instruction receiving unit that receives an instruction to set a predetermined direction at the time of image capturing as an attention direction and records the instruction as the data, wherein the output control unit associates the instruction information with a frame. 14. The moving image reproduction system according to claim 12, wherein the predetermined condition is determined to be satisfied under the condition. 少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を処理するための方法であって、前記動画は、画像が回転補正されたものであり、前記方法は、コンピュータが、
前記動画の各フレームでの撮像時の所定方向を示すデータを取得するステップと、
前記動画の少なくとも一部の画像範囲を含む画面を出力するよう制御するステップとを実行し、前記制御するステップでは、前記コンピュータが、
所定の条件が成立したことに応答して、前記データに基づいて、前記画面内に前記撮像時の所定方向を示す表現を付加するよう制御するステップを含む、方法。
A method for processing a moving image including continuous images, which is represented by a coordinate system including at least angular coordinates around a predetermined axis, wherein the moving image is a rotation-corrected image. Computer
Acquiring data indicating a predetermined direction at the time of imaging in each frame of the moving image,
And a step of controlling to output a screen including at least a part of the image range of the moving image, and in the controlling step, the computer,
A method comprising controlling to add an expression indicating a predetermined direction at the time of image capturing in the screen based on the data, in response to a predetermined condition being satisfied.
少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を処理する画像処理装置を実現するためのプログラムであって、前記動画は、画像が回転補正されたものであり、前記プログラムは、コンピュータを、
前記動画の各フレームでの撮像時の所定方向を示すデータを取得するデータ取得手段、および
前記動画の少なくとも一部の画像範囲を含む画面を出力するよう制御する出力制御手段として機能させるためのプログラムであり、前記出力制御手段は、所定の条件が成立したことに応答して、前記データに基づいて、前記画面内に前記撮像時の所定方向を示す表現を付加するよう制御することを特徴とする、プログラム。
A program for realizing an image processing device for processing a moving image including continuous images, which is represented by a coordinate system including at least angular coordinates about a predetermined axis, wherein the moving image is a rotation-corrected image. Yes, the program is a computer,
A program for functioning as a data acquisition unit that acquires data indicating a predetermined direction at the time of imaging in each frame of the moving image, and an output control unit that controls to output a screen including at least a part of the image range of the moving image. The output control means controls in response to the satisfaction of a predetermined condition, based on the data, to add an expression indicating the predetermined direction at the time of image capturing in the screen. Yes, the program.
JP2019188738A 2018-11-30 2019-10-15 Image processing device, imaging device, video playback system, method and program Active JP7434797B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018225879 2018-11-30
JP2018225879 2018-11-30

Publications (2)

Publication Number Publication Date
JP2020096350A true JP2020096350A (en) 2020-06-18
JP7434797B2 JP7434797B2 (en) 2024-02-21

Family

ID=71086278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019188738A Active JP7434797B2 (en) 2018-11-30 2019-10-15 Image processing device, imaging device, video playback system, method and program

Country Status (1)

Country Link
JP (1) JP7434797B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043225A (en) 2005-07-29 2007-02-15 Univ Of Electro-Communications Picked-up processing apparatus and picked-up processing method
US20090040308A1 (en) 2007-01-15 2009-02-12 Igor Temovskiy Image orientation correction method and system
JP2011205574A (en) 2010-03-26 2011-10-13 Sony Corp Control device, camera system, and program
JP6398472B2 (en) 2014-08-27 2018-10-03 株式会社リコー Image display system, image display apparatus, image display method, and program
JP5920507B1 (en) 2015-03-10 2016-05-18 株式会社リコー Image processing system, image processing method, and program
JP6741498B2 (en) 2016-07-01 2020-08-19 マクセル株式会社 Imaging device, display device, and imaging display system
US10182222B2 (en) 2017-05-12 2019-01-15 Garmin Switzerland Gmbh Graphical object overlays for 360 degree cameras

Also Published As

Publication number Publication date
JP7434797B2 (en) 2024-02-21

Similar Documents

Publication Publication Date Title
JP6927382B2 (en) Imaging systems, methods, programs, video display devices and image processing devices.
JP5920507B1 (en) Image processing system, image processing method, and program
WO2018051815A1 (en) Information processing apparatus and method and program
JP5846549B1 (en) Image processing system, image processing method, program, imaging system, image generation apparatus, image generation method and program
KR101888470B1 (en) Imaging system, imaging apparatus, computer program, and system
US10404915B1 (en) Method and system for panoramic video image stabilization
KR20180073327A (en) Display control method, storage medium and electronic device for displaying image
JP7192592B2 (en) Imaging device, image communication system, image processing method, program
JP2018129716A (en) Image processing device, image processing system, image processing metho, and program
JP7135299B2 (en) Image processing device, display device, image processing method, program
US11902660B2 (en) Image processing device, image processing method, and program
JP7031280B2 (en) Image processing equipment, image processing systems and programs
US11128814B2 (en) Image processing apparatus, image capturing apparatus, video reproducing system, method and program
JP2020096349A (en) Image processing device, imaging device, moving image reproduction system, method, and program
JP6256513B2 (en) Imaging system, imaging apparatus, method, and program
JP7383911B2 (en) Imaging system, image processing device, imaging device and program
JP2018037786A (en) Imaging apparatus, method and program
JP7434797B2 (en) Image processing device, imaging device, video playback system, method and program
JP2020204874A (en) Image processing system, imaging system, image processing apparatus, imaging apparatus and program
JP2020174363A (en) Photographing system, method, and program
JP7206797B2 (en) Imaging device, information processing device, correction value calculation method and program
CN112887663A (en) Image display method, image communication system, image capturing apparatus, and storage medium
JP2020136850A (en) Imaging apparatus, imaging method, program, and imaging system
JP7358938B2 (en) Communication terminal, image communication system, display method, and program
JP2020078065A (en) Imaging apparatus, information processing apparatus, correction amount setting method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211227

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R151 Written notification of patent or utility model registration

Ref document number: 7434797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151