JP2020096349A - Image processing device, imaging device, moving image reproduction system, method, and program - Google Patents

Image processing device, imaging device, moving image reproduction system, method, and program Download PDF

Info

Publication number
JP2020096349A
JP2020096349A JP2019188616A JP2019188616A JP2020096349A JP 2020096349 A JP2020096349 A JP 2020096349A JP 2019188616 A JP2019188616 A JP 2019188616A JP 2019188616 A JP2019188616 A JP 2019188616A JP 2020096349 A JP2020096349 A JP 2020096349A
Authority
JP
Japan
Prior art keywords
image
data
moving image
rotation
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019188616A
Other languages
Japanese (ja)
Other versions
JP7487464B2 (en
Inventor
達 山来
Tatsu Yamaki
達 山来
弘憲 入江
Hironori Irie
弘憲 入江
小崎 由紀夫
Yukio Ozaki
由紀夫 小崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vecnos Inc
Original Assignee
Vecnos Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vecnos Inc filed Critical Vecnos Inc
Priority to US16/699,428 priority Critical patent/US11128814B2/en
Priority to CN201911203949.0A priority patent/CN111263037B/en
Publication of JP2020096349A publication Critical patent/JP2020096349A/en
Application granted granted Critical
Publication of JP7487464B2 publication Critical patent/JP7487464B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Abstract

To provide an image processing device.SOLUTION: An image processing device 110 processes a moving image including continuous images represented by a coordinate system including at least angular coordinates around a predetermined axis. The image processing device 110 includes: moving image data acquisition means (212, 214, and 220) for acquiring moving image data; sensor data acquisition means (216, 218, 224, and 226) for acquiring sensor data corresponding to the moving image data; and rotation correction means 230 for correcting the image so as to cancel a rotational change around a reference axis so that the reference for displaying the image is fixed in a specific direction during photographing over a plurality of frames of the moving image based on the sensor data.SELECTED DRAWING: Figure 4

Description

本開示は、画像処理装置、撮像装置、動画再生システム、方法およびプログラムに関する。 The present disclosure relates to an image processing device, an imaging device, a moving image reproduction system, a method, and a program.

近年、撮影地点の全方位を動画撮影できる全天球カメラが普及している。このような全天球カメラでは、固定した状態で撮像するほか、ユーザが手持ちで移動しながら動画を撮像する場合が想定される。その際に、全天球カメラの手振れや傾きを補正して、ぶれの少ない動画にする補正技術も知られている。 2. Description of the Related Art In recent years, spherical cameras capable of shooting moving images of all directions at a shooting location have become popular. With such a omnidirectional camera, it is assumed that the user takes an image in a fixed state, or takes a moving image while the user holds it while moving. At that time, there is also known a correction technique that corrects camera shake and tilt of the omnidirectional camera to create a moving image with less blur.

全天球カメラによって撮影された全天球動画には、通常、視聴者が全天球動画を視聴する際の初期の正面方向がある。一般的には、視聴する際の正面方向は、全天球カメラで撮影したときの全天球カメラの正面方向(例えば、二眼ある場合の一方のレンズの正面方向など)に追随する。しかしながら、視聴する際の正面方向が撮像時の全天球カメラの動きに追随する場合、撮影者の撮影条件に依って表示される映像が大きく変化し、視聴時に視聴者に酔いを生じさせる虞がある。 The spherical video captured by the spherical camera usually has an initial frontal direction when a viewer views the spherical video. In general, the frontal direction during viewing follows the frontal direction of the omnidirectional camera when the omnidirectional camera photographs (for example, the frontal direction of one lens in the case of two eyes). However, when the front direction during viewing follows the movement of the omnidirectional camera at the time of image capturing, the video displayed may change significantly depending on the shooting conditions of the photographer, which may cause the viewer to get drunk. There is.

例えば撮影者が全天球カメラを頭部に固定して撮影を行う場合、視聴時の正面方向が撮像時の全天球カメラの動きに追随してしまうと、撮影者が首を振って周囲を見渡せば全天球動画が大きく回転し、視聴者に酔いを生じさせる要因となる。さらに、全天球動画が大きく回転することが、動画自体を非常に見難いものとしてしまう虞もある。また、全天球カメラを頭部に固定して撮影する場合の他、手持ちであっても、撮影中正面方向が大きく変化する場合は同様である。 For example, when the photographer fixes the omnidirectional camera to his head and shoots, if the front direction during viewing follows the movement of the omnidirectional camera during imaging, the photographer shakes his or her head and the surroundings If you look around, the celestial sphere video will rotate significantly, causing viewers to get motion sick. Further, a large rotation of the spherical video may make the video itself very difficult to see. The same applies to the case where the omnidirectional camera is fixed to the head for photographing, and the case where the front direction changes greatly during photographing even if the user holds the camera.

特開2017−147682号公報(特許文献1)は、画像データについて、グローバル座標における水平面内での揺れは微小揺れ成分を除いた補正による座標変換を行って全天球画像を生成する構成を開示する。しかしながら、鉛直方向軸周りの回転について揺れの高周波成分が補正されるものの、撮影者が首を振って周囲を見渡すというような意図的な動作には追従してしまうため、視聴時に視聴者に酔いを生じさせてしまう点では充分なものではなかった。 Japanese Unexamined Patent Application Publication No. 2017-147682 (Patent Document 1) discloses a configuration in which, for image data, a shake in a horizontal plane in global coordinates is subjected to coordinate conversion by correction excluding a minute shake component to generate a spherical image. To do. However, although the high-frequency component of the shake is corrected for the rotation around the vertical axis, it follows the intentional action of the photographer shaking his head and looking around, so the viewer is sick at the time of viewing. It was not enough in terms of causing.

本開示は、上記点に鑑みてなされたものであり、本開示は、動画の視聴時における撮影中の基準軸周りの回転によって生じる視聴者の酔いを抑えることができる画像処理装置を提供することを目的とする。 The present disclosure has been made in view of the above points, and the present disclosure provides an image processing device that can suppress motion sickness of a viewer caused by rotation around a reference axis during shooting when viewing a moving image. With the goal.

本開示では、上記課題に対応するべく、下記特徴を有する、少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を処理する画像処理装置を提供する。本画像処理装置は、動画データを取得する動画データ取得手段と、動画データに対応するセンサデータを取得するセンサデータ取得手段とを含む。本画像処理装置は、さらに、センサデータに基づいて、動画の複数のフレームにわたり画像の表示の基準が撮影中の特定方向に固定されるように、基準軸周りの回転変化を打ち消す補正を画像に施す回転補正手段を含む。 In order to address the above problems, the present disclosure provides an image processing device having the following features, which processes a moving image including continuous images, which is represented by a coordinate system including at least angular coordinates around a predetermined axis. The image processing apparatus includes a moving image data acquisition unit that acquires moving image data and a sensor data acquisition unit that acquires sensor data corresponding to the moving image data. The image processing apparatus further corrects the image based on the sensor data by canceling the rotation change around the reference axis so that the reference of the image display is fixed in a specific direction during shooting over a plurality of frames of the moving image. It includes rotation correction means for performing the rotation correction.

上記構成により、動画の視聴時における撮影中の基準軸周りの回転によって生じる視聴者の酔いを抑えることができる。 With the above configuration, it is possible to suppress the motion sickness of the viewer caused by the rotation around the reference axis during shooting when watching a moving image.

本実施形態による全天球動画システムを構成する全天球カメラの断面図。Sectional drawing of the spherical camera which comprises the spherical video system by this embodiment. 本実施形態による全天球カメラを頭部に固定する場合を説明する図。The figure explaining the case where the spherical camera by this embodiment is fixed to a head. 本実施形態による全天球動画システムのハードウェア構成図。The hardware block diagram of the spherical video system by this embodiment. 本実施形態による全天球動画システム上に実現される全天球動画再生機能に関連する主要な機能ブロック図。FIG. 3 is a main functional block diagram related to a spherical video playback function realized on the spherical video system according to the present embodiment. (A)全天球画像の生成における画像データフロー図、および、全天球画像のデータ構造を(B)平面で表した場合および(C)球面で表した場合について説明する図。(A) An image data flow diagram in the generation of a spherical image, and a diagram illustrating a case where the data structure of the spherical image is represented by a plane (B) and a case (C) represented by a spherical surface. 本実施形態による全天球画像の天頂補正および回転補正について説明する図。The figure explaining zenith correction and rotation correction of the omnidirectional image by this embodiment. 本実施形態による全天球画像の天頂補正および回転補正によって得られる全天球画像を説明する図。The figure explaining the omnidirectional image obtained by the zenith correction and rotation correction of the omnidirectional image according to this embodiment. 特定の実施形態による全天球動画システムにおける動画の撮影から視聴するまでの処理を説明するシーケンス図。FIG. 6 is a sequence diagram illustrating processing from shooting to viewing of a moving image in the spherical video system according to a specific embodiment. 他の特定の実施形態による全天球動画システムにおける動画の撮影から視聴するまでの処理を説明するシーケンス図。FIG. 11 is a sequence diagram illustrating processing from shooting to viewing of a moving image in the spherical video system according to another specific embodiment. 本実施形態による全天球動画システムを構成する全天球カメラが実行するフレーム合成データに対する回転処理を示すフローチャート。6 is a flowchart showing a rotation process for frame composite data executed by the omnidirectional camera which constitutes the omnidirectional video system according to the present embodiment. 撮影者が頭部に全天球カメラを装着して移動した場合の進行方向と撮影正面方向の関係を、一例をもって説明する図。The figure explaining the relationship between the advancing direction and the front direction of photography when a photographer wears and moves the omnidirectional camera on his head. 撮影者が図11に示す動作をした場合の撮影された回転補正前の全天球画像および回転補正後の全天球画像を説明する図(1/2)。FIG. 12 is a diagram (1/2) illustrating a captured spherical image before rotation correction and a captured spherical image after rotation correction when the photographer performs the operation shown in FIG. 11. 撮影者が図11に示す動作をした場合の撮影された回転補正前の全天球画像および回転補正後の全天球画像を説明する図(2/2)。FIG. 12 is a diagram (2/2) illustrating a captured spherical image before rotation correction and a captured spherical image when the photographer performs the operation shown in FIG. 11. 他の実施形態による全天球動画システムを構成する全天球カメラが実行する、フレーム合成データに対する回転処理を示すフローチャート。9 is a flowchart showing a rotation process for frame composite data, which is executed by a omnidirectional camera that constitutes an omnidirectional video system according to another embodiment.

以下、本実施形態について説明するが、実施形態は、以下に説明する実施形態に限定されるものではない。なお、以下の実施形態では、画像処理装置(および撮像装置)および動画再生システムの一例として、それぞれ、全天球カメラおよび全天球動画システムを用いて説明する。 Hereinafter, the present embodiment will be described, but the embodiment is not limited to the embodiment described below. In the following embodiments, a spherical camera and a spherical moving image system will be described as examples of an image processing device (and an imaging device) and a moving image reproducing system, respectively.

以下、図1〜図3を参照しながら、本実施形態による全天球動画システムの全体構成について説明する。 Hereinafter, the overall configuration of the celestial sphere moving image system according to the present embodiment will be described with reference to FIGS. 1 to 3.

図1は、本実施形態による全天球動画システムを構成する全天球カメラ110の断面図である。図1に示す全天球カメラ110は、撮像体12と、上記撮像体12、コントローラ15およびバッテリ16などの部品を保持する筐体14と、上記筐体14に設けられたシャッター・ボタン18とを備える。 FIG. 1 is a cross-sectional view of a celestial sphere camera 110 that constitutes the celestial sphere video system according to the present embodiment. An omnidirectional camera 110 shown in FIG. 1 includes an image pickup body 12, a casing 14 that holds the image pickup body 12, components such as a controller 15 and a battery 16, and a shutter button 18 provided in the casing 14. Equipped with.

図1に示す撮像体12は、2つの結像光学系20A,20Bと、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの2つの撮像素子22A,22Bとを含み構成される。結像光学系20各々は、例えば6群7枚の魚眼レンズとして構成されている。上記魚眼レンズは、図1に示す実施形態では、180度(=360度/n;光学系の数n=2)より大きい全画角を有し、好適には、185度以上の画角を有し、より好適には、190度以上の画角を有する。このような広角な結像光学系20と撮像素子22とを1個ずつ組み合わせたものを広角撮像光学系と参照する。なお、説明する実施形態では、光学系の数が2である場合を一例として説明するが、広角な領域を撮影可能なものであれば、光学系の数は、1であってもよいし、3以上であってもよい。また、魚眼レンズのような180度以上の画角を持つものに限られるものではない。 The imaging body 12 shown in FIG. 1 includes two imaging optical systems 20A and 20B, and two imaging elements 22A and 22B such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor. It Each of the image forming optical systems 20 is configured as, for example, a fisheye lens with 7 elements in 6 groups. In the embodiment shown in FIG. 1, the fish-eye lens has a total angle of view larger than 180 degrees (=360 degrees/n; the number of optical systems n=2), and preferably has a field angle of 185 degrees or more. However, more preferably, the angle of view is 190 degrees or more. Such a combination of the wide-angle imaging optical system 20 and the image pickup device 22 is referred to as a wide-angle image pickup optical system. In the embodiment to be described, the case where the number of optical systems is 2 will be described as an example, but the number of optical systems may be 1 as long as it is possible to capture a wide-angle region. It may be 3 or more. Further, it is not limited to a fisheye lens having an angle of view of 180 degrees or more.

図1に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。撮像素子22A,22Bは、受光した光分布を画像信号に変換し、コントローラ上の画像処理手段に順次、画像フレームを出力する。詳細は後述するが、撮像素子22A,22Bでそれぞれ撮像された画像は、合成処理されて、これにより、立体角4πステラジアンの画像(以下「全天球画像」と参照する。)が生成される。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。そして、全天球画像の連続するフレームにより、全天球動画が構成される。 In the embodiment shown in FIG. 1, the image forming optical systems 20A and 20B have the same specifications, and they are combined in opposite directions so that their optical axes coincide with each other. The image pickup devices 22A and 22B convert the received light distribution into image signals and sequentially output image frames to the image processing means on the controller. As will be described in detail later, the images respectively captured by the image pickup devices 22A and 22B are combined to generate an image with a solid angle of 4π steradians (hereinafter referred to as a “spheroidal image”). .. The celestial sphere image is a photograph of all directions that can be viewed from the photographing point. Then, a spherical moving image is composed of continuous frames of the spherical image.

ここで、説明する実施形態では、全天球画像および全天球動画を生成するものとして説明するが、全天周画像や全天周動画、水平面のみ360度を撮影した、いわゆるパノラマ画像およびパノラマ動画であってもよいし、その他、180度の画角を撮影した半球の画像または半円筒の画像であってもよく、球面または円筒上の画像情報を持つ画像データであればよい。すなわち、本実施形態による動画およびそれに含まれる画像は、所定軸周りの角度座標を含む座標系で表される画像である。上記全天球画像・動画、半球画像・動画、部分的な球面の画像の場合は、動径を定数(例えば1)として、所定軸と動径とがなす角を表す角度座標および所定軸周りの角度座標を含む球面座標系で表される。上記パノラマ画像・動画またはその部分画像の場合は、動径を定数(例えば1)として、円筒の軸方向の座標および該軸周りの角度座標を含む円筒座標系で表される。 Here, in the embodiment to be described, it is assumed that a omnidirectional image and a omnidirectional moving image are generated. However, a omnidirectional image and a omnidirectional moving image, a so-called panoramic image and panorama obtained by photographing only 360 degrees in a horizontal plane It may be a moving image, or may be a hemispherical image or a semi-cylindrical image captured at an angle of view of 180 degrees, and may be image data having image information on a spherical surface or a cylinder. That is, the moving image and the image included in the moving image according to the present embodiment are images represented by a coordinate system including angular coordinates around a predetermined axis. In the case of the above-mentioned spherical image/moving image, hemispherical image/moving image, and partial spherical image, the radius vector is set as a constant (for example, 1), and the angular coordinate representing the angle between the predetermined axis and the radius vector and the predetermined axis It is represented by a spherical coordinate system that includes the angular coordinates of. In the case of the panoramic image/moving image or its partial image, the radius vector is represented by a cylindrical coordinate system including the coordinate in the axial direction of the cylinder and the angular coordinate around the axis, with the radius vector being a constant (for example, 1).

図2は、図1の全天球カメラ110を撮影者の頭部50に固定する場合を説明する。図2は、帽子型の固定器具52に、全天球カメラ110を固定している例である。このように撮影者の頭部50に全天球カメラ110を装着することで、全天球カメラ110によって撮像される画像データの撮影正面方向は、撮影者の首振り運動Hに追従する形となる。撮影正面方向はあらかじめ設定されている方向であって、動画データを再生する際に表示される基準となる方向である。図2には、撮影者の進行方向Tも併せて示してある。撮影者は、辺りを見渡しながら進む場合があり、首振り運動Hによる撮影正面方向と、進行方向Tとは必ずしも一致しない。図2に示すように全天球カメラ110を帽子型の固定器具52に固定して、頭部50に装着する以外にも、全天球カメラ110自体が頭部50に装着可能な形状のもの(全天球カメラの機能が埋め込まれたヘルメットや帽子)である場合もある。 FIG. 2 illustrates a case where the omnidirectional camera 110 of FIG. 1 is fixed to the photographer's head 50. FIG. 2 is an example in which the omnidirectional camera 110 is fixed to the hat-type fixing device 52. By mounting the omnidirectional camera 110 on the photographer's head 50 in this way, the image capturing front direction of the image data imaged by the celestial sphere camera 110 follows the photographer's swinging motion H. Become. The shooting front direction is a preset direction and is a reference direction displayed when playing back moving image data. FIG. 2 also shows the moving direction T of the photographer. The photographer may proceed while looking around the area, and the front direction of photographing by the swinging motion H and the traveling direction T do not necessarily match. As shown in FIG. 2, in addition to fixing the omnidirectional camera 110 to the hat-type fixing device 52 and attaching it to the head 50, the omnidirectional camera 110 itself can be attached to the head 50. It may be (helmet or hat with embedded spherical camera function).

図3(A)は、本実施形態による全天球動画システムを構成する全天球カメラ110のハードウェア構成を示す。全天球カメラ110は、説明する実施形態における画像処理装置または撮像装置に対応する。 FIG. 3A shows a hardware configuration of the omnidirectional camera 110 that constitutes the omnidirectional video system according to the present embodiment. The omnidirectional camera 110 corresponds to the image processing device or the imaging device in the embodiments described.

全天球カメラ110は、CPU(Central Processing Unit)112と、ROM(Read Only Memory)114と、画像処理ブロック116と、動画圧縮ブロック118と、DRAM(Dynamic Random Access Memory)インタフェース120を介して接続されるDRAM132と、外部センサインタフェース124を介して接続されるセンサ136とを含み構成される。ここで、CPU112、ROM114、画像処理ブロック116および動画圧縮ブロック118は、図1に示したコントローラ15上に搭載される。 The spherical camera 110 is connected via a CPU (Central Processing Unit) 112, a ROM (Read Only Memory) 114, an image processing block 116, a moving image compression block 118, and a DRAM (Dynamic Random Access Memory) interface 120. The DRAM 132 and the sensor 136 connected via the external sensor interface 124 are included. Here, the CPU 112, the ROM 114, the image processing block 116, and the moving image compression block 118 are mounted on the controller 15 shown in FIG.

CPU112は、全天球カメラ110の各部の動作および全体動作を制御する。ROM114は、CPU112が解読可能なコードで記述された、オペレーティング・システム(OS)や制御プログラムや各種パラメータを格納する。画像処理ブロック116は、2つの撮像素子130A,130B(図1における撮像素子22A,22Bである。)と接続され、それぞれで撮像された画像の画像信号が入力される。画像処理ブロック116は、ISP(Image Signal Processor)などを含み構成され、撮像素子130から入力された画像信号に対し、シェーディング補正、ベイヤー補間、ホワイト・バランス補正、ガンマ補正などを行う。 The CPU 112 controls the operation and overall operation of each unit of the spherical camera 110. The ROM 114 stores an operating system (OS), a control program, and various parameters described in a code that can be read by the CPU 112. The image processing block 116 is connected to the two image pickup devices 130A and 130B (the image pickup devices 22A and 22B in FIG. 1), and the image signals of the images picked up by the respective image pickup blocks 130A and 130B are input. The image processing block 116 is configured to include an ISP (Image Signal Processor) and the like, and performs shading correction, Bayer interpolation, white balance correction, gamma correction, and the like on the image signal input from the image sensor 130.

動画圧縮ブロック118は、MPEG−4 AVC/H.264などの動画圧縮および伸張を行うコーデック・ブロックである。DRAM132は、各種信号処理および画像処理を施す際にデータを一時的に保存する記憶領域を提供する。 The moving picture compression block 118 is an MPEG-4 AVC/H. It is a codec block that performs video compression and decompression such as H.264. The DRAM 132 provides a storage area for temporarily storing data when performing various kinds of signal processing and image processing.

センサ136は、図3(A)に示す実施形態では、角速度センサ136Aおよび加速度センサ136Bを含み構成される。角速度センサ136Aは、3軸の角速度成分を検出するセンサである。加速度センサ136Bは、3軸の加速度成分を検出するセンサである。検出された加速度成分および角速度成分は、後述するように、重力方向への全天球画像の天頂補正および重力方向周りの回転補正を施すために用いられる。センサ136としては、さらに、方位角などを求めるための地磁気センサ(電子コンパスともいう。)など他のセンサを備えてもよく、方位角を重力方向周りの回転補正を施すために用いてもよい。 In the embodiment shown in FIG. 3A, the sensor 136 includes an angular velocity sensor 136A and an acceleration sensor 136B. The angular velocity sensor 136A is a sensor that detects triaxial angular velocity components. The acceleration sensor 136B is a sensor that detects triaxial acceleration components. The detected acceleration component and angular velocity component are used to perform zenith correction of the omnidirectional image in the direction of gravity and rotation correction around the direction of gravity, as will be described later. As the sensor 136, another sensor such as a geomagnetic sensor (also referred to as an electronic compass) for obtaining an azimuth angle or the like may be further provided, and the azimuth angle may be used for correcting the rotation around the gravity direction. ..

全天球カメラ110は、さらに、外部ストレージインタフェース122と、USB(Universal Serial Bus)インタフェース126と、シリアルブロック128とを含み構成される。外部ストレージインタフェース122には、外部ストレージ134が接続される。外部ストレージインタフェース122は、メモリカードスロットに挿入されたメモリカードなどの外部ストレージ134に対する読み書きを制御する。USBインタフェース126には、USBコネクタ138が接続される。USBインタフェース126は、USBコネクタ138を介して接続されるスマートフォンなどの外部装置とのUSB通信を制御する。シリアルブロック128は、スマートフォンなどの外部装置とのシリアル通信を制御し、無線NIC(Network Interface Card)140が接続される。 The spherical camera 110 further includes an external storage interface 122, a USB (Universal Serial Bus) interface 126, and a serial block 128. An external storage 134 is connected to the external storage interface 122. The external storage interface 122 controls reading and writing with respect to the external storage 134 such as a memory card inserted in the memory card slot. A USB connector 138 is connected to the USB interface 126. The USB interface 126 controls USB communication with an external device such as a smartphone connected via the USB connector 138. The serial block 128 controls serial communication with an external device such as a smartphone and is connected to a wireless NIC (Network Interface Card) 140.

電源スイッチの操作によって電源がオン状態になると、上記OSや制御プログラムがメインメモリにロードされる。CPU112は、メインメモリに読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、全天球カメラ110の後述する各機能部および処理が実現される。 When the power is turned on by operating the power switch, the OS and the control program are loaded into the main memory. The CPU 112 controls the operation of each part of the device according to the program read into the main memory, and temporarily stores the data necessary for the control in the memory. As a result, the functional units and processes of the spherical camera 110 described later are realized.

図3(B)は、本実施形態による全天球動画システムを構成する情報端末150のハードウェア構成を示す。情報端末150は、説明する実施形態における情報処理装置に対応する。 FIG. 3B shows a hardware configuration of the information terminal 150 that constitutes the spherical video system according to the present embodiment. The information terminal 150 corresponds to the information processing device in the embodiment described.

図3(B)に示す情報端末150は、CPU152と、RAM154と、内部ストレージ156と、入力装置158と、外部ストレージ160と、ディスプレイ162と、無線NIC164と、USBコネクタ166とを含み構成される。 The information terminal 150 illustrated in FIG. 3B includes a CPU 152, a RAM 154, an internal storage 156, an input device 158, an external storage 160, a display 162, a wireless NIC 164, and a USB connector 166. ..

CPU152は、情報端末150の各部の動作および全体動作を制御する。RAM154は、CPU152の作業領域を提供する。内部ストレージ156は、CPU152が解読可能なコードで記述された、オペレーティング・システムや、本実施形態による情報端末150側の処理を担うアプリケーションなどの制御プログラムを格納する。CPU152は、複数のCPUによって成り立つものであっても良い。 The CPU 152 controls the operation of each unit of the information terminal 150 and the overall operation. The RAM 154 provides a work area for the CPU 152. The internal storage 156 stores a control program such as an operating system described in a code readable by the CPU 152 and an application responsible for processing on the information terminal 150 side according to the present embodiment. The CPU 152 may include a plurality of CPUs.

入力装置158は、タッチスクリーンなどの入力装置であり、ユーザ・インタフェースを提供する。入力装置158は、全天球動画の補正など操作者による各種の指示を受け付ける。外部ストレージ160は、メモリカードスロットなどに装着された着脱可能な記録媒体であり、動画形式の画像データや静止画データなどの各種データを記録する。ディスプレイ162は、ユーザ操作に応答して補正された全天球動画を画面表示する。無線NIC164は、全天球カメラ110などの外部機器との無線通信の接続を確立する。USBコネクタ166は、全天球カメラ110などの外部機器とのUSB接続をする。 The input device 158 is an input device such as a touch screen and provides a user interface. The input device 158 receives various instructions from the operator such as correction of spherical video. The external storage 160 is a removable recording medium mounted in a memory card slot or the like, and records various data such as moving image data and still image data. The display 162 displays the corrected spherical video in response to a user operation. The wireless NIC 164 establishes a wireless communication connection with an external device such as the spherical camera 110. The USB connector 166 makes a USB connection with an external device such as the spherical camera 110.

情報端末150に電源が投入され電源がオン状態になると、内部ストレージ156から制御プログラムが読み出され、RAM154にロードされる。CPU152は、RAM154に読み込まれた制御プログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、情報端末150の後述する各機能部および処理が実現される。 When the information terminal 150 is turned on and turned on, the control program is read from the internal storage 156 and loaded into the RAM 154. The CPU 152 controls the operation of each part of the device according to the control program read in the RAM 154, and temporarily stores the data necessary for the control in the memory. Thereby, each functional unit and processing of the information terminal 150, which will be described later, are realized.

以下、図4〜図9を参照しながら、本実施形態による全天球動画システムが備える全天球動画再生機能について説明する。 Hereinafter, with reference to FIG. 4 to FIG. 9, the omnidirectional video reproduction function provided in the omnidirectional video system according to the present embodiment will be described.

図4は、本実施形態による全天球動画システム上で実現される全天球動画再生機能に関連する主要な機能ブロック200を示す。全天球カメラ110の機能ブロックは、図4に示すように、画像処理部210と、出力部240とを含み構成される。画像処理部210は、第1撮像部212と、第2撮像部214と、角速度検出部216と、加速度検出部218と、画像合成部220と、天頂補正量計算部222と、第1回転量計算部224と、第2回転量計算部226と、記憶部228と、画像回転部230とを含み構成される。各部の処理は、コントローラ15が備えるCPU112や画像処理ブロック116が各種プログラムを実行することによって行われる。 FIG. 4 shows the main functional blocks 200 related to the spherical video playback function realized on the spherical video system according to the present embodiment. As shown in FIG. 4, the functional block of the omnidirectional camera 110 is configured to include an image processing unit 210 and an output unit 240. The image processing unit 210 includes a first imaging unit 212, a second imaging unit 214, an angular velocity detection unit 216, an acceleration detection unit 218, an image composition unit 220, a zenith correction amount calculation unit 222, and a first rotation amount. The calculation unit 224, the second rotation amount calculation unit 226, the storage unit 228, and the image rotation unit 230 are included. The processing of each unit is performed by the CPU 112 and the image processing block 116 included in the controller 15 executing various programs.

これに対して、情報端末150の機能ブロックは、同じく図4に示すように、受信部252と、表示制御部254とを含み構成される。各部の処理は、情報端末150が備えるCPU152が各種プログラムを実行することによって行われる。 On the other hand, the functional block of the information terminal 150 is configured to include the receiving unit 252 and the display control unit 254, as also shown in FIG. The processing of each unit is performed by the CPU 152 included in the information terminal 150 executing various programs.

以下、まず、全天球カメラ110側の機能ブロックについて説明する。 Hereinafter, first, the functional blocks on the spherical camera 110 side will be described.

第1撮像部212は、撮像素子130Aを用いて順次撮像し、時系列的に連続した魚眼画像Aを生成する。第2撮像部214は、撮像素子130Bを用いて順次撮像し、時系列的に連続した魚眼画像Bを生成する。画像合成部220は、時系列的に連続した魚眼画像A(第1フレームデータ)および時系列的に連続した魚眼画像B(第2フレームデータ)に対してスティッチング処理を施し、フレーム合成データを作成する。フレーム合成データは、撮影を開始してから終了するまでのそれぞれ全天球動画を構成する複数のフレームを含んだ、全天球動画データの本体となる動画データである。魚眼画像Aおよび魚眼画像Bは、全天球画像を構成するための部分画像であり、第1および第2フレームデータも、撮影を開始してから終了するまでのそれぞれ部分画像のフレームを含んだ、全天球動画を構成し得る動画データである。画像合成部220は、作成したフレーム合成データを画像回転部230に出力する。第1撮像部212、第2撮像部214および画像合成部220は、本実施形態における撮像手段を構成し得る。 The first image capturing unit 212 sequentially captures images using the image sensor 130A and generates a fish-eye image A that is continuous in time series. The second image capturing unit 214 sequentially captures images using the image sensor 130B and generates a fish-eye image B that is continuous in time series. The image combining unit 220 performs stitching processing on the fisheye image A (first frame data) that is continuous in time series and the fisheye image B (second frame data) that is continuous in time series to combine frames. Create the data. The frame composite data is moving image data which is a main body of the spherical moving image data and includes a plurality of frames each of which forms a spherical moving image from the start to the end of shooting. The fish-eye image A and the fish-eye image B are partial images for forming the omnidirectional image, and the first and second frame data also indicate the frames of the partial images from the start to the end of shooting. This is the moving picture data that can compose a spherical video. The image composition unit 220 outputs the created frame composition data to the image rotation unit 230. The first image capturing section 212, the second image capturing section 214, and the image synthesizing section 220 can configure the image capturing means in this embodiment.

以下、図5を参照しながら、全天球画像の生成および生成される全天球画像について説明する。図5(A)は、全天球画像生成における各画像のデータ構造および画像のデータフローを説明する。まず、撮像素子130各々で直接撮像される画像は、概ね全天球のうちの半球を視野に収めた画像である。結像光学系に入射した光は、所定の射影方式に従って撮像素子130の受光領域に結像される。ここで撮像される画像は、受光領域が平面エリアを成す2次元の撮像素子で撮像されたものであり、平面座標系で表現された画像データとなる。また、典型的には、得られる画像は、図5(A)において「魚眼画像A」および「魚眼画像B」で示されるように、各撮影範囲が投影されたイメージサークル全体を含む魚眼画像として構成される。 Hereinafter, generation of a spherical image and a generated spherical image will be described with reference to FIG. FIG. 5A illustrates the data structure of each image and the data flow of the image in the spherical image generation. First, the image directly captured by each of the image pickup devices 130 is an image in which the hemisphere of the whole celestial sphere is included in the visual field. The light incident on the imaging optical system is imaged on the light receiving area of the image sensor 130 according to a predetermined projection method. The image captured here is an image captured by a two-dimensional image sensor whose light-receiving area forms a planar area, and is image data expressed in a planar coordinate system. In addition, typically, the obtained image is a fish including the entire image circle in which each shooting range is projected, as shown by “fisheye image A” and “fisheye image B” in FIG. It is configured as an eye image.

この複数の撮像素子130で撮像された各フレームの複数の魚眼画像が、歪み補正および合成処理されて、各フレームに対応する1つの全天球画像が構成される。合成処理では、平面画像として構成される各魚眼画像から、まず、相補的な各半球部分を含む各半球画像が生成される。そして、各半球部分を含む2つの半球画像が、重複領域のマッチングに基づいてスティッチング(画像合成)され、全天球全体を含む全天球画像が生成される。 The plurality of fish-eye images of each frame captured by the plurality of image sensors 130 are subjected to distortion correction and synthesis processing to form one spherical image corresponding to each frame. In the combining process, first, each hemispherical image including each complementary hemispherical portion is generated from each fisheye image configured as a planar image. Then, the two hemispherical images including the respective hemispherical portions are stitched (image combination) based on the matching of the overlapping regions, and a spherical image including the entire spherical image is generated.

図5(B)は、本実施形態で用いられる全天球画像の画像データのデータ構造を平面で表して説明する図である。図5(C)は、全天球画像の画像データのデータ構造を球面で表して説明する図である。図5(B)に示すように、全天球画像の画像データは、所定の軸に対してなされる垂直角度φと、所定の軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。垂直角度φは、0度〜180度(あるいは−90度〜+90度)の範囲となり、水平角度θは、0度〜360度(あるいは−180度〜+180度)の範囲となる。 FIG. 5B is a diagram illustrating the data structure of the image data of the omnidirectional image used in the present embodiment by showing it in a plane. FIG. 5C is a diagram illustrating the data structure of the image data of the omnidirectional image represented by a spherical surface. As shown in FIG. 5B, the image data of the spherical image has coordinates of a vertical angle φ with respect to a predetermined axis and a horizontal angle θ corresponding to a rotation angle around the predetermined axis. It is expressed as an array of pixel values. The vertical angle φ is in the range of 0 degrees to 180 degrees (or -90 degrees to +90 degrees), and the horizontal angle θ is in the range of 0 degrees to 360 degrees (or -180 degrees to +180 degrees).

全天球フォーマットの各座標値(θ,φ)は、図5(C)に示すように、撮影地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上に対応付けられる。魚眼レンズで撮影された魚眼画像の平面座標と、全天球画像の球面上の座標とは、所定の変換テーブルにて対応付けされる。変換テーブルは、それぞれのレンズ光学系の設計データ等に基づいて、所定の投影モデルに従い製造元等で予め作成されたデータであり、魚眼画像を全天球画像へ変換するデータである。 Each coordinate value (θ, φ) in the omnidirectional format is associated with each point on the spherical surface that represents the azimuth around the shooting point, as shown in FIG. It is associated with the spherical image. The plane coordinates of the fisheye image captured by the fisheye lens and the spherical coordinates of the spherical image are associated with each other in a predetermined conversion table. The conversion table is data created in advance by a manufacturer or the like according to a predetermined projection model based on design data of each lens optical system, etc., and is data for converting a fisheye image into a spherical image.

なお、説明する実施形態では、魚眼画像から全天球画像に変換し、スティッチング処理後のフレーム合成データに対して画像回転部230により回転処理を施す流れとなっている。しかしながら、変換処理、合成処理および回転処理の順序は、特に限定されるものではない。部分画像である魚眼画像Aと魚眼画像B(それを変換した相補的な各半球部分を含む2つの半球画像)それぞれに対して画像回転部230で回転処理(補正)を施した後にスティッチング処理する流れとしてもよい。また、全天球フォーマットの画像に対して回転処理を施すほか、魚眼画像を全天球画像に変換する上記変換テーブルに回転処理を反映し、回転処理が反映された変換テーブルに基づいて、魚眼画像Aおよび魚眼画像Bから回転処理後の全天球画像を得ることもできる。本実施形態において、動画に関し補正を施すとは、変換処理、合成処理および回転処理の順序にかかわらず、最終的に所定の補正が反映された画像を含む動画を得ることをいう。また、本実施形態においては2つの魚眼画像をスティッチングすることで全天球画像を作成しているが、これに限られず、他の実施形態では、例えば3つ以上の画像をスティッチングして全天球画像やパノラマ画像を作成するものであってもよい。 It should be noted that in the embodiment to be described, the flow is such that the fisheye image is converted into a celestial sphere image, and the frame synthesizing data after the stitching process is rotated by the image rotating unit 230. However, the order of conversion processing, combination processing, and rotation processing is not particularly limited. The fisheye image A and the fisheye image B that are partial images (two hemisphere images including complementary hemisphere parts obtained by converting the fisheye images) are subjected to rotation processing (correction) by the image rotation unit 230 and then stitched. It is also possible to use a flow for performing a ring processing. Further, in addition to performing rotation processing on the image in the spherical format, the rotation processing is reflected in the conversion table for converting the fisheye image into a spherical image, and based on the conversion table in which the rotation processing is reflected, It is also possible to obtain the omnidirectional image after the rotation processing from the fisheye image A and the fisheye image B. In the present embodiment, “correcting a moving image” refers to finally obtaining a moving image including an image in which a predetermined correction is reflected, regardless of the order of the conversion process, the combining process, and the rotation process. Further, in the present embodiment, the spherical image is created by stitching two fish-eye images, but the present invention is not limited to this, and in other embodiments, for example, stitching three or more images. It may be one that creates a spherical image or a panoramic image.

ここで、再び図4を参照する。角速度検出部216は、角速度センサ136Aを含む角速度検出機構であり、撮影中、角速度センサ136Aを用いて3軸方向の角速度成分を計測して得られる角速度データを出力する。角速度データは、撮影を開始してから終了するまでの全天球カメラ110(内の角速度センサ136A)の3軸周りで生じた角速度の時系列データである。角速度データは、フレームに1対1に対応して記録されている必要はなく、典型的には、フレームレートよりも速いレートで記録することができる。この場合、タイムスタンプを手がかりとして、後で各フレームとの対応関係を求めることができる。あるいは、全天球動画の各フレームに1対1で対応して角速度が記録されてもよい。角速度検出部216は、本実施形態において、動画の各フレームに関連付けてセンサデータを記録する記録手段を構成し、角速度データは、本実施形態において、センサデータに含まれ得る。 Here, refer to FIG. 4 again. The angular velocity detection unit 216 is an angular velocity detection mechanism including an angular velocity sensor 136A, and outputs angular velocity data obtained by measuring the angular velocity components in the three axis directions using the angular velocity sensor 136A during shooting. The angular velocity data is time-series data of angular velocities generated around the three axes of the omnidirectional camera 110 (the angular velocity sensor 136A therein) from the start to the end of photographing. The angular velocity data does not need to be recorded in a one-to-one correspondence with a frame, but typically can be recorded at a rate faster than the frame rate. In this case, the time stamp can be used as a clue to find the correspondence with each frame later. Alternatively, the angular velocity may be recorded in a one-to-one correspondence with each frame of the spherical video. In the present embodiment, the angular velocity detection unit 216 constitutes a recording unit that records the sensor data in association with each frame of the moving image, and the angular velocity data may be included in the sensor data in the present embodiment.

加速度検出部218は、加速度センサ136Bを含む加速度検出機構であり、撮影中、加速度センサ136Bを用いて3軸方向の加速度成分を計測して得られる加速度データを出力する。加速度データは、撮影を開始してから終了するまでの全天球カメラ110(内の加速度センサ136B)の3軸の加速度の時系列データである。加速度データは、フレームに1対1に対応して記録されている必要はなく、典型的には、フレームレートよりも速いレートで記録することができる。この場合、タイムスタンプを手がかりとして、後で各フレームとの対応関係を求めることができる。あるいは、全天球動画の各フレームに1対1で対応して加速度が記録されてもよい。加速度検出部218は、本実施形態において、動画の各フレームに関連付けてセンサデータを記録する記録手段を構成し、加速度データは、本実施形態において、センサデータに含まれ得る。 The acceleration detection unit 218 is an acceleration detection mechanism including an acceleration sensor 136B, and outputs acceleration data obtained by measuring acceleration components in the three axis directions using the acceleration sensor 136B during shooting. The acceleration data is time-series data of three-axis acceleration of the celestial sphere camera 110 (the acceleration sensor 136B therein) from the start to the end of shooting. Acceleration data need not be recorded in a one-to-one correspondence with frames, but typically can be recorded at a rate faster than the frame rate. In this case, the time stamp can be used as a clue to find the correspondence with each frame later. Alternatively, the acceleration may be recorded in a one-to-one correspondence with each frame of the spherical video. In the present embodiment, the acceleration detection unit 218 constitutes a recording unit that records the sensor data in association with each frame of the moving image, and the acceleration data may be included in the sensor data in the present embodiment.

なお、加速度センサ116Bや角速度センサ136Aから直接得られる上述した加速度データおよび角速度データは、センサ座標系(あるいは全天球カメラ110の座標系)の3軸方向に基づくデータである。一方、加速度センサ136Bは、運動に基づく加速度と重力加速度との和を出力しており、上述した加速度データおよび角速度データは、重力加速度軸を基準とした絶対座標系に変換可能である。したがって、上述したセンサデータは、絶対座標系における変位量を示すものである。 The above-described acceleration data and angular velocity data directly obtained from the acceleration sensor 116B and the angular velocity sensor 136A are data based on the three axis directions of the sensor coordinate system (or the coordinate system of the omnidirectional camera 110). On the other hand, the acceleration sensor 136B outputs the sum of the acceleration based on the motion and the gravitational acceleration, and the above-described acceleration data and angular velocity data can be converted into an absolute coordinate system based on the gravitational acceleration axis. Therefore, the sensor data described above indicates the amount of displacement in the absolute coordinate system.

天頂補正量計算部222は、加速度検出部218から出力される加速度データに基づいて、各フレームでの基準軸に対する撮像時の傾き角を計算し、天頂補正データを作成する。天頂補正データは、全天球動画の各フレームに関連付けて記録される、撮影を開始してから終了するまでの基準軸に対する全天球カメラ110の傾き角の時系列データである。基準軸に対する傾き角は、典型的には加速度の次元の値からなるベクトルとして構成される。基準軸は、典型的には、重力加速度が作用する重力方向に一致し、以下、基準軸が重力方向であるとして説明を続ける。加速度センサ136Bは、重力と慣性力とを区別しないので、加速度センサ136Bから得られた傾き角は、好ましくは角速度センサ136Aで計測された信号に基づいて補正されてもよい。 The zenith correction amount calculation unit 222 calculates the tilt angle at the time of imaging with respect to the reference axis in each frame based on the acceleration data output from the acceleration detection unit 218, and creates zenith correction data. The zenith correction data is time-series data of the tilt angle of the omnidirectional camera 110 with respect to the reference axis from the start to the end of shooting, which is recorded in association with each frame of the omnidirectional video. The tilt angle with respect to the reference axis is typically configured as a vector composed of acceleration dimension values. The reference axis typically corresponds to the direction of gravity in which gravitational acceleration acts, and the description will be continued below assuming that the reference axis is the direction of gravity. Since the acceleration sensor 136B does not distinguish between gravity and inertial force, the tilt angle obtained from the acceleration sensor 136B may be corrected, preferably based on the signal measured by the angular velocity sensor 136A.

第1回転量計算部224は、加速度検出部218から出力される加速度データおよび角速度検出部216から出力される角速度データに基づいて、全天球カメラ110の相対角度の変化量から、重力方向に対し垂直方向の平面(水平面)の座標系における全天球カメラ110の撮影正面方向のベクトルをフレーム毎に算出し、第1回転補正データを記録する。第1回転補正データは、全天球動画の各フレームに関連付けて記録される、撮影を開始してから終了するまでの基準値からの撮影正面方向の角度変化量の時系列データである。撮影正面方向の角度変化量は、基準フレームにおける全天球カメラ110の姿勢に基づく上記水平面内での撮影正面方向と、対象フレームにおける全天球カメラ110の姿勢に基づく上記水平面内での撮影正面方向との差分で表される。ここで、基準フレームは、例えば撮影開始時点のフレームや本補正を適用開始時点(撮影開始後に補正の適用を指示できる実施形態の場合)のフレームとすることができる。第1回転補正データは例えば、回転角度を数値化したものやベクトルで表される。第1回転補正データも、本実施形態において、センサデータに含まれ得て、第1回転量計算部224は、本実施形態において、動画の各フレームに関連付けてセンサデータを取得および記録するセンサデータ取得手段および記録手段を構成し得る。 The first rotation amount calculation unit 224 determines, based on the acceleration data output from the acceleration detection unit 218 and the angular velocity data output from the angular velocity detection unit 216, from the amount of change in the relative angle of the omnidirectional camera 110 in the direction of gravity. On the other hand, a vector in the shooting front direction of the omnidirectional camera 110 in the coordinate system of a plane (horizontal plane) in the vertical direction is calculated for each frame, and the first rotation correction data is recorded. The first rotation correction data is time-series data of the angle change amount in the front direction of shooting from the reference value from the start to the end of shooting, which is recorded in association with each frame of the celestial sphere moving image. The angle change amount in the image capturing front direction is the image capturing front direction in the horizontal plane based on the posture of the spherical camera 110 in the reference frame and the image capturing front direction in the horizontal plane based on the posture of the spherical camera 110 in the target frame. It is represented by the difference from the direction. Here, the reference frame can be, for example, a frame at the start of shooting or a frame at the start of applying the main correction (in the case of an embodiment in which application of the correction can be instructed after the start of shooting). The first rotation correction data is represented by, for example, a numerical value of the rotation angle or a vector. The first rotation correction data may also be included in the sensor data in the present embodiment, and the first rotation amount calculation unit 224 in the present embodiment acquires and records the sensor data in association with each frame of the moving image. The acquisition means and the recording means may be configured.

第2回転量計算部226は、加速度検出部218から出力される加速度データおよび角速度検出部216から出力される角速度データに基づいて、重力方向に対し垂直方向の平面(水平面)の平面座標系における全天球カメラ110の進行方向のベクトルを規定フレーム数毎に計算し、第2回転補正データを生成する。撮影開始時のフレームにおける進行方向は、撮影開始時のフレームにおける全天球カメラ110の撮影正面方向に等しい。第2回転補正データは、全天球動画の各フレームないし各規定フレーム数分のフレームに関連付けて記録される、撮影を開始してから終了するまでの基準値からの進行方向の角度変化量の時系列データである。進行方向の角度変化量は、基準フレームにおける全天球カメラ110の上記水平面内での進行方向(撮影正面方向)と、対象フレームにおける全天球カメラ110の上記水平面内での進行方向との差分で表される。第2回転補正データは例えば、回転角度を数値化したものやベクトルである。第2回転補正データも、本実施形態において、センサデータに含まれ得て、第2回転量計算部226は、本実施形態において、動画の各フレームに関連付けてセンサデータを取得および記録するセンサデータ取得手段および記録手段を構成し得る。 The second rotation amount calculation unit 226 is based on the acceleration data output from the acceleration detection unit 218 and the angular velocity data output from the angular velocity detection unit 216 in the plane coordinate system of a plane (horizontal plane) perpendicular to the gravity direction. A vector in the traveling direction of the omnidirectional camera 110 is calculated for each prescribed number of frames, and second rotation correction data is generated. The traveling direction in the frame at the start of shooting is equal to the shooting front direction of the spherical camera 110 in the frame at the start of shooting. The second rotation correction data is recorded in association with each frame of the celestial celestial sphere moving image or each frame of the specified number of frames and is recorded as an angle change amount in the traveling direction from the reference value from the start to the end of shooting. It is time series data. The angle change amount of the traveling direction is the difference between the traveling direction of the celestial sphere camera 110 in the horizontal plane in the reference frame (imaging front direction) and the traveling direction of the celestial sphere camera 110 in the horizontal plane in the target frame. It is represented by. The second rotation correction data is, for example, a numerical value of a rotation angle or a vector. The second rotation correction data may also be included in the sensor data in the present embodiment, and the second rotation amount calculation unit 226 acquires and records the sensor data in association with each frame of the moving image in the present embodiment. The acquisition means and the recording means may be configured.

進行方向の変化は、加速度データのうち、全天球カメラ110の特定方向の加速度が所定条件を満たす場合、そのときの特定方向を進行方向と判断する。所定条件とは、複数のフレームのベクトルを合成したときに、特定方向の加速度が所定の閾値を超えている場合などとすることができる。所定条件を満たさない場合、進行方向は前のフレームのデータを引き継ぐことができる。進行方向の定義としては、特に限定されるものではなく、撮影者の進行方向としてもよいし、カメラ自体の進行方向としてもよい。第2回転量計算部226は、また、本実施形態における決定手段としても機能し得る。 Regarding the change in the traveling direction, if the acceleration of the omnidirectional camera 110 in the specific direction satisfies a predetermined condition in the acceleration data, the specific direction at that time is determined to be the traveling direction. The predetermined condition can be, for example, a case where the acceleration in the specific direction exceeds a predetermined threshold value when the vectors of a plurality of frames are combined. When the predetermined condition is not satisfied, the traveling direction can inherit the data of the previous frame. The definition of the traveling direction is not particularly limited, and may be the traveling direction of the photographer or the traveling direction of the camera itself. The second rotation amount calculation unit 226 can also function as the determination unit in this embodiment.

画像回転部230は、画像合成部220、天頂補正量計算部222、第1回転量計算部224および第2回転量計算部226により出力されたフレーム合成データ、天頂補正データ、第1回転補正データおよび第2回転補正データをそれぞれ取得する。画像回転部230は、取得したフレーム合成データの各フレームに対し、取得した天頂補正データ、第1回転補正データおよび第2回転補正データに基づいて回転処理(天頂補正および回転補正)を施し、補正された全天球フレームデータを出力する。 The image rotation unit 230 includes the frame synthesis data, the zenith correction data, and the first rotation correction data output by the image synthesis unit 220, the zenith correction amount calculation unit 222, the first rotation amount calculation unit 224, and the second rotation amount calculation unit 226. And the second rotation correction data, respectively. The image rotation unit 230 performs rotation processing (zenith correction and rotation correction) on each frame of the acquired frame composite data based on the acquired zenith correction data, the first rotation correction data, and the second rotation correction data, and performs correction. Output the omnidirectional spherical frame data.

ここで、図6および図7を参照しながら、天頂補正および回転補正について説明する。図6は、本実施形態において行われる全天球画像の天頂補正および回転補正を説明する図である。図7は、本実施形態において行われる全天球画像の天頂補正および回転補正によって得られる全天球画像を説明する図である。図7(A)は、天頂補正前の動画のフレームを示し、図7(B)は、天頂補正後の動画のフレームを示す。 Here, the zenith correction and the rotation correction will be described with reference to FIGS. 6 and 7. FIG. 6 is a diagram illustrating zenith correction and rotation correction of the omnidirectional image performed in the present embodiment. FIG. 7 is a diagram illustrating a omnidirectional image obtained by the zenith correction and the rotation correction of the omnidirectional image performed in the present embodiment. FIG. 7A shows a moving image frame before the zenith correction, and FIG. 7B shows a moving image frame after the zenith correction.

上述したように、全天球画像フォーマットの画像データは、所定の軸z0に対してなす垂直角度φと、上記所定の軸z0周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。ここで、所定の軸は、なんら補正がなされない場合は、全天球カメラ110を基準として定義される軸となる。例えば、図1に示す全天球カメラ110の撮像体12側を頭部としてその反対側を底部として、底部から頭部へ筐体の中心を通る中心軸を、水平角度θおよび垂直角度φを定義する所定の軸z0として全天球画像を定義することができる。また、例えば2つの結像光学系20A,20Bのうちの一方の光学素子の光軸方向が水平角度θで中心に位置するように、全天球画像の水平角度θを定義することができる。 As described above, the image data in the spherical image format has a pixel value in which the vertical angle φ with respect to the predetermined axis z0 and the horizontal angle θ corresponding to the rotation angle around the predetermined axis z0 are coordinates. Expressed as an array of. Here, the predetermined axis is an axis defined with the omnidirectional camera 110 as a reference when no correction is made. For example, with the imaging body 12 side of the omnidirectional camera 110 shown in FIG. 1 as the head and the opposite side as the bottom, the central axis passing through the center of the housing from the bottom to the head is represented by the horizontal angle θ and the vertical angle φ. A spherical image can be defined as a predetermined axis z0 to be defined. Further, for example, the horizontal angle θ of the spherical image can be defined so that the optical axis direction of one optical element of the two imaging optical systems 20A and 20B is centered at the horizontal angle θ.

天頂補正とは、図6の左図のように実際には重力方向に対して中心軸z0が傾いている状態で撮像された全天球画像(図7(A))を、図6の右図のようにあたかも中心軸z0が重力方向Zに一致した状態で撮影されたかのような全天球画像(図7(B))に補正する処理(Roll,Pitch方向の補正)をいう。画像回転部230は、天頂補正データに含まれる各フレームでの重力方向に対する傾き角に基づいて、各フレームに対し、所定軸(中心軸)が重力方向に略一致するように天頂補正を施す天頂補正手段として機能する。 The zenith correction is a celestial sphere image (FIG. 7(A)) captured in a state where the central axis z0 is actually inclined with respect to the gravity direction as shown in the left diagram of FIG. As shown in the figure, it refers to a process (correction in Roll and Pitch directions) for correcting a celestial sphere image (FIG. 7B) as if the image was taken with the central axis z0 coinciding with the gravity direction Z. The image rotation unit 230 performs zenith correction on each frame based on the tilt angle with respect to the gravity direction in each frame included in the zenith correction data so that a predetermined axis (center axis) substantially matches the gravity direction. It functions as a correction means.

これに対して、回転補正とは、天頂補正により基準方向に中心軸z0が一致するように補正された全天球画像において、さらに、重力方向Z周りの角度変化(図7の水平角度θ方向の変化)を打ち消し、表示の基準(例えば全天球フォーマットにおける水平角度θでの中央であり、動画データ再生時にデフォルトで表示される基準位置)を撮影中の特定方向に固定する補正(Yaw方向の補正)をいう。デフォルトで表示される基準位置とは、ユーザが動画データに対して表示する方向を変更する操作をしない場合に、表示される全天球フォーマットにおける領域である。特定方向は、例えば全天球カメラ110の正面方向である。画像回転部230は、第1回転補正データおよび第2回転補正データに基づいて、基準軸(天頂補正により重力方向に一致させられている。)周りの回転変化を打ち消す補正を施す回転補正手段として機能する。 On the other hand, the rotation correction is an omnidirectional image corrected by the zenith correction so that the central axis z0 coincides with the reference direction, and further an angular change around the gravity direction Z (horizontal angle θ direction in FIG. 7). Correction for fixing the display reference (for example, the center at the horizontal angle θ in the celestial sphere format, which is the reference position displayed by default when reproducing moving image data) in a specific direction during shooting (Yaw direction). Correction). The reference position displayed by default is an area in the spherical format that is displayed when the user does not perform an operation to change the display direction for moving image data. The specific direction is, for example, the front direction of the spherical camera 110. The image rotation unit 230 serves as a rotation correction unit that performs a correction for canceling a rotation change around the reference axis (which is matched with the gravity direction by the zenith correction) based on the first rotation correction data and the second rotation correction data. Function.

ここで、角度変化が打ち消されて表示の基準に固定される撮影中の特定方向は、上述した基準フレームにおける全天球カメラ110の上記水平面内での撮影正面方向であってよい。また、全天球カメラ110の進行方向が求められた以降は、上記特定方向は、全天球カメラ110の上記水平面内での進行方向であってよい。 Here, the specific direction during shooting in which the change in angle is canceled and is fixed to the display reference may be the shooting front direction in the horizontal plane of the omnidirectional camera 110 in the reference frame described above. Further, after the traveling direction of the omnidirectional camera 110 is obtained, the specific direction may be the traveling direction of the omnidirectional camera 110 in the horizontal plane.

画像回転部230は、より具体的には、第1回転補正データおよび第2回転補正データに基づいて、動画の各フレームに対し、少なくとも一定期間の複数のフレームにわたり、表示の基準が撮影中の特定方向に略一致するように基準軸周りの回転変化を打ち消す補正を施す。ここで、打ち消される回転変化の量は、基準軸に垂直な平面内での特定方向(例えば撮影開始時の撮影正面方向または進行方向)と、補正対象フレームでの基準軸に垂直な平面内での撮影正面方向との差分に基づくものとなる。また、当該特定方向に固定される期間は、当該特定方向が決定されたタイミングから、次回特定方向を決定するタイミングまでとなる。 More specifically, the image rotation unit 230 is based on the first rotation correction data and the second rotation correction data, and for each frame of the moving image, at least a plurality of frames for a certain period of time, the display reference indicates that the shooting is being performed. Correction is performed to cancel the rotation change around the reference axis so that it substantially matches the specific direction. Here, the amount of rotation change to be canceled is determined in a specific direction in a plane perpendicular to the reference axis (for example, the shooting front direction or the advancing direction at the start of shooting) and in the plane perpendicular to the reference axis in the correction target frame. It is based on the difference from the image capturing front direction. Further, the period fixed in the specific direction is from the timing when the specific direction is determined to the timing when the specific direction is determined next time.

なお、説明する実施形態では、開始当初は、基準フレームにおける全天球カメラ110の上記水平面内での撮影正面方向を特定方向として表示の基準(画像の中心)を固定し、全天球カメラ110の進行方向が求められた以降は、上記水平面内での進行方向を特定方向として決定し、該進行方向に表示の基準(画像の中心)を固定するものとして説明する。この場合、図2に示した首振り運動Hにかかわらず、最初は、開始時点の撮影正面方向が画像の中心に来るように回転補正され、次第に進行方向Tが定まると、その進行方向Tが画像の中心に来るように回転補正がされることになる。 In the embodiment to be described, at the beginning, the reference (center of the image) of the display is fixed by setting the shooting front direction of the omnidirectional camera 110 in the reference frame in the horizontal plane as the specific direction, and the omnidirectional camera 110 is started. After the traveling direction of is determined, the traveling direction in the horizontal plane is determined as the specific direction, and the display reference (the center of the image) is fixed to the traveling direction. In this case, regardless of the swinging motion H shown in FIG. 2, initially, the rotation correction is performed so that the shooting front direction at the start time comes to the center of the image, and when the traveling direction T is gradually determined, the traveling direction T is determined. The rotation will be corrected so that it will come to the center of the image.

しかしながら、特定方向の決定の仕方は、特に限定されるものではない。他の実施形態では、進行方向Tにかかわらず、基準フレームにおける全天球カメラ110の上記水平面内での撮影正面方向に常にデフォルトで表示される基準位置が固定されているように構成してもよい。そのような実施形態では、第2回転量計算部226および第2回転補正データを用いた回転補正を省略することができる。またこの場合、撮影中に進行方向の変化によって特定方向が更新されないため、当該特定方向に固定される期間は、動画の開始時点または固定の開始を指示された時点から動画の終了時点または固定の終了を指示された時点までの全期間となる。 However, the method of determining the specific direction is not particularly limited. In another embodiment, regardless of the traveling direction T, the reference position that is always displayed by default may be fixed in the shooting front direction of the omnidirectional camera 110 in the horizontal plane in the reference frame. Good. In such an embodiment, the rotation correction using the second rotation amount calculation unit 226 and the second rotation correction data can be omitted. Further, in this case, since the specific direction is not updated due to a change in the traveling direction during shooting, the period fixed in the specific direction is from the start time of the video or the time when the start of the fixation is instructed to the end time of the video or the fixed time. It is the entire period until the time when the end is instructed.

記憶部228は、上述した第1フレームデータ、第2フレームデータ、フレーム合成データ、天頂補正および回転補正された補正済みフレーム合成データ、加速度データ、角速度データ、天頂補正データ、第1回転補正データおよび第2回転補正データを記憶するために用いられる。記憶部228は、図3(A)に示したDRAM132、外部ストレージ134や他のストレージなどの記憶領域の一部として与えられる。 The storage unit 228 stores the above-described first frame data, second frame data, frame composite data, corrected frame composite data that has undergone zenith correction and rotation correction, acceleration data, angular velocity data, zenith correction data, first rotation correction data, and It is used to store the second rotation correction data. The storage unit 228 is provided as a part of a storage area such as the DRAM 132, the external storage 134, or another storage illustrated in FIG.

なお、1度の撮影で取得した全天球動画は、例えば一つのファイルとして記憶部228に記録されてもよい。その場合、全天球動画の記録方法としては、種々の態様が想定される。 Note that the spherical moving image acquired by one shooting may be recorded in the storage unit 228 as one file, for example. In that case, various modes are conceivable as the recording method of the spherical video.

例えば、補正済みフレーム合成データを1つの全天球動画データとして記録することができる。その場合、加速度データ、角速度データ、天頂補正データ、第1回転補正データおよび第2回転補正データが任意にメタデータとして補正済みフレーム合成データとともに記録されてもよい。この実施形態では、補正後のデータが必要になった場合には、補正済みフレーム合成データを読み出せばよいということになる。 For example, the corrected frame composite data can be recorded as one spherical video data. In that case, the acceleration data, the angular velocity data, the zenith correction data, the first rotation correction data, and the second rotation correction data may be arbitrarily recorded as metadata together with the corrected frame synthesis data. In this embodiment, when the corrected data becomes necessary, the corrected frame composite data may be read.

他の実施形態では、補正前のフレーム合成データを1つの全天球動画データとして記録することができる。その場合、加速度データ、角速度データ、天頂補正データ、第1回転補正データおよび第2回転補正データが所定の組み合わせでメタデータとして補正前のフレーム合成データとともに記録される。この他の実施形態では、補正後のデータが必要になった場合には、メタデータから、天頂補正データ、第1回転補正データおよび第2回転補正データが準備され(不足するデータが計算される。)、画像回転部230により補正前のフレーム合成データに画像回転が施される。例えば、加速度データおよび角速度データがあれば、天頂補正データ、第1回転補正データおよび第2回転補正データのうちの任意の不足するものを計算することができる。 In another embodiment, the frame composite data before correction can be recorded as one celestial sphere moving image data. In that case, the acceleration data, the angular velocity data, the zenith correction data, the first rotation correction data, and the second rotation correction data are recorded in a predetermined combination as metadata together with the frame combination data before correction. In this other embodiment, when the corrected data is needed, the zenith correction data, the first rotation correction data, and the second rotation correction data are prepared from the metadata (lacking data is calculated. .), and the image rotation unit 230 applies image rotation to the frame composite data before correction. For example, if acceleration data and angular velocity data are available, any of the zenith correction data, the first rotation correction data, and the second rotation correction data that are insufficient can be calculated.

画像回転部230により天頂補正および回転補正されたフレーム合成データは、出力部240に出力される。出力部240は、補正後のデータを、動画データとして、無線NIC140やUSBコネクタ138を介して外部の情報端末150に送信出力することができる。あるいは、出力部240は、補正後のデータを、動画データとして、所定のストレージにファイル出力することもできる。 The frame-combined data subjected to the zenith correction and the rotation correction by the image rotation unit 230 is output to the output unit 240. The output unit 240 can transmit and output the corrected data as moving image data to the external information terminal 150 via the wireless NIC 140 and the USB connector 138. Alternatively, the output unit 240 may output the corrected data as a moving image data to a file in a predetermined storage.

なお、「動画」と参照するが、動画が再生可能であれば、いかなる形態で記録されてもよい。例えば、H.264/MPEG−4 AVC(Advanced Video Coding)、H.265/HEVC(High Efficiency Video Coding)などの所定のコーデックで、複数のフレームを圧縮した動画データとして記録されていてもよい。また、Motion JPEG(Joint Photographic Experts Group)は、連続した静止画として動画を表現する形式であるが、このように、複数のフレームの静止画像の連続した系列として動画データが記録されていてもよいし、複数のフレームの静止画像のファイルの集合として動画が記録されてもよい。出力部240は、適切なコーデックを備える。 Although referred to as “moving image”, it may be recorded in any form as long as the moving image can be reproduced. For example, H.264. H.264/MPEG-4 AVC (Advanced Video Coding), H.264. It may be recorded as moving image data obtained by compressing a plurality of frames with a predetermined codec such as H.265/HEVC (High Efficiency Video Coding). Further, Motion JPEG (Joint Photographic Experts Group) is a format for expressing moving images as continuous still images, but moving image data may be recorded as a continuous series of still images of a plurality of frames in this way. However, the moving image may be recorded as a set of files of still images of a plurality of frames. The output unit 240 includes an appropriate codec.

以下、引き続き、情報端末150側の機能ブロックについて説明する。情報端末150は、全天球カメラ110と通信し、全天球画像を閲覧再生するためのアプリケーションがインストールされた端末装置である。情報端末150は、スマートフォンやタブレットコンピュータ、パーソナルコンピュータ、ヘッドマウントディスプレイ(HMD)などであってよい。情報端末150は、アプリケーションを介して操作者から各種指示を受け付けて、全天球カメラ110に対し各種要求を発行する。例えば、情報端末150は、操作者からの指定の全天球動画の再生指示(例えば回転補正を適応した動画再生の指示)を受け付けたことに応答して、全天球カメラ110に対し、所定の全天球動画の補正後の動画データを求める要求を発行する。 Hereinafter, the functional blocks on the information terminal 150 side will be continuously described. The information terminal 150 is a terminal device in which an application for communicating with the omnidirectional camera 110 and viewing and reproducing an omnidirectional image is installed. The information terminal 150 may be a smartphone, a tablet computer, a personal computer, a head mounted display (HMD), or the like. The information terminal 150 receives various instructions from the operator via the application and issues various requests to the omnidirectional camera 110. For example, the information terminal 150 responds to the reception of a specified spherical video reproduction instruction (for example, a video reproduction instruction in which rotation correction is applied) from the operator, and then the information terminal 150 instructs the spherical camera 110 to perform a predetermined operation. Issue a request for the corrected video data of the spherical video.

情報端末150の受信部252は、全天球カメラ110から出力されてくる動画データを受信する。情報端末150の表示制御部254は、受信した動画データに基づいて、情報端末150が備えるディスプレイ162などの表示装置上に全天球動画を表示する。表示制御部254は、特定の実施形態では、補正が施された動画データの画像の少なくとも一部を、上述した表示の基準に基づいてディスプレイ162上に画面表示させる。また、表示制御部254は、ユーザの操作により全天球フォーマットにおいて表示される方向を変更し、ディスプレイ162上に表示されている領域を変更する。 The receiving unit 252 of the information terminal 150 receives the moving image data output from the spherical camera 110. The display control unit 254 of the information terminal 150 displays the spherical video on a display device such as the display 162 included in the information terminal 150 based on the received video data. In a specific embodiment, the display control unit 254 causes at least a part of the image of the corrected moving image data to be displayed on the display 162 based on the above-described display standard. Further, the display control unit 254 changes the direction displayed in the omnidirectional format by the user's operation, and changes the area displayed on the display 162.

なお、情報端末150側で、補正後の画像データに基づいてどのような画像が表示されるのかは任意である。例えば、表示制御部254は、全天球画像全体を表示装置上に表示してもよいし、全天球画像を球体オブジェクトに張り付けて、所定の位置から所定の視野角の仮想カメラで球体オブジェクトを観察した場合の画像をフレームとして動画表示してもよい。いずれの場合でも、全天球フォーマットでは、所定の表示の基準が定義され、その表示の基準に基づいて、特定の視野で画像が表示される。例えば、ディスプレイ162に全天球画像全体を表示する場合は、常にディスプレイ162の中央に特定方向が固定された状態で表示することができる。ディスプレイ162に仮想カメラで観察した場合の画像を表示する場合は、表示の基準に基づいて全天球画像が球体オブジェクトに張り付けられる。この場合、ディスプレイ162の中央に撮影中の特定方向が固定されるわけではないが、表示範囲(仮想カメラの位置や方向)を変更しなければ、所定の方向(例えば進行方向の左手など)が常にディスプレイ162の中央に固定されることになる。 It should be noted that what kind of image is displayed on the information terminal 150 side based on the corrected image data is arbitrary. For example, the display control unit 254 may display the entire celestial sphere image on the display device, or the celestial sphere image may be attached to the spherical object, and the spherical object may be displayed from a predetermined position with a virtual camera having a predetermined viewing angle. You may display a moving image as a frame with the image when you observe. In any case, in the spherical format, a predetermined display standard is defined, and an image is displayed in a specific visual field based on the display standard. For example, when the entire spherical image is displayed on the display 162, it can be displayed with the specific direction fixed at the center of the display 162 at all times. When displaying an image observed by a virtual camera on the display 162, the spherical image is attached to the spherical object based on the display standard. In this case, the specific direction during shooting is not fixed to the center of the display 162, but if the display range (position and direction of the virtual camera) is not changed, the predetermined direction (for example, the left hand in the traveling direction) will not be changed. It will always be fixed to the center of the display 162.

なお、本実施形態では、情報端末150ではなく、全天球カメラ110側のリソースを用いて天頂補正および回転補正の実体的な処理を行い、情報端末150には補正結果を出力して表示させる構成を採用する。この構成により、全天球カメラ110側に充分なリソースを備えられる場合に、情報端末150が備える処理性能にかかわらず、天頂補正および回転補正を施しながらの動画再生を安定に行うことが可能となる。 In the present embodiment, the zenith correction and the rotation correction are actually performed using the resources of the celestial sphere camera 110 side instead of the information terminal 150, and the correction result is output and displayed on the information terminal 150. Adopt a configuration. With this configuration, when sufficient resources are provided on the omnidirectional camera 110 side, regardless of the processing performance of the information terminal 150, it is possible to stably perform moving image reproduction while performing zenith correction and rotation correction. Become.

なお、説明する実施形態では、出力の態様として、全天球動画の画像データを情報端末150へ送信するものとしているが、これに限定されるものではない。全天球カメラ110が表示装置を備える場合は、その表示装置上で表示する態様とすることもできる。 In addition, in the embodiment to be described, as the output mode, the image data of the spherical moving image is transmitted to the information terminal 150, but the present invention is not limited to this. When the omnidirectional camera 110 includes a display device, it is also possible to adopt a mode in which the display is performed on the display device.

図4に示す実施形態では、全天球カメラ110の機能ブロックは、画像処理部210および出力部240に加えて、指示受付部242をさらに含み構成されてもよい。指示受付部242は、動画の撮影中に特定方向を指定する指示を受け付けることができる。上述した実施形態では、特定方向は、所定時点の撮影正面方向や進行方向であったが、指示受付部242を設けることにより、撮影中に任意のタイミングで画像の表示の基準に固定させたい方向(注目の被写体がある方向など)を指定することが可能となる。指示受付部242は、本実施形態における受付手段を構成する。 In the embodiment shown in FIG. 4, the functional block of the omnidirectional camera 110 may be configured to further include an instruction receiving unit 242 in addition to the image processing unit 210 and the output unit 240. The instruction receiving unit 242 can receive an instruction to specify a specific direction during shooting of a moving image. In the above-described embodiment, the specific direction is the image capturing front direction or the advancing direction at a predetermined time point. However, by providing the instruction receiving unit 242, the direction desired to be fixed to the image display reference at an arbitrary timing during image capturing. It is possible to specify (such as the direction in which the subject of interest exists). The instruction receiving unit 242 constitutes a receiving unit in this embodiment.

図8および図9は、種々の特定の実施形態における全天球動画システムで動画の撮影から視聴するまでの処理を説明するシーケンス図である。 FIG. 8 and FIG. 9 are sequence diagrams illustrating the processing from shooting to viewing of a moving image in the spherical spherical moving image system according to various specific embodiments.

図8(A)は、図4に示す実施形態に対応するものである。図8(A)に示す実施形態では、全天球カメラ110側で撮像、画像処理(画像合成、天頂補正および回転補正を含む。)が行われ、画像処理後の動画データが情報端末150に送信される。そして、情報端末150では、画像処理後の動画データに基づいてディスプレイ表示が行われる。より具体的には、図8(A)の実施形態では、全天球カメラ110は、S10で撮像プロセスにより動画データを取得し、S11で動画データに対して画像処理を施し、S12で、画像処理後の動画データを情報処理端末に送信する。S13で情報処理端末は、ディスプレイ上に動画データを表示する。 FIG. 8A corresponds to the embodiment shown in FIG. In the embodiment shown in FIG. 8A, imaging and image processing (including image combination, zenith correction, and rotation correction) are performed on the omnidirectional camera 110 side, and the moving image data after the image processing is stored in the information terminal 150. Sent. Then, in the information terminal 150, display display is performed based on the moving image data after the image processing. More specifically, in the embodiment of FIG. 8(A), the omnidirectional camera 110 acquires moving image data by the image capturing process in S10, performs image processing on the moving image data in S11, and performs image processing in S12. The processed moving image data is transmitted to the information processing terminal. In S13, the information processing terminal displays the moving image data on the display.

図4および図8(A)で示した実施形態では、全天球カメラ110が、それぞれ動画データ取得手段(第1撮像部212、第2撮像部214および必要に応じて画像合成部220)、センサデータ取得手段(角速度検出部216、加速度検出部218、第1回転量計算部224および第1回転量計算部224)および回転補正手段(画像回転部230)を備える画像処理装置として動作する。 In the embodiment shown in FIG. 4 and FIG. 8A, the omnidirectional camera 110 uses the moving image data acquisition means (the first image capturing unit 212, the second image capturing unit 214, and the image combining unit 220 as necessary), It operates as an image processing apparatus including a sensor data acquisition unit (angular velocity detection unit 216, acceleration detection unit 218, first rotation amount calculation unit 224, and first rotation amount calculation unit 224) and rotation correction unit (image rotation unit 230).

図4および図8(A)では、全天球カメラ110側のリソースを用いて画像処理(画像合成、天頂補正および回転補正を含む。)を行う例を説明したが、これに限るものではない。例えば、第1フレームデータ、第2フレームデータ、フレーム合成データ、角速度データ、加速度データ、天頂補正データ、第1回転補正データおよび第2回転補正データの一部または全部を情報端末150側に送り、画像処理の一部または全部を情報端末150側で行っても良い。その場合、情報端末150側で図4の機能ブロック図に示した全天球カメラ110側の一部機能を情報端末150側のCPU152が各種プログラムを実行することで行う。これにより、例えば画像合成部220による第1フレームデータ(魚眼画像A)と第2フレームデータ(魚眼画像B)との合成処理のような負荷の大きい処理を、より処理速度の高いCPUを用いて実行することが可能になり、画素数の多いデータであっても短時間またはリアルタイムで処理することが可能になる。 4 and 8A, an example in which image processing (including image synthesis, zenith correction, and rotation correction) is performed using the resources on the omnidirectional camera 110 side has been described, but the present invention is not limited to this. .. For example, a part or all of the first frame data, the second frame data, the frame composite data, the angular velocity data, the acceleration data, the zenith correction data, the first rotation correction data and the second rotation correction data are sent to the information terminal 150 side, Part or all of the image processing may be performed on the information terminal 150 side. In that case, the information terminal 150 side performs some functions on the omnidirectional camera 110 side shown in the functional block diagram of FIG. 4 by the CPU 152 on the information terminal 150 side executing various programs. As a result, for example, the CPU having a higher processing speed can perform a heavy load process such as a process of combining the first frame data (fisheye image A) and the second frame data (fisheye image B) by the image combining unit 220. It becomes possible to carry out the processing by using it, and it becomes possible to process even data having a large number of pixels in a short time or in real time.

例えば、図8(B)に示す実施形態では、全天球カメラ110側で撮像のみが行われ(S30)、画像処理前のフレームデータおよび回転パラメータが情報端末150に送信される(S31)。ここで、回転パラメータとは、上述した加速度データ、角速度データ、天頂補正データ、第1回転補正データおよび第2回転補正データなど、フレームデータの補正に関するパラメータを総称するものである。そして、情報端末150では、受信したフレームデータに対し、受信した回転パラメータに基づいて天頂補正および回転補正などの画像処理が行われ(S32)、画像処理後の動画データに基づいてディスプレイ表示が行われる(S33)。 For example, in the embodiment shown in FIG. 8B, only the omnidirectional camera 110 takes an image (S30), and the frame data before image processing and the rotation parameter are transmitted to the information terminal 150 (S31). Here, the rotation parameter is a general term for parameters related to correction of frame data such as the acceleration data, the angular velocity data, the zenith correction data, the first rotation correction data, and the second rotation correction data described above. Then, in the information terminal 150, image processing such as zenith correction and rotation correction is performed on the received frame data based on the received rotation parameter (S32), and display is performed based on the moving image data after the image processing. (S33).

図8(B)で示した実施形態では、情報端末150が、それぞれ動画データ取得手段(受信部)、センサデータ取得手段(受信部)および回転補正手段(画像回転部230に対応する手段)を備える画像処理装置として動作する。 In the embodiment shown in FIG. 8B, the information terminal 150 includes a moving image data acquisition unit (reception unit), a sensor data acquisition unit (reception unit), and a rotation correction unit (a unit corresponding to the image rotation unit 230). It operates as a provided image processing device.

なお、画像合成は、この場合、全天球カメラ110および情報端末150のいずれで行われてもよい。全天球カメラ110側で画像合成をする場合は、全天球カメラ110から情報端末150に送信されるフレームデータは、フレーム合成データ(全天球フォーマット)である。情報端末150側で画像合成をする場合は、全天球カメラ110から情報端末150に送信されるフレームデータは、第1フレームデータ(魚眼画像A)および第2フレームデータ(魚眼画像B)である。第1フレームデータおよび第2フレームデータは、それぞれに対応する動画データとして送信されてもよいし、または、2つの魚眼画像を接合した一つの接合画像の動画データ(魚眼画像Aおよび魚眼画像Bを並べて接合して1つの画像とした場合の動画データ)が送信されていてもよい。この場合、情報端末150が動画データ取得手段として画像合成部220に対応する手段を備えることになる。 In this case, the image combination may be performed by either the omnidirectional camera 110 or the information terminal 150. When images are combined on the omnidirectional camera 110 side, the frame data transmitted from the omnidirectional camera 110 to the information terminal 150 is frame combined data (omnidirectional format). When image synthesis is performed on the information terminal 150 side, the frame data transmitted from the omnidirectional camera 110 to the information terminal 150 is the first frame data (fisheye image A) and the second frame data (fisheye image B). Is. The first frame data and the second frame data may be transmitted as moving image data corresponding to each of the first frame data and the second frame data, or moving image data of one combined image obtained by combining two fisheye images (the fisheye image A and the fisheye image). The moving image data in the case where the images B are arranged side by side and joined to form one image) may be transmitted. In this case, the information terminal 150 is provided with a unit corresponding to the image synthesizing unit 220 as a moving image data acquisition unit.

また、回転パラメータもいずれの段階でのデータが情報端末150に送信されるかは任意である。例えば、上述した加速度データおよび角速度データが回転パラメータとして情報端末150に送信されてもよい。この場合、加速度データおよび角速度データから、天頂補正データ、第1回転補正データおよび第2回転補正データが情報端末150側で計算されることになる。この場合、情報端末150が、センサデータ取得手段として第1回転量計算部224および第1回転量計算部224に対応する手段を備えることになる。あるいは、天頂補正データ、第1回転補正データおよび第2回転補正データが回転パラメータとして情報端末150に送信されてもよい。この場合、情報端末150は、天頂補正データ、第1回転補正データおよび第2回転補正データを受信する受信手段を備えればよいことになる。 Further, at which stage the rotation parameter data is transmitted to the information terminal 150 is arbitrary. For example, the acceleration data and the angular velocity data described above may be transmitted to the information terminal 150 as a rotation parameter. In this case, the zenith correction data, the first rotation correction data, and the second rotation correction data are calculated on the information terminal 150 side from the acceleration data and the angular velocity data. In this case, the information terminal 150 includes the first rotation amount calculation unit 224 and a unit corresponding to the first rotation amount calculation unit 224 as the sensor data acquisition unit. Alternatively, the zenith correction data, the first rotation correction data, and the second rotation correction data may be transmitted to the information terminal 150 as rotation parameters. In this case, the information terminal 150 only needs to include a receiving unit that receives the zenith correction data, the first rotation correction data, and the second rotation correction data.

また、上述した図4、図8(A)および図8(B)を参照して説明した実施形態では、全天球動画システムは、全天球カメラ110および情報端末150の2つの装置から構成されていたが、これに限定されるものではない。 In the embodiment described with reference to FIGS. 4, 8A and 8B described above, the omnidirectional video system includes two devices, the omnidirectional camera 110 and the information terminal 150. However, the present invention is not limited to this.

例えば、図9(A)で示すように第1の情報端末150に接続される第2の情報端末170が含まれてもよい。ここで、第2の情報端末170は、例えばヘッドマウントディスプレイなどである。図9(A)に示す実施形態では、全天球カメラ110側で撮像のみが行われ(S50)、画像処理前のフレームデータおよび回転パラメータが第1の情報端末150に送信される(S51)。第1の情報端末150では、受信したフレームデータに対し、天頂補正および回転補正などの画像処理が行われ(S52)、画像処理後の動画データが、第2の情報端末170に送信される(S53)。第2の情報端末170では、画像処理後の動画データに基づいてディスプレイ表示が行われる(S54)。 For example, as shown in FIG. 9A, the second information terminal 170 connected to the first information terminal 150 may be included. Here, the second information terminal 170 is, for example, a head mounted display or the like. In the embodiment shown in FIG. 9A, only the omnidirectional camera 110 takes an image (S50), and the frame data and the rotation parameter before image processing are transmitted to the first information terminal 150 (S51). .. The first information terminal 150 performs image processing such as zenith correction and rotation correction on the received frame data (S52), and the moving image data after the image processing is transmitted to the second information terminal 170 ( S53). On the second information terminal 170, display is performed based on the moving image data after the image processing (S54).

図9(A)で示した実施形態では、第1の情報端末150が、それぞれ動画データ取得手段(受信部)、センサデータ取得手段(受信部)および回転補正手段(画像回転部230に対応する手段)を備える画像処理装置として動作する。画像合成部220および第1回転量計算部224および第1回転量計算部224に対応する手段については、全天球カメラ110および第1の情報端末150のいずれに備えられていてもよい。 In the embodiment shown in FIG. 9A, the first information terminal 150 corresponds to the moving image data acquisition unit (reception unit), the sensor data acquisition unit (reception unit), and the rotation correction unit (image rotation unit 230), respectively. Means) and operates as an image processing apparatus. The image synthesizing unit 220, the first rotation amount calculation unit 224, and the means corresponding to the first rotation amount calculation unit 224 may be provided in either the omnidirectional camera 110 or the first information terminal 150.

その他、図9(B)で示すように、全天球動画システムは、サーバ装置190を含んでいてもよい。図9(B)に示す実施形態では、全天球カメラ110側では撮像のみが行われ(S70)、画像処理前のフレームデータおよび回転パラメータが情報端末150に送信される(S71)。情報端末150では、受信したフレームデータおよび回転パラメータをサーバ装置190に転送し(S72)、サーバ装置190に、フレームデータに対する天頂補正および回転補正などの画像処理を行わせる(S73)。情報端末150は、画像処理後の動画データをサーバ装置190からダウンロードまたはストリーミング配信を受信し(S74)、画像処理後の動画データに基づいてディスプレイ表示を行う(S75)。また、サーバ装置190へのアクセスは情報端末150に限られるものではない。 In addition, as shown in FIG. 9B, the spherical moving image system may include a server device 190. In the embodiment shown in FIG. 9B, only the imaging is performed on the omnidirectional camera 110 side (S70), and the frame data before the image processing and the rotation parameter are transmitted to the information terminal 150 (S71). The information terminal 150 transfers the received frame data and the rotation parameter to the server device 190 (S72), and causes the server device 190 to perform image processing such as zenith correction and rotation correction on the frame data (S73). The information terminal 150 receives download or streaming distribution of the moving image data after the image processing from the server device 190 (S74), and performs display display based on the moving image data after the image processing (S75). Further, access to the server device 190 is not limited to the information terminal 150.

図9(B)で示した実施形態では、サーバ装置190が、それぞれ動画データ取得手段(受信部)、センサデータ取得手段(受信部)および回転補正手段(画像回転部230に対応する手段)を備える画像処理装置として動作する。画像合成部220および第1回転量計算部224および第1回転量計算部224に対応する手段については、全天球カメラ110およびサーバ装置190のいずれに備えられていてもよい。 In the embodiment shown in FIG. 9B, the server device 190 includes a moving image data acquisition unit (reception unit), a sensor data acquisition unit (reception unit), and a rotation correction unit (a unit corresponding to the image rotation unit 230). It operates as a provided image processing device. The image synthesizing unit 220, the first rotation amount calculation unit 224, and the unit corresponding to the first rotation amount calculation unit 224 may be provided in either the omnidirectional camera 110 or the server device 190.

そのほか、全天球カメラ110が表示装置を備える場合は、全天球カメラ110単体で、全天球動画システムが構成されてもよい。その場合、全天球カメラ110が、自身が備える表示装置上で表示する態様とすることも可能である。 In addition, when the omnidirectional camera 110 includes a display device, the omnidirectional camera 110 alone may configure the omnidirectional video system. In that case, the omnidirectional camera 110 may display on a display device included in itself.

以下、図10〜図13を参照しながら、本実施形態における天頂補正および回転補正について、より詳細に説明する。図10は、本実施形態による全天球動画システムを構成する全天球カメラ110(特定の実施形態では情報端末150やサーバ装置190であってもよい。)が実行するフレーム合成データに対する回転処理を示すフローチャートである。 Hereinafter, the zenith correction and the rotation correction in the present embodiment will be described in more detail with reference to FIGS. 10 to 13. FIG. 10 is a rotation process for frame-combined data executed by the omnidirectional camera 110 (which may be the information terminal 150 or the server device 190 in a specific embodiment) included in the omnidirectional video system according to the present embodiment. It is a flowchart showing.

図10に示す処理は、全天球カメラ110が、補正された動画データを求める要求を受け付けたことに応答して、ステップS100から開始される。 The process shown in FIG. 10 is started from step S100 in response to the omnidirectional camera 110 receiving a request for the corrected moving image data.

ステップS101では、全天球カメラ110は、フレーム合成データおよび回転パラメータを取得する。なお、ここでは、説明の便宜上、回転処理の開始時点で、第1フレームデータおよび第2フレームデータの記録、画像合成によるフレーム合成データの生成、角速度データおよび加速度データの記録が完了しているものとする。しかしながら、他の実施形態では、リアルタイム配信を行う場合などにおいて、第1フレームデータおよび第2フレームデータの記録、角速度データおよび加速度データの記録、画像合成によるフレーム合成データの生成を順次行いながら、図10に示す回転処理を実行することもできる。またここでは、天頂補正データ、第1回転補正データおよび第2回転補正データは、未だ計算されていないものとして説明する。 In step S101, the celestial sphere camera 110 acquires frame synthesis data and rotation parameters. Here, for convenience of description, the recording of the first frame data and the second frame data, the generation of the frame composite data by image composition, and the recording of the angular velocity data and the acceleration data are completed at the start of the rotation process. And However, in another embodiment, when performing real-time distribution or the like, the first frame data and the second frame data are recorded, the angular velocity data and the acceleration data are recorded, and the frame combined data is generated by the image combination, The rotation process shown in 10 can also be performed. In addition, here, it is assumed that the zenith correction data, the first rotation correction data, and the second rotation correction data have not been calculated.

ステップS102では、全天球カメラ110は、当該全天球カメラ110の撮影正面方向の初期値を記憶する。この開始時点の全天球カメラ110の撮影正面方向は、第1回転補正データおよび第2回転補正データの基準を計算する際に用いられる。また、ステップS102では、最初のフレームが処理対象とされて、ステップS103へ処理が進められる。 In step S102, the omnidirectional camera 110 stores an initial value in the shooting front direction of the omnidirectional camera 110. The shooting front direction of the omnidirectional camera 110 at the start time is used when calculating the reference of the first rotation correction data and the second rotation correction data. Further, in step S102, the first frame is targeted for processing, and the process proceeds to step S103.

ステップS103では、全天球カメラ110は、天頂補正量計算部222により、少なくとも加速度データに基づいて、当該処理対象のフレームにおける重力方向に対する傾き角を計算し、天頂補正データに書き込む。 In step S103, the omnidirectional camera 110 calculates the tilt angle with respect to the gravity direction in the frame to be processed by the zenith correction amount calculation unit 222 based on at least the acceleration data, and writes it in the zenith correction data.

ステップS104では、全天球カメラ110は、第1回転量計算部224により、前フレームと比較した水平面内での回転角度の変化量を検出する。ステップS105では、全天球カメラ110は、第1回転量計算部224により、ステップS104で算出したフレーム間の角度変化量を積算して、初期値からの撮影正面方向の角度変化量を計算し、第1回転補正データを書き込む。第1回転補正データは、上述したように、水平面の座標系における、全天球カメラ110の撮影正面方向の初期値からの対象フレームでの撮影正面方向の角度変化量の時系列データである。 In step S104, the omnidirectional camera 110 detects the change amount of the rotation angle in the horizontal plane compared with the previous frame by the first rotation amount calculation unit 224. In step S105, the omnidirectional camera 110 uses the first rotation amount calculation unit 224 to integrate the angle change amount between the frames calculated in step S104, and calculate the angle change amount in the shooting front direction from the initial value. , Write the first rotation correction data. As described above, the first rotation correction data is time-series data of the angle change amount in the shooting front direction in the target frame from the initial value in the shooting front direction of the omnidirectional camera 110 in the horizontal coordinate system.

ステップS103〜ステップ105の処理は、フレーム毎に実行することができる。一方、ステップS106〜ステップS108の処理は、規定フレーム数毎に実行することができる。ここで、規定フレーム数は、任意の値に設定することが可能である。規定フレーム数を小さくすることで追従性を増すことが可能になるが、規定フレーム数が小さくなりすぎると進行時のブレ成分や静止時のブレ成分の影響が出やすい。そのため、1秒当たり60フレームの動画(60fps)であれば、規定フレーム数を、例えば10〜30フレーム程度となるように設定しておくとよい。 The processing of steps S103 to 105 can be executed for each frame. On the other hand, the processing of steps S106 to S108 can be executed for each specified number of frames. Here, the specified number of frames can be set to any value. Although it is possible to increase the followability by reducing the specified number of frames, if the specified number of frames is too small, the blur component at the time of progress and the blur component at the time of stillness are likely to be affected. Therefore, if the moving image is 60 frames per second (60 fps), the specified number of frames may be set to be, for example, about 10 to 30 frames.

ステップS106では、全天球カメラ110は、第2回転量計算部226により、水平面の座標系の規定フレーム数内での全天球カメラ110の移動距離および進行方向ベクトルを算出する。なお、ここで計算の対象となる規定フレームは、保存された全天球動画データの再生であれば、中心フレームの前後の所定数分のフレームとしてよいし、リアルタイム配信であれば、先頭フレームから所定数分までのフレームとしてよい。 In step S106, the celestial sphere camera 110 calculates the moving distance and the traveling direction vector of the celestial sphere camera 110 within the specified number of frames in the coordinate system of the horizontal plane by the second rotation amount calculation unit 226. It should be noted that the specified frame to be calculated here may be a predetermined number of frames before and after the central frame in the case of reproducing the stored spherical video data, or in the case of real-time distribution from the first frame. The frame may be up to a predetermined number of minutes.

ステップS107では、全天球カメラ110は、第2回転量計算部226により、ステップS106で算出した移動距離が所定閾値以上であるか否かを判定する。ステップS107で移動距離が所定閾値以上であると判定された場合(YES)は、ステップS108へ処理を進める。ここで、移動距離とは、規定フレーム数において、水平面の座標系における最初のフレームの位置と最後のフレームの位置との差分を意味する。 In step S107, the omnidirectional camera 110 causes the second rotation amount calculation unit 226 to determine whether or not the movement distance calculated in step S106 is equal to or greater than a predetermined threshold. If it is determined in step S107 that the moving distance is equal to or greater than the predetermined threshold value (YES), the process proceeds to step S108. Here, the moving distance means the difference between the position of the first frame and the position of the last frame in the coordinate system of the horizontal plane in the specified number of frames.

ステップS108では、全天球カメラ110は、第2回転量計算部226により、初期値からのS105で算出した進行方向ベクトルの角度変化量を計算し、第2回転補正データを書き込む。ここで、第2回転補正データは、進行方向ベクトルの初期値(カメラ方向の初期値と等しい)と、上述したように規定フレーム数分の平均としての進行方向ベクトルとの差分の時系列データである。 In step S108, the omnidirectional camera 110 calculates the angle change amount of the traveling direction vector calculated in S105 from the initial value by the second rotation amount calculation unit 226, and writes the second rotation correction data. Here, the second rotation correction data is time-series data of the difference between the initial value of the traveling direction vector (equal to the initial value of the camera direction) and the traveling direction vector as an average for the specified number of frames as described above. is there.

一方、ステップS107で移動距離が閾値以下であると判定された場合(NO)は、ステップS109へ直接処理が進められる。 On the other hand, if it is determined in step S107 that the moving distance is less than or equal to the threshold value (NO), the process directly proceeds to step S109.

ステップS109では、全天球カメラ110は、画像回転部230により、天頂補正データ(その中の対象フレームの傾き角)に基づいて、フレーム合成データの対象フレームに対して天頂補正を施す。 In step S109, the omnidirectional camera 110 performs the zenith correction on the target frame of the frame composite data based on the zenith correction data (the tilt angle of the target frame therein) by the image rotation unit 230.

ステップS110では、全天球カメラ110は、画像回転部230により、第1回転補正データおよび第2回転補正データに基づいて、対象フレームで打ち消すべき水平面内での回転変化量(回転補正量)を計算する。上述したように、第1回転補正データは、水平面内における、基準フレームの撮影正面方向の初期値と、対象フレームの時点の撮影正面方向との差分であり、第2回転補正データは、水平面内における、基準フレームの進行方向(撮影正面方向と等しい)の初期値と、対象フレームの時点の進行方向との差分である。このため、第1回転補正データおよび第2回転補正データを合算することで、最終的に打ち消すべき回転変化量を計算することができる。なお、特定方向が撮影正面方向の初期値である場合、第2回転補正データは移動距離が閾値以上となるまではデフォルトの値(ゼロ)であるため、回転変化量は、第1回転補正データで規定される通り、撮影正面方向の初期値と、補正対象フレームでの水平面内での撮影正面方向との差分に基づくものとなる。一方、特定方向が進行方向に決定されると、回転変化量は、進行方向と、補正対象フレームでの撮影正面方向との差分に基づくものとなる。 In step S110, the omnidirectional camera 110 uses the image rotation unit 230 to determine the rotation change amount (rotation correction amount) in the horizontal plane to be canceled in the target frame based on the first rotation correction data and the second rotation correction data. calculate. As described above, the first rotation correction data is a difference between the initial value in the shooting front direction of the reference frame and the shooting front direction at the time of the target frame in the horizontal plane, and the second rotation correction data is in the horizontal plane. In the moving direction of the reference frame (equal to the shooting front direction) and the moving direction at the time of the target frame. Therefore, by adding the first rotation correction data and the second rotation correction data, it is possible to finally calculate the rotation change amount to be canceled. In addition, when the specific direction is the initial value of the shooting front direction, the second rotation correction data is the default value (zero) until the moving distance becomes equal to or more than the threshold, and therefore the rotation change amount is the first rotation correction data. As defined by, the difference is based on the difference between the initial value in the shooting front direction and the shooting front direction in the horizontal plane of the correction target frame. On the other hand, when the specific direction is determined to be the traveling direction, the rotation change amount is based on the difference between the traveling direction and the shooting front direction in the correction target frame.

ステップS111では、全天球カメラ110は、計算された回転補正量に基づいて対象フレームに対し、回転補正を施す。 In step S111, the omnidirectional camera 110 performs rotation correction on the target frame based on the calculated rotation correction amount.

ステップS112では、全天球カメラ110は、次フレームがあるか否かを判定する。ステップS112で、次フレームがあると判定された場合(YES)は、ステップS103へループさせる。一方、ステップS112で次フレームがないと判定された場合(NO)は、ステップS113で、本回転処理を終了する。 In step S112, the omnidirectional camera 110 determines whether or not there is a next frame. If it is determined in step S112 that there is a next frame (YES), the process loops to step S103. On the other hand, if it is determined in step S112 that there is no next frame (NO), the main rotation process ends in step S113.

上述した処理により、動画に対し、少なくとも一定期間の複数のフレームにわたり、表示の基準が撮影中の特定方向に略一致するように基準軸周りの回転変化を打ち消すような補正が施されることになる。 By the above-described processing, the moving image is corrected so as to cancel the rotational change around the reference axis so that the display reference substantially coincides with the specific direction during shooting over at least a plurality of frames for a certain period. Become.

なお、以上説明した実施形態では、ステップS110で、第1回転補正データおよび第2回転補正データに基づいて打ち消すべき回転量を計算し、ステップS111でまとめて回転補正を施すものとして説明した。しかしながら、これに特に限定されるものではなく、他の実施形態では、第1回転補正データに基づく回転補正と、第2回転補正データに基づく回転補正とを順次適用してもよい。さらに、他の実施形態では、天頂補正データ、第1回転補正データおよび第2回転補正データに基づいてまとめて天頂補正および回転補正を施すものとしてもよい。 In the above-described embodiment, the rotation amount to be canceled is calculated based on the first rotation correction data and the second rotation correction data in step S110, and the rotation correction is collectively performed in step S111. However, the present invention is not limited to this, and in other embodiments, the rotation correction based on the first rotation correction data and the rotation correction based on the second rotation correction data may be sequentially applied. Further, in another embodiment, the zenith correction and the rotation correction may be collectively performed based on the zenith correction data, the first rotation correction data, and the second rotation correction data.

上記回転補正により、首振りなどによる低周波数の回転変化に関わらず、画像の表示の基準を初期のカメラの撮影正面方向や進行方向などの特定方向に固定することが可能となる。 By the above rotation correction, it becomes possible to fix the reference for displaying an image in a specific direction such as the front direction of shooting of the camera or the advancing direction regardless of the low frequency rotation change due to swinging or the like.

以下、図11〜図13を参照しながら、進行方向と撮影正面方向の関係とおよびそのときの画像回転部による回転処理について説明する。図11は、撮影者が頭部50に全天球カメラ110を装着して移動した場合の進行方向Tと撮影正面方向Hの関係を、一例をもって説明する図である。図12および図13は、撮影者が図11に示す動作をした場合の撮影された回転補正前の全天球画像(左側)および回転補正後の全天球画像(右側)を説明する図である。 Hereinafter, the relationship between the traveling direction and the shooting front direction and the rotation processing by the image rotation unit at that time will be described with reference to FIGS. 11 to 13. FIG. 11 is a diagram for explaining an example of the relationship between the traveling direction T and the shooting front direction H when the photographer wears the omnidirectional camera 110 on the head 50 and moves. FIG. 12 and FIG. 13 are diagrams illustrating a captured spherical image before rotation correction (left side) and a rotationally corrected spherical image (right side) when the photographer performs the operation illustrated in FIG. 11. is there.

図11は、番号0、1、1’、1〜10で時系列的に示した図であり、図11には、番号で示す各時点での、撮影者の頭部50に固定された全天球カメラ110の状態が、撮影者(全天球カメラ110)の進行方向Tと、首振り動作に応じた全天球カメラ110の撮影正面方向Hとともに模式的に示されている。 FIG. 11 is a diagram showing the numbers 0, 1, 1 ′, and 1 to 10 in a time-series manner. In FIG. 11, all of the numbers fixed to the head 50 of the photographer at each time point indicated by the numbers. The state of the celestial sphere camera 110 is schematically shown together with the traveling direction T of the photographer (the celestial sphere camera 110) and the photographing front direction H of the celestial sphere camera 110 according to the swing motion.

図11において、進行方向Tに注目すると、この例では、撮影者は、番号0〜5の期間において「北」へ向かって進行していることが示されている。また、図11において撮影正面方向Hに注目すると、撮影者は、番号0〜1の時点では進行方向と同じ「北」を向いており、番号2〜4の時点で首振り動作によって周囲を見渡す動作が行われ、番号5の時点で進行方向左手の「西」を見ていることが示されている。なお、番号1,1’は、例えば、他者とすれ違う際に通路を譲る場合など、一旦右に平行移動した後に元の進路に戻った動作を表している。そして、撮影者は、「西」を見つつ、番号6〜7の間に「北」から「西」へ進行方向を転換し、番号7〜8の時点で、進行方向と同じ「西」を見ながら進んでいることが示される。また、番号9の時点では、「西」に進みながら進行方向左手の「南」を見ており、番号10の時点で、さらに見ていた「南」に進行方向を転換した様子が示されている。なお、東西南北は、便宜上に描いているが、必ずしも東西南北が識別されるというものではない。 In FIG. 11, focusing on the traveling direction T, in this example, it is shown that the photographer is traveling toward “North” in the period of numbers 0 to 5. Further, focusing on the shooting front direction H in FIG. 11, the photographer faces “North”, which is the same as the traveling direction at the time of numbers 0 to 1, and looks around by the swinging motion at the time of numbers 2 to 4. It is shown that the action is performed and at the time of number 5, the player is looking at “West” on the left side in the traveling direction. It should be noted that the numbers 1 and 1'represent the operation of returning to the original path after making a parallel translation to the right once, for example, in the case of yielding a passage when passing another person. Then, the photographer changes the traveling direction from "North" to "West" between the numbers 6 to 7 while looking at the "West", and at the time of the numbers 7 to 8, the same "West" as the traveling direction is set. It shows that you are progressing while watching. Also, at the time of number 9, while looking at the "west", you are looking at the "south" on the left side of the direction of travel, and at the time of number 10, you can see that you have changed the direction of travel to "south". There is. Note that the north, south, east, and west are drawn for convenience, but the north, south, east, and west are not necessarily identified.

図12および図13には、図11で示した番号0、1、1’、1〜10に対応した回転補正前の全天球画像(左側)300および回転補正後の全天球画像(右側)310が模式的に示されている。また、回転補正後の全天球画像(右側)310中には、全天球画像の中央に設定された所定範囲316が、情報端末150の表示画面上に表示されていることを模式的に表している。 12 and 13, the spherical image before rotation correction (left side) 300 and the spherical image after rotation correction (right side) corresponding to the numbers 0, 1, 1', 1 to 10 shown in FIG. ) 310 is shown schematically. Further, in the omnidirectional image (right side) 310 after the rotation correction, it is schematically shown that a predetermined range 316 set at the center of the omnidirectional image is displayed on the display screen of the information terminal 150. It represents.

番号0、1、1’、1〜5の期間において、撮影者は「北」に進んでいるが、図12および図13の左側に示すように、補正前の全天球画像300では、撮影者の首振り動作に応じて画像が回転していることがわかる。より具体的には、番号0、1、1’、1〜5の期間において、撮影正面方向302が、「北」→「北西(北から左方向60度)」→「北東(北から右方向60度)」→「北西(北から左方向45度)」→「西(北から左方向90度)」へと変化している。一方、図12および図13の右側に示すように、補正後の全天球画像310では、番号0、1、1’、1〜5の各時点では、開始時点の撮影正面方向および進行方向である「北」に常に表示の基準314が固定されている。また、時点1,1’での平行移動では、全天球カメラ110の移動方向が瞬間的に変化するが、短時間の変化であるため、図10に示したステップS107では、規定数分のフレームでの移動距離が閾値未満であると判定され、進行方向としては再決定されず、「北」のままとなっている。 In the periods of numbers 0, 1, 1', 1 to 5, the photographer is moving to the "north", but as shown on the left side of FIGS. 12 and 13, in the uncorrected spherical image 300, It can be seen that the image is rotated according to the person's swinging motion. More specifically, in the periods of numbers 0, 1, 1', and 1 to 5, the shooting front direction 302 is "North" → "Northwest (60 degrees from north to left)" → "Northeast (from north to right). "60 degrees)" → "northwest (45 degrees left from north)" → "west (90 degrees left from north)". On the other hand, as shown on the right side of FIGS. 12 and 13, in the corrected celestial sphere image 310, at the time points of numbers 0, 1, 1 ′, 1 to 5, in the shooting front direction and the traveling direction at the start time point. The display standard 314 is always fixed to a certain "north". Further, in the parallel movement at the time points 1 and 1′, the moving direction of the omnidirectional camera 110 changes momentarily, but since it is a short time change, in step S107 shown in FIG. It is determined that the moving distance in the frame is less than the threshold value, the traveling direction is not redetermined, and “North” remains.

代表的な点を抜き出して回転補正について説明すると、図11において番号2の時点では、撮影者が北に向かって進んでいる一方、全天球カメラ110は、左方向に60度回転して、「北西」を向いている状態である。このとき、撮影者は、全天球カメラ110の撮影正面方向Hと進行方向Tとは異なる。ここで、図11の番号2の時点の状態に撮影者が変化したときの画像回転部230の回転処理について説明する。番号1の時点から番号2の時点の状態に撮影者が首の向きを変えたとき、すなわち撮像装置の方向が60度左方向に回転しているとき、画像回転部230は、第1回転補正データに基づいて全天球画像の回転が打ち消されるよう右方向に60度回転させる回転処理を実行する。これにより、ディスプレイに表示されるデフォルトの方向を進行方向に固定することが可能になる。実際は時点1〜時点2の状態に変化するフレーム毎に、第1回転補正データに基づく回転処理が順次実行される。このとき、進行方向の変化は無いため、第2回転補正データに基づく回転処理は実行されない。なお、時点2〜時点3への変化、時点3〜時点4への変化、時点4〜時点5への変化についても同様である。 To explain the rotation correction by extracting representative points, at the time of number 2 in FIG. 11, the celestial sphere camera 110 rotates 60 degrees to the left while the photographer is heading north. It is facing northwest. At this time, the photographer is different from the shooting front direction H of the omnidirectional camera 110 and the traveling direction T. Here, the rotation process of the image rotation unit 230 when the photographer changes to the state of the number 2 in FIG. 11 will be described. When the photographer changes the direction of the neck from the time point of number 1 to the time point of number 2, that is, when the direction of the imaging device is rotating leftward by 60 degrees, the image rotation unit 230 causes the first rotation correction. Based on the data, a rotation process of rotating the spherical image 60 degrees to the right is executed so as to cancel the rotation of the spherical image. This makes it possible to fix the default direction shown on the display to the traveling direction. Actually, the rotation process based on the first rotation correction data is sequentially executed for each frame that changes from the time point 1 to the time point 2. At this time, since there is no change in the traveling direction, the rotation process based on the second rotation correction data is not executed. The same applies to changes from time point 2 to time point 3, changes from time point 3 to time point 4, and changes from time point 4 to time point 5.

番号5〜7では、撮影者は、見ている方向である「西」に徐々に進行方向を変えているが、図13の左側に示すように、補正前の全天球画像300では、撮影者の向きは常に「西」を見ており画像には変化がない。一方、図13の右側に示すように、補正後の全天球画像310では、更新された進行方向である「北西(番号6)」および「西(番号7)」に表示の基準314がそれぞれ固定されている。ここでは、時点6の進行方向は、充分に長い間進行方向が一定となっており、再決定された「北西」に一旦固定する方向が変化している様子が示されている。 In Nos. 5 to 7, the photographer gradually changes the traveling direction to “West” which is the viewing direction, but as shown on the left side of FIG. The direction of the person is always looking at "west" and there is no change in the image. On the other hand, as shown on the right side of FIG. 13, in the corrected celestial sphere image 310, the reference 314 displayed in the updated traveling directions “northwest (number 6)” and “west (number 7)” respectively. It is fixed. Here, it is shown that the traveling direction at time point 6 is constant for a sufficiently long period of time, and the direction to be fixed once at the re-determined “northwest” is changing.

ここで、図11の番号5、6および7の時点の状態に撮影者が変化したときの画像回転部の回転処理について説明する。5の時点から6の時点の状態に撮影者が撮影正面方向Hを変えず進行方向Tを変えたとき、第1回転補正データに基づけば、全天球画像の撮影正面方向に対する回転が初期値から打ち消されるよう右方向に90度回転させる回転処理を実行することになる。一方、第2回転補正データに基づけば、全天球画像の初期の進行方向(初期の撮影正面方向)からの進行方向の差分に基づいて左方向に45度回転させる回転処理を実行することになる。そして、第1回転補正データおよび第2回転補正データを合算すると、右方向に45度回転させる回転処理を実行することになる。 Here, the rotation process of the image rotation unit when the photographer changes to the state of the numbers 5, 6, and 7 in FIG. 11 will be described. When the photographer changes the traveling direction T without changing the photographing front direction H from the time point 5 to the time point 6, based on the first rotation correction data, the rotation of the spherical image with respect to the photographing front direction is the initial value. A rotation process of rotating 90 degrees to the right so as to be canceled by is executed. On the other hand, based on the second rotation correction data, the rotation processing of rotating the spherical image to the left by 45 degrees is executed based on the difference in the traveling direction from the initial traveling direction (the initial shooting front direction) of the spherical image. Become. Then, when the first rotation correction data and the second rotation correction data are summed up, a rotation process of rotating 45 degrees to the right is executed.

また、番号7の時点の状態では、第1回転補正データに基づけば、全天球画像の撮影正面方向に対する回転が初期値から打ち消されるよう右方向に90度回転させる回転処理を実行することになる。一方、第2回転補正データに基づけば、天球画像の初期の進行方向(初期の撮影正面方向)からの進行方向の差分に基づいて左方向に90度回転させる回転処理を実行することになる。そして、第1回転補正データおよび第2回転補正データを合算すると、回転補正なしとなる。 Further, in the state at the time of number 7, based on the first rotation correction data, a rotation process of rotating 90 degrees to the right is executed so that the rotation of the omnidirectional image with respect to the shooting front direction is canceled from the initial value. Become. On the other hand, based on the second rotation correction data, a rotation process of rotating the celestial sphere image 90 degrees to the left is executed based on the difference in the direction of travel from the initial direction of travel of the celestial sphere image (initial shooting front direction). Then, when the first rotation correction data and the second rotation correction data are added together, there is no rotation correction.

なお、進行方向の変化は、前の進行方向から次の進行方向へ滑らかに転換が起こるように補間されてもよい。つまり、時点5および時点6の期間、および時点6および時点7の期間の45度分の角度変化を、これらの間の各フレームで補間した値を適用することができる。あるいは、進行方向の変化は、瞬時に変化したものとしてもよい。例えば、画面表示を一旦ブラックアウトして、従前の進行方向に表示の基準を固定した状態から新たな進行方向に表示の基準が固定された状態へ切り替えてもよい。 The change in the traveling direction may be interpolated so that a smooth transition is made from the previous traveling direction to the next traveling direction. That is, it is possible to apply a value obtained by interpolating the angle change of 45 degrees in the periods of time points 5 and 6 and the periods of time points 6 and 7 in each frame therebetween. Alternatively, the change in the traveling direction may be an instantaneous change. For example, the screen display may be once blacked out, and the state in which the display reference is fixed in the previous traveling direction may be switched to the state in which the display reference is fixed in the new traveling direction.

一方、番号8から番号9への変化では、撮影者は、進行方向を変えず見ている方向を「西」から「南」へ変化させている。この場合、図13の左側に示すように、時点8および時点9では、補正前の全天球画像300では、撮影者の向きが「西」から「南」へ変化しているが、進行方向は「西」に固定されているため、図13の右側に示すように表示の基準314が「西」に固定されている。一方、番号9〜10では、撮影者は、見ている方向を変えず進行方向を「西」から「南」へ変化させている。この場合、図13の左側に示すように、時点9および時点10では、補正前の全天球画像300では、撮影者の向きは常に「南」を見ているが、図13の右側に示すように、進行方向は「西」から「南」へ表示の基準314が固定する方向が変化している。 On the other hand, in the change from the number 8 to the number 9, the photographer changes the viewing direction from “west” to “south” without changing the traveling direction. In this case, as shown on the left side of FIG. 13, at the time points 8 and 9, in the uncorrected spherical image 300, the orientation of the photographer changes from “west” to “south”, but Is fixed to "west", the display reference 314 is fixed to "west" as shown on the right side of FIG. On the other hand, with the numbers 9 to 10, the photographer changes the traveling direction from “west” to “south” without changing the viewing direction. In this case, as shown on the left side of FIG. 13, at the time points 9 and 10, in the uncorrected spherical image 300, the orientation of the photographer is always looking at “south”, but shown on the right side of FIG. As described above, the traveling direction is changed from “west” to “south” by the direction in which the reference 314 displayed is fixed.

ここで、図11の番号8、9および10の時点の状態に撮影者が変化したときの画像回転部の回転処理について説明する。番号8の時点から番号9の時点の状態に撮影者が進行方向Tを変えず撮影正面方向Hを変えたとき、第1回転補正データに基づけば、全天球画像の撮影正面方向に対する回転が初期値から打ち消されるよう右方向に180度回転させる回転処理を実行することになる。一方、第2回転補正データに基づけば、全天球画像の初期の進行方向(初期の撮影正面方向)からの進行方向の差分に基づいて左方向に90度回転させる回転処理を実行することになる。そして、第1回転補正データおよび第2回転補正データを合算すると、右方向に90度回転させる回転処理を実行することになる。また、番号10の時点の状態では、第1回転補正データに基づけば、全天球画像の撮影正面方向に対する回転が初期値から打ち消されるよう右方向に180度回転させる回転処理を実行することになる。一方、第2回転補正データに基づけば、全天球画像の初期の進行方向(初期の撮影正面方向)からの進行方向の差分に基づいて左方向に180度回転させる回転処理を実行することになる。そして、第1回転補正データおよび第2回転補正データを合算すると、回転補正なしとなる。 Here, the rotation process of the image rotation unit when the photographer changes to the state at the numbers 8, 9, and 10 in FIG. 11 will be described. When the photographer changes the shooting front direction H without changing the traveling direction T from the time point of number 8 to the time point of number 9, based on the first rotation correction data, the rotation of the spherical image with respect to the shooting front direction is changed. A rotation process of rotating 180 degrees to the right so as to be canceled from the initial value is executed. On the other hand, based on the second rotation correction data, the rotation processing of rotating 90 degrees to the left based on the difference in the traveling direction from the initial traveling direction of the celestial sphere image (the initial shooting front direction) is performed. Become. Then, when the first rotation correction data and the second rotation correction data are added together, a rotation process of rotating 90 degrees to the right is executed. Further, in the state at the time of the number 10, based on the first rotation correction data, the rotation process of rotating 180 degrees to the right is executed so that the rotation of the omnidirectional image with respect to the shooting front direction is canceled from the initial value. Become. On the other hand, based on the second rotation correction data, a rotation process of rotating 180 degrees to the left based on the difference in the traveling direction from the initial traveling direction of the celestial sphere image (the initial shooting front direction) is executed. Become. Then, when the first rotation correction data and the second rotation correction data are added together, there is no rotation correction.

このように、ディスプレイに表示されるデフォルトの方向を撮影開始時の撮影正面方向および進行方向のいずれかに固定することが可能になる。 In this way, the default direction displayed on the display can be fixed to either the shooting front direction at the start of shooting or the traveling direction.

以下、図14を参照しながら、他の実施形態における天頂補正および回転補正について、より詳細に説明する。図14は、他の実施形態による全天球動画システムを構成する全天球カメラ110(特定の実施形態では情報端末150やサーバ装置190であってもよい。)が実行するフレーム合成データに対する回転処理を示すフローチャートである。なお、図14は、進行方向の決定は行わず、常に、撮影開始時の撮影正面方向に表示の基準を固定する場合の実施形態を示す。 Hereinafter, the zenith correction and the rotation correction in another embodiment will be described in more detail with reference to FIG. FIG. 14 is a rotation with respect to the frame composite data executed by the omnidirectional camera 110 (which may be the information terminal 150 or the server device 190 in a specific embodiment) which constitutes the omnidirectional video system according to another embodiment. It is a flowchart which shows a process. Note that FIG. 14 shows an embodiment in which the advancing direction is not determined, and the display reference is always fixed in the shooting front direction at the start of shooting.

図14に示す処理は、全天球カメラ110が、補正された動画データを求める要求を受け付けたことに応答して、ステップS200から開始される。 The process shown in FIG. 14 is started from step S200 in response to the omnidirectional camera 110 accepting the request for the corrected moving image data.

ステップS201では、全天球カメラ110は、フレーム合成データおよび回転パラメータを取得する。図10に示した実施形態と同様に、説明の便宜上、回転処理の開始時点で、第1フレームデータおよび第2フレームデータの記録、画像合成によるフレーム合成データの生成、角速度データおよび加速度データの記録が完了しているものとする。 In step S201, the omnidirectional camera 110 acquires the frame composite data and the rotation parameter. Similar to the embodiment shown in FIG. 10, for convenience of description, at the start of the rotation process, recording of the first frame data and the second frame data, generation of frame composite data by image composition, recording of angular velocity data and acceleration data. Have been completed.

ステップS202では、全天球カメラ110は、当該全天球カメラ110の撮影正面方向の初期値を記憶する。ステップS203では、全天球カメラ110は、天頂補正量計算部222により、少なくとも加速度データに基づいて、当該処理対象のフレームにおける重力方向に対する傾き角を計算し、天頂補正データに書き込む。 In step S202, the omnidirectional camera 110 stores the initial value in the shooting front direction of the omnidirectional camera 110. In step S203, in the omnidirectional camera 110, the zenith correction amount calculation unit 222 calculates the tilt angle with respect to the gravity direction in the frame to be processed based on at least the acceleration data, and writes the tilt angle in the zenith correction data.

ステップS204では、全天球カメラ110は、第1回転量計算部224により、クロック毎の水平面の座標系の角度変化量を積算し、前フレームと比較した水平面内での回転角度の変化量を検出する。ステップS205では、全天球カメラ110は、第1回転量計算部224により、ステップS204で算出したフレーム間の角度変化量を積算して、初期値からの撮影正面方向の角度変化量を計算し、第1回転補正データを書き込む。 In step S204, the omnidirectional camera 110 causes the first rotation amount calculation unit 224 to integrate the angle change amount of the coordinate system of the horizontal plane for each clock and calculate the change amount of the rotation angle in the horizontal plane compared to the previous frame. To detect. In step S205, the omnidirectional camera 110 uses the first rotation amount calculation unit 224 to integrate the angle change amounts between the frames calculated in step S204, and calculate the angle change amount in the shooting front direction from the initial value. , Write the first rotation correction data.

ステップS206では、全天球カメラ110は、画像回転部230により、天頂補正データ(その中の対象フレームの傾き角)に基づいて、フレーム合成データの対象フレームに対して天頂補正を施す。 In step S206, the omnidirectional camera 110 performs the zenith correction on the target frame of the frame composite data based on the zenith correction data (the tilt angle of the target frame therein) by the image rotation unit 230.

ステップS207では、全天球カメラ110は、画像回転部230により、第1回転補正データに基づいて、対象フレームに対し、回転補正を施す。上述したように、第1回転補正データは、水平面内における、基準フレームの撮影正面方向の初期値と、対象フレームの時点の撮影正面方向との差分であり、対象フレームで打ち消すべき水平面内での回転変化量をそのまま表す。 In step S207, the omnidirectional camera 110 causes the image rotation unit 230 to perform rotation correction on the target frame based on the first rotation correction data. As described above, the first rotation correction data is the difference between the initial value in the shooting front direction of the reference frame and the shooting front direction at the time of the target frame in the horizontal plane, and the first rotation correction data in the horizontal plane to be canceled in the target frame. The amount of rotation change is expressed as it is.

ステップS208では、全天球カメラ110は、次フレームがあるか否かを判定する。ステップS208で、次フレームがあると判定された場合(YES)は、ステップS203へループさせる。一方、ステップS208で次フレームがないと判定された場合(NO)は、ステップS209で、本回転処理を終了する。 In step S208, the omnidirectional camera 110 determines whether there is a next frame. If it is determined in step S208 that there is a next frame (YES), the process loops to step S203. On the other hand, if it is determined in step S208 that there is no next frame (NO), the main rotation processing ends in step S209.

上記処理により、動画に対し、撮影を開始してから終了するまでの期間の複数のフレームにわたり、表示の基準が撮影開始時の撮影正面方向に略一致するように基準軸周りの回転変化を打ち消すような補正が施されることになる。 By the above process, the rotation change around the reference axis is canceled so that the display reference substantially coincides with the shooting front direction at the start of shooting over a plurality of frames from the start to the end of shooting for the moving image. Such correction will be applied.

以上示したように、本実施形態によれば、動画の視聴時における撮像時の基準軸周りの回転によって生じる視聴者の酔いを抑えることができる画像処理装置、撮像装置、動画再生システム、方法およびプログラムを提供することが可能となる。 As described above, according to the present embodiment, an image processing device, an imaging device, a moving image reproducing system, a method, and a method that can suppress motion sickness of a viewer caused by rotation around a reference axis when capturing an image when viewing a moving image. It becomes possible to provide the program.

特定の実施形態では、撮影者の進行方向に視聴時の表示の基準が固定されるので、視聴者の酔いを抑えるとともに、視聴者が撮影者の見ている景色に近い臨場感を味わうことが可能となる。 In a specific embodiment, since the display standard at the time of viewing is fixed in the traveling direction of the photographer, it is possible to suppress the motion sickness of the viewer and to give the viewer a realistic sensation close to the scenery seen by the photographer. It will be possible.

なお、上述した実施形態では、撮影者の頭部50に全天球カメラ110が固定されるものとして説明した。本実施形態による回転補正機能は、このような場合に好適に適用できるが、適用のシーンは、特に限定されるものではなく、ユーザが手持ちで撮影するような場合にも適用可能であることは言うまでもない。 In addition, in the above-described embodiment, the spherical camera 110 is fixed to the head 50 of the photographer. The rotation correction function according to the present embodiment can be suitably applied to such a case, but the application scene is not particularly limited, and it is also applicable to the case where the user holds the image by hand. Needless to say.

また、上述した実施形態では、角速度センサ136Aおよび加速度センサ136Bを用いて第1回転補正データおよび第2回転補正データを算出するものとして説明した。しかしながら、他の実施形態では、角度変化量を算出する際に、地磁気センサを用いて第1回転補正データおよび第2回転補正データを算出してもよい。その場合は、地磁気センサの初期値を記憶し、地磁気センサの初期値と対象フレームにおける地磁気センサが示す方向との差分に基づいて水平面の座標系の回転角度を算出し、第1回転補正データおよび第2回転補正データを算出することができる。また、上述した説明では、フレーム合成データ、加速度データおよび角速度データが事前に保存されているものとして説明したが、本回転補正機能は、保存された動画データ以外にも、リアルタイムに配信される動画データのストリームに対しても適用可能である。 Moreover, in the above-described embodiment, the first rotation correction data and the second rotation correction data are calculated using the angular velocity sensor 136A and the acceleration sensor 136B. However, in other embodiments, the first rotation correction data and the second rotation correction data may be calculated using the geomagnetic sensor when calculating the angle change amount. In that case, the initial value of the geomagnetic sensor is stored, the rotation angle of the coordinate system of the horizontal plane is calculated based on the difference between the initial value of the geomagnetic sensor and the direction indicated by the geomagnetic sensor in the target frame, and the first rotation correction data and The second rotation correction data can be calculated. Further, in the above description, the frame synthesis data, the acceleration data, and the angular velocity data are described as being stored in advance. It can also be applied to a stream of data.

さらに、上述した実施形態では、座標系が2つの角度座標を含む球面座標系の動画に対して天頂補正を行うものとして説明した。しかしながら、実施形態によっては、天頂補正が必要なほどの重力方向の傾きが生じない場合があり、そのような場合に、天頂補正を省略することもできる。この場合、基準軸は、座標系が1つの角度座標を含む円筒座標系であれば、角度座標の軸としてよく、座標系が2つの角度座標を含む球面座標系であれば、二つの角度座標を与える軸としてよい。 Furthermore, in the above-described embodiment, the zenith correction is performed on the moving image of the spherical coordinate system whose coordinate system includes two angular coordinates. However, depending on the embodiment, there is a case in which the inclination in the direction of gravity that does not require the zenith correction does not occur, and in such a case, the zenith correction can be omitted. In this case, the reference axis may be an axis of the angular coordinate if the coordinate system is a cylindrical coordinate system including one angular coordinate, and two angular coordinates if the coordinate system is a spherical coordinate system including two angular coordinates. May be used as the axis for giving.

なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrated Circuits Hardware Description Language)、Verilog−HDLなどにより記述されたデータとして記録媒体により配布することができる。 The functional unit can be realized by a computer-executable program written in a legacy programming language such as assembler, C, C++, C#, Java (registered trademark), or an object-oriented programming language, and can be ROM, EEPROM, EPROM. , Flash memory, flexible disk, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disc, SD card, MO, or other device-readable recording medium, or through an electric communication line. It can be distributed. Further, a part or all of the above-mentioned functional units can be mounted on a programmable device (PD) such as a field programmable gate array (FPGA), or as an ASIC (application specific integration). Circuit configuration data (bit stream data) to be downloaded to the PD in order to realize the above functional unit on the PD, HDL (Hardware Description Language) for generating the circuit configuration data, and VHDL (Very High Speed Integrated Circuits). Hardware Description Language), Verilog-HDL, and the like can be distributed by a recording medium as data described.

これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the embodiments of the present invention have been described so far, the embodiments of the present invention are not limited to the above-described embodiments, and those skilled in the art can conceive of other embodiments, additions, changes, deletions, and the like. The present invention can be modified within the scope of the present invention, and is included in the scope of the present invention as long as the effects and advantages of the present invention are exhibited in any of the aspects.

12…撮像体、14…筐体、18…シャッター・ボタン、20…結像光学系、22,130…撮像素子、110…全天球カメラ、112,152…CPU、114…ROM、116…画像処理ブロック、118…動画圧縮ブロック、120,126…インタフェース、122…外部ストレージインタフェース、124…外部センサインタフェース、126…USBインタフェース、128…シリアルブロック、132…DRAM、134,160…外部ストレージ、136A…角速度センサ、136B…加速度センサ、138,166…USBコネクタ、150…情報端末、154…RAM、156…内部ストレージ、158…入力装置、162…ディスプレイ、164…無線NIC、200…機能ブロック、212…第1撮像部、214…第2撮像部、216…角速度検知部、218…加速度検知部、220…画像合成部、222…天頂補正量計算部、224…第1回転量計算部、226…第2回転量計算部、228…記憶部、230…画像回転部、240…出力部、242…指示受付部、252…受信部、254…表示制御部 12... Imaging body, 14... Housing, 18... Shutter button, 20... Imaging optical system, 22, 130... Imaging element, 110... Spherical camera, 112, 152... CPU, 114... ROM, 116... Image Processing block, 118... Video compression block, 120, 126... Interface, 122... External storage interface, 124... External sensor interface, 126... USB interface, 128... Serial block, 132... DRAM, 134, 160... External storage, 136A... Angular velocity sensor 136B... Acceleration sensor, 138, 166... USB connector, 150... Information terminal, 154... RAM, 156... Internal storage, 158... Input device, 162... Display, 164... Wireless NIC, 200... Functional block, 212... 1st imaging part, 214... 2nd imaging part, 216... Angular velocity detection part, 218... Acceleration detection part, 220... Image composition part, 222... Zenith correction amount calculation part, 224... 1st rotation amount calculation part, 226... 2 rotation amount calculation unit, 228... storage unit, 230... image rotation unit, 240... output unit, 242... instruction receiving unit, 252... receiving unit, 254... display control unit

特開2017−147682号公報JP, 2017-147682, A

Claims (16)

少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を処理する画像処理装置であって、
動画データを取得する動画データ取得手段と、
前記動画データに対応するセンサデータを取得するセンサデータ取得手段と、
前記センサデータに基づいて、前記動画の複数のフレームにわたり前記画像の表示の基準が撮影中の特定方向に固定されるように、基準軸周りの回転変化を打ち消す補正を前記画像に施す回転補正手段と
を含む、画像処理装置。
An image processing device for processing a moving image including continuous images, which is represented by a coordinate system including at least angular coordinates around a predetermined axis,
Video data acquisition means for acquiring video data,
Sensor data acquisition means for acquiring sensor data corresponding to the moving image data,
Based on the sensor data, a rotation correction unit that performs correction to cancel the rotation change around the reference axis on the image so that the display reference of the image is fixed in a specific direction during shooting over a plurality of frames of the moving image. An image processing apparatus including:
所定時点の基準フレームでの前記動画を撮像するカメラの姿勢に基づく前記基準軸に垂直な平面内での方向が、前記撮影中の特定方向として定められ、前記回転変化の量は、基準フレームでの該姿勢に基づく方向と、補正対象フレームでの前記カメラの姿勢に基づく前記基準軸に垂直な平面内での方向との差分に基づく、請求項1に記載の画像処理装置。 A direction within a plane perpendicular to the reference axis based on the attitude of the camera that captures the moving image at the reference frame at a predetermined time point is defined as the specific direction during the shooting, and the amount of the rotational change is the reference frame. The image processing apparatus according to claim 1, wherein the image processing apparatus is based on a difference between a direction based on the orientation of the image and a direction within a plane perpendicular to the reference axis based on the orientation of the camera in the correction target frame. 前記所定時点は、前記動画の撮影の開始時点または前記動画の撮影中の指示を受け付けた時点である、請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the predetermined time point is a time point when the shooting of the moving image is started or a time point when an instruction during shooting the moving image is received. 前記複数のフレームに対応する一定期間は、前記動画の開始または固定の開始を指示された第1の時点から前記動画の終了または固定の終了を指示された第2の時点までの期間である、請求項2または3に記載の画像処理装置。 The certain period corresponding to the plurality of frames is a period from a first time point when the start or fixing of the moving image is instructed to a second time point when the end or fixing of the moving image is instructed. The image processing apparatus according to claim 2. 前記基準軸に垂直な平面内での前記カメラが移動している進行方向を、前記撮影中の特定方向として決定する決定手段を含み、前記進行方向が前記特定方向として決定された場合、前記回転変化の量は、前記進行方向と、補正対象フレームでの前記カメラの姿勢に基づく前記基準軸に垂直な平面内での方向との差分に基づく、請求項1〜3のいずれか1項に記載の画像処理装置。 The rotation direction when the traveling direction is determined as the specific direction, the determining unit determining the traveling direction of the camera moving in a plane perpendicular to the reference axis as the specific direction during the photographing. 4. The amount of change is based on a difference between the traveling direction and a direction in a plane perpendicular to the reference axis based on the posture of the camera in a correction target frame, according to claim 1. Image processing device. 前記決定手段は、前記センサデータに基づいて、規定数のフレームでの移動距離が所定の条件を満たす場合に、再度求めた進行方向を前記撮影中の特定方向として決定することを特徴とし、決定された前記撮影中の特定方向に対応した前記複数のフレームに対応する一定期間は、該決定から次回の決定までの期間である、請求項5に記載の画像処理装置。 The determining means determines, based on the sensor data, the traveling direction obtained again when the moving distance in a predetermined number of frames satisfies a predetermined condition, as the specific direction during the photographing. The image processing apparatus according to claim 5, wherein the fixed period corresponding to the plurality of frames corresponding to the specific direction during the photographing is a period from the determination to the next determination. 前記座標系は、前記所定軸に対する角度座標をさらに含み、前記画像処理装置は、
前記動画の各フレームでの前記基準軸に対する撮像時の傾き角に基づいて、前記動画の各フレームに対し、前記所定軸が前記基準軸に略一致するように天頂補正を施す天頂補正手段
をさらに含む、請求項1〜6のいずれか1項に記載の画像処理装置。
The coordinate system further includes angular coordinates with respect to the predetermined axis, the image processing device,
And a zenith correction means for performing zenith correction on each frame of the moving image based on an inclination angle of each frame of the moving image with respect to the reference axis when the image is captured. The image processing apparatus according to claim 1, further comprising:
前記動画は、2つの角度座標を含む座標系で表される全天球画像を各フレームとして含み、前記動画は、複数の撮像素子により撮像されたものであり、前記全天球画像は、前記複数の撮像素子で撮像された複数の部分画像を合成することで構成され、前記動画データは、各フレームとして、前記全天球画像または前記複数の部分画像を含み、前記補正は、前記全天球画像または前記複数の部分画像に対して施され、前記基準軸は、重力方向である、請求項1〜7のいずれか1項に記載の画像処理装置。 The moving image includes a spherical image represented by a coordinate system including two angular coordinates as each frame, the moving image is captured by a plurality of image pickup elements, and the spherical image is The moving image data includes, as each frame, the omnidirectional image or the plurality of partial images, and the correction is performed on the omnidirectional image. The image processing apparatus according to claim 1, wherein the reference axis is applied to a spherical image or the plurality of partial images, and the reference axis is a gravity direction. 前記動画に対応するセンサデータは、加速度センサが出力するデータ、角速度センサが出力するデータ、地磁気センサが出力するデータおよびこれらのセンサが出力するデータに基づいて算出される回転補正データのうちの少なくとも1つを含む、請求項1〜8のいずれか1項に記載の画像処理装置。 The sensor data corresponding to the moving image is at least one of data output by the acceleration sensor, data output by the angular velocity sensor, data output by the geomagnetic sensor, and rotation correction data calculated based on the data output by these sensors. The image processing device according to claim 1, comprising one. 少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を撮像する撮像装置であって、
動画の各フレームを撮像する撮像手段と、
絶対座標系における該撮像装置の変位量を示すセンサデータを記録する記録手段と、
前記センサデータに基づいて、前記動画の複数のフレームにわたり前記画像の表示の基準が撮影中の特定方向に固定されるように、基準軸周りの回転変化を打ち消す補正を前記画像に施す回転補正手段と
を備える、撮像装置。
An imaging device for capturing a moving image including continuous images, which is represented by a coordinate system including at least angular coordinates around a predetermined axis,
Imaging means for imaging each frame of the moving image,
Recording means for recording sensor data indicating a displacement amount of the imaging device in an absolute coordinate system;
Based on the sensor data, a rotation correction unit that performs correction to cancel the rotation change around the reference axis on the image so that the display reference of the image is fixed in a specific direction during shooting over a plurality of frames of the moving image. An imaging device comprising:
前記動画の撮影中に前記特定方向を指定する指示を受け付ける受付手段をさらに含む、請求項10に記載の撮像装置。 The image pickup apparatus according to claim 10, further comprising a receiving unit that receives an instruction to specify the specific direction during shooting of the moving image. 少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を再生するための動画再生システムであって、
動画データを取得する動画データ取得手段と、
前記動画データに対応するセンサデータを取得するセンサデータ取得手段と、
前記センサデータに基づいて、前記動画の複数のフレームにわたり前記画像の表示の基準が撮影中の特定方向に固定されるように、基準軸周りの回転変化を打ち消す補正を前記画像に施す回転補正手段と、
前記補正が施された前記動画の画像の少なくとも一部を、表示手段に前記表示の基準に基づいて画面表示させる表示制御手段と
を含む、動画再生システム。
A moving image reproducing system for reproducing a moving image including continuous images, which is represented by a coordinate system including at least angular coordinates around a predetermined axis,
Video data acquisition means for acquiring video data,
Sensor data acquisition means for acquiring sensor data corresponding to the moving image data,
Based on the sensor data, a rotation correction unit that performs correction to cancel the rotation change around the reference axis on the image so that the display reference of the image is fixed in a specific direction during shooting over a plurality of frames of the moving image. When,
And a display control unit that causes a display unit to display at least a part of the corrected image of the moving image on the basis of the display standard.
前記基準軸に対し垂直方向の平面座標系における撮影中の特定方向を算出する回転量計算手段をさらに含む、請求項12に記載の動画再生システム。 13. The moving image reproduction system according to claim 12, further comprising a rotation amount calculation means for calculating a specific direction during shooting in a plane coordinate system perpendicular to the reference axis. 前記動画データ取得手段は、動画の各フレームを撮像する撮像手段を含み、前記センサデータ取得手段は、前記撮像手段とともに備えられたセンサの出力データまたは該出力データから計算される補正データを、前記動画の各フレームに関連付けて記録する記録手段を含むか、または、
前記動画データ取得手段および前記センサデータ取得手段は、撮像手段により撮像された動画の各フレームとともに、該撮像手段とともに備えられたセンサの出力データまたは該出力データから計算される補正データを受信する受信手段を含む、
請求項12または13に記載の動画再生システム。
The moving image data acquisition unit includes an image capturing unit that captures each frame of a moving image, and the sensor data acquisition unit outputs output data of a sensor provided together with the image capturing unit or correction data calculated from the output data. Includes a recording means for recording in association with each frame of the moving image, or
The moving image data acquisition means and the sensor data acquisition means receive, together with each frame of the moving image captured by the image capturing means, output data of a sensor provided with the image capturing means or correction data calculated from the output data. Including means,
The video playback system according to claim 12 or 13.
少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を処理するための方法であって、コンピュータが、
動画データを取得するステップと、
前記動画データに対応するセンサデータを取得するステップと、
前記センサデータに基づいて、前記動画の複数のフレームにわたり前記画像の表示の基準が撮影中の特定方向に固定されるように、基準軸周りの回転変化を打ち消す補正を前記画像に施すステップと
を実行する方法。
A method for processing a moving image including a series of images represented by a coordinate system including at least angular coordinates around a predetermined axis, the computer comprising:
A step of obtaining video data,
Obtaining sensor data corresponding to the moving image data,
Applying a correction to the image based on the sensor data so as to cancel the rotational change about the reference axis so that the display reference of the image is fixed in a specific direction during shooting over a plurality of frames of the moving image. How to do.
少なくとも所定軸周りの角度座標を含む座標系で表される、連続した画像を含む動画を処理する画像処理装置を実現するためのプログラムであって、コンピュータを、
動画データを取得する動画データ取得手段、
前記動画データに対応するセンサデータを取得するセンサデータ取得手段、および
前記センサデータに基づいて、前記動画の複数のフレームにわたり前記画像の表示の基準が撮影中の特定方向に固定されるように、基準軸周りの回転変化を打ち消す補正を前記画像に施す回転補正手段
として機能させるためのプログラム。
A program for realizing an image processing device for processing a moving image including a continuous image, which is represented by a coordinate system including at least angular coordinates around a predetermined axis, the computer comprising:
Video data acquisition means for acquiring video data,
A sensor data acquisition unit that acquires sensor data corresponding to the moving image data, and based on the sensor data, so that the display reference of the image is fixed in a specific direction during shooting over a plurality of frames of the moving image, A program for functioning as a rotation correction means for performing a correction for canceling a rotation change around a reference axis on the image.
JP2019188616A 2018-11-30 2019-10-15 IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, VIDEO PLAYBACK SYSTEM, METHOD, AND PROGRAM Active JP7487464B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/699,428 US11128814B2 (en) 2018-11-30 2019-11-29 Image processing apparatus, image capturing apparatus, video reproducing system, method and program
CN201911203949.0A CN111263037B (en) 2018-11-30 2019-11-29 Image processing device, imaging device, video playback system, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018225857 2018-11-30
JP2018225857 2018-11-30

Publications (2)

Publication Number Publication Date
JP2020096349A true JP2020096349A (en) 2020-06-18
JP7487464B2 JP7487464B2 (en) 2024-05-21

Family

ID=71085188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019188616A Active JP7487464B2 (en) 2018-11-30 2019-10-15 IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, VIDEO PLAYBACK SYSTEM, METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7487464B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112017216A (en) * 2020-08-06 2020-12-01 影石创新科技股份有限公司 Image processing method, image processing device, computer-readable storage medium and computer equipment
CN113438416A (en) * 2021-06-21 2021-09-24 北京小米移动软件有限公司 Image quantity acquisition method and device, electronic equipment and storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043225A (en) 2005-07-29 2007-02-15 Univ Of Electro-Communications Picked-up processing apparatus and picked-up processing method
US20090040308A1 (en) 2007-01-15 2009-02-12 Igor Temovskiy Image orientation correction method and system
JP6398472B2 (en) 2014-08-27 2018-10-03 株式会社リコー Image display system, image display apparatus, image display method, and program
JP2016105534A (en) 2014-12-01 2016-06-09 株式会社ザクティ Imaging apparatus and imaging apparatus system
JP5920507B1 (en) 2015-03-10 2016-05-18 株式会社リコー Image processing system, image processing method, and program
US20200068098A1 (en) 2017-05-18 2020-02-27 Sony Corporation Shooting apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112017216A (en) * 2020-08-06 2020-12-01 影石创新科技股份有限公司 Image processing method, image processing device, computer-readable storage medium and computer equipment
CN112017216B (en) * 2020-08-06 2023-10-27 影石创新科技股份有限公司 Image processing method, device, computer readable storage medium and computer equipment
CN113438416A (en) * 2021-06-21 2021-09-24 北京小米移动软件有限公司 Image quantity acquisition method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP7487464B2 (en) 2024-05-21

Similar Documents

Publication Publication Date Title
JP6927382B2 (en) Imaging systems, methods, programs, video display devices and image processing devices.
JP5920507B1 (en) Image processing system, image processing method, and program
KR101888470B1 (en) Imaging system, imaging apparatus, computer program, and system
JP7031280B2 (en) Image processing equipment, image processing systems and programs
JP7487464B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, VIDEO PLAYBACK SYSTEM, METHOD, AND PROGRAM
US11128814B2 (en) Image processing apparatus, image capturing apparatus, video reproducing system, method and program
JP6256513B2 (en) Imaging system, imaging apparatus, method, and program
JP7383911B2 (en) Imaging system, image processing device, imaging device and program
JP6724659B2 (en) Imaging device, method and program
JP2020204874A (en) Image processing system, imaging system, image processing apparatus, imaging apparatus and program
JP7434797B2 (en) Image processing device, imaging device, video playback system, method and program
JP7206797B2 (en) Imaging device, information processing device, correction value calculation method and program
JP2020174363A (en) Photographing system, method, and program
JP2020136850A (en) Imaging apparatus, imaging method, program, and imaging system
JP2020078065A (en) Imaging apparatus, information processing apparatus, correction amount setting method, and program
JP2018011172A (en) Imaging apparatus, imaging system and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211227

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240422