JP6740996B2 - Data generation device, image processing device, method and program - Google Patents

Data generation device, image processing device, method and program Download PDF

Info

Publication number
JP6740996B2
JP6740996B2 JP2017249282A JP2017249282A JP6740996B2 JP 6740996 B2 JP6740996 B2 JP 6740996B2 JP 2017249282 A JP2017249282 A JP 2017249282A JP 2017249282 A JP2017249282 A JP 2017249282A JP 6740996 B2 JP6740996 B2 JP 6740996B2
Authority
JP
Japan
Prior art keywords
image
data
moving image
tilt angle
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017249282A
Other languages
Japanese (ja)
Other versions
JP2018067964A5 (en
JP2018067964A (en
Inventor
山本 英明
英明 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2018067964A publication Critical patent/JP2018067964A/en
Publication of JP2018067964A5 publication Critical patent/JP2018067964A5/ja
Priority to JP2020125020A priority Critical patent/JP6927382B2/en
Application granted granted Critical
Publication of JP6740996B2 publication Critical patent/JP6740996B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、ファイルに関し、より詳細には、画像を生成するための撮像システム、撮像装置、プログラムおよびシステムで使用されるファイルに関する。 The present invention relates to files, and more particularly to an imaging system, an imaging device, a program for generating an image, and a file used in the system.

近年、1回の撮影により、半球ないし全天球の視野で静止画を撮像できるカメラが実用化されている。また、手持ちで全天球の静止画の撮影が可能なサイズのものも提供されている。このような手持ちサイズのカメラでは、カメラ本体が傾き易いため、本体カメラが傾いた状態の撮影に対応して、撮像された静止画像を傾き補正して表示する機能を備えたものも知られている。 In recent years, a camera capable of capturing a still image in a hemispherical or omnidirectional field of view by one shot has been put into practical use. In addition, a size that allows you to shoot a still image of a spherical image by hand is also provided. In such a handheld camera, since the camera body is easily tilted, it is known that the camera body has a function of tilt-correcting and displaying a captured still image corresponding to shooting in a tilted state. There is.

静止画の傾きを補正する技術としては、特開2013‐214947号公報(特許文献1)が知られている。特許文献1は、鉛直方向が正しい静止画を得る目的で、2つの魚眼レンズを有する静止画撮影装置において、内部に備えた鉛直方向からの傾きを得るための加速度センサが検出した傾き角に応じて、魚眼画像の正則画像への変換パラメータを算出する構成を開示する。 Japanese Patent Application Laid-Open No. 2013-214947 (Patent Document 1) is known as a technique for correcting the inclination of a still image. Patent Document 1 discloses a still image capturing apparatus having two fish-eye lenses for the purpose of obtaining a still image with a correct vertical direction, in accordance with a tilt angle detected by an acceleration sensor for obtaining a tilt from the vertical direction provided inside. A configuration for calculating a conversion parameter for converting a fish-eye image into a regular image is disclosed.

また、静止画像のみならず、超広角のレンズにより広範囲を動画像として保存可能なカメラも開発されている。 Further, not only still images but also cameras capable of storing a wide range as moving images by using an ultra wide-angle lens have been developed.

しかしながら、従来技術の動画像を撮像するカメラでは、手ぶれ補正機能を搭載したものは知られているものの、カメラ本体が傾いた状態で撮像された場合に、鉛直方向と動画像撮像装置の天頂方向とが異なることに起因して不具合があった。すなわち、カメラ本体が傾いた状態で撮像した動画像を視聴する際に、鉛直方向を合わせたまま視野の変更が行われた場合に、複雑な回転が発生してしまい、視聴者に対して3次元酔いなどの不快感を与えてしまう可能性があった。特許文献1の従来技術は、静止画に対応するものであり、鉛直方向が正しい動画像を作成できる技術ではなかった。そのため、カメラの傾き状態にかかわらず、鉛直方向が正しい全天球動画を生成する技術の開発が望まれていた。 However, although it is known that a camera that captures a moving image of the related art has a camera shake correction function, when the camera body is imaged in a tilted state, the vertical direction and the zenith direction of the moving image capturing apparatus are There was a problem due to the difference between and. That is, when viewing a moving image captured with the camera body tilted, if the field of view is changed while keeping the vertical direction aligned, a complicated rotation occurs, which causes a 3 There was a possibility of giving discomfort such as plane sickness. The conventional technique of Patent Document 1 is for a still image and is not a technique capable of creating a moving image with a correct vertical direction. Therefore, it has been desired to develop a technology for generating a spherical video in which the vertical direction is correct regardless of the tilted state of the camera.

本発明は、上記従来技術における不充分な点に鑑みてなされたものであり、本発明は、検出された基準方向に対する撮影手段の傾きに応じて傾き補正された動画データを生成するためのデータを格納するファイルを提供することを目的とする。 The present invention has been made in view of the inadequacies in the above-mentioned conventional art, and the present invention is data for generating moving image data whose inclination is corrected according to the detected inclination of the photographing means with respect to the reference direction. The purpose is to provide a file to store.

本発明では、上記課題を解決するために、下記特徴を有するファイルを提供する。本ファイルは、コンピュータにより座標系が変換される動画データを生成するためのデータを格納するファイルである。ファイルは、動画形式の画像のデータである画像データと、撮像手段により前記画像を撮像しているときの基準方向に対する傾きのデータである傾き角データと、前記撮像手段固有の付加情報と、を有する。 In order to solve the above problems, the present invention provides a file having the following features. This file is a file that stores data for generating moving image data whose coordinate system is converted by a computer. The file includes image data which is image data in a moving image format, tilt angle data which is tilt data with respect to a reference direction when the image is taken by the image pickup means, and additional information unique to the image pickup means. Have.

上記構成により、検出された基準方向に対する撮影手段の傾きに応じて傾き補正された動画データを生成することができる。 With the above configuration, it is possible to generate moving image data whose inclination is corrected according to the detected inclination of the image capturing unit with respect to the reference direction.

本実施形態による全天球動画撮像システムを構成する全天球カメラの断面図。Sectional drawing of the omnidirectional camera which comprises the omnidirectional video imaging system by this embodiment. 本実施形態による全天球動画撮像システムのハードウェア構成図。The hardware block diagram of the celestial sphere animation imaging system by this embodiment. 本実施形態による全天球動画撮像システム上に実現される全天球動画撮像記録機能に関連する主要な機能ブロック図。FIG. 3 is a main functional block diagram relating to a spherical moving image capturing/recording function realized on the spherical moving image capturing system according to the present embodiment. 本実施形態による全天球動画撮像システムを構成する全天球カメラ側で行われる撮像処理を示すフローチャート。6 is a flowchart showing an imaging process performed on the omnidirectional camera side that constitutes the omnidirectional video imaging system according to the present embodiment. 本実施形態における魚眼レンズを用いた全天球カメラにおける射影関係を説明する図。The figure explaining the projection relationship in the omnidirectional camera which used the fisheye lens in this embodiment. 本実施形態における全天球カメラの傾きについて説明する概略図である。It is the schematic explaining the inclination of the spherical camera in this embodiment. 本実施形態による全天球動画撮像システムを構成する画像処理装置側で行われる記録処理を示すフローチャート。6 is a flowchart showing a recording process performed on the image processing device side that constitutes the spherical moving image capturing system according to the present embodiment. 好ましい実施形態において、補正に際して、動画を構成する一部のフレームの画像のみをRAM上に展開する構成を説明する図。FIG. 6 is a diagram illustrating a configuration in which, in the preferred embodiment, only images of a part of frames that make up a moving image are expanded on a RAM during correction. 本実施形態による全天球動画撮像システムを構成する画像処理装置側で行われる変換処理を示すフローチャート。5 is a flowchart showing a conversion process performed on the image processing device side that constitutes the spherical moving image capturing system according to the present embodiment. 本実施形態における全天球画像フォーマットについて、(A)平面で表した場合および(B)球面で表した場合についてそれぞれ説明する図。The figure explaining the case where it represents by the (A) plane and the case where it represents by the (B) spherical surface about the spherical image format in this embodiment, respectively. 本実施形態において全天球カメラにおいて各撮像素子で取得した画像、画像処理装置において生成された画像をそれぞれ説明する図。FIG. 3 is a diagram illustrating an image acquired by each image sensor in the omnidirectional camera and an image generated by the image processing device in the present embodiment. 本実施形態における全天球画像の変換テーブルを説明する図。The figure explaining the conversion table of the spherical image in this embodiment. 本実施形態における全天球画像の変換テーブルに対する修正処理の動作フローについて説明するフローチャート。The flowchart explaining the operation|movement flow of the correction process with respect to the conversion table of the spherical image in this embodiment. 本実施形態における全天球画像の鉛直補正演算について、(A)カメラ座標系、(B)グローバル座標系を用いて説明する図。The figure which demonstrates the vertical correction calculation of the spherical image in this embodiment using (A) camera coordinate system and (B) global coordinate system. 傾き補正前の動画のフレームを説明する図。The figure explaining the frame of the moving image before inclination correction. 傾き補正後の動画のフレームを説明する図。FIG. 6 is a diagram illustrating a frame of a moving image after tilt correction.

以下、本実施形態について説明するが、本実施形態は、以下に説明する実施形態に限定されるものではない。なお、以下の実施形態では、撮像装置および撮像システムの一例として、2つの魚眼レンズを光学系に含む撮像体を備える全天球カメラ、および、全天球カメラと、該全天球カメラから分離された画像処理装置とを備える全天球動画撮像システムを用いて説明する。 Hereinafter, the present embodiment will be described, but the present embodiment is not limited to the embodiment described below. In the following embodiments, as an example of an image capturing apparatus and an image capturing system, a spherical camera including an image capturing body including two fish-eye lenses in an optical system, a spherical camera, and a spherical camera separated from the spherical camera. An explanation will be given by using a celestial sphere moving image capturing system including the image processing device.

[全体構成]
以下、図1および図2を参照しながら、本実施形態による全天球動画撮像システムの全体構成について説明する。図1は、本実施形態による全天球動画撮像システム100を構成する全天球カメラ110の断面図である。図1に示す全天球カメラ110は、撮像体12と、上記撮像体12およびコントローラやバッテリなどの部品を保持する筐体14と、上記筐体14に設けられたシャッター・ボタン18とを備える。
[overall structure]
Hereinafter, the overall configuration of the celestial sphere moving image capturing system according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a cross-sectional view of a celestial sphere camera 110 that constitutes a celestial sphere video imaging system 100 according to the present embodiment. The omnidirectional camera 110 shown in FIG. 1 includes an imaging body 12, a housing 14 that holds the imaging body 12 and components such as a controller and a battery, and a shutter button 18 provided on the housing 14. ..

図1に示す撮像体12は、2つの結像光学系20A,20Bと、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの2つの撮像素子22A,22Bとを含み構成される。結像光学系20各々は、例えば6群7枚の魚眼レンズとして構成されている。上記魚眼レンズは、図1に示す実施形態では、180度(=360度/n;光学系数n=2)より大きい全画角を有し、好適には、185度以上の画角を有し、より好適には、190度以上の画角を有する。このような広角な結像光学系20と撮像素子22とを1個ずつ組み合わせたものを広角撮像光学系と参照する。 The imaging body 12 shown in FIG. 1 includes two imaging optical systems 20A and 20B, and two imaging elements 22A and 22B such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor. It Each of the image forming optical systems 20 is configured as, for example, a fisheye lens of 7 elements in 6 groups. In the embodiment shown in FIG. 1, the fisheye lens has a total angle of view larger than 180 degrees (=360 degrees/n; optical system number n=2), and preferably has a field angle of 185 degrees or more, More preferably, it has an angle of view of 190 degrees or more. A combination of the wide-angle imaging optical system 20 and the image sensor 22 one by one is referred to as a wide-angle imaging optical system.

2つの結像光学系20A,20Bの光学素子(レンズ、プリズム、フィルタおよび開口絞り)は、撮像素子22A,22Bに対して位置関係が定められる。より具体的には、結像光学系20A,20Bの光学素子の光軸が、対応する撮像素子22の受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように位置決めが行われる。 The optical elements (lens, prism, filter, and aperture stop) of the two imaging optical systems 20A and 20B have a positional relationship with respect to the image pickup elements 22A and 22B. More specifically, the optical axes of the optical elements of the imaging optical systems 20A and 20B are positioned orthogonal to the center of the light receiving area of the corresponding image pickup element 22, and the light receiving area corresponds to the fisheye lens. The positioning is performed so as to be the image plane of.

図1に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。撮像素子22A,22Bは、受光した光分布を画像信号に変換し、コントローラ上の画像処理手段に順次、画像フレームを出力する。詳細は後述するが、撮像素子22A,22Bでそれぞれ撮像された画像は、画像処理装置150へ転送されて、合成処理されて、これにより、立体角4πステラジアンの画像(以下「全天球画像」と参照する。)が生成される。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。そして、全天球画像の連続するフレームにより、全天球動画が構成される。ここで、説明する実施形態では、全天球画像および全天球動画を生成するものとして説明するが、水平面のみ360度を撮影した、いわゆるパノラマ画像およびパノラマ動画であってもよい。 In the embodiment shown in FIG. 1, the image forming optical systems 20A and 20B have the same specifications and are combined in opposite directions so that their optical axes coincide with each other. The image pickup devices 22A and 22B convert the received light distribution into image signals and sequentially output image frames to the image processing means on the controller. As will be described later in detail, the images respectively captured by the image pickup devices 22A and 22B are transferred to the image processing device 150 and subjected to a synthesis process, whereby an image with a solid angle of 4π steradian (hereinafter referred to as “all sphere image”). Is generated). The celestial sphere image is a photograph of all directions that can be viewed from the photographing point. Then, the celestial sphere moving image is constituted by the continuous frames of the celestial sphere image. Here, in the embodiment to be described, the explanation will be given on the assumption that the spherical image and the spherical moving image are generated, but a so-called panoramic image and panoramic moving image in which only the horizontal plane is photographed at 360 degrees may be used.

図2(A)は、本実施形態による全天球動画撮像システム100を構成する全天球カメラ110のハードウェア構成を示す。全天球カメラ110は、CPU(Central Processing Unit)112と、ROM(Read Only Memory)114と、画像処理ブロック116と、動画圧縮ブロック118と、DRAM(Dynamic Random Access Memory)インタフェース120を介して接続されるDRAM132と、外部センサインタフェース124を介して接続される加速度センサ136とを含み構成される。 FIG. 2A shows the hardware configuration of the omnidirectional camera 110 that constitutes the omnidirectional moving image capturing system 100 according to the present embodiment. The spherical camera 110 is connected via a CPU (Central Processing Unit) 112, a ROM (Read Only Memory) 114, an image processing block 116, a moving image compression block 118, and a DRAM (Dynamic Random Access Memory) interface 120. The DRAM 132 and the acceleration sensor 136 connected via the external sensor interface 124.

CPU112は、全天球カメラ110の各部の動作および全体動作を制御する。ROM114は、CPU112が解読可能なコードで記述された制御プログラムや各種パラメータを格納する。画像処理ブロック116は、2つの撮像素子130A,130B(図1における撮像素子22A,22Bである。)と接続され、それぞれで撮像された画像の画像信号が入力される。画像処理ブロック116は、ISP(Image Signal Processor)などを含み構成され、撮像素子130から入力された画像信号に対し、シェーディング補正、ベイヤー補間、ホワイト・バランス補正、ガンマ補正などを行う。 The CPU 112 controls the operation and overall operation of each unit of the omnidirectional camera 110. The ROM 114 stores a control program and various parameters written in a code readable by the CPU 112. The image processing block 116 is connected to the two image pickup devices 130A and 130B (the image pickup devices 22A and 22B in FIG. 1), and the image signals of the images picked up by the respective image pickup blocks 130A and 130B are input. The image processing block 116 is configured to include an ISP (Image Signal Processor) and the like, and performs shading correction, Bayer interpolation, white balance correction, gamma correction, and the like on the image signal input from the image sensor 130.

動画圧縮ブロック118は、MPEG−4 AVC/H.264などの動画圧縮および伸張を行うコーデック・ブロックである。DRAM132は、各種信号処理および画像処理を施す際にデータを一時的に保存する記憶領域を提供する。加速度センサ136は、3軸の加速度成分を検出し、検出された加速度成分は、鉛直方向を検出して全天球画像の天頂補正を施すために用いられる。 The moving picture compression block 118 is an MPEG-4 AVC/H. It is a codec block that performs video compression and decompression such as H.264. The DRAM 132 provides a storage area for temporarily storing data when performing various kinds of signal processing and image processing. The acceleration sensor 136 detects triaxial acceleration components, and the detected acceleration components are used to detect the vertical direction and perform zenith correction of the omnidirectional image.

全天球カメラ110は、さらに、外部ストレージインタフェース122と、USB(Universal Serial Bus)インタフェース126と、シリアルブロック128とを含み構成される。外部ストレージインタフェース122には、外部ストレージ134が接続される。外部ストレージインタフェース122は、メモリカードスロットに挿入されたメモリカードなどの外部ストレージ134に対する読み書きを制御する。USBインタフェース126には、USBコネクタ138が接続される。USBインタフェース126は、USBコネクタ138を介して接続されるパーソナル・コンピュータなどの外部機器とのUSB通信を制御する。シリアルブロック128は、パーソナル・コンピュータなどの外部機器とのシリアル通信を制御し、無線NIC(Network Interface Card)140が接続される。 The spherical camera 110 further includes an external storage interface 122, a USB (Universal Serial Bus) interface 126, and a serial block 128. An external storage 134 is connected to the external storage interface 122. The external storage interface 122 controls reading and writing with respect to the external storage 134 such as a memory card inserted in the memory card slot. A USB connector 138 is connected to the USB interface 126. The USB interface 126 controls USB communication with an external device such as a personal computer connected via the USB connector 138. The serial block 128 controls serial communication with an external device such as a personal computer, and is connected to a wireless NIC (Network Interface Card) 140.

電源スイッチの操作によって電源がオン状態になると、上記制御プログラムがメインメモリにロードされる。CPU112は、メインメモリに読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、全天球カメラ110の後述する各機能部および処理が実現される。 When the power is turned on by operating the power switch, the control program is loaded into the main memory. The CPU 112 controls the operation of each unit of the device according to the program read into the main memory, and temporarily stores the data necessary for the control in the memory. As a result, the functional units and processes of the spherical camera 110 described later are realized.

図2(B)は、本実施形態による全天球動画撮像システム100を構成する画像処理装置150のハードウェア構成を示す。図2(B)に示す画像処理装置150は、CPU152と、RAM154と、HDD(Hard Disk Drive)156と、マウスやキーボードなどの入力装置158と、外部ストレージ160と、ディスプレイ162と、無線NIC164と、USBコネクタ166とを含み構成される。 FIG. 2B shows the hardware configuration of the image processing apparatus 150 that constitutes the omnidirectional video image capturing system 100 according to the present embodiment. The image processing apparatus 150 shown in FIG. 2B includes a CPU 152, a RAM 154, an HDD (Hard Disk Drive) 156, an input device 158 such as a mouse and a keyboard, an external storage 160, a display 162, and a wireless NIC 164. , And a USB connector 166.

CPU152は、画像処理装置150の各部の動作および全体動作を制御する。RAM154は、CPU152の作業領域を提供する。HDD156は、CPU152が解読可能なコードで記述された、オペレーティング・システム、本実施形態による画像処理装置150側の処理を担うアプリケーションなどの制御プログラムを格納する。 The CPU 152 controls the operation of each unit and the overall operation of the image processing apparatus 150. The RAM 154 provides a work area for the CPU 152. The HDD 156 stores a control program, such as an operating system, an application responsible for processing on the image processing apparatus 150 side according to the present embodiment, which is written in a code readable by the CPU 152.

入力装置158は、マウス、キーボード、タッチパッド、タッチスクリーンなどの入力装置であり、ユーザ・インタフェースを提供する。外部ストレージ160は、メモリカードスロットなどに装着された着脱可能な記録媒体であり、動画形式の画像データや静止画データなどの各種データを記録する。ディスプレイ162は、ユーザ操作に応答して再生された全天球動画を画面表示する。無線NIC164は、全天球カメラ110などの外部機器との無線通信の接続を確立する。USBコネクタ166は、全天球カメラ110などの外部機器とのUSB接続をする。 The input device 158 is an input device such as a mouse, a keyboard, a touch pad, and a touch screen, and provides a user interface. The external storage 160 is a removable recording medium mounted in a memory card slot or the like, and records various data such as moving image format image data and still image data. The display 162 displays the spherical moving image reproduced in response to the user operation on the screen. The wireless NIC 164 establishes a wireless communication connection with an external device such as the spherical camera 110. The USB connector 166 makes a USB connection with an external device such as the spherical camera 110.

画像処理装置150に電源が投入され電源がオン状態になると、ROMやHDD156から制御プログラムが読み出され、RAM154にロードされる。CPU152は、RAM154に読み込まれた制御プログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、画像処理装置150の後述する各機能部および処理が実現される。 When the image processing apparatus 150 is powered on and turned on, the control program is read from the ROM or the HDD 156 and loaded into the RAM 154. The CPU 152 controls the operation of each part of the device according to the control program read in the RAM 154, and temporarily stores the data necessary for the control in the memory. As a result, each functional unit and processing of the image processing apparatus 150 described later are realized.

[全天球動画撮像記録機能]
以下、図3〜図16を参照しながら、本実施形態による全天球動画撮像システム100が備える全天球動画撮像記録機能について説明する。図3は、本実施形態による全天球動画撮像システム100上に実現される全天球動画撮像記録機能に関連する主要な機能ブロック200を示す。
[Spherical video recording function]
Hereinafter, with reference to FIGS. 3 to 16, the omnidirectional moving image capturing/recording function of the omnidirectional moving image capturing system 100 according to the present embodiment will be described. FIG. 3 shows main functional blocks 200 related to the spherical moving image capturing/recording function realized on the spherical moving image capturing system 100 according to the present embodiment.

全天球カメラ110の機能ブロック210は、図3に示すように、撮像部212と、動画圧縮部214と、傾き検出部216と、傾き記録部218と、出力部220とを含み構成される。これに対して、画像処理装置150の機能ブロック250は、読出部252と、画像復元部254と、傾き取得部256と、傾き補正部258と、動画生成部264とを含み構成される。 As shown in FIG. 3, the functional block 210 of the omnidirectional camera 110 includes an imaging unit 212, a moving image compression unit 214, a tilt detection unit 216, a tilt recording unit 218, and an output unit 220. .. On the other hand, the functional block 250 of the image processing device 150 includes a reading unit 252, an image restoration unit 254, a tilt acquisition unit 256, a tilt correction unit 258, and a moving image generation unit 264.

まず、全天球カメラ110側から説明する。撮像部212は、上述した2つの広角撮像光学系を含み構成され、2つの撮像素子130A,130Bを制御して、連続したフレームを順次撮像する。撮像素子130各々で撮像される画像は、概ね全天球のうちの半球を視野に収めた魚眼画像であり、全天球画像の部分的な画像を構成する。以下、撮像素子130それぞれが撮像した画像を部分画像と参照する場合がある。 First, the spherical camera 110 side will be described. The image pickup unit 212 is configured to include the above-described two wide-angle image pickup optical systems and controls the two image pickup elements 130A and 130B to sequentially pick up consecutive frames. The image picked up by each of the image pickup devices 130 is a fish-eye image in which the hemisphere of the whole celestial sphere is included in the visual field, and constitutes a partial image of the whole celestial sphere image. Hereinafter, the image captured by each of the image sensors 130 may be referred to as a partial image.

動画圧縮部214は、動画圧縮ブロック118を含み構成され、撮像部212が撮像した連続するフレームを所定の動画形式の画像データに圧縮する。動画圧縮形式としては、特に限定されるものではないが、H.264/MPEG−4 AVC(Advanced Video Coding)、H.265/HEVC(High Efficiency Video Coding)、Motion JPEG(Joint Photographic Experts Group)、Motion JPEG2000などの種々の動画圧縮形式を挙げることができる。 The moving image compression unit 214 is configured to include the moving image compression block 118, and compresses the continuous frames captured by the image capturing unit 212 into image data in a predetermined moving image format. The moving image compression format is not particularly limited, but H.264. H.264/MPEG-4 AVC (Advanced Video Coding), H.264. Examples include various moving image compression formats such as H.265/HEVC (High Efficiency Video Coding), Motion JPEG (Joint Photographic Experts Group), and Motion JPEG2000.

Motion JPEG系は、連続した静止画として動画を表現する形式であり、この方式を採用することにより、高品質な動画を得ることができる。これに対して、H.264/MPEG−4 AVCやH.265/HEVCは、時間軸方向の圧縮を行うことができるため、処理効率が高く、外部ストレージへの書き込み遅延の要件を緩和することができる。手持ちされる全天球カメラ110側では、小型化および低コスト化の要請から、高性能なハードウェアを搭載することが難しいため、好ましい実施形態では、時間軸方向の圧縮を行うことができ、ビットレートを抑制することができるH.264/MPEG−4 AVCやH.265/HEVCを好適に採用することができる。 The Motion JPEG system is a format for expressing a moving image as a continuous still image, and by adopting this method, a high quality moving image can be obtained. On the other hand, H.264. H.264/MPEG-4 AVC and H.264. Since the H.265/HEVC can perform compression in the time axis direction, the processing efficiency is high, and the requirement for delay in writing to the external storage can be relaxed. On the side of the omnidirectional camera 110 that is handheld, it is difficult to mount high-performance hardware due to the demand for downsizing and cost reduction. Therefore, in the preferred embodiment, compression in the time axis direction can be performed. H.264 capable of suppressing the bit rate. H.264/MPEG-4 AVC and H.264. 265/HEVC can be preferably adopted.

なお、説明する実施形態では、撮像部212が、2つの撮像素子130A,130Bで同一のタイミングで撮像された2つの魚眼画像をそれぞれ独立に出力し、動画圧縮部214が、独立した2つの魚眼画像のフレームから2つの動画形式の画像データをそれぞれ独立して生成する。しかしながら、画像データの表現形式は、特に限定されるものではない。他の実施形態では、撮像部212が、2つの撮像素子130A,130Bで撮像された2つの魚眼画像を接合して構成された単一の画像を出力し、動画圧縮部214は、この2つの魚眼画像を含む画像をフレームとした動画形式の画像データに圧縮することができる。 In the embodiment to be described, the image capturing unit 212 independently outputs two fish-eye images captured by the two image capturing elements 130A and 130B at the same timing, and the moving image compressing unit 214 outputs two independent images. Image data of two moving image formats are independently generated from the frame of the fisheye image. However, the expression format of the image data is not particularly limited. In another embodiment, the image capturing unit 212 outputs a single image configured by joining two fish-eye images captured by the two image capturing elements 130A and 130B, and the moving image compression unit 214 outputs the single image. It is possible to compress image data in a moving image format in which an image including two fisheye images is used as a frame.

傾き検出部216は、加速度センサ136を含み構成され、所定の基準方向に対する全天球カメラ110の傾きを検出する。ここで、所定の基準方向は、典型的には、鉛直方向であり、重力加速度が作用する方向である。傾き検出部216は、3軸加速度センサ136の各加速度成分の信号を傾き記録部218に出力する。傾き記録部218は、傾き検出部216から入力される加速度成分の信号を、動画形式の画像データのフレームに同期してサンプリングし、所定の基準方向に対する傾き角を求める。そして、動画形式の画像データのフレーム・レートと同等のレートの時系列データとして記録する。 The tilt detection unit 216 includes an acceleration sensor 136 and detects the tilt of the celestial sphere camera 110 with respect to a predetermined reference direction. Here, the predetermined reference direction is typically a vertical direction, and is a direction in which gravitational acceleration acts. The tilt detection unit 216 outputs signals of each acceleration component of the triaxial acceleration sensor 136 to the tilt recording unit 218. The inclination recording unit 218 samples the acceleration component signal input from the inclination detection unit 216 in synchronization with a frame of moving image format image data, and obtains an inclination angle with respect to a predetermined reference direction. Then, it is recorded as time-series data having a rate equivalent to the frame rate of the moving image format image data.

なお、説明する実施形態では、動画形式の画像データ中のフレームに対し、傾き角が一対一で対応し、フレームと傾き角とは同期されて保存されているものとして説明する。しかしながら、保存する傾き角のレートは、必ずしもフレーム・レートと同一としなくともよく、一致しない場合は、フレーム・レートでリサンプリングすることにより、フレームに一対一で対応した傾き角を得ればよい。 In addition, in the embodiment to be described, it is assumed that the tilt angles correspond to the frames in the image data of the moving image in a one-to-one relationship, and the frames and the tilt angles are stored in synchronization. However, the rate of the tilt angle to be stored does not necessarily have to be the same as the frame rate. If they do not match, the tilt angle corresponding to the frame may be obtained by resampling at the frame rate. ..

上述した動画圧縮部214が生成した動画形式の画像データ各々および傾き記録部218が記録した傾き角データは、DRAM132上に一旦保持される。出力部220は、DRAM132上に保持されている動画形式の画像データ各々および傾き角データを、適切な書き込みサイズとなったタイミングで、2つの動画ファイル230および傾き角ファイル240として外部ストレージ134に書き出す。撮影が終了すると、2つの動画ファイル230および傾き角ファイル240が閉じられ、これにより、全天球カメラ110側の処理が終了する。 Each of the moving image format image data generated by the moving image compression unit 214 and the tilt angle data recorded by the tilt recording unit 218 are temporarily stored in the DRAM 132. The output unit 220 writes each of the moving image format image data and the tilt angle data held in the DRAM 132 to the external storage 134 as two moving image files 230 and a tilt angle file 240 at the timing when the write size becomes appropriate. .. When the shooting ends, the two moving image files 230 and the tilt angle file 240 are closed, and the processing on the side of the omnidirectional camera 110 ends.

外部ストレージ134は、全天球カメラ110から取り出され、画像処理装置150に装着される。続いて、画像処理装置150側について説明を移す。読出部252は、画像処理装置150に装着された外部ストレージ160から、全天球カメラ110側で書き出した2つの動画ファイル230および傾き角ファイル240を読み出す。読み出された2つの動画ファイル230は、それぞれ、画像復元部254に渡される。また、読み出された傾き角ファイル240は、傾き取得部256に渡される。なお、外部ストレージ134を着脱させるほか、全天球カメラ110に備えられたUSBインタフェースを通じて、画像処理装置150は、全天球カメラ110に備えられた外部ストレージ134から、全天球カメラ110側で書き出した2つの動画ファイル230および傾き角ファイル240を読み出しても良い。 The external storage 134 is taken out from the spherical camera 110 and attached to the image processing apparatus 150. Next, the description of the image processing device 150 side will be shifted. The reading unit 252 reads, from the external storage 160 mounted in the image processing apparatus 150, the two moving image files 230 and the tilt angle file 240 written on the omnidirectional camera 110 side. The two read moving image files 230 are passed to the image restoration unit 254. Further, the read tilt angle file 240 is passed to the tilt acquisition unit 256. In addition to attaching/detaching the external storage 134, the image processing apparatus 150 is connected to the spherical camera 110 from the external storage 134 provided in the spherical camera 110 through the USB interface provided in the spherical camera 110. The two moving image files 230 and the tilt angle file 240 that have been written may be read.

画像復元部254は、読み出された動画ファイル230各々に対応する所定のコーデックを用いて、読み出された動画ファイル230各々をデコードし、動画を構成する静止画のフレームを復元して、傾き補正部258に入力する。傾き取得部256は、読み出された傾き角ファイル240から、画像復元部254で復元される各フレームに対応する傾き角を取得し、傾き補正部258に入力する。 The image restoration unit 254 decodes each read moving image file 230 by using a predetermined codec corresponding to each read moving image file 230, restores a frame of a still image forming the moving image, and tilts the frame. Input to the correction unit 258. The tilt acquisition unit 256 acquires the tilt angle corresponding to each frame restored by the image restoration unit 254 from the read tilt angle file 240, and inputs the tilt angle to the tilt correction unit 258.

傾き補正部258は、傾き取得部256から入力された、フレーム各々に対応する傾き角に基づき、画像復元部254で復元された静止画のフレーム各々に対し傾き補正を施すとともに、魚眼画像から全天球画像への変換を行う。傾き補正部258は、より詳細には、変換テーブル修正部260と、全天球画像生成部262とを含み構成される。 The tilt correction unit 258 performs tilt correction on each frame of the still image restored by the image restoration unit 254 based on the tilt angle corresponding to each frame input from the tilt acquisition unit 256, and also from the fisheye image. Convert to spherical image. More specifically, the tilt correction unit 258 includes a conversion table correction unit 260 and an omnidirectional image generation unit 262.

画像処理装置150側では、2つの撮像素子130A,130Bで撮像された2つの魚眼画像(これは、それぞれ、動画ファイルのフレームとして画像処理装置へ渡される。)それぞれを球面座標系へ変換し、全天球画像を生成するための変換テーブルを事前に準備している。変換テーブルは、それぞれのレンズ光学系の設計データ等に基づいて、所定の投影モデルに従い製造元等で予め作成されたデータであり、全天球カメラ110の真上方向が鉛直線に一致するものとして、魚眼画像を全天球画像へ変換するデータである。説明する実施形態において、全天球カメラ110が傾いた状態にあり、真上方向と鉛直線とが一致しない場合は、傾きに応じてこの変換データを修正することで天頂補正を反映させる。 On the side of the image processing device 150, each of the two fisheye images captured by the two image pickup devices 130A and 130B (each of which is passed to the image processing device as a frame of a moving image file) is converted into a spherical coordinate system. , The conversion table for generating the spherical image is prepared in advance. The conversion table is data created in advance by a manufacturer or the like according to a predetermined projection model based on design data of each lens optical system, etc., and it is assumed that the direction directly above the omnidirectional camera 110 matches the vertical line. , Data for converting a fisheye image into a spherical image. In the embodiment to be described, when the omnidirectional camera 110 is in a tilted state and the direction directly above does not coincide with the vertical line, the zenith correction is reflected by correcting this conversion data according to the tilt.

動画形式の画像データ各々に含まれる部分画像は、受光領域が面積エリアを成す2次元の撮像素子で撮像されたものであり、平面座標系(x,y)で表現された画像データとなっている(図5(B)、並びに図11に示す第1部分画像および第2部分画像)。これに対し、変換テーブルを用いて天頂補正がかけられた補正後の画像は、球面座標系(動径を1とし、2つの偏角θ,φを有する極座標系である。)で表現された全天球画像フォーマットの画像データとなる(図10、および図11に示す全天球画像)。 The partial images included in each of the moving image format image data are image data captured by a two-dimensional image sensor having a light receiving region forming an area, and are image data represented by a plane coordinate system (x, y). (FIG. 5(B), and the first partial image and the second partial image shown in FIG. 11). On the other hand, the corrected image, which has been subjected to the zenith correction using the conversion table, is expressed in a spherical coordinate system (a polar coordinate system having a radius vector of 1 and two deviation angles θ and φ). The image data is in the spherical image format (the spherical image shown in FIGS. 10 and 11).

変換テーブルは、動画ファイル内に保存され、動画ファイルの読出しとともに取得してもよいし、全天球カメラ110から画像処理装置150へ予めダウンロードしておいてもよい。あるいは、全個体共通の基本となる変換テーブルを画像処理装置側に事前に準備しておき、動画ファイル内に全天球カメラ110の個体特有の変換テーブルを得るための差分データを書き込み、動画ファイルの読出しとともに、固有の変換テーブルを復元してもよい。 The conversion table may be stored in the moving image file and acquired together with the reading of the moving image file, or may be downloaded from the omnidirectional camera 110 to the image processing apparatus 150 in advance. Alternatively, a basic conversion table common to all individuals is prepared in advance on the image processing apparatus side, and the difference data for obtaining the conversion table specific to each individual celestial sphere camera 110 is written in the moving image file to create a moving image file. A unique conversion table may be restored together with the reading of

変換テーブル修正部260は、取得された傾き角に応じて、画像の天頂方向(観測者の真上の点を指す方向)が、検出された鉛直線(重力が作用する鉛直方向がなす直線)に一致するものとなるように、上述した変換テーブルに対し修正を施す。したがって、修正された変換テーブルを用いて魚眼画像を全天球画像に変換すれば、傾きに応じて天頂方向が鉛直線に一致するような補正が反映された形で、全天球画像が生成される。全天球画像生成部262は、変換テーブル修正部260により修正された変換テーブルを用いて、復元されたフレーム各々に対応する2つの部分画像を、天頂補正が反映された全天球画像へと変換し、全天球画像のフレーム各々を動画生成部264に出力する。変換テーブル修正部260および全天球画像生成部262により、補正後の複数のフレーム各々の画像の天頂方向が鉛直線に一致するように補正される。 The conversion table correction unit 260 detects that the zenith direction of the image (the direction pointing to the point directly above the observer) is the detected vertical line (the straight line formed by the vertical direction in which gravity acts) according to the acquired tilt angle. The above-mentioned conversion table is corrected so that Therefore, if the fisheye image is converted to a spherical image using the corrected conversion table, the spherical image will be corrected in a manner that the zenith direction matches the vertical line according to the inclination. Is generated. The omnidirectional image generation unit 262 uses the conversion table corrected by the conversion table correction unit 260 to convert the two partial images corresponding to the restored frames into omnidirectional images in which the zenith correction is reflected. Each frame of the spherical image is converted and output to the moving image generation unit 264. The conversion table correction unit 260 and the celestial sphere image generation unit 262 correct the zenith direction of each of the corrected images so that the zenith direction matches the vertical line.

動画生成部264は、傾き補正部258により補正された複数のフレーム各々の全天球画像に基づき、所定の動画圧縮形式でエンコードし、最終的な動画データを生成し、動画ファイル270として書き出す。この動画ファイル270は、全天球画像の動画データである。動画圧縮形式は、上述した形式を含む如何なる形式であってもよい。 The moving image generation unit 264 encodes in a predetermined moving image compression format based on the omnidirectional images of each of the plurality of frames corrected by the tilt correction unit 258, generates final moving image data, and writes it as a moving image file 270. The moving image file 270 is moving image data of spherical images. The moving image compression format may be any format including the formats described above.

視聴の際には、この生成された動画データに基づき、表示アプリケーション上で、全天球において指定された特定の視野の画像が再生されて表示されることになる。この生成された動画データにおいては、画像の天頂方向が鉛直線に対し固定されているため、その動画データを視聴中に、表示視野を変更したとしても、視野を変更した通りの回転が生じるのみである。ひいては、視野変更と傾きの変化を伴う複雑な回転の発生が抑制され、三次元酔いなどの不快感を与える可能性を軽減することができる。 At the time of viewing, on the basis of the generated moving image data, an image of a specific field of view designated in the omnidirectional sphere is reproduced and displayed on the display application. In the generated moving image data, the zenith direction of the image is fixed with respect to the vertical line, so even if the display field of view is changed while viewing the moving image data, only the rotation as if the field of view was changed occurs. Is. As a result, it is possible to suppress the occurrence of complicated rotation accompanied by the change of the field of view and the change of the inclination, and it is possible to reduce the possibility of giving discomfort such as three-dimensional sickness.

以下、図4および図7を参照しながら、本実施形態による全天球カメラ110側での処理および画像処理装置150側での処理の詳細について、分けて説明する。図4は、本実施形態による全天球動画撮像システム100を構成する全天球カメラ110側で行われる撮像処理を示すフローチャートである。図4に示す処理は、全天球カメラ110の動画撮影ボタンが押下されるなど、撮像の開始が指示されたことに応答して、ステップS100から開始される。ステップS101では、全天球カメラ110は、撮像部212により、撮像素子130から1フレーム分の画像データを読み込む。 Hereinafter, the details of the processing on the omnidirectional camera 110 side and the processing on the image processing apparatus 150 side according to the present embodiment will be separately described with reference to FIGS. 4 and 7. FIG. 4 is a flowchart showing the imaging process performed on the omnidirectional camera 110 side that constitutes the omnidirectional video imaging system 100 according to the present embodiment. The process shown in FIG. 4 is started from step S100 in response to an instruction to start imaging, such as pressing the moving image shooting button of the omnidirectional camera 110. In step S101, the omnidirectional camera 110 causes the image capturing unit 212 to read image data for one frame from the image sensor 130.

図5は、魚眼レンズを用いた全天球カメラ110における射影関係を説明する図である。本実施形態において、1つ魚眼レンズで撮影された画像は、撮影地点から概ね半球分の方位を撮影したものとなる。また、魚眼レンズは、図5(A)に示すように、光軸に対する入射角度φに対応した像高hで画像を生成する。像高hと、入射角度φとの関係は、所定の投影モデルに応じた射影関数で決定される。射影関数は、魚眼レンズの性質によって異なるが、等距離射影方式と呼ばれる投影モデルの魚眼レンズでは、fを焦点距離として、下記式(1)で表現される。 FIG. 5 is a diagram illustrating a projection relationship in the omnidirectional camera 110 using a fisheye lens. In the present embodiment, an image captured by one fish-eye lens is a hemispherical azimuth photographed from the photographing point. Further, as shown in FIG. 5A, the fisheye lens generates an image with an image height h corresponding to the incident angle φ with respect to the optical axis. The relationship between the image height h and the incident angle φ is determined by a projection function according to a predetermined projection model. The projection function differs depending on the property of the fisheye lens, but in the fisheye lens of the projection model called the equidistant projection method, f is the focal length and is expressed by the following equation (1).

上記投影モデルとしては、その他、中心投影方式(h=f・tanφ)、立体射影方式(h=2f・tan(φ/2))、等立体角射影方式(h=2f・sin(φ/2))および正射影方式(h=f・sinφ)を挙げることができる。いずれの方式においても、光軸からの入射角度φと焦点距離fとに対応して結像の像高hが決定される。また、本実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成を採用するものとし、得られる部分画像は、図5(B)に示すように、撮影範囲の概ね半球分が投影されたイメージサークル全体を含む平面画像となる。 Other than the above, the projection model includes a central projection method (h=f·tan φ), a stereoscopic projection method (h=2f·tan (φ/2)), and an equal solid angle projection method (h=2f·sin(φ/2). )) and the orthographic projection method (h=f·sin φ). In either method, the image height h of the formed image is determined according to the incident angle φ from the optical axis and the focal length f. Further, in the present embodiment, it is assumed that a so-called circumferential fisheye lens having a smaller image circle diameter than the diagonal line of the image is adopted, and the partial image obtained is approximately a hemisphere of the photographing range as shown in FIG. 5B. It becomes a planar image including the entire image circle onto which the minutes are projected.

説明する実施形態において、1フレーム分の画像データは、2つの撮像素子130A,130Bにより撮像された、それぞれ撮影範囲の概ね半球分が投影されたイメージサークル全体を含む2つの平面画像(図11の第1部分画像および第2部分画像)となる。 In the embodiment to be described, the image data for one frame includes two plane images (FIG. 11 in FIG. 11) including the entire image circles captured by the two image sensors 130A and 130B, each of which is a substantially hemispherical portion of the shooting range. The first partial image and the second partial image).

再び図4を参照すると、ステップS102では、全天球カメラ110は、撮像部212により、撮像した1フレーム分の画像データに対し、画像処理を施して、DRAM132上に保存させる。まず、撮像素子130から取り込まれたベイヤーRAWの画像に対し、オプティカル・ブラック補正処理、欠陥画素補正処理、リニア補正処理、シェーディング処理などが行われる。そして、ホワイト・バランス処理、ガンマ補正処理、ベイヤー補間処理、YUV変換処理、エッジ強調処理および色補正処理が行われる。 Referring back to FIG. 4, in step S102, the omnidirectional camera 110 causes the image capturing unit 212 to perform image processing on the captured image data of one frame and store the image data in the DRAM 132. First, an optical black correction process, a defective pixel correction process, a linear correction process, a shading process, and the like are performed on the Bayer RAW image captured from the image sensor 130. Then, white balance processing, gamma correction processing, Bayer interpolation processing, YUV conversion processing, edge enhancement processing, and color correction processing are performed.

ステップS103では、全天球カメラ110は、傾き記録部218により、撮像したフレームに同期して傾き角を検出し、メモリ上に保存させる。 In step S103, the omnidirectional camera 110 detects the tilt angle in synchronization with the captured frame by the tilt recording unit 218, and stores the tilt angle in the memory.

図6は、本実施形態における全天球カメラ110の傾きについて説明する概略図である。図6において、鉛直方向は、グローバル座標系のxyz3次元方向の直交座標におけるz軸に一致する。この方向と、図6に示した全天球カメラ110の真上の方向とが一致するときが、カメラが傾いてない状態である。これが一致していないときは、全天球カメラ110は、傾いた状態となる。 FIG. 6 is a schematic diagram illustrating the tilt of the omnidirectional camera 110 according to the present embodiment. In FIG. 6, the vertical direction corresponds to the z axis in the Cartesian coordinates in the xyz three-dimensional direction of the global coordinate system. When this direction coincides with the direction directly above the spherical camera 110 shown in FIG. 6, the camera is not tilted. If they do not match, the omnidirectional camera 110 is tilted.

つまり、重力ベクトルからの傾き角度(以下、傾き角α)と、xy平面での傾斜角度β(以下、傾き角β)とは、加速度センサの出力を用いて、下記式(2)で求められる。ここで、Axは、加速度センサ136のカメラ座標系のx0軸方向成分の値、Ayは、加速度センサ136のカメラ座標系のy0軸方向成分の値、Azは、加速度センサ136のカメラ座標系のz0軸方向成分の値である。ステップS103では、加速度センサ136の各軸方向成分の値から傾き角α,βが求められて、保存される。 That is, the tilt angle from the gravity vector (hereinafter, tilt angle α) and the tilt angle β on the xy plane (hereinafter, tilt angle β) are obtained by the following formula (2) using the output of the acceleration sensor. .. Here, Ax is the value of the x0 axis direction component of the camera coordinate system of the acceleration sensor 136, Ay is the value of the y0 axis direction component of the camera coordinate system of the acceleration sensor 136, and Az is the camera coordinate system of the acceleration sensor 136. It is the value of the z0 axis direction component. In step S103, the tilt angles α and β are obtained from the values of the axial direction components of the acceleration sensor 136 and stored.

再び図4を参照すると、ステップS104では、全天球カメラ110は、取り込んだ1フレーム分の2つの画像データをそれぞれ動画圧縮部214へ入力し、動画形式の2つの画像データをメモリに書き込む。ステップS105では、全天球カメラ110は、動画を書き込む必要があるか否かを判定する。ステップS105で、所定の書き込みサイズに達し、動画を書き込む必要があると判定された場合(YES)は、ステップS106へ処理を分岐させる。ステップS106では、全天球カメラ110は、出力部220により、DRAM132上の動画形式の2つの画像データを外部ストレージ134にそれぞれ動画ファイルとして記録する。一方、ステップS105で、まだ所定の書き込みサイズに達しておらず、動画を書き込む必要がないと判定された場合(NO)は、ステップS107へ直接処理を進める。 Referring again to FIG. 4, in step S104, the omnidirectional camera 110 inputs the captured two image data for one frame into the moving image compression unit 214, respectively, and writes the two image data in the moving image format into the memory. In step S105, the omnidirectional camera 110 determines whether it is necessary to write a moving image. When it is determined in step S105 that the predetermined writing size has been reached and the moving image needs to be written (YES), the process branches to step S106. In step S106, the omnidirectional camera 110 records the two image data in the moving image format on the DRAM 132 in the external storage 134 as moving image files by the output unit 220. On the other hand, if it is determined in step S105 that the predetermined writing size has not been reached and it is not necessary to write a moving image (NO), the process directly proceeds to step S107.

ステップS107では、全天球カメラ110は、傾き角データを書き込む必要があるか否かを判定する。ステップS107で、所定の書き込みサイズに達し、傾き角データを書き込む必要があると判定された場合(YES)は、ステップS108へ処理を分岐させる。ステップS108では、全天球カメラ110は、出力部220により、DRAM132上の傾き角データを外部ストレージ134に傾き角ファイルとして記録する。一方、ステップS107で、まだ所定の書き込みサイズに達しておらず、傾き角データを書き込む必要がないと判定された場合(NO)は、ステップS109へ直接処理を進める。 In step S107, the omnidirectional camera 110 determines whether tilt angle data needs to be written. When it is determined in step S107 that the predetermined writing size has been reached and the tilt angle data needs to be written (YES), the process branches to step S108. In step S108, the omnidirectional camera 110 records the tilt angle data on the DRAM 132 in the external storage 134 as a tilt angle file by the output unit 220. On the other hand, if it is determined in step S107 that the predetermined writing size has not been reached and it is not necessary to write the tilt angle data (NO), the process directly proceeds to step S109.

ステップS109では、全天球カメラ110は、撮影が終了されているか否かを判定する。ステップS109で、まだ、ユーザによる撮影終了の指示が行われておらず、撮影が終了ではないと判定された場合(NO)は、ステップS101へ処理をループさせて、次のフレームに対する処理を続ける。一方、ステップS109で、ユーザから撮影終了の指示を受領済みであり、撮影が終了されたと判定された場合(YES)は、ステップS110へ処理を進める。 In step S109, the omnidirectional camera 110 determines whether or not the shooting has been completed. If it is determined in step S109 that the user has not issued a shooting end instruction and the shooting has not ended (NO), the process loops to step S101 to continue the process for the next frame. .. On the other hand, if it is determined in step S109 that the shooting end instruction has been received from the user and the shooting has ended (YES), the process proceeds to step S110.

ステップS110では、全天球カメラ110は、画像処理装置150側で画像を変換するために必要となる付加情報を動画ファイル内に書き込み、ステップS111で全天球カメラ110側での撮像処理を終了する。ここで、画像を変換するために必要となる付加情報は、出力先の画像処理装置150側で、動画を撮像した特定の全天球カメラ110に適合した変換テーブルを復元するためのデータである。付加情報は、変換テーブルそのままであってもよいし、基準の変換テーブルに対応する各個体の変換テーブルの差分データであってもよいし、事前定義された複数の変換テーブルのうちから該当する変換テーブルを特定する識別情報であってもよい。 In step S110, the omnidirectional camera 110 writes additional information necessary for converting an image on the image processing device 150 side into a moving image file, and in step S111, the imaging process on the omnidirectional camera 110 side ends. To do. Here, the additional information necessary for converting the image is data for restoring the conversion table suitable for the specific celestial sphere camera 110 that has captured the moving image, on the side of the image processing apparatus 150 that is the output destination. .. The additional information may be the conversion table as it is, may be difference data of the conversion table of each individual corresponding to the reference conversion table, or may be the corresponding conversion from a plurality of predefined conversion tables. It may be identification information that identifies the table.

図7は、本実施形態による全天球動画撮像システム100を構成する画像処理装置150側で行われる記録処理を示すフローチャートである。図7に示す記録処理は、画像処理装置150上で全天球動画生成用のアプリケーションにおいて、動画ファイルおよび傾き角ファイルが指定されてエンコード記録開始の指示が行われたことに応答して、ステップS200から開始される。 FIG. 7 is a flowchart showing a recording process performed on the image processing device 150 side that constitutes the omnidirectional video image capturing system 100 according to the present embodiment. The recording process shown in FIG. 7 is performed in response to the fact that the moving image file and the tilt angle file are designated and the encode recording start instruction is performed in the application for generating the spherical moving image on the image processing device 150. It starts from S200.

ステップS201では、画像処理装置150は、読出部252により、外部ストレージ160から2つの動画ファイルを読み込み、画像復元部254により、所定フレーム数の2つの画像データを復元する。ステップS202では、画像処理装置150は、読出部252により、外部ストレージ160から傾き角ファイルを読み込み、傾き取得部256により、上記復元した所定フレーム数のフレーム各々に対応する傾き角を取得する。 In step S201, in the image processing apparatus 150, the reading unit 252 reads two moving image files from the external storage 160, and the image restoring unit 254 restores two image data of a predetermined number of frames. In step S202, the image processing apparatus 150 causes the reading unit 252 to read the tilt angle file from the external storage 160, and the tilt acquiring unit 256 acquires the tilt angle corresponding to each of the restored predetermined number of frames.

動画ファイル230を構成するすべてのフレームがRAM154上に展開されると、メモリを過大に消費することになる。そこで、好ましい実施形態では、補正に際して、動画ファイル全体を構成するフレームのうちの、起点となるフレームに基づく一部のフレームの画像データおよび傾き角データのみをRAM154上に展開するよう構成することができる。この展開する単位は、MPEG−4/AVCなどの時間軸での圧縮を行う形式を採用する場合は、図8に示すような、GOP(Group of Picture)あるいはそれと同等の概念で参照される単位でメモリ上に展開することが効率的である。 If all the frames that make up the moving image file 230 are expanded on the RAM 154, the memory will be consumed excessively. Therefore, in the preferred embodiment, in the correction, only the image data and the tilt angle data of a part of the frames forming the entire moving image file, which are based on the frame serving as the starting point, are expanded on the RAM 154. it can. The unit to be expanded is a unit referred to by a GOP (Group of Picture) or a concept equivalent to it as shown in FIG. 8 when a format that performs compression on the time axis such as MPEG-4/AVC is adopted. It is efficient to deploy it on memory with.

GOPは、Iピクチャ、PピクチャおよびBピクチャを含み構成される。Iピクチャは、再生の起点となるピクチャであり、フレーム内予測符号化にて符号化されるピクチャである。Pピクチャは、前のIピクチャまたはPピクチャからフレーム間予測により符号化されるピクチャである。Bピクチャは、前(順方向)、または後(逆方向)、または前後(双方向)のピクチャを利用してフレーム間予測により符号化されるピクチャである。GOPは、少なくとも1つのIピクチャを含むため、GOPの単位でフレームを展開することにより、最小限のフレームを展開することで、所定フレーム数の静止画を復元することができる。 The GOP includes I pictures, P pictures, and B pictures. The I picture is a picture that is a starting point of reproduction and is a picture encoded by intraframe predictive encoding. A P picture is a picture encoded by interframe prediction from the previous I picture or P picture. A B picture is a picture that is coded by inter-frame prediction using a previous (forward direction), a subsequent (reverse direction), or a preceding/rearward (bidirectional) picture. Since a GOP includes at least one I picture, by expanding a frame in units of GOP and expanding a minimum number of frames, it is possible to restore a predetermined number of still images.

再び図7を参照すると、ステップS203では、画像処理装置150は、動画ファイル内から付加情報を読み込み、当該動画ファイルを撮像した特定の全天球カメラ110固有の変換テーブルを準備する。ステップS204では、画像処理装置150は、取得された傾き角および読み出された付加情報に基づき、動画ファイル各々から復元された所定フレーム数の画像データ各々に変換処理を施す。 Referring to FIG. 7 again, in step S203, the image processing apparatus 150 reads additional information from within the moving image file and prepares a conversion table unique to the specific omnidirectional camera 110 that captured the moving image file. In step S204, the image processing apparatus 150 performs a conversion process on each of a predetermined number of frames of image data restored from each moving image file, based on the acquired tilt angle and the read additional information.

図9は、本実施形態による全天球動画撮像システム100を構成する画像処理装置150側で行われる変換処理を示すフローチャートである。図9に示す変換処理は、図7に示したステップS204で呼び出されて、ステップS300から開始される。ステップS301〜ステップS307のループでは、フレーム毎に、ステップS302〜ステップS306の処理が実行される。 FIG. 9 is a flowchart showing a conversion process performed on the image processing device 150 side which constitutes the celestial sphere moving image capturing system 100 according to the present embodiment. The conversion process shown in FIG. 9 is called in step S204 shown in FIG. 7 and started from step S300. In the loop of steps S301 to S307, the processing of steps S302 to S306 is executed for each frame.

ステップS302では、画像処理装置150は、当該フレームに対応する傾き角α,βを設定する。ステップS303では、画像処理装置150は、変換テーブル修正部260により、取得された傾き角α,βに応じて変換テーブルを修正する。変換テーブルの修正処理については、詳細を後述する。 In step S302, the image processing apparatus 150 sets the tilt angles α and β corresponding to the frame. In step S303, the image processing apparatus 150 causes the conversion table correction unit 260 to correct the conversion table according to the acquired inclination angles α and β. The details of the conversion table correction process will be described later.

ステップS304では、画像処理装置150は、復元した当該フレームの2つの画像データを入力する。ステップS305では、画像処理装置150は、全天球画像生成部262により、修正された変換テーブルを用いて、復元された当該フレームの2つの画像データ(それぞれ魚眼画像を含む。)を変換し、補正された2つの画像データ(魚眼画像各々に対応する各半球を担当する2つの全天球画像)を生成する。ステップS306では、画像処理装置150は、当該フレームの補正された2つの画像データ(各半球を担当する全天球画像)を組み合わせることで、最終的な画像データ(全天球画像)を生成する。 In step S304, the image processing apparatus 150 inputs the two image data of the restored frame. In step S305, the image processing apparatus 150 uses the corrected conversion table to convert the two image data of the restored frame (each including a fisheye image) by the omnidirectional image generation unit 262. , Two corrected image data (two spherical images corresponding to each hemisphere corresponding to each fisheye image) are generated. In step S306, the image processing apparatus 150 combines the two corrected image data of the frame (all-sphere image in charge of each hemisphere) to generate final image data (all-sphere image). ..

図10は、本実施形態における全天球画像フォーマットについて、(A)平面で表した場合および(B)球面で表した場合についてそれぞれ説明する図である。図10において、全天球画像のフォーマットは、図10(A)に示すように、平面に展開した場合、水平角度が0から360度、垂直角度が0から180度の角度座標に対応する画素値を有する画像である。角度座標は、図10(B)に示す球面上の座標点の各点と対応付けられており、地球儀上における緯度経度座標のようなものとなっている。 FIG. 10 is a diagram for explaining the spherical image format according to the present embodiment when it is represented by the (A) plane and when it is represented by the (B) spherical surface. In FIG. 10, the format of the omnidirectional image is, as shown in FIG. 10(A), when developed on a plane, pixels corresponding to angular coordinates with a horizontal angle of 0 to 360 degrees and a vertical angle of 0 to 180 degrees. It is an image with values. The angular coordinates are associated with each of the coordinate points on the spherical surface shown in FIG. 10B, and are like the latitude/longitude coordinates on the globe.

魚眼レンズで撮影された画像の平面座標値と、全天球画像の球面座標値との関係は、図5で説明したような射影関数f(h=f(θ))を用いることによって対応付けることができる。これにより、魚眼レンズで撮影された部分画像2枚を変換して結合(合成)することによって、図10に示すような全天球画像を作成することができる。 The relationship between the plane coordinate value of the image captured by the fisheye lens and the spherical coordinate value of the spherical image may be associated with each other by using the projection function f (h=f(θ)) as described in FIG. it can. As a result, by converting and combining (combining) the two partial images captured by the fisheye lens, it is possible to create a spherical image as shown in FIG.

次に、実際に魚眼レンズで撮影された画像を用いて全天球画像が生成される過程について説明する。図11は、本実施形態における全天球カメラ110において2つの魚眼レンズを介して各撮像素子130A,130Bで取得した画像、画像処理装置150において変換テーブルによって変換され、変換後の2つの画像が合成されることにより生成された画像をそれぞれ説明する図である。 Next, a process of generating a celestial sphere image using an image actually captured by a fisheye lens will be described. FIG. 11 is an image acquired by each of the image pickup devices 130A and 130B via the two fisheye lenses in the omnidirectional camera 110 according to the present embodiment, converted by the conversion table in the image processing device 150, and the two images after conversion are combined. It is a figure explaining each image generated by doing.

図11において、2つの魚眼レンズを介して各撮像素子130A,130Bで撮影された部分画像は、図9で説明したステップS305の処理、すなわち、修正後の変換テーブルを用いた画像変換処理によって、まず2枚の全天球画像に変換される。この時点で、画像は、全天球画像フォーマットに合致した表現形式、すなわち、図10に対応する表現となっている。 In FIG. 11, the partial image captured by each of the image sensors 130A and 130B via the two fisheye lenses is first subjected to the process of step S305 described in FIG. 9, that is, the image conversion process using the corrected conversion table. Converted into two spherical images. At this point, the image has an expression format that matches the spherical image format, that is, an expression corresponding to FIG.

図9に示したステップS306の処理、すなわち、2枚の変換後の画像合成処理によって、図11に示す最終的な1枚の全天球画像が生成される。すなわち、各半球を担当する2つの全天球画像が、重複している部分をキーにして、重ね合わせて合成され、最終的な全天球画像が生成される。 The final one spherical image shown in FIG. 11 is generated by the process of step S306 shown in FIG. 9, that is, the image combining process after the conversion of the two images. That is, the two spherical images in charge of each hemisphere are superimposed and combined with the overlapping portion as a key to generate a final spherical image.

図11には、各部分画像における画素の位置と、対応する全天球画像上の画素の位置との対応関係についても示されている。全天球カメラ110が正しく垂直方向に載置され、傾くことなく撮影され、全天球カメラ110の真上の方向が鉛直線上にある場合、歪曲補正を行うだけで、図11に示すように、撮影した者が認識する天頂と、水平線とが一致するような画像を得ることができる。このとき、水平線は、部分画像においても中心に位置し、全天球画像においても地球儀の赤道に対応する位置に配置されることになる。 FIG. 11 also shows the correspondence relationship between the position of the pixel in each partial image and the position of the pixel on the corresponding omnidirectional image. When the omnidirectional camera 110 is correctly placed in the vertical direction and is photographed without tilting, and the direction directly above the omnidirectional camera 110 is on the vertical line, distortion correction is simply performed, as shown in FIG. , It is possible to obtain an image in which the zenith recognized by the photographer matches the horizon. At this time, the horizon is located at the center even in the partial image, and is arranged at the position corresponding to the equator of the globe in the spherical image as well.

再び図9を参照すると、ステップS301〜ステップS307のループを抜けると、ステップS308で本処理を終了し、図7に示す呼び出し元の処理に戻す。 Referring to FIG. 9 again, upon exiting the loop of steps S301 to S307, this processing ends in step S308 and returns to the processing of the calling source shown in FIG.

再び図7を参照すると、ステップS205では、画像処理装置150は、動画生成部264により、変換された所定フレーム数の画像データをエンコードし、傾き補正された動画データを生成して、全天球画像の動画ファイル270に書き込む。ステップS206では、画像処理装置150は、読み出す動画ファイル230の最後のフレームに達したか否かを判定する。ステップS206で、未だ最後のフレームに達していないと判定された場合(NO)は、ステップS201へ処理をループさせて、次のフレーム群へ処理を進める。一方、ステップS206で、最後のフレームに達したと判定された場合(YES)は、ステップS207へ処理を分岐させて、本記録処理を終了する。 Referring to FIG. 7 again, in step S205, the image processing apparatus 150 causes the moving image generation unit 264 to encode the converted image data of the predetermined number of frames to generate the tilt-corrected moving image data, and to generate the spherical image. The image is written in the moving image file 270. In step S206, the image processing apparatus 150 determines whether or not the last frame of the moving image file 230 to be read has been reached. If it is determined in step S206 that the last frame has not been reached yet (NO), the process loops to step S201 to proceed to the next frame group. On the other hand, if it is determined in step S206 that the last frame has been reached (YES), the process branches to step S207 and the present recording process ends.

なお、好ましい実施形態では、ステップS204と、ステップS205との間に、時間方向のノイズ抑制画像処理、モスキートノイズやブロックノイズ等の動画圧縮コーデックに由来するノイズや輪郭のボケに対する画像補正処理、色合いの修正処理などの処理を実行することが好ましい。これにより、最終的な画像の高画質化が期待できる。 Note that in the preferred embodiment, between step S204 and step S205, noise suppression image processing in the time direction, image correction processing for noise and contour blurring, such as mosquito noise and block noise, which are derived from a moving image compression codec, and hue are performed. It is preferable to execute processing such as the correction processing of. As a result, it is expected that the final image quality will be improved.

以下、図12〜図14を参照しながら、本実施形態における全天球画像の変換テーブルを、記録された全天球カメラ110の傾き角に応じて修正する処理について説明する。 Hereinafter, with reference to FIGS. 12 to 14, a process of correcting the conversion table of the omnidirectional image in the present embodiment according to the recorded tilt angle of the omnidirectional camera 110 will be described.

図12は、本実施形態における全天球画像の変換テーブルを説明する図である。図12(A)は、変換前後の画像座標値のマトリクスを示した変換テーブルを説明する図である。また、図12(B)は、変換後画像の座標値および変換前画像の座標値の関係を説明する図である。 FIG. 12 is a diagram for explaining a conversion table for spherical images in the present embodiment. FIG. 12A is a diagram for explaining a conversion table showing a matrix of image coordinate values before and after conversion. In addition, FIG. 12B is a diagram illustrating the relationship between the coordinate values of the converted image and the coordinate values of the pre-converted image.

図9に示すステップS303で説明した画像変換に用いられる変換テーブルは、図12(A)に示すように、変換後画像の座標値である(θ,φ)(pix:ピクセル)と、それに対応する変換前画像の座標値(x,y)(pix)とのデータセットを、すべての変換後画像の座標値に対して有するものである。ここで、変換テーブルとして、説明する実施形態では、テーブル状のデータ構造を示しているが、必ずしもテーブル状のデータ構造でなくてもかまわない。つまり、変換データであればよい。 As shown in FIG. 12A, the conversion table used for the image conversion described in step S303 shown in FIG. 9 corresponds to the coordinate values of the converted image (θ, φ) (pix: pixel) and the corresponding values. The data set with the coordinate values (x, y) (pix) of the pre-conversion image to be obtained is included for all the coordinate values of the post-conversion images. Here, as the conversion table, a table-shaped data structure is shown in the embodiment to be described, but the conversion table does not necessarily have to be a table-shaped data structure. That is, it may be conversion data.

図12(A)に示した変換テーブルに従って、撮像された部分画像(変換前画像)から変換後画像を生成することができる。具体的には、図12(B)に示すように、変換前と変換後の変換テーブル(図12(A))の対応関係から、変換後画像の各画素を、座標値(θ,φ)(pix)に対応する変換前画像の座標値(x,y)(pix)の画素値を参照することによって生成することができる。 According to the conversion table shown in FIG. 12A, the converted image can be generated from the captured partial image (pre-conversion image). Specifically, as shown in FIG. 12B, from the correspondence relationship between the conversion table before conversion and the conversion table after conversion (FIG. 12A), each pixel of the converted image has a coordinate value (θ, φ). It can be generated by referring to the pixel value of the coordinate value (x, y) (pix) of the image before conversion corresponding to (pix).

修正処理前の変換テーブルは、全天球カメラ110の真上方向が鉛直線上に一致するものとして、歪み補正を反映したものであり、傾き角に応じた修正処理が施されることにより、修正後の変換テーブルは、全天球カメラ110の真上方向を鉛直線上に一致させる天頂補正が反映されたものとなる。 The conversion table before the correction processing reflects the distortion correction, assuming that the direction directly above the omnidirectional camera 110 is aligned with the vertical line, and is corrected by performing the correction processing according to the tilt angle. The subsequent conversion table reflects the zenith correction for matching the direction directly above the omnidirectional camera 110 with the vertical line.

図13は、本実施形態における全天球画像に対する変換テーブルの修正処理の動作フローについて説明するフローチャートである。図13に示す修正処理は、図9に示したステップS303で呼び出されて、ステップS400から開始される。 FIG. 13 is a flowchart illustrating the operation flow of the conversion table correction processing for the spherical image in the present embodiment. The correction process shown in FIG. 13 is called in step S303 shown in FIG. 9 and started from step S400.

図13において、ステップS401では、画像処理装置150は、変換テーブル修正部260により、処理対象である当該フレームに対応する傾き角(α,β)を取得する。次に、ステップS402では、画像処理装置150は、変換テーブル修正部260により、変換テーブルの入力値(θ1,φ1)を設定する。なお、図13において、カメラ座標系については(θ0、φ0)と表記し、グローバル座標系については(θ1、φ1)と表記し、座標系に依存するパラメータ値である(θ、φ)を区別して表記する。すなわち、ここでは、グローバル座標系である(θ1、φ1)が設定される。 In FIG. 13, in step S401, the image processing apparatus 150 causes the conversion table correction unit 260 to acquire the tilt angle (α, β) corresponding to the frame to be processed. Next, in step S402, the image processing apparatus 150 causes the conversion table correction unit 260 to set the input values (θ1, φ1) of the conversion table. Note that, in FIG. 13, the camera coordinate system is expressed as (θ0, φ0), and the global coordinate system is expressed as (θ1, φ1), and (θ, φ) that is a parameter value depending on the coordinate system is defined. Notated separately. That is, here, the global coordinate system (θ1, φ1) is set.

次に、ステップS403では、画像処理装置150は、変換テーブル修正部260により、鉛直補正演算によって、入力値のグローバル座標系である(θ1、φ1)を、カメラ座標系である(θ0、φ0)に変換する。 Next, in step S403, the conversion table correction unit 260 of the image processing apparatus 150 performs the vertical correction calculation to convert the global coordinate system (θ1, φ1) of the input value into the camera coordinate system (θ0, φ0). Convert to.

ここで、鉛直補正演算について説明する。図14は、本実施形態における全天球画像の鉛直補正演算について、(A)カメラ座標系、(B)グローバル座標系を用いて説明する図である。 Here, the vertical correction calculation will be described. FIG. 14 is a diagram for explaining the vertical correction calculation of the omnidirectional image in the present embodiment using (A) camera coordinate system and (B) global coordinate system.

図14において、グローバル座標系の3次元直交座標を(x1,y1,z1)、球面座標を(θ1,φ1)と表記し、カメラ座標系の3次元直交座標を(x0,y0,z0)、球面座標を(θ0,φ0)と表記する。 In FIG. 14, the three-dimensional Cartesian coordinates of the global coordinate system are represented by (x1, y1, z1), the spherical coordinates are represented by (θ1, φ1), and the three-dimensional Cartesian coordinates of the camera coordinate system are represented by (x0, y0, z0), The spherical coordinates are expressed as (θ0, φ0).

鉛直補正演算では、下記式(3)〜(8)を用いて、球面座標(θ1、φ1)から球面座標(θ0、φ0)への変換を行う。まず、傾きを補正するためには、3次元直交座標を用いて回転変換する必要があるため、下記式(3)式から(5)式を用いて、球面座標(θ1,φ1)から3次元直交座標(x1、y1、z1)への変換を行う。 In the vertical correction calculation, conversion from spherical coordinates (θ1, φ1) to spherical coordinates (θ0, φ0) is performed using the following equations (3) to (8). First, in order to correct the inclination, it is necessary to perform rotation conversion using three-dimensional Cartesian coordinates. Therefore, using the following equations (3) to (5), the spherical coordinates (θ1, φ1) to three-dimensional Conversion to Cartesian coordinates (x1, y1, z1) is performed.

次に、傾き角(α、β)を用いて、上記回転座標変換(上記式(6))により、グローバル座標系(x1,y1,z1)を、カメラ座標系(x0,y0,z0)に変換する。換言すれば、上記式(6)は、傾き角(α、β)の定義を与える。 Next, using the tilt angles (α, β), the global coordinate system (x1, y1, z1) is changed to the camera coordinate system (x0, y0, z0) by the rotational coordinate conversion (Equation (6)). Convert. In other words, the above equation (6) gives the definition of the tilt angle (α, β).

これは、グローバル座標系を、まずz軸を軸にα回転させ、次にx軸を軸にβ回転させるとカメラ座標系になることを意味する。最後に、上記式(7)および式(8)式を用いて、カメラ座標系の3次元直交座標(x0,y0,z0)を球面座標(θ0,φ0)に戻す変換を行う。 This means that when the global coordinate system is first α-rotated around the z-axis and then β-rotated around the x-axis, it becomes the camera coordinate system. Finally, using the above equations (7) and (8), conversion is performed to return the three-dimensional orthogonal coordinates (x0, y0, z0) of the camera coordinate system to spherical coordinates (θ0, φ0).

次に、鉛直補正演算の他の実施形態について説明する。他の実施形態における鉛直補正演算では、鉛直補正演算では、下記式(9)〜(16)を用いて、球面座標(θ1、φ1)から球面座標(θ0、φ0)への変換を行うことができる。他の実施形態では、鉛直補正演算を高速化することができる。上記式(3)〜(8)の変換式は、上記式(9)〜(16)ように書き直される。 Next, another embodiment of the vertical correction calculation will be described. In the vertical correction calculation according to another embodiment, in the vertical correction calculation, conversion from spherical coordinates (θ1, φ1) to spherical coordinates (θ0, φ0) can be performed using the following equations (9) to (16). it can. In another embodiment, the vertical correction calculation can be speeded up. The conversion formulas of the formulas (3) to (8) are rewritten as the formulas (9) to (16).

すなわち、z軸を軸とする回転α、γは、球面座標(θ、φ)のうちのθの回転そのものであるため、回転変換を、直交座標系に変換することなく、簡単な加減算で可能であり、高速化を可能とする。よって、x軸を軸とする回転βの回転変換のみ、直交座標系を用いた変換が必要となる。これにより、演算速度を上げることができる。 That is, since the rotations α and γ about the z axis are the rotations of θ of the spherical coordinates (θ, φ), the rotation transformation can be performed by simple addition and subtraction without converting to the Cartesian coordinate system. Therefore, the speed can be increased. Therefore, only the rotation conversion of the rotation β about the x-axis requires the conversion using the orthogonal coordinate system. Thereby, the calculation speed can be increased.

上述した実施形態では、鉛直補正演算により座標変換を行っていた。しかしながら、さらに他の実施形態では、変換テーブルを各々が傾き角(α、β)に応じて異なる値となるように複数保持しておくことで、鉛直補正演算の処理を省略し、さらに高速化を図ることができる。つまり、傾き角(α、β)は、原理的には3次元の実数ベクトルであるが、特定の(α、β)に対してのみ変換テーブルを用意しておいて、検出された傾き角(α、β)に最も近いテーブルを採用することで、すべての場合に対して対応が可能である。あるいは、検出された傾き角(α、β)に近いテーブルを複数抽出し、近さに応じた重み付けや差分を取るといった補間演算を行うことも有効である。これにより、補間演算という比較的単純な演算のみで変換テーブルの補正を行うことができ、演算に掛かる処理を抑制することができる。 In the above-described embodiment, the coordinate conversion is performed by the vertical correction calculation. However, in still another embodiment, by holding a plurality of conversion tables so that the conversion tables have different values depending on the tilt angles (α, β), the processing of the vertical correction calculation is omitted, and the speed is further increased. Can be planned. That is, the tilt angle (α, β) is a three-dimensional real vector in principle, but a conversion table is prepared only for a specific (α, β), and the detected tilt angle ( By adopting the table closest to α, β), all cases can be dealt with. Alternatively, it is also effective to extract a plurality of tables close to the detected tilt angles (α, β) and perform an interpolation calculation such as weighting or difference according to the closeness. As a result, the conversion table can be corrected only by a relatively simple calculation, which is an interpolation calculation, and the processing required for the calculation can be suppressed.

再び図13を参照すると、続いて、ステップS404では、画像処理装置150は、変換テーブル修正部260により、変換されたカメラ座標系である(θ0、φ0)を、修正前の変換テーブルを用いて変換前画像の座標値(x、y)に変換する。なお、予め、カメラが傾いていない条件の下で作成された正確な全天球画像が生成されるための変換テーブルが事前に準備されることが前提である。 Referring again to FIG. 13, subsequently, in step S404, the image processing apparatus 150 causes the conversion table correction unit 260 to convert (θ0, φ0), which is the camera coordinate system, into the conversion table before correction. Convert to the coordinate value (x, y) of the image before conversion. It is premised that a conversion table for generating an accurate spherical image created under the condition that the camera is not tilted is prepared in advance.

次に、ステップS405では、画像処理装置150は、変換テーブル修正部260により、グローバル座標系の入力値(θ1,φ1)と、最終的に算出された修正前の座標値(x、y)とを、修正後の変換テーブルの対応する座標セットとして保存する。 Next, in step S405, the conversion table correction unit 260 of the image processing apparatus 150 uses the input values (θ1, φ1) of the global coordinate system and the finally calculated coordinate values (x, y) before correction. Are stored as the corresponding coordinate sets in the modified conversion table.

次に、ステップS406では、画像処理装置150は、未処理の入力値(θ1,φ1)、すなわち、対応する修正前の座標値(x、y)が算出されていないグローバル座標系の入力値(θ1,φ1)が残っているか否かを判定する。ステップS406で、残っていると判定された場合(YES)は、次の値としてグローバル座標系の入力値(θ1、φ1)が設定されるように、ステップS402へ処理をループさせる。 Next, in step S406, the image processing apparatus 150 causes the unprocessed input value (θ1, φ1), that is, the corresponding input value (x, y) in the global coordinate system for which the uncorrected coordinate value (x, y) has not been calculated. It is determined whether or not θ1, φ1) remains. If it is determined in step S406 that the remaining values remain (YES), the process loops to step S402 so that the input value (θ1, φ1) of the global coordinate system is set as the next value.

一方、ステップS406で、残っていないと判定された場合(NO)は、ステップS407へ処理を分岐させて、本処理を終了し、図9に示した呼び出し元の処理へ戻す。この場合、グローバル座標系の入力値(θ1、φ1)を座標値として有する、全天球画像フォーマットの各画素に対応する補正前の座標値(x、y)の算出が完了したことになる。 On the other hand, if it is determined in step S406 that there is no remaining (NO), the process branches to step S407, the present process ends, and the process returns to the calling process shown in FIG. In this case, calculation of the uncorrected coordinate value (x, y) corresponding to each pixel of the celestial sphere image format having the input value (θ1, φ1) of the global coordinate system as the coordinate value is completed.

以下、図11、図15および図16を参照しながら、具体的な傾きを補正する処理によって得られる動画のフレームについて説明する。図15は、傾き補正前の動画のフレーム(全天球画像については修正されていない変換テーブルを用いて変換されたもの)を示し、図16は、傾き補正後の動画のフレーム(全天球画像については修正された変換テーブルを用いて変換されたもの)を示す図である。また、図11は、全天球カメラ110に傾きが無く、真上方向と鉛直線が一致している場合を例示し、図15および図16は、全天球カメラ110が傾き、真上方向と鉛直線が一致していない場合を例示する。 Hereinafter, with reference to FIGS. 11, 15 and 16, a frame of a moving image obtained by a process of correcting a specific inclination will be described. FIG. 15 shows a frame of a moving image before tilt correction (one spherical image is converted by using a conversion table that has not been corrected), and FIG. 16 shows a frame of a moving image after tilt correction (all spherical image). It is a figure which shows what was converted about the image using the corrected conversion table. Further, FIG. 11 exemplifies a case where the omnidirectional camera 110 is not tilted and the vertical direction coincides with the vertical line, and FIGS. 15 and 16 show the omnidirectional camera 110 tilted and the upward direction. The case where the vertical lines do not match is illustrated.

上述したように、全天球カメラ110が正しく垂直方向に載置される場合、図11に示すように、撮影した者が認識する天頂および水平線が一致するように撮像することができる。全天球カメラ110を固定具に装着し、水準器等を用いて調整して撮像できる場合には、正しく垂直方向の撮影が可能である。 As described above, when the omnidirectional camera 110 is correctly placed in the vertical direction, as shown in FIG. 11, it is possible to capture an image such that the zenith and the horizontal line recognized by the person who captured the image match. When the omnidirectional camera 110 is mounted on a fixture and adjustment is possible using a spirit level or the like for image capturing, correct vertical image capturing is possible.

しかしながら、一般的に、人間が手持ちで撮像する場合には、水平で垂直に撮影されることは困難である。このように、本体カメラが傾いたままで撮像されると、傾き補正しなければ、図15に示すように、互いの画像の天頂がずれ、水平線が歪んでしまう。このとき、部分画像における中心線はそのまま全天球画像の赤道に一致することになるが、撮影者が認識する水平線は、全天球画像において曲線として歪んでしまう。仮に図15に示すように補正を行わないまま動画を視聴すると、視聴中に視野の変更を行った場合、鉛直方向と全天球カメラ110の中心軸とのずれによる影響で、三次元酔いの様な不快感を伴ってしまう。 However, in general, it is difficult for a human hand to take a picture horizontally and vertically when the picture is taken by hand. Thus, if the main body camera is imaged while tilted, the zeniths of the images are displaced and the horizon is distorted, as shown in FIG. 15, unless the tilt is corrected. At this time, the center line in the partial image coincides with the equator of the spherical image as it is, but the horizontal line recognized by the photographer is distorted as a curve in the spherical image. If, as shown in FIG. 15, a moving image is viewed without correction, if the visual field is changed during viewing, three-dimensional motion sickness may occur due to the influence of the deviation between the vertical direction and the central axis of the spherical camera 110. It is accompanied by such discomfort.

これに対して、本実施形態においては、鉛直上向きと天頂の上方向が一致しているように全フレームの画像を変換した上でエンコードを施すことにより、図16に示すようなフレームが得られる。すなわち、部分画像上で曲線であった撮影者が認識する水平線が、全天球画像において赤道に一致するようになる。このように変換することで、視聴時に視野の変更を行う場合にユーザに三次元酔い等の違和感を与えない全天球動画の作成が可能になる。 On the other hand, in the present embodiment, the frames shown in FIG. 16 are obtained by converting the images of all the frames so that the vertically upward direction and the upward direction of the zenith coincide with each other and then performing encoding. .. That is, the horizon, which is a curve on the partial image and is recognized by the photographer, comes to coincide with the equator in the spherical image. By converting in this way, it becomes possible to create a spherical video that does not give the user a feeling of strangeness such as three-dimensional motion sickness when changing the field of view during viewing.

以上説明した実施形態によれば準方向に対する撮影手段の傾きを検出し、検出された傾きに応じて傾き補正された動画データを生成することができる撮像システム、撮像装置、プログラムおよびシステムを提供することができる。 According to the embodiments described above, there are provided an imaging system, an imaging device, a program, and a system capable of detecting the tilt of the imaging means with respect to the quasi-direction and generating tilt-corrected moving image data according to the detected tilt. be able to.

本実施形態による全天球動画撮像記録機能によれば、動画像の各フレームを記録するのと同じ頻度で全天球カメラ110の傾き角を動画像の各フレームと紐付けた傾き角データが別ファイルとして保存される。そして、その傾き角ファイルのデータをフレームと同期させつつ、参照しながら動画像の各フレームにて傾きを補正し、動画像の表示や再エンコードが行われる。このため、鉛直方向が正しい全天球動画データを得ることができ、このため、ユーザが視野の変更を行う際に、三次元酔いのような不快感や違和感を感じさせない全天球動画データを提供することができる。 According to the omnidirectional moving image capturing/recording function according to the present embodiment, tilt angle data in which the tilt angle of the omnidirectional camera 110 is associated with each frame of a moving image is recorded at the same frequency as that of recording each frame of the moving image. It is saved as a separate file. Then, while synchronizing the data of the tilt angle file with the frame, the tilt is corrected in each frame of the moving image while referring, and the moving image is displayed and re-encoded. For this reason, it is possible to obtain spherical video data with the correct vertical direction. Therefore, when the user changes the field of view, spherical video data that does not cause discomfort or discomfort such as three-dimensional motion sickness is obtained. Can be provided.

静止画であれば、傾き補正を行わずとも、表示アプリケーション側で、表示の際に傾き角の補正を加味した視野の形成を行うことで対応できる。しかしながら、動画データでは、典型的には、15〜30フレーム/秒と、常に表示内容が変遷するため、視聴時に対応することは難しい。上述したように、予め傾き角を補正した全天球動画をエンコードし、動画ファイルを生成しておくことにより、好適に、視聴者に対して3次元元酔いなどの不快感を与えない全天球動画表示が可能となる。 In the case of a still image, it is possible to cope with the display application side by forming the field of view in consideration of the correction of the tilt angle without performing the tilt correction. However, with moving image data, typically, the display content constantly changes at 15 to 30 frames/sec. As described above, by encoding a spherical video in which the tilt angle has been corrected in advance and generating a moving image file, it is preferable that the spherical image does not give the viewer an uncomfortable feeling such as three-dimensional motion sickness. It becomes possible to display a spherical moving image.

なお、上述した実施形態では、180度より大きな画角を有するレンズ光学系で撮像された2つの部分画像を重ね合わせて合成するものとしたが、他の実施形態では、1または複数のレンズ光学系により撮像された3以上の部分画像の重ね合わせ合成に適用してもよい。また、上述した実施形態では、魚眼レンズを用いた撮像システムを一例に説明してきたが、超広角レンズを用いた全天球動画撮像システムに適用してもよい。 In the above-described embodiment, two partial images captured by the lens optical system having an angle of view larger than 180 degrees are overlapped and combined, but in another embodiment, one or a plurality of lens optical systems are used. It may be applied to superposition synthesis of three or more partial images taken by the system. Further, in the above-described embodiment, the image pickup system using the fisheye lens has been described as an example, but the present invention may be applied to the omnidirectional moving image pickup system using the super wide-angle lens.

また、上述した実施形態では、撮像された複数のフレームの画像を一旦動画形式に圧縮し、圧縮された動画形式の画像データと、傾きの時系列データとを全天球カメラ110から出力するものとした。そして、画像処理装置150側で、出力された動画形式の画像データと傾きの時系列データとを読み出し、読み出した動画形式の画像データから、複数のフレーム各々の画像を復元し、復元された複数のフレーム各々の画像に対し傾き補正を行っていた。 Further, in the above-described embodiment, the images of a plurality of captured frames are temporarily compressed into a moving image format, and the compressed moving image format image data and time series data of the tilt are output from the omnidirectional camera 110. And Then, the image processing apparatus 150 side reads the output moving image format image data and the time series data of the inclination, restores the images of each of the plurality of frames from the read moving image format image data, and restores the restored plurality of frames. Inclination correction was performed on each image of each frame.

しかしながら、他の実施形態では、動画形式の画像データを経由せずに、直接、連続する静止画のフレームをグループとして出力する態様としてもよい。すなわち、他の実施形態では、全天球カメラ110は、複数のフレームの画像と、傾きの時系列データとを出力する。画像処理装置150側では、全天球カメラ110により出力された複数のフレームの画像と、傾きの時系列データとを読み出し、読み出した複数のフレーム各々の画像に対し傾き補正を行うことができる。 However, in another embodiment, it is possible to directly output the frames of continuous still images as a group without passing through the moving image format image data. That is, in another embodiment, the omnidirectional camera 110 outputs images of a plurality of frames and time series data of inclination. On the image processing device 150 side, it is possible to read the images of a plurality of frames output by the omnidirectional camera 110 and the time series data of the tilt, and perform tilt correction on the read images of each of the frames.

さらに、上述した実施形態では、外部ストレージを介して、全天球カメラ110から画像処理装置150へ動画ファイルおよび傾き角ファイルを渡していた。しかしながら、動画データおよび傾き角データの伝達方法は、特に限定されるものではなく、上述したUSB接続や無線LAN接続などの通信手段にて、全天球カメラ110から画像処理装置150へ転送してもよい。 Further, in the above-described embodiment, the moving image file and the tilt angle file are passed from the omnidirectional camera 110 to the image processing apparatus 150 via the external storage. However, the method of transmitting the moving image data and the tilt angle data is not particularly limited, and the moving image data and the tilt angle data are transferred from the omnidirectional camera 110 to the image processing apparatus 150 by the above-mentioned communication means such as USB connection or wireless LAN connection. Good.

また、上記実施形態では、全天球カメラ110の複数の撮像素子130A,130Bのそれぞれで撮像された画像について動画形式の画像データを作成し、画像処理装置150でそれぞれの画像を合成していたが、これに限定されるものではない。すなわち、上述のように全天球カメラ110側で、撮像素子130A,130Bのそれぞれで撮像された画像を予め合成し、その合成画像から動画形式の画像データを生成し、そのデータを画像処理装置150で処理するようにしてもよい。この場合、画像処理装置で画像を合成する処理は不要となる。 Further, in the above-described embodiment, moving image format image data is created for the images captured by each of the plurality of imaging elements 130A and 130B of the omnidirectional camera 110, and the image processing device 150 combines the images. However, it is not limited to this. That is, as described above, on the omnidirectional camera 110 side, images captured by the image pickup devices 130A and 130B are combined in advance, image data in a moving image format is generated from the combined images, and the data is processed by the image processing apparatus. You may make it process by 150. In this case, the process of synthesizing the images by the image processing device is unnecessary.

また、上記実施形態では、全天球動画撮像システムとして、全天球カメラ110と画像処理装置150とを別体として説明を行ったが、これに限られない。すなわち、全天球動画撮像システムは、全天球カメラ110と画像処理装置150とを一体として構成してもよい。この場合、CPU112とCPU152を共通のCPUで構成してもよい。また、データ転送用のバス142とバス168は一つの線で構成され、各ハードウェア部材はその共通バスで繋がれる。このため、外部ストレージや有線または無線の通信手段を使ってデータの転送を行わなくてもよい。さらに、この場合、動画ファイルと傾き角ファイルを別に記録するようなことは行わずに、傾き角とそれに対応する画像が得られたら、傾き角に応じて傾きが補正(変換)された画像データを生成し、それらの画像データから動画データを生成し、DRAM132、RAM154、HDD156に記録したり、ディスプレイ162に表示したりしてもよい。 Further, in the above-described embodiment, the omnidirectional camera 110 and the image processing device 150 are described as separate bodies as the omnidirectional moving image capturing system, but the invention is not limited to this. That is, the omnidirectional video image capturing system may be configured by integrating the omnidirectional camera 110 and the image processing device 150. In this case, the CPU 112 and the CPU 152 may be configured by a common CPU. Further, the data transfer bus 142 and the bus 168 are configured by one line, and each hardware member is connected by the common bus. Therefore, it is not necessary to transfer the data using the external storage or the wired or wireless communication means. Furthermore, in this case, if the tilt angle and the corresponding image are obtained without recording the moving image file and the tilt angle file separately, the image data whose tilt is corrected (converted) according to the tilt angle May be generated, moving image data may be generated from these image data, and the moving image data may be recorded in the DRAM 132, the RAM 154, the HDD 156, or displayed on the display 162.

またさらに、上記実施形態では、鉛直方向と全天球カメラ110の真上の方向とが一致するとき、傾きがない状態としていたが、これに限られない。鉛直方向以外では、たとえば水平方向やその他所望の方向を基準方向として設定し、その基準方向に対する全天球カメラ110や撮像素子130A、130B等所定の物体との傾きに基づいて画像の傾きを修正するようにしてもよい。なお、上記実施形態では、傾きの検出に加速度センサを用いたが、加速度センサと地磁気センサの組合せなどのその他の傾きセンサにより、全天球カメラ110や全天球カメラ110に固定された撮像素子130A、130B、センサ自体等の傾きを検出するようにしてもよい。 Furthermore, in the above embodiment, when the vertical direction and the direction directly above the celestial sphere camera 110 coincide with each other, there is no inclination, but the present invention is not limited to this. In addition to the vertical direction, for example, a horizontal direction or another desired direction is set as a reference direction, and the inclination of the image is corrected based on the inclination with respect to the reference direction with respect to a predetermined object such as the omnidirectional camera 110 and the image pickup devices 130A and 130B. You may do so. Although the acceleration sensor is used to detect the tilt in the above-described embodiment, the omnidirectional camera 110 or the image pickup device fixed to the omnidirectional camera 110 by another tilt sensor such as a combination of the acceleration sensor and the geomagnetic sensor. You may make it detect inclination of 130A, 130B, a sensor itself, etc.

なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrated Circuits Hardware Description Language)、Verilog−HDLなどにより記述されたデータとして記録媒体により配布することができる。 The functional unit can be realized by a computer-executable program written in a legacy programming language such as assembler, C, C++, C#, Java (registered trademark) or an object-oriented programming language, such as ROM, EEPROM, or EPROM. , Flash memory, flexible disk, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disc, SD card, MO, or other device-readable recording medium, or through an electric communication line. It can be distributed. Further, a part or all of the above-mentioned functional unit can be mounted on a programmable device (PD) such as a field programmable gate array (FPGA), or as an ASIC (application specific integration). Circuit configuration data (bit stream data) to be downloaded to the PD in order to realize the above functional unit on the PD, HDL (Hardware Description Language) for generating the circuit configuration data, and VHDL (Very High Speed Integrated Circuits). Hardware Description Language), Verilog-HDL, and the like can be distributed by a recording medium as data.

これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the embodiments of the present invention have been described so far, the embodiments of the present invention are not limited to the above-described embodiments, and those skilled in the art can think of other embodiments, additions, changes, deletions, and the like. The present invention can be modified within the scope of the present invention and is included in the scope of the present invention as long as the effects and advantages of the present invention are exhibited in any of the embodiments.

(付記)
(付記1)
撮像システムであって、
複数のフレームの画像を撮像する撮像手段と、
基準方向に対する前記撮像手段の傾きを検出する検出手段と、
前記検出手段により検出された傾きの時系列データを記録する記録手段と、
前記記録手段により記録された傾きの時系列データおよび前記撮像手段固有の付加情報に基づき、前記撮像手段により撮像された複数のフレーム各々の画像に対し傾き補正を行う補正手段と、
前記補正手段により補正された複数のフレーム各々の画像に基づき、動画データを生成する動画生成手段と
を含む、撮像システム。
(付記2)
前記撮像システムは、さらに、
前記撮像手段により撮像された複数のフレームの画像を動画形式に圧縮する動画圧縮手段と、
前記動画圧縮手段により圧縮された動画形式の画像データと、前記記録手段により記録された傾きの時系列データとを出力する出力手段と、
前記出力手段により出力された動画形式の画像データと傾きの時系列データとを読み出す読出手段と、
前記読出手段により読み出した動画形式の画像データから、複数のフレーム各々の画像を復元する復元手段と
を含み、前記補正手段は、前記読出手段により読み出された傾きの時系列データに基づいて、前記復元手段により復元された複数のフレーム各々の画像に対し傾き補正を行う、付記1に記載の撮像システム。
(付記3)
前記撮像システムは、さらに、
前記撮像手段により撮像された複数のフレームの画像と、前記記録手段により記録された傾きの時系列データとを出力する出力手段と、
前記出力手段により出力された複数のフレームの画像と傾きの時系列データとを読み出す読出手段と
を含み、前記補正手段は、前記読出手段により読み出された傾きの時系列データに基づいて、前記読出手段により読み出した複数のフレーム各々の画像に対し傾き補正を行う、付記1に記載の撮像システム。
(付記4)
前記撮像手段、前記検出手段、前記記録手段および前記出力手段は、撮像装置に含まれ、前記読出手段、前記補正手段および前記動画生成手段は、前記撮像装置と分離された画像処理装置に含まれる、付記2または3に記載の撮像システム。
(付記5)
前記撮像手段は、第1の広角撮像光学系と、第2の広角撮像光学系とを含み、前記撮像手段が撮像するフレームの画像は、前記第1の広角撮像光学系で撮像された第1の部分画像と、前記第2の広角撮像光学系で撮像された第2の部分画像とを含み、前記補正手段は、
前記第1の部分画像および前記第2の部分画像を球面座標系へ変換する変換データに対し前記傾きに応じて修正を施す修正手段と、
前記修正手段により修正された変換データを用いて前記第1の部分画像および前記第2の部分画像を球面座標系へ変換し、全天球画像を生成する全天球画像生成手段と
を含み、前記動画データは、前記全天球画像の動画データである、付記1〜4のいずれか1つに記載の撮像システム。
(付記6)
前記補正手段は、補正に際して、全体を構成するフレームのうちの、起点となるフレームに基づく一部のフレームの画像をメモリ上に展開する、付記1〜5のいずれか1つに記載の撮像システム。
(付記7)
前記基準方向は、鉛直方向であり、前記補正手段は、前記補正手段により補正された複数のフレーム各々の画像の天頂が鉛直線に一致するように補正することを特徴とする、付記1〜6のいずれか1つに記載の撮像システム。
(付記8)
前記検出手段は、加速度センサを含む、付記1〜7のいずれか1つに記載の撮像システム。
(付記9)
画像を撮像する撮像装置であって、
複数のフレームの画像を撮像する撮像手段と、
基準方向に対する前記撮像手段の傾きを検出する検出手段と、
前記検出手段により検出された傾きの時系列データを記録する記録手段と、
前記撮像手段により撮像された複数のフレーム各々の画像および前記撮像手段固有の付加情報を出力する第1の出力手段と、
前記記録手段により記録された傾きの時系列データを出力する第2の出力手段と
を含み、前記第1の出力手段により出力された複数のフレーム各々の画像は、前記第2の出力手段により出力された傾きの時系列データおよび前記付加情報に基づき傾き補正が施される、撮像装置。
(付記10)
画像を生成する画像処理装置を実現するためのプログラムであって、コンピュータを、
撮像装置により撮像された複数のフレームの画像を含む画像データを読み出す第1の読出手段、
前記画像データに対応する前記撮像装置により記録された前記撮像装置の基準方向に対する傾きの時系列データを読み出す第2の読出手段、
前記第2の読出手段により読み出した傾きの時系列データおよび前記撮像装置固有の付加情報に基づき、前記第1の読出し手段により読み出された画像データに含まれる複数のフレーム各々の画像に対し傾き補正を行う補正手段、および
前記補正手段により補正された複数のフレーム各々の画像に基づき、動画データを生成する動画生成手段
として機能させるためのプログラム。
(付記11)
対象を撮像し、複数の画像として出力する撮像手段と、
前記対象を撮像したときの傾きを検出する検出手段と、
前記複数の画像から動画を生成する動画生成手段と、
前記傾きに関する情報、前記動画、および、前記傾きに関する情報とともに用いて前記動画に対し傾き補正を行うための前記撮像手段固有の付加情報を出力する出力手段と、
を備えた撮像装置。
(付記12)
前記出力手段は、前記動画を構成する前記複数の画像と該複数の画像の各画像を撮像した時の傾きに関する情報を対応させて出力する、付記11に記載の撮像装置。
(付記13)
前記撮像手段を複数備え、
前記動画生成手段は、前記複数の撮像手段から出力される複数の画像に対して各々動画を生成し、
前記出力手段は、前記各々の動画を出力する、
付記11または12に記載の撮像装置。
(付記14)
対象を撮像し、複数の画像として出力する撮像手段と、
前記対象を撮像したときの傾きを検出する検出手段と、
前記傾きおよび前記撮像手段固有の付加情報に応じて前記複数の画像の変換を行う画像変換手段と、
前記変換された複数の画像から動画を生成する動画生成手段と、
を備えたシステム。
(付記15)
前記撮像手段を複数備え、
前記画像変換手段は、前記複数の撮像手段から出力される複数の画像の変換を行い、
前記動画生成手段は、前記変換された複数の画像のうち、前記複数の撮像手段で同じタイミングで撮像した画像を一つに合成した画像から動画を生成する、
付記14に記載のシステム。
(Appendix)
(Appendix 1)
An imaging system,
An image pickup means for picking up images of a plurality of frames;
Detection means for detecting the inclination of the imaging means with respect to the reference direction,
Recording means for recording the time series data of the inclination detected by the detecting means,
Correction means for performing tilt correction on the images of each of the plurality of frames imaged by the imaging means, based on the time-series data of the inclination recorded by the recording means and the additional information unique to the imaging means,
And a moving image generating unit that generates moving image data based on the images of each of the plurality of frames corrected by the correcting unit.
(Appendix 2)
The imaging system further comprises
A moving image compression unit that compresses images of a plurality of frames captured by the image capturing unit into a moving image format;
Output means for outputting the image data in the moving image format compressed by the moving image compression means and the time series data of the inclination recorded by the recording means;
Reading means for reading the moving image format image data output by the output means and the time series data of inclination;
Restoring means for restoring images of each of a plurality of frames from the moving image format image data read by the reading means, the correcting means based on the time series data of the inclination read by the reading means, The imaging system according to appendix 1, wherein tilt correction is performed on the images of each of the plurality of frames restored by the restoring unit.
(Appendix 3)
The imaging system further comprises
Output means for outputting the images of the plurality of frames imaged by the imaging means, and the time series data of the inclination recorded by the recording means,
A read unit for reading the images of the plurality of frames output by the output unit and the time series data of the tilt, and the correction unit based on the time series data of the tilt read by the read unit. The imaging system according to appendix 1, wherein tilt correction is performed on the images of each of the plurality of frames read by the reading unit.
(Appendix 4)
The image pickup device, the detection device, the recording device, and the output device are included in an image pickup device, and the reading device, the correction device, and the moving image generation device are included in an image processing device separated from the image pickup device. The imaging system according to appendix 2 or 3.
(Appendix 5)
The image pickup unit includes a first wide-angle image pickup optical system and a second wide-angle image pickup optical system, and an image of a frame picked up by the image pickup unit is a first image picked up by the first wide-angle image pickup optical system. And a second partial image captured by the second wide-angle imaging optical system, wherein the correction means includes:
Correction means for correcting the conversion data for converting the first partial image and the second partial image into a spherical coordinate system according to the inclination.
A celestial sphere image generation means for converting the first partial image and the second partial image into a spherical coordinate system using the conversion data corrected by the correction means, and generating a omnidirectional image, The imaging system according to any one of appendices 1 to 4, wherein the moving image data is moving image data of the spherical image.
(Appendix 6)
6. The image pickup system according to any one of appendices 1 to 5, wherein the correction unit develops an image of a part of frames, which is based on a frame serving as a starting point, of a frame forming the whole on a memory in correction. ..
(Appendix 7)
The reference direction is a vertical direction, and the correction unit corrects the zenith of the images of the plurality of frames corrected by the correction unit so that the zenith coincides with the vertical line. The imaging system according to any one of 1.
(Appendix 8)
The imaging system according to any one of appendices 1 to 7, wherein the detection unit includes an acceleration sensor.
(Appendix 9)
An imaging device for capturing an image,
An image pickup means for picking up images of a plurality of frames;
Detection means for detecting the inclination of the imaging means with respect to the reference direction,
Recording means for recording the time series data of the inclination detected by the detecting means,
First output means for outputting images of each of the plurality of frames imaged by the imaging means and additional information unique to the imaging means;
Second output means for outputting the time series data of the inclination recorded by the recording means, and the images of each of the plurality of frames output by the first output means are output by the second output means. An image pickup apparatus, wherein tilt correction is performed based on time series data of the tilt and the additional information.
(Appendix 10)
A program for realizing an image processing device for generating an image,
First reading means for reading image data including images of a plurality of frames captured by the image capturing device;
Second reading means for reading time series data of the inclination of the image pickup device with respect to the reference direction recorded by the image pickup device corresponding to the image data;
Based on the time-series data of the inclination read by the second reading means and the additional information unique to the image pickup apparatus, the inclination of each of the plurality of frames included in the image data read by the first reading means is tilted. A program that causes a correction unit that performs correction and a function as a moving image generation unit that generates moving image data based on images of each of a plurality of frames corrected by the correction unit.
(Appendix 11)
An image pickup means for picking up an image of the object and outputting it as a plurality of images;
Detection means for detecting the inclination when the object is imaged,
A moving image generating means for generating a moving image from the plurality of images,
Output means for outputting the additional information peculiar to the image pickup means for performing the inclination correction on the moving image by using the information about the inclination, the moving image, and the information about the inclination
An image pickup apparatus including.
(Appendix 12)
12. The image pickup apparatus according to appendix 11, wherein the output unit outputs the plurality of images forming the moving image and information regarding a tilt when each image of the plurality of images is picked up in association with each other.
(Appendix 13)
A plurality of the image pickup means,
The moving image generating means generates a moving image for each of the plurality of images output from the plurality of image capturing means,
The output means outputs each of the moving images,
The imaging device according to appendix 11 or 12.
(Appendix 14)
An image pickup means for picking up an image of the object and outputting it as a plurality of images;
Detection means for detecting the inclination when the object is imaged,
Image conversion means for converting the plurality of images according to the inclination and additional information specific to the image pickup means;
A moving image generating means for generating a moving image from the plurality of converted images;
System with.
(Appendix 15)
A plurality of the image pickup means,
The image conversion means converts a plurality of images output from the plurality of image pickup means,
The moving image generating unit generates a moving image from an image obtained by combining one of the converted plurality of images captured by the plurality of image capturing units at the same timing,
The system according to attachment 14.

12…撮像体、14…筐体、18…シャッター・ボタン、20…結像光学系、22…撮像素子、100…全天球動画撮像システム、110…全天球カメラ、112…CPU、114…ROM、116…画像処理ブロック、118…動画圧縮ブロック、120…DRAMインタフェース、122…外部ストレージインタフェース、124…外部センサインタフェース、126…USBインタフェース、128…シリアルブロック、130…撮像素子、132…DRAM、134…外部ストレージ、136…加速度センサ、138…USBコネクタ、140…無線NIC、142…バス、150…画像処理装置、152…CPU、154…RAM、156…HDD、158…入力装置、160…外部ストレージ、162…ディスプレイ、164…無線NIC、166…USBコネクタ、168…バス、200…機能ブロック、210…機能ブロック、212…撮像部、214…動画圧縮部、216…傾き検出部、218…傾き記録部、220…出力部、230…動画ファイル、240…傾き角ファイル、250…機能ブロック、252…読出部、254…画像復元部、256…傾き取得部、258…傾き補正部、260…変換テーブル修正部、262…全天球画像生成部、264…動画生成部、270…動画ファイル Reference numeral 12... Image pickup body, 14... Housing, 18... Shutter button, 20... Imaging optical system, 22... Image pickup element, 100... Whole sphere moving image pickup system, 110... Whole sphere camera, 112... CPU, 114... ROM, 116... Image processing block, 118... Video compression block, 120... DRAM interface, 122... External storage interface, 124... External sensor interface, 126... USB interface, 128... Serial block, 130... Image sensor, 132... DRAM, 134... External storage, 136... Acceleration sensor, 138... USB connector, 140... Wireless NIC, 142... Bus, 150... Image processing device, 152... CPU, 154... RAM, 156... HDD, 158... Input device, 160... External Storage, 162... Display, 164... Wireless NIC, 166... USB connector, 168... Bus, 200... Functional block, 210... Functional block, 212... Imaging section, 214... Video compression section, 216... Tilt detection section, 218... Tilt Recording unit 220... Output unit 230... Video file 240... Tilt angle file 250... Functional block 252... Readout unit 254... Image restoration unit 256... Tilt acquisition unit 258... Tilt correction unit 260... Conversion Table correction unit, 262... Spherical image generation unit, 264... Movie generation unit, 270... Movie file

特開2013‐214947号公報JP, 2013-214947, A

Claims (18)

制御部および動画生成部を備えるコンピュータに用いられ、視聴中の視野変更が可能な全天球動画を生成するための処理に用いられるデータを外部に出力するデータ生成装置であって、
前記データは、
複数のフレームデータからなる画像データと、
複数の光学系および撮像素子を備える撮像装置の撮像手段により撮像された前記画像データの基準方向に対する前記撮像手段の傾き角の時系列データであって、前記傾き角は、前記撮像装置が備える加速度センサに基づくものであり、前記複数のフレームデータと関連付けられた複数の傾き角データと、を有し、
前記コンピュータが、前記データの入力を受けて、前記制御部が、前記複数のフレームデータに関連付けられた前記複数の傾き角データに基づき前記複数のフレームデータに対し、天頂補正を施し、前記動画生成部が、補正された前記複数のフレームデータに基づき全天球動画を生成するための処理に用いられることを特徴とするデータを出力するデータ生成装置。
A data generation device which is used in a computer including a control unit and a moving image generation unit, and which outputs data used for a process for generating a celestial sphere moving image capable of changing a field of view during viewing to the outside ,
The data is
Image data consisting of multiple frame data,
Time-series data of a tilt angle of the image pickup unit with respect to a reference direction of the image data picked up by an image pickup unit of an image pickup apparatus including a plurality of optical systems and an image pickup element , the tilt angle being an acceleration included in the image pickup apparatus. Based on a sensor, having a plurality of tilt angle data associated with the plurality of frame data,
The computer receives the data , and the control unit performs zenith correction on the plurality of frame data based on the plurality of tilt angle data associated with the plurality of frame data to generate the moving image. A data generation device that outputs data, wherein the unit is used in a process for generating a celestial sphere moving image based on the corrected plurality of frame data.
前記複数の光学系および撮像素子は、2つの光学系および2つの撮像素子であり、前記2つの撮像素子各々で撮像された画像を合成することによって全天球画像が生成され、前記全天球動画は、生成された全天球画像をフレームとした、圧縮された動画形式の画像データである、請求項1に記載のデータ生成装置。 The plurality of optical systems and the image pickup devices are two optical systems and two image pickup devices, and an image captured by each of the two image pickup devices is combined to generate a spherical image. The data generation device according to claim 1, wherein the moving image is compressed moving image format image data in which the generated spherical image is used as a frame. 前記撮像手段の傾き角は、前記撮像装置が備える傾き検出部で検出されるものであり、前記傾き検出部は、前記2つの撮像素子各々から得られる2つの画像に対して傾きを与える、請求項2に記載のデータ生成装置。 The tilt angle of the image pickup unit is detected by a tilt detection unit included in the image pickup apparatus, and the tilt detection unit gives a tilt to two images obtained from each of the two image pickup devices. Item 2. The data generation device according to Item 2. 視聴中の視野変更が可能な全天球動画を生成するための処理に用いられるデータを出力する方法であって、コンピュータが、
制御部および動画生成部を備えるコンピュータに用いられ、全天球動画を生成するための処理に用いられるデータを外部に出力するステップ
を実行し、前記データは、
複数のフレームデータからなる画像データと、複数の光学系および撮像素子を備える撮像装置の撮像手段により撮像された前記画像データの基準方向に対する前記撮像手段の傾き角の時系列データであって、前記傾き角は、前記撮像装置が備える加速度センサに基づくものであり、前記複数のフレームデータと関連付けられた複数の傾き角データと、を有し、
前記ステップでは、前記制御部および前記動画生成部を備えるコンピュータが、前記データの入力を受けて、前記制御部が、前記複数のフレームデータに関連付けられた前記複数の傾き角データに基づき前記複数のフレームデータに対し天頂補正を施し、前記動画生成部が、補正された前記複数のフレームデータに基づき全天球動画を生成するための処理に用いられることを特徴とするデータを出力する、方法。
A method for outputting data used in a process for generating a celestial sphere moving image capable of changing a field of view during viewing , the computer comprising:
It is used in a computer having a control unit and a moving image generation unit, and executes a step of outputting data used for a process for generating a celestial sphere moving image to the outside .
Image data composed of a plurality of frame data, and time-series data of a tilt angle of the image capturing means with respect to a reference direction of the image data captured by the image capturing means of an image capturing apparatus including a plurality of optical systems and an image sensor , The tilt angle is based on an acceleration sensor included in the imaging device , and has a plurality of tilt angle data associated with the plurality of frame data,
In the step, a computer including the control unit and the moving image generation unit receives the input of the data , and the control unit controls the plurality of tilt angle data based on the plurality of tilt angle data associated with the plurality of frame data. A method of performing zenith correction on frame data, and outputting the data characterized in that the moving image generation unit is used in a process for generating a celestial sphere moving image based on the corrected plurality of frame data.
前記複数の光学系および撮像素子は、2つの光学系および2つの撮像素子であり、前記2つの撮像素子各々で撮像された画像を合成することによって全天球画像が生成され、前記全天球動画は、生成された全天球画像をフレームとした、圧縮された動画形式の画像データである、請求項4に記載の方法。 The plurality of optical systems and the image pickup devices are two optical systems and two image pickup devices, and an image captured by each of the two image pickup devices is combined to generate a spherical image. The method according to claim 4, wherein the moving image is image data in a compressed moving image format in which the generated spherical image is used as a frame. 前記撮像手段の傾き角は、前記撮像装置が備える傾き検出部で検出されるものであり、前記傾き検出部は、前記2つの撮像素子各々から得られる2つの画像に対して傾きを与える、請求項5に記載の方法。 The tilt angle of the image pickup unit is detected by a tilt detection unit included in the image pickup apparatus, and the tilt detection unit gives a tilt to two images obtained from each of the two image pickup devices. Item 5. The method according to Item 5. コンピュータを、
制御部および動画生成部を備えるコンピュータに用いられ、視聴中の視野変更が可能な全天球動画を生成するための処理に用いられるデータを外部に出力する手段
として機能させるためのプログラムであって、前記データは、
複数のフレームデータからなる画像データと、複数の光学系および撮像素子を備える撮像装置の撮像手段により撮像された前記画像データの基準方向に対する前記撮像手段の傾き角の時系列データであって、前記傾き角は、前記撮像装置が備える加速度センサに基づくものであり、前記複数のフレームデータと関連付けられた複数の傾き角データと、を有し、
前記手段は、前記制御部および動画生成部を備えるコンピュータが、前記データの入力を受けて、前記制御部が、前記複数のフレームデータに関連付けられた前記複数の傾き角データに基づき前記複数のフレームデータに対し天頂補正を施し、前記動画生成部が、補正された前記複数のフレームデータに基づき全天球動画を生成するための処理に用いられることを特徴とするデータを出力する、プログラム。
Computer,
A program that is used in a computer that includes a control unit and a moving image generation unit and that functions as a means for externally outputting the data used in the processing for generating a celestial sphere moving image that can change the field of view during viewing. , The data is
Image data composed of a plurality of frame data, and time-series data of a tilt angle of the image capturing means with respect to a reference direction of the image data captured by the image capturing means of an image capturing apparatus including a plurality of optical systems and an image sensor , The tilt angle is based on an acceleration sensor included in the imaging device , and has a plurality of tilt angle data associated with the plurality of frame data,
In the means, a computer including the control unit and a moving image generation unit receives an input of the data , and the control unit causes the plurality of frames based on the plurality of tilt angle data associated with the plurality of frame data. A program for performing zenith correction on data, and outputting the data, wherein the moving image generation unit outputs data that is used in a process for generating a celestial sphere moving image based on the corrected plurality of frame data.
前記複数の光学系および撮像素子は、2つの光学系および2つの撮像素子であり、前記2つの撮像素子各々で撮像された画像を合成することによって全天球画像が生成され、前記全天球動画は、生成された全天球画像をフレームとした、圧縮された動画形式の画像データである、請求項7に記載のプログラム。 The plurality of optical systems and the image pickup devices are two optical systems and two image pickup devices, and an image captured by each of the two image pickup devices is combined to generate a spherical image. The program according to claim 7, wherein the moving image is image data in a compressed moving image format in which the generated spherical image is used as a frame. 前記撮像手段の傾き角は、前記撮像装置が備える傾き検出部で検出されるものであり、前記傾き検出部は、前記2つの撮像素子各々から得られる2つの画像に対して傾きを与える、請求項8に記載のプログラム。 The tilt angle of the image pickup unit is detected by a tilt detection unit included in the image pickup apparatus, and the tilt detection unit gives a tilt to two images obtained from each of the two image pickup devices. The program according to item 8. 視聴中の視野変更が可能な全天球動画を生成するための画像処理装置であって、
複数のフレームデータからなる画像データと、複数の光学系および撮像素子を備える撮像装置の撮像手段により撮像された前記画像データの基準方向に対する前記撮像手段の傾き角の時系列データであって、前記傾き角は、前記撮像装置が備える加速度センサに基づくものであり、前記複数のフレームデータと関連付けられた複数の傾き角データと、を有する、全天球動画を生成するための処理に用いられるデータの入力を外部から受けて、前記複数のフレームデータに関連付けられた前記複数の傾き角データに基づき前記複数のフレームデータに対し天頂補正を施す制御部と、
補正された前記複数のフレームデータに基づき全天球動画を生成する動画生成部と
を含む、画像処理装置。
An image processing device for generating a spherical video capable of changing the field of view during viewing ,
Image data composed of a plurality of frame data, and time-series data of a tilt angle of the image capturing means with respect to a reference direction of the image data captured by the image capturing means of an image capturing apparatus including a plurality of optical systems and an image sensor , The tilt angle is based on an acceleration sensor included in the imaging device, and has a plurality of tilt angle data associated with the plurality of frame data, and is used in a process for generating a spherical video. A control unit that receives an input from outside and performs zenith correction on the plurality of frame data based on the plurality of tilt angle data associated with the plurality of frame data,
An image processing apparatus, comprising: a moving image generating unit that generates a spherical spherical moving image based on the corrected plurality of frame data.
前記複数の光学系および撮像素子は、2つの光学系および2つの撮像素子であり、前記2つの撮像素子各々で撮像された画像を合成することによって全天球画像が生成され、前記全天球動画は、生成された全天球画像をフレームとした、圧縮された動画形式の画像データである、請求項10に記載の画像処理装置。 The plurality of optical systems and the image pickup devices are two optical systems and two image pickup devices, and a omnidirectional image is generated by synthesizing images picked up by the two image pickup devices, respectively. The image processing apparatus according to claim 10, wherein the moving image is compressed moving image format image data in which the generated spherical image is used as a frame. 前記撮像手段の傾き角は、前記撮像装置が備える傾き検出部で検出されるものであり、前記傾き検出部は、前記2つの撮像素子各々から得られる2つの画像に対して傾きを与える、請求項11に記載の画像処理装置。 The tilt angle of the image pickup unit is detected by a tilt detection unit included in the image pickup apparatus, and the tilt detection unit gives a tilt to two images obtained from each of the two image pickup devices. Item 12. The image processing device according to item 11. 視聴中の視野変更が可能な全天球動画を生成するための方法であって、コンピュータが、
複数のフレームデータからなる画像データと、複数の光学系および撮像素子を備える撮像装置の撮像手段により撮像された前記画像データの基準方向に対する前記撮像手段の傾き角の時系列データであって、前記傾き角は、前記撮像装置が備える加速度センサに基づくものであり、前記複数のフレームデータと関連付けられた複数の傾き角データと、を有する、全天球動画を生成するための処理に用いられるデータの入力を外部から受けて、前記複数のフレームデータに関連付けられた前記複数の傾き角データに基づき前記複数のフレームデータに対し天頂補正を施すステップと、
補正された前記複数のフレームデータに基づき全天球動画を生成するステップと
を実行する、方法。
A method for generating a spherical video capable of changing the field of view during viewing , the computer
Image data composed of a plurality of frame data, and time-series data of a tilt angle of the image capturing means with respect to a reference direction of the image data captured by the image capturing means of an image capturing apparatus including a plurality of optical systems and an image sensor , The tilt angle is based on an acceleration sensor included in the imaging device, and has a plurality of tilt angle data associated with the plurality of frame data, and is used in a process for generating a spherical video. Receiving an input from the outside, and performing zenith correction on the plurality of frame data based on the plurality of tilt angle data associated with the plurality of frame data,
Generating a spherical movie based on the corrected plurality of frame data.
前記複数の光学系および撮像素子は、2つの光学系および2つの撮像素子であり、前記2つの撮像素子各々で撮像された画像を合成することによって全天球画像が生成され、前記全天球動画は、生成された全天球画像をフレームとした、圧縮された動画形式の画像データである、請求項13に記載の方法。 The plurality of optical systems and the image pickup devices are two optical systems and two image pickup devices, and a omnidirectional image is generated by synthesizing images picked up by the two image pickup devices, respectively. The method according to claim 13, wherein the moving image is image data in a compressed moving image format in which the generated spherical image is used as a frame. 前記撮像手段の傾き角は、前記撮像装置が備える傾き検出部で検出されるものであり、前記傾き検出部は、前記2つの撮像素子各々から得られる2つの画像に対して傾きを与える、請求項14に記載の方法。 The tilt angle of the image pickup unit is detected by a tilt detection unit included in the image pickup apparatus, and the tilt detection unit gives a tilt to two images obtained from each of the two image pickup devices. Item 15. The method according to Item 14. 視聴中の視野変更が可能な全天球動画を生成するために、コンピュータを、
複数のフレームデータからなる画像データと、複数の光学系および撮像素子を備える撮像装置の撮像手段により撮像された前記画像データの基準方向に対する前記撮像手段の傾き角の時系列データであって、前記傾き角は、前記撮像装置が備える加速度センサに基づくものであり、前記複数のフレームデータと関連付けられた複数の傾き角データと、を有する、全天球動画を生成するための処理に用いられるデータの入力を外部から受けて、前記複数のフレームデータに関連付けられた前記複数の傾き角データに基づき前記複数のフレームデータに対し天頂補正を施す制御部、および、
補正された前記複数のフレームデータに基づき全天球動画を生成する動画生成部、
として機能させるためのプログラム。
In order to generate a spherical video that allows you to change the field of view while watching ,
Image data composed of a plurality of frame data, and time-series data of a tilt angle of the image capturing means with respect to a reference direction of the image data captured by the image capturing means of an image capturing apparatus including a plurality of optical systems and an image sensor , The tilt angle is based on an acceleration sensor included in the imaging device, and has a plurality of tilt angle data associated with the plurality of frame data, and is used in a process for generating a spherical video. A control unit that receives an input from the outside and performs zenith correction on the plurality of frame data based on the plurality of tilt angle data associated with the plurality of frame data, and
A moving image generating unit that generates a spherical moving image based on the corrected plurality of frame data,
Program to function as.
前記複数の光学系および撮像素子は、2つの光学系および2つの撮像素子であり、前記2つの撮像素子各々で撮像された画像を合成することによって全天球画像が生成され、前記全天球動画は、生成された全天球画像をフレームとした、圧縮された動画形式の画像データである、請求項16に記載のプログラム。 The plurality of optical systems and the image pickup devices are two optical systems and two image pickup devices, and a omnidirectional image is generated by synthesizing images picked up by the two image pickup devices, respectively. The program according to claim 16, wherein the moving image is image data in a compressed moving image format in which the generated spherical image is used as a frame. 前記撮像手段の傾き角は、前記撮像装置が備える傾き検出部で検出されるものであり、前記傾き検出部は、前記2つの撮像素子各々から得られる2つの画像に対して傾きを与える、請求項17に記載のプログラム。 The tilt angle of the image pickup unit is detected by a tilt detection unit included in the image pickup apparatus, and the tilt detection unit gives a tilt to two images obtained from each of the two image pickup devices. The program according to item 17.
JP2017249282A 2014-05-15 2017-12-26 Data generation device, image processing device, method and program Active JP6740996B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020125020A JP6927382B2 (en) 2014-05-15 2020-07-22 Imaging systems, methods, programs, video display devices and image processing devices.

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014101058 2014-05-15
JP2014101058 2014-05-15
JP2015021878 2015-02-06
JP2015021878 2015-02-06

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015222650A Division JP6308198B2 (en) 2014-05-15 2015-11-13 Imaging apparatus, image processing apparatus, method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020125020A Division JP6927382B2 (en) 2014-05-15 2020-07-22 Imaging systems, methods, programs, video display devices and image processing devices.

Publications (3)

Publication Number Publication Date
JP2018067964A JP2018067964A (en) 2018-04-26
JP2018067964A5 JP2018067964A5 (en) 2018-08-02
JP6740996B2 true JP6740996B2 (en) 2020-08-19

Family

ID=55073302

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2015089189A Active JP5843034B1 (en) 2014-05-15 2015-04-24 Movie display device and program
JP2015222650A Active JP6308198B2 (en) 2014-05-15 2015-11-13 Imaging apparatus, image processing apparatus, method, and program
JP2017249282A Active JP6740996B2 (en) 2014-05-15 2017-12-26 Data generation device, image processing device, method and program
JP2017249281A Pending JP2018067963A (en) 2014-05-15 2017-12-26 File
JP2020125020A Active JP6927382B2 (en) 2014-05-15 2020-07-22 Imaging systems, methods, programs, video display devices and image processing devices.
JP2021127892A Active JP7226484B2 (en) 2014-05-15 2021-08-04 Imaging system, imaging device, video display device, image processing device, method and program.

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2015089189A Active JP5843034B1 (en) 2014-05-15 2015-04-24 Movie display device and program
JP2015222650A Active JP6308198B2 (en) 2014-05-15 2015-11-13 Imaging apparatus, image processing apparatus, method, and program

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2017249281A Pending JP2018067963A (en) 2014-05-15 2017-12-26 File
JP2020125020A Active JP6927382B2 (en) 2014-05-15 2020-07-22 Imaging systems, methods, programs, video display devices and image processing devices.
JP2021127892A Active JP7226484B2 (en) 2014-05-15 2021-08-04 Imaging system, imaging device, video display device, image processing device, method and program.

Country Status (1)

Country Link
JP (6) JP5843034B1 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5846549B1 (en) 2015-02-06 2016-01-20 株式会社リコー Image processing system, image processing method, program, imaging system, image generation apparatus, image generation method and program
JP5920507B1 (en) 2015-03-10 2016-05-18 株式会社リコー Image processing system, image processing method, and program
JP6724659B2 (en) 2016-08-30 2020-07-15 株式会社リコー Imaging device, method and program
US10264302B2 (en) * 2016-09-30 2019-04-16 Ricoh Company, Ltd. Communication management apparatus, method and computer-readable storage medium for generating image data identification information
JP7180074B2 (en) 2017-01-31 2022-11-30 株式会社リコー Imaging device
GB2559788B (en) * 2017-02-18 2019-12-25 Denholm Tim 360 degree dual lens camera
JP6969121B2 (en) 2017-03-17 2021-11-24 株式会社リコー Imaging system, image processing device and image processing program
JP7163912B2 (en) 2017-05-18 2022-11-01 ソニーグループ株式会社 Imaging device, imaging method
EP3627218A4 (en) 2017-05-18 2020-04-22 Sony Corporation Imaging device
KR20200009003A (en) 2017-05-18 2020-01-29 소니 주식회사 Information processing device, information processing method, program
JP2019012935A (en) * 2017-06-30 2019-01-24 アイホン株式会社 Intercom device
JP7043255B2 (en) * 2017-12-28 2022-03-29 キヤノン株式会社 Electronic devices and their control methods
US20210243367A1 (en) * 2018-04-26 2021-08-05 Tenntwo Co., Ltd. Wide-angle image providing system
JP7467958B2 (en) 2019-02-13 2024-04-16 株式会社リコー Imaging device
EP4016464A1 (en) 2020-11-26 2022-06-22 Ricoh Company, Ltd. Apparatus, system, method, and carrier means

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169288A (en) * 1997-08-11 1999-03-09 Nikon Corp Image processor
JP2005004487A (en) * 2003-06-12 2005-01-06 Sony Corp Apparatus and method for processing surround image photographed on capture path
JP4355535B2 (en) * 2003-08-07 2009-11-04 株式会社岩根研究所 360 degree image conversion processing device
JP2005063141A (en) * 2003-08-12 2005-03-10 D Link Corp Image conversion system and image conversion method
JP2006059202A (en) * 2004-08-20 2006-03-02 Iwate Univ Imaging device and image correction method
JP2006129391A (en) * 2004-11-01 2006-05-18 Sony Corp Imaging apparatus
JP2006211378A (en) * 2005-01-28 2006-08-10 Casio Comput Co Ltd Motion picture recording and reproducing apparatus, motion picture recording apparatus, motion picture reproducing apparatus and program
JP2006311196A (en) * 2005-04-28 2006-11-09 Sony Corp Imaging apparatus and imaging method
JP4886850B2 (en) * 2007-06-28 2012-02-29 パナソニック株式会社 Image processing apparatus, image processing method, and program
JP2010004227A (en) * 2008-06-19 2010-01-07 Alps Electric Co Ltd Imaging apparatus
JP2011114496A (en) * 2009-11-25 2011-06-09 Olympus Imaging Corp Imaging apparatus
US9088715B2 (en) * 2010-06-11 2015-07-21 Panasonic Intellectual Property Corporation Of America Image processing apparatus and image processing method for image correction
JP5406813B2 (en) * 2010-10-05 2014-02-05 株式会社ソニー・コンピュータエンタテインメント Panorama image display device and panorama image display method
EP2640058B1 (en) * 2010-11-11 2017-07-12 Panasonic Intellectual Property Corporation of America Image processing device, image processing method, program, and imaging device
JP2013214947A (en) * 2012-03-09 2013-10-17 Ricoh Co Ltd Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program
JP5971207B2 (en) * 2012-09-18 2016-08-17 株式会社リコー Image adjustment apparatus, image adjustment method, and program

Also Published As

Publication number Publication date
JP2018067964A (en) 2018-04-26
JP2021185681A (en) 2021-12-09
JP6308198B2 (en) 2018-04-11
JP7226484B2 (en) 2023-02-21
JP6927382B2 (en) 2021-08-25
JP2018067963A (en) 2018-04-26
JP2020191650A (en) 2020-11-26
JP5843034B1 (en) 2016-01-13
JP2016149734A (en) 2016-08-18
JP2016149752A (en) 2016-08-18

Similar Documents

Publication Publication Date Title
JP6740996B2 (en) Data generation device, image processing device, method and program
JP5843033B1 (en) Imaging system, imaging apparatus, program, and system
US11659282B2 (en) Image processing system and image processing method
JP7031280B2 (en) Image processing equipment, image processing systems and programs
JP6724659B2 (en) Imaging device, method and program
JP6256513B2 (en) Imaging system, imaging apparatus, method, and program
US11128814B2 (en) Image processing apparatus, image capturing apparatus, video reproducing system, method and program
JP2020096349A (en) Image processing device, imaging device, moving image reproduction system, method, and program
JP2021005831A (en) Imaging system, image processing apparatus, imaging apparatus, and program
JP2020174363A (en) Photographing system, method, and program
JP2020068416A (en) Imaging apparatus, information processing apparatus, correction value calculation method, and program
US11122202B2 (en) Imaging device, image processing system, and image processing method
US20200412928A1 (en) Imaging device, imaging system, and imaging method
JP2020078065A (en) Imaging apparatus, information processing apparatus, correction amount setting method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191125

TRDD Decision of grant or rejection written
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200706

R151 Written notification of patent or utility model registration

Ref document number: 6740996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151