JP2018157538A - Program, imaging system, and information processing apparatus - Google Patents

Program, imaging system, and information processing apparatus Download PDF

Info

Publication number
JP2018157538A
JP2018157538A JP2017208677A JP2017208677A JP2018157538A JP 2018157538 A JP2018157538 A JP 2018157538A JP 2017208677 A JP2017208677 A JP 2017208677A JP 2017208677 A JP2017208677 A JP 2017208677A JP 2018157538 A JP2018157538 A JP 2018157538A
Authority
JP
Japan
Prior art keywords
image
wide
planar
corrected
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017208677A
Other languages
Japanese (ja)
Inventor
吉田 和弘
Kazuhiro Yoshida
和弘 吉田
啓一 河口
Keiichi Kawaguchi
啓一 河口
浩 水藤
Hiroshi Mizufuji
浩 水藤
浅井 貴浩
Takahiro Asai
貴浩 浅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to PCT/JP2017/047192 priority Critical patent/WO2018124268A1/en
Priority to CN201780081095.6A priority patent/CN110114798A/en
Priority to EP17840600.5A priority patent/EP3563337A1/en
Priority to US16/474,458 priority patent/US20190340737A1/en
Publication of JP2018157538A publication Critical patent/JP2018157538A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a program capable of appropriately correcting a planar image to be overlapped on a wide-angle image.SOLUTION: An information processing apparatus overlaps a planar image obtained by a second projection method to a wide-angle image obtained by a first projection method. The information processing apparatus is functioned as: projection method inverse conversion means for calculating a corresponding region to which the planar image corresponds in the wide-angle image; correction means for correcting at least one of the wide-angle image and the planar image according to an amount of displacement between a visual line direction of the wide-angle image and a center of the planar image; and image generating means for overlapping the planar image corrected by the correction means to the corresponding region of the wide-angle image corrected by the correction means.SELECTED DRAWING: Figure 16

Description

本発明は、プログラム、撮像システム、及び情報処理装置に関する。   The present invention relates to a program, an imaging system, and an information processing apparatus.

広角の平面画像のうちの一部の領域に、広角の平面画像とは別に撮像することで得られた平面画像を嵌め込むことで、全体的な画像と共に一部の領域の鮮明な画像を提供することができる。   By providing a flat image obtained by capturing separately from the wide-angle flat image in a partial area of the wide-angle flat image, a clear image of the partial image is provided together with the entire image. can do.

また、近年、一度の撮像で、360°の全天球画像を得る特殊なデジタルカメラが提供されている。この全天球画像等の広角画像の一部に、平面画像を重畳する場合、両画像の明るさが異なるため、広角画像の中で平面画像が目立ってしまう場合がある。このような不都合に対し画像の明るさを調整する技術が考案されている(例えば、特許文献1参照。)。特許文献1には、互いに異なる露光条件で撮像された画像データの指定領域を、輝度特性に基づき表示部に出力する画像処理方法が開示されている。   In recent years, special digital cameras that provide 360-degree celestial sphere images with one imaging have been provided. When a planar image is superimposed on a part of a wide-angle image such as the omnidirectional image, the brightness of the two images is different, and the planar image may be conspicuous in the wide-angle image. A technique for adjusting the brightness of an image has been devised for such inconvenience (see, for example, Patent Document 1). Patent Document 1 discloses an image processing method for outputting designated areas of image data captured under different exposure conditions to a display unit based on luminance characteristics.

しかしながら、広角画像の一部が表示された状態で単に平面画像の明るさを補正すると露出が過剰(露出オーバー)又は不足(露出アンダー)することがあるという問題がある。   However, there is a problem that if the brightness of the planar image is simply corrected while a part of the wide-angle image is displayed, the exposure may be overexposed (overexposed) or underexposed (underexposed).

広角画像は撮像範囲が広いため、ディスプレイなどの表示装置は広角画像の一部のみを表示する場合が多いが、広角画像の露出は撮像範囲全体を考慮して決定されるため、一部の領域の明るさが適正でなく、オーバーだったりアンダーだったりする場合がある。このような場合に、平面画像の明るさ値や色値を広角画像の明るさ値に近づけるように画素値を補正すると、平面画像の明るさ値もオーバーだったりアンダーだったりに補正されてしまう。   Since wide-angle images have a wide imaging range, a display device such as a display often displays only a part of the wide-angle image, but the exposure of the wide-angle image is determined in consideration of the entire imaging range. The brightness of is not appropriate and may be over or under. In such a case, if the pixel value is corrected so that the brightness value or color value of the planar image approaches the brightness value of the wide-angle image, the brightness value of the planar image is also corrected to be over or under. .

本発明は、上記課題に鑑み、広角画像に重畳される平面画像を適切に補正できるプログラムを提供することを目的とする。   An object of this invention is to provide the program which can correct | amend the plane image superimposed on a wide-angle image appropriately in view of the said subject.

本発明は、第1の射影方式によって得られた広角画像に対し、第2の射影方式によって得られた平面画像を重畳する情報処理装置を、前記広角画像において前記平面画像が対応する対応領域を算出する射影方式逆変換手段と、前記広角画像の視線方向と前記平面画像の中心との変位量に応じて、前記広角画像と前記平面画像の少なくとも一方を補正する補正手段と、前記補正手段により補正された前記広角画像の前記対応領域に、前記補正手段により補正された前記平面画像を重畳する画像作成手段、として機能させることを特徴とするプログラムを提供する。   The present invention provides an information processing apparatus that superimposes a planar image obtained by the second projection method on a wide-angle image obtained by the first projection method, and displays a corresponding region corresponding to the planar image in the wide-angle image. A projection method inverse transform means for calculating; a correcting means for correcting at least one of the wide-angle image and the planar image in accordance with a displacement amount between a line-of-sight direction of the wide-angle image and the center of the planar image; and the correcting means. A program is provided that causes an image creation unit to superimpose the planar image corrected by the correction unit on the corresponding area of the corrected wide-angle image.

広角画像に重畳される平面画像を適切に補正できるプログラムを提供することができる。   It is possible to provide a program that can appropriately correct a planar image superimposed on a wide-angle image.

(a)は特殊撮像装置の左側面図であり、(b)は特殊撮像装置の背面図であり、(c)は特殊撮像装置の平面図であり、(d)は特殊撮像装置の底面図である。(A) is a left side view of the special imaging device, (b) is a rear view of the special imaging device, (c) is a plan view of the special imaging device, and (d) is a bottom view of the special imaging device. It is. 特殊撮像装置の使用イメージ図である。It is a usage image figure of a special imaging device. (a)は特殊撮像装置で撮像された半球画像(前)、(b)は特殊撮像装置で撮像された半球画像(後)、(c)は正距円筒図法により表された画像を示した図である。(A) is a hemispherical image captured by a special imaging device (front), (b) is a hemispherical image captured by a special imaging device (rear), and (c) is an image represented by equirectangular projection. FIG. (a)は正距円筒射影画像で球を被う状態を示した概念図、(b)は全天球画像を示した図である。(A) is the conceptual diagram which showed the state which covered the sphere with an equirectangular projection image, (b) is the figure which showed the omnidirectional image. 全天球画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。It is the figure which showed the position of a virtual camera and a predetermined area | region at the time of making a spherical image into a three-dimensional solid sphere. (a)は図5の立体斜視図、(b)は通信端末のディスプレイに所定領域の画像が表示されている状態を示す図である。(A) is a three-dimensional perspective view of FIG. 5, (b) is a figure which shows the state in which the image of the predetermined area is displayed on the display of a communication terminal. 所定領域情報と所定領域Tの画像との関係を示した図である。FIG. 6 is a diagram illustrating a relationship between predetermined area information and an image of a predetermined area T. 本発明の実施形態に係る撮像システムの概略図である。1 is a schematic diagram of an imaging system according to an embodiment of the present invention. アダプタの斜視図である。It is a perspective view of an adapter. 撮像システムの使用イメージ図である。It is a usage image figure of an imaging system. 特殊撮像装置のハードウェア構成図である。It is a hardware block diagram of a special imaging device. 一般撮像装置のハードウェア構成図である。It is a hardware block diagram of a general imaging device. スマートフォンのハードウェア構成図である。It is a hardware block diagram of a smart phone. 撮像システムの機能ブロック図である。It is a functional block diagram of an imaging system. (a)は連携撮像装置管理テーブルの概念図、(b)連携撮像装置設定画面を示す概念図である。(A) is a conceptual diagram of a cooperative imaging device management table, (b) is a conceptual diagram showing a cooperative imaging device setting screen. 画像・音処理部の詳細な機能ブロック図である。It is a detailed functional block diagram of an image / sound processing unit. 重畳表示メタデータの構成図である。It is a block diagram of superimposition display metadata. (a)は第2の対応領域における各格子領域を示した概念図、(b)は第3の対応領域における各格子領域を示した概念図である。(A) is a conceptual diagram showing each lattice region in the second corresponding region, (b) is a conceptual diagram showing each lattice region in the third corresponding region. 撮像方法を示したシーケンス図である。It is the sequence diagram which showed the imaging method. 重畳表示パラメータの作成処理の過程における画像の概念図である。It is a conceptual diagram of the image in the process of the production | generation process of a superimposition display parameter. 周辺領域画像を特定する際の概念図である。It is a conceptual diagram at the time of specifying a peripheral region image. 第2の対応領域を複数の格子領域に分割する際の概念図である。It is a conceptual diagram at the time of dividing | segmenting a 2nd corresponding area | region into a some grid | lattice area | region. 正距円筒射影画像ECにおいて第3の対応領域を示す概念図である。It is a conceptual diagram which shows the 3rd corresponding | compatible area | region in the equirectangular projection image EC. 補正パラメータの作成処理の過程における画像の概念図である。It is a conceptual diagram of the image in the process of the preparation process of a correction parameter. 重畳表示の処理の課程における画像の概念図である。It is a conceptual diagram of the image in the process of the superimposition display process. 全天球画像に平面画像を重畳した場合の二次元の概念図である。It is a two-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image. 全天球画像に平面画像を重畳した場合の三次元の概念図である。It is a three-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image. 本実施形態の位置パラメータを用いずに、全天球画像に平面画像を重畳した場合の二次元の概念図である。It is a two-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image without using the position parameter of the present embodiment. 本実施形態の位置パラメータを用いて、全天球画像に平面画像を重畳した場合の二次元の概念図である。It is a two-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image using the position parameters of the present embodiment. (a)重畳表示しない場合のワイド画像の表示例、(b)重畳表示しない場合のテレ画像の表示例、(c)重畳表示する場合のワイド画像の表示例、(d)重畳表示する場合のテレ画像の表示例を示した概念図である。(A) Display example of wide image without superimposing display, (b) Display example of tele image without superimposing display, (c) Display example of wide image with superimposing display, (d) In case of superimposing display It is the conceptual diagram which showed the example of a display of a tele image. 補正処理の過程における画像の概念図である。It is a conceptual diagram of the image in the process of a correction process. 平面画像の補正処理の過程における画像の概念図である。It is a conceptual diagram of the image in the process of the correction process of a plane image. 正距円筒射影画像の補正処理の過程における画像の概念図である。It is a conceptual diagram of the image in the process of the correction process of an equirectangular projection image. 画像合成割合の変更方法について説明する図である。It is a figure explaining the change method of an image composition ratio. 仮想カメラの視線方向と重畳画像の中心点との関係について説明する図の一例である。It is an example of the figure explaining the relationship between the gaze direction of a virtual camera, and the center point of a superimposed image. 仮想カメラの視線方向と重畳画像の中心点との関係について説明する図の一例である。It is an example of the figure explaining the relationship between the gaze direction of a virtual camera, and the center point of a superimposed image. 全天球画像がオーバー露出の場合の補正の効果を示す図である。It is a figure which shows the effect of the correction | amendment when a spherical image is overexposed. 全天球画像がアンダー露出の場合の補正の効果を示す図である。It is a figure which shows the effect of the correction | amendment in case an omnidirectional image is underexposure. 正距円筒射影画像の補正処理の過程における画像の概念図である(第二の実施形態)。It is a conceptual diagram of the image in the process of the correction processing of the equirectangular projection image (second embodiment). 露出の異なる複数枚の正距円筒射影画像を用いた場合の位置パラメータと補正パラメータの関係について説明する図である。It is a figure explaining the relationship between the position parameter at the time of using the multiple equirectangular projection image from which exposure differs, and a correction parameter. 明るさ値(又は色値)が補正された補正画像C2、D2の作成方法を説明する図である。It is a figure explaining the production method of the correction images C2 and D2 by which the brightness value (or color value) was correct | amended. 複数枚の重畳画像が重畳された所定領域Tの一例を示す図である。It is a figure which shows an example of the predetermined area | region T with which the several superimposed image was superimposed. 所定領域Tに複数枚の重畳画像が重畳される場合の説明図である。5 is an explanatory diagram when a plurality of superimposed images are superimposed on a predetermined region T. FIG. 平面画像の補正処理の過程における画像の概念図である。It is a conceptual diagram of the image in the process of the correction process of a plane image. 目標対象が1枚の平面画像の場合の明るさ値(又は色値)の補正画像の作成に関する概念図である。It is a conceptual diagram regarding creation of the correction image of the brightness value (or color value) when the target object is one plane image. 目標対象が1枚の画像の場合の明るさ値(又は色値)の補正画像の作成に関する概念図である。It is a conceptual diagram regarding creation of the correction image of the brightness value (or color value) when the target object is one image. 目標対象が2枚の画像の割合で算出された場合の明るさ値(又は色値)の補正画像の作成に関する概念図である。It is a conceptual diagram regarding creation of the correction image of the brightness value (or color value) when the target object is calculated at the ratio of two images. 正距円筒射影画像の補正処理の過程における画像の概念図である(第三の実施形態)。FIG. 10 is a conceptual diagram of an image in a process of correcting an equirectangular projection image (third embodiment). 図48に示されている正距円筒射影画像ECの補正処理(ステップ500)について説明する図の一例である。FIG. 49 is an example of a diagram illustrating a correction process (step 500) of the equirectangular projection image EC shown in FIG. 48. 補正部が、参照領域画像と合成するための異なる露出で撮像された正距円筒射影画像を選択する手順を説明する一例のフローチャート図である。It is a flowchart figure of an example explaining the procedure in which a correction | amendment part selects the equirectangular projection image imaged with different exposure for synthesize | combining with a reference area image. 画像の合成の具体例について説明する図の一例である(オーバー露出画像と合成)。It is an example of the figure explaining the specific example of the synthesis | combination of an image (synthesis | combination with an overexposure image). 画像の合成の具体例について説明する図の一例である(アンダー露出画像と合成)。It is an example of the figure explaining the specific example of the synthesis | combination of an image (synthesis | combination with an underexposure image). 正距円筒射影画像の補正処理の過程における画像の概念図である(第四の実施形態)。It is a conceptual diagram of the image in the process of correction processing of an equirectangular projection image (fourth embodiment). 補正画像Dと補正画像Cの関係を示す図である。It is a figure which shows the relationship between the correction image D and the correction image C. FIG.

以下、図面を用いて、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<<実施形態の概要>>
以下、本実施形態の概要について説明する。
まずは、図1乃至図7を用いて、全天球画像の生成方法について説明する。
<< Summary of Embodiment >>
Hereinafter, an outline of the present embodiment will be described.
First, a method for generating an omnidirectional image will be described with reference to FIGS.

まず、図1を用いて、特殊撮像装置1の外観を説明する。特殊撮像装置1は、全天球(360°)パノラマ画像の元になる撮像画像を得るためのデジタルカメラである。なお、図1(a)は特殊撮像装置の左側面図であり、図1(b)は特殊撮像装置の背面図であり、図1(c)は特殊撮像装置の平面図であり、図1(d)は特殊撮像装置の底面図である。   First, the external appearance of the special imaging device 1 will be described with reference to FIG. The special imaging device 1 is a digital camera for obtaining a captured image that is a source of an omnidirectional (360 °) panoramic image. 1A is a left side view of the special imaging apparatus, FIG. 1B is a rear view of the special imaging apparatus, and FIG. 1C is a plan view of the special imaging apparatus. (D) is a bottom view of the special imaging device.

図1(a),図1(b),図1(c),図1(d)に示されているように、特殊撮像装置1の上部には、正面側(前側)に魚眼型のレンズ102a及び背面側(後側)に魚眼型のレンズ102bが設けられている。特殊撮像装置1の内部には、後述の撮像素子(画像センサ)103a,103bが設けられており、それぞれレンズ102a、102bを介して被写体や風景を撮像することで、半球画像(画角180°以上)を得ることができる。特殊撮像装置1の正面側の面には、シャッターボタン115aが設けられている。また、特殊撮像装置1の側面には、電源ボタン115b、Wi-Fi(Wireless Fidelity)ボタン115c、及び撮像モード切替ボタン115dが設けられている。電源ボタン115b、及びWi-Fiボタン115cは、いずれも押下される度に、オンとオフが切り替えられる。また、撮像モード切替ボタン115dは、押下される度に、静止画の撮像モードと動画の撮像モードが切り替えられる。なお、シャッターボタン115a、電源ボタン115b、Wi-Fiボタン115c、及び撮像モード切替ボタン115dは、操作部115の一部であり、操作部115は、これらのボタンに限られない。   As shown in FIGS. 1 (a), 1 (b), 1 (c), and 1 (d), the upper part of the special imaging device 1 has a fish-eye shape on the front side (front side). A fish-eye lens 102b is provided on the lens 102a and the back side (rear side). The special imaging device 1 includes imaging elements (image sensors) 103a and 103b, which will be described later. A hemispherical image (angle of view 180 °) is obtained by imaging a subject or a landscape through the lenses 102a and 102b, respectively. Above). A shutter button 115 a is provided on the front surface of the special imaging device 1. Further, a power button 115b, a Wi-Fi (Wireless Fidelity) button 115c, and an imaging mode switching button 115d are provided on the side surface of the special imaging device 1. Each time the power button 115b and the Wi-Fi button 115c are pressed, they are switched on and off. In addition, each time the imaging mode switching button 115d is pressed, a still image imaging mode and a moving image imaging mode are switched. The shutter button 115a, the power button 115b, the Wi-Fi button 115c, and the imaging mode switching button 115d are part of the operation unit 115, and the operation unit 115 is not limited to these buttons.

また、特殊撮像装置1の底部150の中央には、カメラ用三脚や一般撮像装置3に特殊撮像装置1を取り付けるための三脚ねじ穴151が設けられている。また、底部150の左端側には、Micro USB(Universal Serial Bus)端子152が設けられている。底部150の右端側には、HDMI(登録商標。High-Definition Multimedia Interface)端子153が設けられている。   A tripod screw hole 151 for attaching the special imaging device 1 to the camera tripod or the general imaging device 3 is provided in the center of the bottom 150 of the special imaging device 1. A micro USB (Universal Serial Bus) terminal 152 is provided on the left end side of the bottom 150. An HDMI (registered trademark, High-Definition Multimedia Interface) terminal 153 is provided on the right end side of the bottom 150.

次に、図2を用いて、特殊撮像装置1の使用状況を説明する。なお、図2は、特殊撮像装置の使用イメージ図である。特殊撮像装置1は、図2に示されているように、例えば、ユーザが手に持ってユーザの周りの被写体を撮像するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。   Next, the usage status of the special imaging apparatus 1 will be described with reference to FIG. FIG. 2 is a usage image diagram of the special imaging apparatus. As illustrated in FIG. 2, the special imaging device 1 is used, for example, to capture a subject around the user while the user holds it in his / her hand. In this case, two hemispherical images can be obtained by imaging the subject around the user by the imaging device 103a and the imaging device 103b shown in FIG.

次に、図3及び図4を用いて、特殊撮像装置1で撮像された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図3(a)は特殊撮像装置1で撮像された半球画像(前側)、図3(b)は特殊撮像装置で撮像された半球画像(後側)、図3(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(a)は正距円筒射影画像で球を被う状態を示した概念図、図4(b)は全天球画像を示した図である。   Next, an outline of processing until the equirectangular projection image EC and the omnidirectional image CE are created from the image captured by the special imaging device 1 will be described with reference to FIGS. 3 and 4. 3A shows a hemispherical image (front side) captured by the special imaging apparatus 1, FIG. 3B shows a hemispherical image captured by the special imaging apparatus (rear side), and FIG. It is the figure which showed the image (henceforth "an equirectangular projection image") represented by the cylindrical projection. FIG. 4A is a conceptual diagram showing a state where a sphere is covered with an equirectangular projection image, and FIG. 4B is a diagram showing an omnidirectional image.

図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、特殊撮像装置1によって合成され、図3(c)に示されているように、正距円筒射影画像ECが作成される。   As shown in FIG. 3A, the image obtained by the image sensor 103a is a hemispherical image (front side) curved by a fish-eye lens 102a described later. Also, as shown in FIG. 3B, the image obtained by the image sensor 103b is a hemispherical image (rear side) curved by a fish-eye lens 102b described later. Then, the hemispherical image (front side) and the hemispherical image inverted by 180 degrees (rear side) are synthesized by the special imaging device 1 and, as shown in FIG. 3C, the equirectangular projection image EC. Is created.

そして、OpenGL ES(Open Graphics Library for Embedded Systems)等が利用されることで、図4(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions) 及び3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。   Then, by using OpenGL ES (Open Graphics Library for Embedded Systems) or the like, the equirectangular projection image is pasted so as to cover the spherical surface as shown in FIG. An omnidirectional image CE as shown in (b) is created. In this way, the omnidirectional image CE is represented as an image in which the equirectangular projection image EC faces the center of the sphere. OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. Note that the omnidirectional image CE may be a still image or a moving image.

以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。   As described above, since the omnidirectional image CE is an image that is pasted so as to cover the spherical surface, it is uncomfortable when viewed by a human. Therefore, by displaying a predetermined area (hereinafter referred to as “predetermined area image”) of a part of the omnidirectional image CE as a flat image with little curvature, a display that does not give a sense of discomfort to humans can be achieved. This will be described with reference to FIGS.

なお、図5は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球画像が、三次元の立体球CSで表わされている。このように生成された全天球画像CEが、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮像領域である。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。従って、所定領域Tは画角αと、仮想カメラICから全天球画像CEまでの距離fにより特定できる(図7参照)。   FIG. 5 is a diagram showing the positions of the virtual camera and the predetermined area when the omnidirectional image is a three-dimensional solid sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the omnidirectional image CE displayed as a three-dimensional solid sphere. FIG. 6A is a three-dimensional perspective view of FIG. 5, and FIG. 6B is a diagram showing a predetermined area image when displayed on the display. In FIG. 6A, the omnidirectional image shown in FIG. 4 is represented by a three-dimensional solid sphere CS. Assuming that the omnidirectional image CE generated in this way is a three-dimensional sphere CS, the virtual camera IC is positioned inside the omnidirectional image CE as shown in FIG. The predetermined area T in the omnidirectional image CE is an imaging area of the virtual camera IC. The zoom of the predetermined region T can be expressed by expanding or contracting the range (arc) of the angle of view α. The zoom of the predetermined area T can also be expressed by moving the virtual camera IC closer to or away from the omnidirectional image CE. The predetermined area image Q is an image of the predetermined area T in the omnidirectional image CE. Therefore, the predetermined region T can be specified by the angle of view α and the distance f from the virtual camera IC to the omnidirectional image CE (see FIG. 7).

そして、図6(a)に示されている所定領域画像Qは、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮像領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって表された所定領域画像である。以下では、仮想カメラICの撮像方向(ea,aa)と画角(α)を用いて説明する。なお、所定領域Tは、画角αと距離fではなく、所定領域Tである仮想カメラICの撮像領域(X,Y,Z)によって示してもよい。   Then, the predetermined area image Q shown in FIG. 6A is displayed as an image of the imaging area of the virtual camera IC on a predetermined display as shown in FIG. 6B. The image shown in FIG. 6B is a predetermined area image represented by the predetermined (default) predetermined area information. Hereinafter, description will be made using the imaging direction (ea, aa) and the angle of view (α) of the virtual camera IC. The predetermined area T may be indicated by the imaging area (X, Y, Z) of the virtual camera IC that is the predetermined area T, instead of the angle of view α and the distance f.

次に、図7を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図7は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図7に示されているように、「ea」はelevation angle、「aa」はazimuth angle、「α」は画角(Angle)を示す。即ち、撮像方向(ea,aa)で示される仮想カメラICの注視点が、仮想カメラICの撮像領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図7では、一般的に以下の式(1)で示される三角関数が成り立つ。   Next, the relationship between the predetermined area information and the image of the predetermined area T will be described with reference to FIG. FIG. 7 is a diagram showing the relationship between the predetermined region information and the relationship between the images of the predetermined region T. As shown in FIG. 7, “ea” represents an elevation angle, “aa” represents an azimuth angle, and “α” represents an angle of view. That is, the attitude of the virtual camera IC is changed so that the gazing point of the virtual camera IC indicated by the imaging direction (ea, aa) becomes the center point CP of the predetermined area T that is the imaging area of the virtual camera IC. Become. The predetermined area image Q is an image of the predetermined area T in the omnidirectional image CE. f is the distance from the virtual camera IC to the center point CP. L is a distance between an arbitrary vertex of the predetermined region T and the center point CP (2L is a diagonal line). In FIG. 7, a trigonometric function represented by the following formula (1) is generally established.

L/f=tan(α/2)・・・(式1)
<撮像システムの概略>
続いて、図8を用いて、本実施形態の撮像システムの構成の概略について説明する。図8は、本実施形態の撮像システムの構成の概略図である。
L / f = tan (α / 2) (Formula 1)
<Outline of imaging system>
Next, an outline of the configuration of the imaging system of the present embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram of the configuration of the imaging system of the present embodiment.

図8に示されているように、本実施形態の撮像システムは、特殊撮像装置1、一般撮像装置3、スマートフォン5、及びアダプタ9によって構成されている。特殊撮像装置1はアダプタ9を介して一般撮像装置3に接続されている。   As illustrated in FIG. 8, the imaging system according to the present embodiment includes a special imaging device 1, a general imaging device 3, a smartphone 5, and an adapter 9. The special imaging device 1 is connected to the general imaging device 3 via the adapter 9.

これらのうち、特殊撮像装置1は、上記のように、被写体や風景等を撮像して全天球(パノラマ)画像の元になる2つの半球画像を得るための特殊なデジタルカメラである。   Among these, the special imaging device 1 is a special digital camera for imaging a subject, a landscape, and the like and obtaining two hemispherical images that are the basis of a panoramic image as described above.

一般撮像装置3は、デジタル一眼レフカメラであるが、コンパクトデジタルカメラであってもよい。一般撮像装置3には、後述の操作部315の一部であるシャッターボタン315aが設けられている。   The general imaging device 3 is a digital single-lens reflex camera, but may be a compact digital camera. The general imaging device 3 is provided with a shutter button 315a which is a part of an operation unit 315 described later.

スマートフォン5は、Wi-Fi、Bluetooth(登録商標)、NFC(Near Field Communication)等の近距離無線通信技術を利用して、特殊撮像装置1及び一般撮像装置3と無線通信を行なう情報処理装置である。また、スマートフォン5では、自装置に設けられた後述のディスプレイ517に、特殊撮像装置1及び一般撮像装置3からそれぞれ取得した画像を表示することができる。   The smartphone 5 is an information processing device that performs wireless communication with the special imaging device 1 and the general imaging device 3 using a short-range wireless communication technology such as Wi-Fi, Bluetooth (registered trademark), or NFC (Near Field Communication). is there. In addition, the smartphone 5 can display images acquired from the special imaging device 1 and the general imaging device 3 on a display 517 described later provided in the device 5.

なお、スマートフォン5は、近距離無線通信技術を利用せずに、有線ケーブルによって特殊撮像装置1及び一般撮像装置3と通信を行なうようにしてもよい。また、スマートフォン5は、通信端末の一例であり、通信端末には、タブレット型PC(Personal Computer:パーソナルコンピュータ)、ノートPC、デスクトップPCも含まれる。なお、スマートフォンは、画像処理端末の一例でもある。   Note that the smartphone 5 may communicate with the special imaging device 1 and the general imaging device 3 through a wired cable without using the short-range wireless communication technology. The smartphone 5 is an example of a communication terminal, and the communication terminal includes a tablet PC (Personal Computer), a notebook PC, and a desktop PC. A smartphone is also an example of an image processing terminal.

また、図9は、アダプタの斜視図である。図9に示されているように、アダプタ9は、シューアダプタ901、ボルト902、上部アジャスタ903、及び下部アジャスタ904によって構成されている。これらのうち、シューアダプタ901は、一般撮像装置3のアクセサリシューにスライドして取り付けられる。このシューアダプタ901の中心に、三脚ねじ穴151に回転して取り付けられるボルト902が設けられている。このボルト902には、回転可能な上部アジャスタ903及び下部アジャスタ904が設けられている。上部アジャスタ903は、ボルト902に取り付けた物(例えば、特殊撮像装置1)を固定する役割を果たす。下部アジャスタ904は、シューアダプタ901を取り付けた物(例えば、一般撮像装置3)を固定する役割を果たす。   FIG. 9 is a perspective view of the adapter. As shown in FIG. 9, the adapter 9 includes a shoe adapter 901, a bolt 902, an upper adjuster 903, and a lower adjuster 904. Among these, the shoe adapter 901 is attached to the accessory shoe of the general imaging device 3 by sliding. At the center of the shoe adapter 901, a bolt 902 that is rotatably attached to the tripod screw hole 151 is provided. The bolt 902 is provided with a rotatable upper adjuster 903 and a lower adjuster 904. The upper adjuster 903 plays a role of fixing an object (for example, the special imaging device 1) attached to the bolt 902. The lower adjuster 904 plays a role of fixing an object (for example, the general imaging device 3) to which the shoe adapter 901 is attached.

図10は、撮像システムの使用イメージ図である。図10に示されているように、ユーザは、スマートフォン5を衣服のポケットに入れ、アダプタ9を用いて特殊撮像装置1を取り付けた一般撮像装置3で被写体等の撮像を行なう。なお、スマートフォン5は、衣服のポケットに入れずに、特殊撮像装置1や一般撮像装置3と無線通信可能な範囲に置いてもよい。   FIG. 10 is a usage image diagram of the imaging system. As shown in FIG. 10, the user puts the smartphone 5 in a pocket of clothes and takes an image of a subject or the like with the general imaging device 3 to which the special imaging device 1 is attached using the adapter 9. The smartphone 5 may be placed in a range where wireless communication with the special imaging device 1 or the general imaging device 3 is possible without being put in a pocket of clothes.

<<実施形態のハードウェア構成>>
次に、図11及び図13を用いて、本実施形態の特殊撮像装置1、一般撮像装置3及びスマートフォン5のハードウェア構成を詳細に説明する。
<< Hardware Configuration of Embodiment >>
Next, the hardware configurations of the special imaging device 1, the general imaging device 3, and the smartphone 5 according to the present embodiment will be described in detail with reference to FIGS.

<特殊撮像装置のハードウェア構成>
まず、図11を用いて、特殊撮像装置1のハードウェア構成を説明する。図11は、特殊撮像装置1のハードウェア構成図である。以下では、特殊撮像装置1は、2つの撮像素子を使用した全天球(全方位)特殊撮像装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に特殊撮像装置1と同じ機能を有するようにしてもよい。
<Hardware configuration of special imaging device>
First, the hardware configuration of the special imaging device 1 will be described with reference to FIG. FIG. 11 is a hardware configuration diagram of the special imaging device 1. Hereinafter, the special imaging apparatus 1 is an omnidirectional (omnidirectional) special imaging apparatus using two imaging elements, but the number of imaging elements may be two or more. In addition, it is not always necessary to use a dedicated device for omnidirectional imaging. By attaching a retrofit omnidirectional imaging unit to a normal digital camera or smartphone, it has substantially the same function as the special imaging device 1. Also good.

図11に示されているように、特殊撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、及び、加速度センサ120なども接続される。   As shown in FIG. 11, the special imaging apparatus 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, and a ROM (Read Only). Memory) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, antenna 117a, electronic compass 118, gyro sensor 119, and acceleration sensor 120 etc. are also connected.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。   Among these, the imaging unit 101 includes wide-angle lenses (so-called fish-eye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging units provided corresponding to the wide-angle lenses. Elements 103a and 103b are provided. The image sensors 103a and 103b are image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor that convert an optical image obtained by the fisheye lenses 102a and 102b into image data of an electric signal and output the image data. A timing generation circuit for generating a horizontal or vertical synchronization signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。   The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I / F bus. On the other hand, the imaging elements 103 a and 103 b of the imaging unit 101 are connected to a serial I / F bus (I2C bus or the like) separately from the imaging control unit 105. The image processing unit 104, the imaging control unit 105, and the sound processing unit 109 are connected to the CPU 111 via the bus 110. Further, ROM 112, SRAM 113, DRAM 114, operation unit 115, network I / F 116, communication unit 117, and electronic compass 118 are connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているような正距円筒射影画像のデータを作成する。   The image processing unit 104 takes in the image data output from the image sensors 103a and 103b through the parallel I / F bus, performs predetermined processing on the respective image data, and then combines these image data. The data of the equirectangular projection image as shown in FIG. 3C is created.

撮像制御ユニット105は、撮像素子103aをマスタデバイス,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。   The imaging control unit 105 sets a command or the like in the register group of the imaging elements 103a and 103b using the I2C bus with the imaging element 103a as a master device and 103b as a slave device. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to capture status data and the like of the register groups of the imaging elements 103a and 103b and send them to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。特殊撮像装置1によっては、ディスプレイ(例えば、スマートフォン5のディスプレイ517)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。   The imaging control unit 105 instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Some special imaging devices 1 may have a preview display function or a function corresponding to a moving image display by a display (for example, the display 517 of the smartphone 5). In this case, output of image data from the image sensors 103a and 103b is continuously performed at a predetermined frame rate (frame / min).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、特殊撮像装置1にはディスプレイが設けられていないが、表示部を設けてもよい。   Further, as will be described later, the imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of image data of the imaging elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the special imaging apparatus 1 is not provided with a display, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。   The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.

CPU111は、特殊撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。   The CPU 111 controls the overall operation of the special imaging apparatus 1 and executes necessary processes. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data being processed, and the like. In particular, the DRAM 114 stores image data being processed by the image processing unit 104 and processed equirectangular projection image data.

操作部115は、シャッターボタン115aなどの操作ボタンの総称である。ユーザは操作部115を操作することで、種々の撮像モードや撮像条件などを入力する。   The operation unit 115 is a general term for operation buttons such as the shutter button 115a. The user operates the operation unit 115 to input various imaging modes and imaging conditions.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してスマートフォン5等の外部端末(装置)に送信されたりする。   The network I / F 116 is a general term for an interface circuit (USB I / F or the like) with an external medium such as an SD card or a personal computer. The network I / F 116 may be wireless or wired. Data of the equirectangular projection image stored in the DRAM 114 is recorded on an external medium via the network I / F 116, or an external terminal (device) such as the smartphone 5 via the network I / F 116 as necessary. ).

通信部117は、特殊撮像装置1に設けられたアンテナ117aを介して、Wi-Fi 、NFC(Near Field radio Communication)、Bluetooth等の近距離無線通信技術によって、スマートフォン5等の外部端末(装置)と通信を行う。この通信部117によっても、正距円筒射影画像のデータをスマートフォン5等の外部端末(装置)に送信することができる。   The communication unit 117 is connected to an external terminal (device) such as the smartphone 5 via a short-range wireless communication technology such as Wi-Fi, NFC (Near Field Radio Communication), or Bluetooth via an antenna 117a provided in the special imaging device 1. Communicate with. The communication unit 117 can also transmit the equirectangular projection image data to an external terminal (device) such as the smartphone 5.

電子コンパス118は、地球の磁気から特殊撮像装置1の方位を算出し、方位情報を出力する。この方位情報はExif(Exchangeable image file format)に沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。   The electronic compass 118 calculates the orientation of the special imaging device 1 from the earth's magnetism and outputs orientation information. This orientation information is an example of related information (metadata) along Exif (Exchangeable image file format), and is used for image processing such as image correction of a captured image. The related information includes each data of the image capturing date and time and the data capacity of the image data.

ジャイロセンサ119は、特殊撮像装置1の移動に伴う角度の変化(ロール角、ピッチング角、ヨー角)を検出する。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。   The gyro sensor 119 detects a change in angle (roll angle, pitching angle, yaw angle) accompanying the movement of the special imaging device 1. The change in angle is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image.

加速度センサ120は3軸方向の加速度を検出する。検出した加速度に基づいて特殊撮像装置1の姿勢(重力方向に対する角度)を検出する。ジャイロセンサ119と加速度センサ120は両方を有することで画像補正の精度が向上する。
<一般撮像装置のハードウェア構成>
次に、図12を用いて、一般撮像装置のハードウェアについて説明する。図12は、一般撮像装置3のハードウェア構成図である。図12に示されているように、一般撮像装置3は、撮像ユニット301、画像処理ユニット304、撮像制御ユニット305、マイク308、音処理ユニット309、バス310、CPU311、ROM312、SRAM313、DRAM314、操作部315、ネットワークI/F316、通信部317、アンテナ317a、電子コンパス318、及びディスプレイ319によって構成されている。画像処理ユニット304及び撮像制御ユニット305は、バス310を介してCPU311と接続される。
The acceleration sensor 120 detects acceleration in three axis directions. Based on the detected acceleration, the posture of the special imaging apparatus 1 (angle with respect to the direction of gravity) is detected. By having both the gyro sensor 119 and the acceleration sensor 120, the accuracy of image correction is improved.
<Hardware configuration of general imaging device>
Next, the hardware of a general imaging device will be described with reference to FIG. FIG. 12 is a hardware configuration diagram of the general imaging device 3. As shown in FIG. 12, the general imaging device 3 includes an imaging unit 301, an image processing unit 304, an imaging control unit 305, a microphone 308, a sound processing unit 309, a bus 310, a CPU 311, a ROM 312, an SRAM 313, a DRAM 314, an operation. The unit 315 includes a network I / F 316, a communication unit 317, an antenna 317 a, an electronic compass 318, and a display 319. The image processing unit 304 and the imaging control unit 305 are connected to the CPU 311 via the bus 310.

各構成(304、310、311、312、313、314、315、316、317、317a、318)は、それぞれ、図11の特殊撮像装置1における各構成(104、110、111、112、113、114、115、116、117、117a、118)と同様の構成であるため、その説明を省略する。   Each configuration (304, 310, 311, 312, 313, 314, 315, 316, 317, 317a, 318) is each configuration (104, 110, 111, 112, 113) in the special imaging device 1 of FIG. 114, 115, 116, 117, 117a, 118), the description thereof is omitted.

更に、一般撮像装置3の撮像ユニット301は、図12に示されているように、撮像素子303の前面にレンズユニット306、及びメカニカルシャッタ307が外部から撮像素子303の方向に順に設けられている。   Further, as shown in FIG. 12, the imaging unit 301 of the general imaging device 3 is provided with a lens unit 306 and a mechanical shutter 307 in order from the outside in the direction of the imaging element 303 on the front surface of the imaging element 303. .

撮像制御ユニット305は、基本的に撮像制御ユニット105と同様の構成及び処理を行なうが、更に、操作部315によって受け付けられたユーザの操作に基づいて、レンズユニット306、及びメカニカルシャッタ307の駆動を制御する。   The imaging control unit 305 basically performs the same configuration and processing as the imaging control unit 105, but further drives the lens unit 306 and the mechanical shutter 307 based on a user operation received by the operation unit 315. Control.

また、ディスプレイ319は、操作メニュー、撮像中又は撮像後の画像を表示させる表示手段の一例である。
<スマートフォンのハードウェア構成>
次に、図13を用いて、スマートフォンのハードウェアについて説明する。図13は、スマートフォンのハードウェア構成図である。図13に示されているように、スマートフォン5は、CPU501、ROM502、RAM503、EEPROM504、撮像素子I/F505a、加速度・方位センサ506、メディアI/F508、GPS受信部509を備えている。
The display 319 is an example of a display unit that displays an operation menu and an image during or after imaging.
<Smartphone hardware configuration>
Next, the hardware of the smartphone will be described with reference to FIG. FIG. 13 is a hardware configuration diagram of the smartphone. As illustrated in FIG. 13, the smartphone 5 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM 504, an image sensor I / F 505 a, an acceleration / direction sensor 506, a media I / F 508, and a GPS receiver 509.

これらのうち、CPU501は、スマートフォン5全体の動作を制御する。ROM502は、CPU501やIPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御に従って、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。撮像素子I/F505aはCMOS(Complementary Metal Oxide Semiconductor)センサ505と接続され、CPU501の制御に従って被写体(主に自画像)を撮像し画像データを得る。加速度・方位センサ506は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。   Among these, the CPU 501 controls the operation of the entire smartphone 5. The ROM 502 stores programs used for driving the CPU 501 such as the CPU 501 and IPL (Initial Program Loader). The RAM 503 is used as a work area for the CPU 501. The EEPROM 504 reads or writes various data such as a smartphone program under the control of the CPU 501. The image sensor I / F 505a is connected to a CMOS (Complementary Metal Oxide Semiconductor) sensor 505, and captures a subject (mainly a self-portrait) under the control of the CPU 501 to obtain image data. The acceleration / direction sensor 506 is various sensors such as an electronic magnetic compass, a gyrocompass, and an acceleration sensor that detect geomagnetism. A media I / F 508 controls reading or writing (storage) of data with respect to a recording medium 507 such as a flash memory. The GPS receiver 509 receives GPS signals from GPS satellites.

また、スマートフォン5は、遠距離通信回路511、アンテナ511a、CMOSセンサ512、撮像素子I/F513、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路アンテナ519a、及びタッチパネル521を備えている。   The smartphone 5 includes a long-distance communication circuit 511, an antenna 511a, a CMOS sensor 512, an image sensor I / F 513, a microphone 514, a speaker 515, a sound input / output I / F 516, a display 517, an external device connection I / F 518, and a short distance. A communication circuit 519, a short-range communication circuit antenna 519a, and a touch panel 521 are provided.

これらのうち、遠距離通信回路511は、後述の通信ネットワークを介して、他の機器と通信する回路である。CMOSセンサ512は、CPU501の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F513は、CMOSセンサ512の駆動を制御する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514及びスピーカ515との間で音信号の入出力を処理する回路である。ディスプレイ517は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、Wi-Fi 、NFC、Bluetooth等の通信回路である。タッチパネル521は、ユーザがディスプレイ517を押下することで、スマートフォン5を操作する入力手段の一種である。   Among these, the long-distance communication circuit 511 is a circuit that communicates with other devices via a communication network described later. The CMOS sensor 512 is a kind of built-in imaging unit that captures an image of a subject under the control of the CPU 501 and obtains image data. The image sensor I / F 513 is a circuit that controls driving of the CMOS sensor 512. The microphone 514 is a kind of built-in sound collecting means for inputting sound. The sound input / output I / F 516 is a circuit that processes input / output of a sound signal between the microphone 514 and the speaker 515 under the control of the CPU 501. The display 517 is a kind of display means such as a liquid crystal display or an organic EL display that displays a subject image, various icons, and the like. The external device connection I / F 518 is an interface for connecting various external devices. The short-range communication circuit 519 is a communication circuit such as Wi-Fi, NFC, or Bluetooth. The touch panel 521 is a kind of input means for operating the smartphone 5 when the user presses the display 517.

また、スマートフォン5は、バスライン510を備えている。バスライン510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   In addition, the smartphone 5 includes a bus line 510. The bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501.

なお、上記各プログラムが記憶されたHD(Hard Disk)やCD−ROM等の記録媒体は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。   Note that a recording medium such as an HD (Hard Disk) or a CD-ROM in which each of the above programs is stored can be provided domestically or abroad as a program product.

<<実施形態の機能構成>>
次に、図11乃至図14を用いて、本実施形態の機能構成について説明する。図14は、本実施形態の撮像システムの一部を構成する、特殊撮像装置1、一般撮像装置3、及びスマートフォン5の各機能ブロック図である。
<< Functional Configuration of Embodiment >>
Next, the functional configuration of the present embodiment will be described with reference to FIGS. FIG. 14 is a functional block diagram of the special imaging device 1, the general imaging device 3, and the smartphone 5 that constitute a part of the imaging system of the present embodiment.

<特殊撮像装置の機能構成>
まず、図11及び図14を用いて、特殊撮像装置1の機能構成について詳細に説明する。図14に示されているように、特殊撮像装置1は、受付部12、撮像部13、集音部14、画像・音処理部15、判断部17、近距離通信部18、及び記憶・読出部19を有している。これら各部は、図11に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された特殊撮像装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of special imaging device>
First, the functional configuration of the special imaging device 1 will be described in detail with reference to FIGS. 11 and 14. As illustrated in FIG. 14, the special imaging device 1 includes a reception unit 12, an imaging unit 13, a sound collection unit 14, an image / sound processing unit 15, a determination unit 17, a short-range communication unit 18, and a storage / readout. It has a part 19. Each of these units is a function realized by any one of the constituent elements shown in FIG. 11 being operated by a command from the CPU 111 according to a program for the special imaging device developed from the SRAM 113 onto the DRAM 114, or Means.

また、特殊撮像装置1は、図11に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。   Further, the special imaging device 1 includes a storage unit 1000 constructed by the ROM 112, the SRAM 113, and the DRAM 114 shown in FIG.

(特殊撮像装置の各機能構成)
次に、図11及び図14を用いて、特殊撮像装置1の各機能構成について更に詳細に説明する。
(Functional configuration of special imaging device)
Next, each functional configuration of the special imaging device 1 will be described in more detail with reference to FIGS. 11 and 14.

特殊撮像装置1の受付部12は、主に、図11に示されている操作部115及びCPU111の処理によって実現され、ユーザからの操作入力を受け付ける。   The reception unit 12 of the special imaging apparatus 1 is mainly realized by the processing of the operation unit 115 and the CPU 111 illustrated in FIG. 11 and receives operation input from the user.

撮像部13は、主に、図11に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、被写体や風景等を撮像し、撮像画像データを得る。この撮像画像データは、図3(a),(b)に示されているように、全天球画像データの元になる2つの半球画像データである。   The imaging unit 13 is realized mainly by the processing of the imaging unit 101, the image processing unit 104, the imaging control unit 105, and the CPU 111 shown in FIG. obtain. As shown in FIGS. 3A and 3B, the captured image data is two hemispherical image data that is the basis of the omnidirectional image data.

集音部14は、図11に示されているマイク108及び音処理ユニット109、並びにCPU111の処理によって実現され、特殊撮像装置1の周囲の音を集音する。   The sound collecting unit 14 is realized by the processing of the microphone 108 and the sound processing unit 109 and the CPU 111 shown in FIG. 11 and collects sounds around the special imaging device 1.

画像・音処理部15は、主にCPU111からの命令によって実現され、撮像部13によって得られた撮像画像データ、又は集音部14によって得られた音データに対して、各種処理を行なう。例えば、画像・音処理部15は、2つの撮像素子103a,103bのそれぞれによって得られた2つの半球画像データ(図3(a),(b)参照)に基づいて、正距円筒射影画像データ(図3(c)参照)を作成する。   The image / sound processing unit 15 is realized mainly by a command from the CPU 111, and performs various processes on the captured image data obtained by the imaging unit 13 or the sound data obtained by the sound collecting unit 14. For example, the image / sound processing unit 15 performs equirectangular projection image data based on two hemispherical image data (see FIGS. 3A and 3B) obtained by the two image sensors 103a and 103b, respectively. (See FIG. 3C).

判断部17は、CPU111の処理によって実現され、各種判断を行なう。   The determination unit 17 is realized by the processing of the CPU 111 and makes various determinations.

近距離通信部18は、主に、CPU111の処理、並びに通信部117及びアンテナ117aによって実現され、スマートフォン5の近距離通信部58等と、Wi-Fi等による近距離無線通信技術によって通信することができる。   The short-range communication unit 18 is mainly realized by the processing of the CPU 111, the communication unit 117, and the antenna 117a, and communicates with the short-range communication unit 58 of the smartphone 5 by a short-range wireless communication technique such as Wi-Fi. Can do.

記憶・読出部19は、主に、図11に示されているCPU111の処理によって実現され、記憶部1000に各種データ(又は情報)を記憶したり、記憶部1000から各種データ(又は情報)を読み出したりする。   The storage / reading unit 19 is realized mainly by the processing of the CPU 111 illustrated in FIG. 11, and stores various data (or information) in the storage unit 1000 or stores various data (or information) from the storage unit 1000. Read out.

<一般撮像装置の機能構成>
続いて、図12及び図14を用いて、一般撮像装置3の機能構成について詳細に説明する。図14に示されているように、一般撮像装置3は、受付部32、撮像部33、集音部34、画像・音処理部35、表示制御部36、判断部37、近距離通信部38、及び記憶・読出部39を有している。これら各部は、図12に示されている各構成要素のいずれかが、SRAM313からDRAM314上に展開された特殊撮像装置用のプログラムに従ったCPU311からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of general imaging device>
Next, the functional configuration of the general imaging device 3 will be described in detail with reference to FIGS. 12 and 14. As illustrated in FIG. 14, the general imaging device 3 includes a reception unit 32, an imaging unit 33, a sound collection unit 34, an image / sound processing unit 35, a display control unit 36, a determination unit 37, and a short-range communication unit 38. And a storage / reading unit 39. Each of these units is a function realized by any of the constituent elements shown in FIG. 12 being operated by a command from the CPU 311 according to a program for the special imaging device developed from the SRAM 313 to the DRAM 314, or Means.

また、一般撮像装置3は、図12に示されているROM312、SRAM313、及びDRAM314によって構築される記憶部3000を有している。   Further, the general imaging device 3 has a storage unit 3000 constructed by the ROM 312, the SRAM 313, and the DRAM 314 shown in FIG. 12.

(一般撮像装置の各機能構成)
一般撮像装置3の受付部32は、主に、図12に示されている操作部315及びCPU311の処理によって実現され、ユーザからの操作入力を受け付ける。
(Functional configuration of general imaging device)
The reception unit 32 of the general imaging device 3 is mainly realized by the processing of the operation unit 315 and the CPU 311 illustrated in FIG. 12, and receives operation input from the user.

撮像部33は、主に、図12に示されている撮像ユニット301、画像処理ユニット304、及び撮像制御ユニット305、並びにCPU311の処理によって実現され、被写体や風景等を撮像し、撮像画像データを得る。この撮像画像データは、透視射影方式で撮像された平面画像データである。   The imaging unit 33 is mainly realized by the processing of the imaging unit 301, the image processing unit 304, the imaging control unit 305, and the CPU 311 illustrated in FIG. 12, and images a subject, a landscape, and the like, and captures captured image data. obtain. This captured image data is planar image data captured by the perspective projection method.

集音部34は、図12に示されているマイク308及び音処理ユニット309、並びにCPU311の処理によって実現され、一般撮像装置3の周囲の音を集音する。   The sound collection unit 34 is realized by the processing of the microphone 308 and the sound processing unit 309 and the CPU 311 illustrated in FIG. 12 and collects sounds around the general imaging device 3.

画像・音処理部35は、主にCPU311からの命令によって実現され、撮像部33によって得られた撮像画像データ、又は集音部34によって得られた音データに対して、各種処理を行なう。   The image / sound processing unit 35 is realized mainly by a command from the CPU 311, and performs various processes on the captured image data obtained by the imaging unit 33 or the sound data obtained by the sound collection unit 34.

表示制御部36は、図12に示されているCPU311の処理によって実現され、ディスプレイ319に、撮像中又は撮像後の撮像画像データに係る平面画像Pを表示させる。   The display control unit 36 is realized by the processing of the CPU 311 illustrated in FIG. 12, and causes the display 319 to display the planar image P related to the captured image data during or after imaging.

判断部37は、CPU311の処理によって実現され、各種判断を行なう。例えば、判断部37は、ユーザによって、シャッターボタン315aが押下されたかを判断する。   The determination unit 37 is realized by the processing of the CPU 311 and performs various determinations. For example, the determination unit 37 determines whether the user has pressed the shutter button 315a.

近距離通信部38は、主に、CPU311、並びに通信部317及びアンテナ317aによって実現され、スマートフォン5の近距離通信部58等と、Wi-Fi等による近距離無線通信技術によって通信することができる。   The short-range communication unit 38 is mainly realized by the CPU 311, the communication unit 317, and the antenna 317 a, and can communicate with the short-range communication unit 58 of the smartphone 5 by a short-range wireless communication technique such as Wi-Fi. .

記憶・読出部39は、主に、図12に示されているCPU311の処理によって実現され、記憶部3000に各種データ(又は情報)を記憶したり、記憶部3000から各種データ(又は情報)を読み出したりする。   The storage / reading unit 39 is mainly realized by the processing of the CPU 311 illustrated in FIG. 12, and stores various data (or information) in the storage unit 3000 or stores various data (or information) from the storage unit 3000. Read out.

<スマートフォンの機能構成>
次に、図13乃至図16を用いて、スマートフォン5の機能構成について詳細に説明する。スマートフォン5は、図14に示されているように、スマートフォン5は、遠距離通信部51、受付部52、撮像部53、集音部54、画像・音処理部55、表示制御部56、判断部57、近距離通信部58、及び記憶・読出部59を有している。これら各部は、図13に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたスマートフォン5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of smartphone>
Next, the functional configuration of the smartphone 5 will be described in detail with reference to FIGS. 13 to 16. As illustrated in FIG. 14, the smartphone 5 includes the long-distance communication unit 51, the reception unit 52, the imaging unit 53, the sound collection unit 54, the image / sound processing unit 55, the display control unit 56, and the determination. Unit 57, short-range communication unit 58, and storage / reading unit 59. Each of these units is a function or means realized by any of the constituent elements shown in FIG. 13 being operated by a command from the CPU 501 according to the smartphone 5 program expanded from the EEPROM 504 to the RAM 503. is there.

また、スマートフォン5は、図13に示されているROM502、RAM503、及びEEPROM504によって構築される記憶部5000を有している。この記憶部5000には、連携撮像装置管理DB5001が構築されている。この連携撮像装置管理DB5001は、図15(a)連携撮像装置管理テーブルによって構成されている。図15(a)は連携撮像装置管理テーブルの概念図である。   The smartphone 5 includes a storage unit 5000 configured by the ROM 502, the RAM 503, and the EEPROM 504 illustrated in FIG. In this storage unit 5000, a cooperative imaging device management DB 5001 is constructed. This cooperative imaging device management DB 5001 is configured by the cooperative imaging device management table of FIG. FIG. 15A is a conceptual diagram of a cooperative imaging device management table.

(連携撮像装置管理テーブル)
次に、図15(a)を用いて、連携撮像装置管理テーブルについて説明する。図15(a)に示されているように、撮像装置毎に、各撮像装置の連携関係を示す関連関係情報、撮像装置のIPアドレス、及び撮像装置の装置名が関連付けて管理されている。このうち、関連関係情報は、自装置のシャッターが押下されることで撮像を開始する一の撮像装置を「メイン」とし、「メイン」の撮像装置でシャッターが押下されることに応じて撮像を開始する他の撮像装置を「サブ」として示している。なお、IPアドレスは、Wi-Fiによる通信の場合であって、USBの有線ケーブルを用いた通信の場合には製造者ID(Identification)及び製品IDに代わり、Bluetoothを用いた無線通信の場合には、BD(Bluetooth Device Address)に代わる。
(Cooperative imaging device management table)
Next, the cooperative imaging apparatus management table will be described with reference to FIG. As illustrated in FIG. 15A, for each imaging device, related relationship information indicating a cooperative relationship between the imaging devices, the IP address of the imaging device, and the device name of the imaging device are managed in association with each other. Among these, the related relationship information is that one imaging device that starts imaging when the shutter of its own device is pressed is “main”, and imaging is performed in response to the shutter being pressed by the “main” imaging device. Another imaging device to be started is indicated as “sub”. Note that the IP address is for Wi-Fi communication, and in the case of wireless communication using Bluetooth instead of the manufacturer ID (Identification) and product ID in the case of communication using a USB wired cable. Replaces BD (Bluetooth Device Address).

(スマートフォンの各機能構成)
スマートフォン5の遠距離通信部51は、主に、図13に示されている遠距離通信回路511及びCPU501の処理によって実現され、インターネット等の通信ネットワークを介して、他の装置(特殊撮像装置1、一般撮像装置3等)、スマートフォン、又はサーバとの間で各種データ(又は情報)の送受信を行う。
(Each smartphone functional configuration)
The long-distance communication unit 51 of the smartphone 5 is realized mainly by the processing of the long-distance communication circuit 511 and the CPU 501 shown in FIG. 13, and other devices (special imaging device 1) via a communication network such as the Internet. , General imaging device 3 etc.), various data (or information) is transmitted / received to / from a smartphone or server.

受付部52は、主にタッチパネル521及びCPU501の処理によって実現され、ユーザから各種の選択又は入力を受け付ける。タッチパネル521はディスプレイ517と共用であってもよい。また、タッチパネル以外の入力手段(ボタン)等でもよい。   The accepting unit 52 is realized mainly by the processes of the touch panel 521 and the CPU 501 and accepts various selections or inputs from the user. The touch panel 521 may be shared with the display 517. Further, input means (buttons) other than the touch panel may be used.

撮像部53は、主に、図13に示されているCMOSセンサ505,512、及びCPU501の処理によって実現され、被写体や風景等を撮像し、撮像画像データを得る。この撮像画像データは、透視射影方式で撮像された平面画像データである。   The imaging unit 53 is realized mainly by the processing of the CMOS sensors 505 and 512 and the CPU 501 shown in FIG. 13, and images a subject, a landscape, and the like to obtain captured image data. This captured image data is planar image data captured by the perspective projection method.

集音部54は、図13に示されているマイク514、及びCPU501の処理によって実現され、スマートフォン5の周囲の音を集音する。   The sound collection unit 54 is realized by the processing of the microphone 514 and the CPU 501 illustrated in FIG. 13 and collects sounds around the smartphone 5.

画像・音処理部55は、主にCPU501からの命令によって実現され、撮像部53によって得られた撮像画像データ、又は集音部54によって得られた音データに対して、各種処理を行なう。また、画像・音処理部55は、重畳表示メタデータを利用して、後述の平面画像Pの各格子領域LA0を、位置パラメータで示された位置、並びに補正パラメータで示された明るさ値及び色値に合わせることで、全天球画像CEに平面画像Pを重畳する。   The image / sound processing unit 55 is realized mainly by a command from the CPU 501 and performs various processes on the captured image data obtained by the imaging unit 53 or the sound data obtained by the sound collecting unit 54. Further, the image / sound processing unit 55 uses the superimposed display metadata to set each lattice area LA0 of the planar image P described later to the position indicated by the position parameter, the brightness value indicated by the correction parameter, and By matching the color value, the planar image P is superimposed on the omnidirectional image CE.

表示制御部56は、図13に示されているCPU501の処理によって実現され、ディスプレイ517に、撮像部53による撮像中又は撮像後の撮像画像データに係る平面画像Pを表示させる。表示制御部56は、平面画像Pが重畳された全天球画像CEをディスプレイに表示する。なお、平面画像Pを全天球画像CEに合成しないで、平面画像Pを全天球画像CEに重畳するのは、平面画像Pを1つの表示形態に限定されない様々な表示(ズーム倍率の変更、射影方式を変更して表示するなど)ができるようにするためである。   The display control unit 56 is realized by the processing of the CPU 501 illustrated in FIG. 13, and causes the display 517 to display the planar image P related to the captured image data during or after the imaging by the imaging unit 53. The display control unit 56 displays the omnidirectional image CE on which the planar image P is superimposed on the display. Note that the plane image P is superimposed on the omnidirectional image CE without synthesizing the plane image P with the omnidirectional image CE, because the plane image P is not limited to one display form. For example, changing the projection method for display).

また、位置パラメータは「位置情報」の一例である。補正パラメータは「補正情報」の一例である。   The position parameter is an example of “position information”. The correction parameter is an example of “correction information”.

判断部57は、図13に示されているCPU501の処理によって実現され、各種判断を行なう。   The determination unit 57 is realized by the processing of the CPU 501 shown in FIG. 13 and makes various determinations.

近距離通信部58は、主に、CPU501の処理、並びに近距離通信回路519及びアンテナ519aによって実現され、特殊撮像装置1の近距離通信部18、一般撮像装置3の近距離通信部38等と、Wi-Fi等による近距離無線通信技術によって通信することができる。   The near field communication unit 58 is mainly realized by the processing of the CPU 501, the near field communication circuit 519 and the antenna 519 a, and the near field communication unit 18 of the special imaging device 1, the near field communication unit 38 of the general imaging device 3, and the like. It is possible to communicate by a short-range wireless communication technology such as Wi-Fi.

記憶・読出部59は、主に、図13に示されているCPU501の処理によって実現され、記憶部5000に、重畳表示メタデータ等の各種データ(又は情報)を記憶したり、記憶部5000から重畳表示メタデータ等の各種データ(又は情報)を読み出したりする。また、記憶・読出部59は、記憶部5000から各種データを取得する取得部の役割を果たす。   The storage / reading unit 59 is mainly realized by the processing of the CPU 501 shown in FIG. 13, and stores various data (or information) such as superimposed display metadata in the storage unit 5000 or from the storage unit 5000. Various data (or information) such as superimposed display metadata is read out. The storage / reading unit 59 serves as an acquisition unit that acquires various data from the storage unit 5000.

(画像・音処理部の詳細な各機能構成)
ここで、図16を用いて、画像・音処理部55の各機能構成について詳細に説明する。図16は、画像・音処理部の詳細な機能ブロック図である。
(Detailed functional configuration of image / sound processor)
Here, each functional configuration of the image / sound processor 55 will be described in detail with reference to FIG. FIG. 16 is a detailed functional block diagram of the image / sound processor.

画像・音処理部55は、大きく分けて、エンコードを行うメタデータ作成部55aとデコードを行う重畳部55bを有している。メタデータ作成部55aは、図19に示されている後述のステップ22の処理を実行する。また、重畳部55bは、図19に示されている後述のステップ23の処理を実行する。   The image / sound processing unit 55 is roughly divided into a metadata creation unit 55a that performs encoding and a superimposition unit 55b that performs decoding. The metadata creation unit 55a executes a process of step 22 described later shown in FIG. Further, the superimposing unit 55b executes a process of step 23 described later shown in FIG.

{メタデータ作成部の各機能構成}
まずは、メタデータ作成部55aの各機能構成について説明する。メタデータ作成部55aは、抽出部550、第1の対応領域算出部552、注視点特定部554、射影方式変換部556、第2の対応領域算出部558、領域分割部560、射影方式逆変換部562、形状変換部564、補正パラメータ作成部566、及び重畳表示メタデータ作成部570を有している。なお、明るさや色の補正をする必要がない場合、形状変換部564及び補正パラメータ作成部566は不要である。また、以下に説明する画像や領域を示す符号は図20に示されている。図20は、重畳表示パラメータの作成処理の過程における画像の概念図である。
{Each functional configuration of the metadata creation unit}
First, each functional configuration of the metadata creation unit 55a will be described. The metadata creation unit 55a includes an extraction unit 550, a first corresponding region calculation unit 552, a gaze point specification unit 554, a projection method conversion unit 556, a second corresponding region calculation unit 558, a region division unit 560, and a projection method reverse conversion. A unit 562, a shape conversion unit 564, a correction parameter creation unit 566, and a superimposed display metadata creation unit 570. Note that the shape conversion unit 564 and the correction parameter creation unit 566 are not necessary when it is not necessary to correct brightness and color. Reference numerals indicating images and regions described below are shown in FIG. FIG. 20 is a conceptual diagram of an image in the process of creating a superimposed display parameter.

抽出部550は、各画像の局所特徴に基づき特徴点を抽出する。局所特徴とはエッジやブロブなど画像内に見られるパターンや構造で、局所特徴を数値化したものが特徴量である。本実施形態では、抽出部550は、異なる画像で各特徴点を抽出する。抽出部550が用いられる2つの画像は、歪みが著しく大きくない限り、異なる射影方式であってもよい。例えば、抽出部550は、正距円筒射影方式によって得られた長方形の正距円筒射影画像ECと、透視射影方式によって得られた長方形の平面画像Pとの間、及び、平面画像Pと、射影方式変換部556によって変換された後の周辺領域画像PIとの間で用いられる。なお、正距円筒射影方式は第1の射影方式の一例であり、透視射影方式は第2の射影方式の一例である。また、正距円筒射影画像は第1の射影画像の一例であり、平面画像Pは第2の射影画像の一例である。   The extraction unit 550 extracts feature points based on local features of each image. A local feature is a pattern or structure that can be seen in an image, such as an edge or a blob, and is a feature value obtained by quantifying a local feature. In the present embodiment, the extraction unit 550 extracts each feature point from different images. The two images used by the extraction unit 550 may have different projection methods as long as the distortion is not significantly large. For example, the extraction unit 550 includes a rectangular equirectangular projection image EC obtained by the equirectangular projection method, a rectangular planar image P obtained by the perspective projection method, and the planar image P. It is used between the peripheral region image PI after being converted by the method conversion unit 556. The equirectangular projection method is an example of the first projection method, and the perspective projection method is an example of the second projection method. The equirectangular projection image is an example of a first projection image, and the planar image P is an example of a second projection image.

第1の対応領域算出部552は、最初に正距円筒射影画像ECにおける複数の特徴点fp1に基づいた各特徴量fv1を求めると共に、平面画像Pにおける複数の特徴点fp2に基づいた各特徴量fv2を求める。特徴量の記述方法はいくつかの方式が提案されているが、本実施形態においては、スケールや回転に対して不変又は頑強であることが望ましい。第1の対応領域算出部552は、続いて算出した正距円筒射影画像ECの複数の特徴点fp1の特徴量fv1と、平面画像Pにおける複数の特徴点fp2に対する特徴量fv2の類似度に基づき画像間の対応点を算出し、算出した画像間の対応点の関係から、正距円筒射影画像ECにおいて、平面画像Pに対応するホモグラフィを算出し、このホモグラフィを変換に用いることで、第1のホモグラフィ変換を行なう。その結果、第1の対応領域算出部552は、第1の対応領域CA1を算出する。この場合、平面画像Pの4頂点から成る四角形(矩形)の中心点CP1とすると、第1のホモグラフィ変換行列によって、正距円筒射影画像ECにおける注視点GP1に変換される。なお、平面画像Pの4頂点の頂点座標を、p1=(x1,y1)、p2=(x2,y2)、p3=(x3,y3)、p4=(x4,y4)とすると、第1の対応領域算出部552は、以下に示す(式2)に基づいて、中心点CP1(x,y)を定めることができる。   The first corresponding region calculation unit 552 first obtains each feature amount fv1 based on the plurality of feature points fp1 in the equirectangular projection image EC, and each feature amount based on the plurality of feature points fp2 in the planar image P. Find fv2. Several methods have been proposed as a description method of the feature amount. In the present embodiment, it is desirable that the feature amount is invariable or robust to scale and rotation. The first corresponding area calculation unit 552 is based on the similarity between the feature quantity fv1 of the plurality of feature points fp1 of the equirectangular projection image EC and the feature quantity fv2 of the plurality of feature points fp2 in the planar image P. By calculating the corresponding points between the images, and calculating the homography corresponding to the planar image P in the equirectangular projection image EC from the calculated relationship between the corresponding points, and using this homography for conversion, A first homography transformation is performed. As a result, the first corresponding area calculation unit 552 calculates the first corresponding area CA1. In this case, if the center point CP1 of a quadrangle (rectangle) composed of four vertices of the planar image P is used, the center point CP1 is converted into the gazing point GP1 in the equirectangular projection image EC by the first homography conversion matrix. If the vertex coordinates of the four vertices of the planar image P are p1 = (x1, y1), p2 = (x2, y2), p3 = (x3, y3), and p4 = (x4, y4), the first The corresponding region calculation unit 552 can determine the center point CP1 (x, y) based on (Expression 2) shown below.

(式2)
S1={(x4−x2)*(y1−y2)−(y4−y2)*(x1−x2)}/2
S2={(x4−x2)*(y2−y3)−(y4−y2)*(x2−x3)}/2
x=x1+(x3−x1)*S1/(S1+S2)
y=y1+(y3−y1)*S1/(S1+S2)
図20では平面画像Pの画像形状が長方形であるが、対角線の交点を用いることによって正方形、台形、菱形等、さまざまな四角形の部分画像に対しても中心点を算出することができる。平面画像Pの画像形状が、長方形、正方形に限定される場合は、計算の省略化のため、対角線の中点を中心点CP1としてよい。対角線p1p3の中点の算出する場合の(式3)を以下に示す。
(式3)
x=(x1+x3)/2
y=(y1+y3)/2
注視点特定部554は、平面画像Pの中心点CM1が第1のホモグラフィ変換後に位置する正距円筒射影画像EC上の点(本実施形態では「注視点」という)を特定する。
ところで、注視点GP1の座標は、正距円筒射影画像EC上の座標であるため、緯度及び経度の表現に変換及び規格化すると都合が良い。具体的には、正距円筒射影画像ECの垂直方向を−90度(−0.5π)から+90度(+0.5π)の緯度座標として表現し、水平方向を−180度(−π)から+180度(+π)の経度座標として表現する。このようにすることで、緯度・経度座標から、正距円筒射影画像ECの画像サイズに対応した画素位置座標を算出することができる。
(Formula 2)
S1 = {(x4-x2) * (y1-y2)-(y4-y2) * (x1-x2)} / 2
S2 = {(x4-x2) * (y2-y3)-(y4-y2) * (x2-x3)} / 2
x = x1 + (x3-x1) * S1 / (S1 + S2)
y = y1 + (y3-y1) * S1 / (S1 + S2)
In FIG. 20, the image shape of the planar image P is a rectangle, but the center point can be calculated even for partial images of various rectangles such as a square, a trapezoid, and a rhombus by using the intersections of diagonal lines. When the image shape of the planar image P is limited to a rectangle or a square, the midpoint of the diagonal line may be set as the center point CP1 in order to omit the calculation. (Equation 3) in the case of calculating the midpoint of the diagonal line p1p3 is shown below.
(Formula 3)
x = (x1 + x3) / 2
y = (y1 + y3) / 2
The gazing point specifying unit 554 specifies a point (referred to as “gazing point” in the present embodiment) on the equirectangular projection image EC where the center point CM1 of the planar image P is located after the first homography transformation.
By the way, since the coordinates of the gazing point GP1 are coordinates on the equirectangular projection image EC, it is convenient to convert and standardize them into expressions of latitude and longitude. Specifically, the vertical direction of the equirectangular projection image EC is expressed as latitude coordinates from −90 degrees (−0.5π) to +90 degrees (+ 0.5π), and the horizontal direction from −180 degrees (−π). Expressed as longitude coordinates of +180 degrees (+ π). In this way, pixel position coordinates corresponding to the image size of the equirectangular projection image EC can be calculated from the latitude / longitude coordinates.

射影方式変換部556は、正距円筒射影画像EC内の注視点GP1を中心とした周辺領域PAを、平面画像Pと同じ透視射影方式に変換することで、周辺領域画像PIを作成する。この場合、注視点GP1が変換された後の点を中心点CP2として、平面画像Pの対角画角αと同じ画角を垂直画角(又は水平画角)とした場合に特定できる正方形の周辺領域画像PIの射影方式変換前の領域である周辺領域PAを特定する。以下、更に詳細に説明する。   The projection method conversion unit 556 generates the peripheral region image PI by converting the peripheral region PA around the gazing point GP1 in the equirectangular projection image EC into the same perspective projection method as that of the planar image P. In this case, the point after the gazing point GP1 is converted is a center point CP2, and a square shape that can be specified when the same field angle as the diagonal field angle α of the planar image P is a vertical field angle (or horizontal field angle). A peripheral area PA that is an area before the projection method conversion of the peripheral area image PI is specified. This will be described in more detail below.

(射影方式の変換)
射影方式の変換について説明する。図3乃至図5を用いて説明したように、正距円筒射影画像ECによって立体球CSを被うことで、全天球画像CEを作成している。よって、正距円筒射影画像ECの各画素データは、3次元の全天球画像の立体球CSの表面における各画素データに対応させることができる。そこで、射影方式変換部556による変換式は、正距円筒射影画像ECにおける座標を(緯度,経度)=(ea,aa)と表現し、3次元の立体球CS上の座標を直交座標(x,y,z)で表わすと、以下の(式4)で表わすことができる。
(x, y, z) = (cos(ea) × cos(aa), cos(ea) × sin(aa), sin(ea)) ・・・(式4)
但し、このときの立体球CSの半径は1とする。
(Projection method conversion)
The projection method conversion will be described. As described with reference to FIGS. 3 to 5, the omnidirectional image CE is created by covering the solid sphere CS with the equirectangular projection image EC. Therefore, each pixel data of the equirectangular projection image EC can correspond to each pixel data on the surface of the solid sphere CS of the three-dimensional omnidirectional image. Therefore, the conversion formula by the projection method conversion unit 556 expresses coordinates in the equirectangular projection image EC as (latitude, longitude) = (ea, aa), and coordinates on the three-dimensional solid sphere CS as orthogonal coordinates (x , Y, z), it can be expressed by the following (formula 4).
(x, y, z) = (cos (ea) × cos (aa), cos (ea) × sin (aa), sin (ea)) (Equation 4)
However, the radius of the solid sphere CS at this time is 1.

一方で、透視射影画像である平面画像Pは2次元画像であるが、これを2次元の極座標(動径,偏角)=(r,a)で表現すると、動径rは対角画角αに対応し、取り得る範囲は0 ≦ r ≦ tan(対角画角α/2)となる。また、平面画像Pを2次元の直交座標系(u,v)で表わすと、極座標(動径,偏角)=(r,a)との変換関係は、以下の(式5)で表わすことができる。
u = r × cos(a), v = r × sin(a) ・・・(式5)
次に、(式5)を3次元の座標(動径,極角,方位角)に対応させることを考えると、立体球CSの表面のみを考えているため、3次元極座標における動径は「1」である。また、立体球CSの表面に張り付けた正距円筒射影画像ECを透視投影変換する射影は、立体球CSの中心に仮想カメラICがあると考えると、上記の2次元極座標(動径,偏角)=(r,a)を使うと、以下の(式6)、(式7)で表わすことができる。
r = tan(極角) ・・・(式6)
a = 方位角 ・・・(式7)
ここで極角をtすると、t = arctan(r)となるため、3次元極座標(動径、極角、方位角)は、(動径、極角、方位角)=(1, arctan(r), a)と表現することができる。また3次元極座標から、直交座標系(x,y,z)へ変換するための変換式は、以下の(式8)で表わすことができる。
(x, y, z) = (sin(t) × cos(a), sin(t) × sin(a), cos(t)) ・・・(式8)
上記の(式8)により、正距円筒射影方式による正距円筒射影画像ECと、透視射影方式による平面画像Pの相互変換ができる。即ち、作成すべき平面画像Pの対角画角αに対応する動径rを用いることで、平面画像Pの各画素が、正距円筒射影画像ECのどの座標に対応するかを表す変換マップ座標を算出でき、この変換マップ座標に基づいて、正距円筒射影画像ECから、透視射影画像である周辺領域画像PIを作成することができる。上記射影方式の変換は、正距円筒射影画像ECの(緯度,経度)が(90°,0°)となる位置が、透視射影画像である周辺領域画像PIの中心点CP2となるような変換を示している。そこで、正距円筒射影画像ECの任意の点を注視点として透視投影変換をする場合は、正距円筒射影画像ECを貼り付けた立体球CSを回転させることで、注視点の座標(緯度、経度)が(90°,0°)の位置に配置されるような座標回転を行えば良い。この立体球CSの回転に関する変換公式は、一般の座標回転公式であるため、説明を省略する。
On the other hand, the planar image P which is a perspective projection image is a two-dimensional image. When this is expressed by two-dimensional polar coordinates (radial radius, declination) = (r, a), the radial radius r is a diagonal field angle. The range corresponding to α is 0 ≦ r ≦ tan (diagonal angle of view α / 2). Further, when the planar image P is represented by a two-dimensional orthogonal coordinate system (u, v), the conversion relationship with polar coordinates (radial radius, declination) = (r, a) is represented by the following (formula 5). Can do.
u = r × cos (a), v = r × sin (a) (Equation 5)
Next, considering that (Equation 5) corresponds to three-dimensional coordinates (radial radius, polar angle, azimuth angle), since only the surface of the solid sphere CS is considered, the radial radius in the three-dimensional polar coordinate is “ 1 ”. Further, the projection for perspective projection conversion of the equirectangular projection image EC pasted on the surface of the three-dimensional sphere CS is considered to have the virtual camera IC at the center of the three-dimensional sphere CS. ) = (R, a) can be expressed by the following (Expression 6) and (Expression 7).
r = tan (polar angle) (Formula 6)
a = Azimuth angle (Formula 7)
If the polar angle is t, then t = arctan (r), so the three-dimensional polar coordinates (radial radius, polar angle, azimuth) are (radial radius, polar angle, azimuth) = (1, arctan (r ), a). A conversion formula for converting from the three-dimensional polar coordinate to the orthogonal coordinate system (x, y, z) can be expressed by the following (formula 8).
(x, y, z) = (sin (t) x cos (a), sin (t) x sin (a), cos (t)) (Equation 8)
By the above (Equation 8), mutual conversion between the equirectangular projection image EC by the equirectangular projection method and the planar image P by the perspective projection method can be performed. That is, by using the radius r corresponding to the diagonal angle of view α of the planar image P to be created, the conversion map indicating which coordinate of the equirectangular projection image EC corresponds to each pixel of the planar image P. The coordinates can be calculated, and the peripheral area image PI, which is a perspective projection image, can be created from the equirectangular projection image EC based on the conversion map coordinates. The above-described projection conversion is performed such that the position where the (latitude, longitude) of the equirectangular projection image EC is (90 °, 0 °) is the center point CP2 of the peripheral region image PI that is a perspective projection image. Is shown. Therefore, when performing perspective projection conversion using an arbitrary point of the equirectangular projection image EC as a gazing point, by rotating the solid sphere CS to which the equirectangular projection image EC is attached, the coordinates of the gazing point (latitude, Coordinate rotation may be performed such that (longitude) is arranged at a position of (90 °, 0 °). Since the conversion formula relating to the rotation of the solid sphere CS is a general coordinate rotation formula, description thereof is omitted.

(周辺領域画像PIの特定)
次に、図21を用いて、周辺領域画像PIの領域を特定する方法について説明する。図21は、周辺領域画像を特定する際の概念図である。
(Identification of peripheral area image PI)
Next, a method for specifying the area of the peripheral area image PI will be described with reference to FIG. FIG. 21 is a conceptual diagram when a peripheral region image is specified.

第1の対応領域算出部552が、平面画像Pにおける複数の特徴点と周辺領域画像PIにおける複数の特徴点との類似度を判断するにあたって、周辺領域画像PI内に第2の対応領域CA2ができるだけ広く含まれていることが望ましい。よって、周辺領域画像PIを広い領域に設定すれば、第2の対応領域CA2が含まれないという事態は生じない。しかし、周辺領域画像PIを、あまりにも広い領域に設定すると、その分だけ類似度を算出する対象の画素が増えるため、処理に時間が掛かってしまう。そのため、極力、周辺領域画像PIの領域は第2の対応領域CA2を含む範囲内で小さい方が良い。そこで、本実施形態では、以下に示すような方法で、周辺領域画像PIを特定する。   When the first corresponding region calculation unit 552 determines the similarity between the plurality of feature points in the planar image P and the plurality of feature points in the peripheral region image PI, the second corresponding region CA2 is included in the peripheral region image PI. It should be included as widely as possible. Therefore, if the peripheral area image PI is set to a wide area, the situation where the second corresponding area CA2 is not included does not occur. However, if the peripheral area image PI is set to an excessively large area, the number of pixels for which the similarity is calculated increases, and thus processing takes time. Therefore, it is preferable that the area of the peripheral area image PI is as small as possible within the range including the second corresponding area CA2. Therefore, in the present embodiment, the peripheral area image PI is specified by the following method.

本実施形態では、周辺領域画像PIの特定に平面画像の35mm換算焦点距離を使用し、これは撮像時に記録されるExifデータから取得する。35mm換算焦点距離は、いわゆる24mm x 36mmのフィルムサイズを基準とした焦点距離であるため、このフィルムの対角と、焦点距離から以下の算出式(式9)、(式10)で対応する対角画角を算出することができる。
フィルム対角 = sqrt(24*24 + 36*36) ・・・(式9)
重畳用画像画角/2 = arctan((フィルム対角/2)/重畳用画像35mm換算焦点距離)・・(式10)
ところで、この画角をカバーする画像は円形となるのだが、実際の撮像素子(フィルム)は長方形なので円に内接する長方形画像となっている。本実施形態では、周辺領域画像PIの垂直画角αを、平面画像Pの対角画角αと同じになるように設定する。これにより、図21(b)に示されている周辺領域画像PIは、図21(a)に示されている平面画像Pの対角画角αをカバーする円に外接する正方形となり、垂直画角αは、下記(式11)、(式12)で示すように、正方形対角と平面画像Pの焦点距離から算出できる。
正方形対角=sqrt(フィルム対角*フィルム対角+フィルム対角*フィルム対角)・・・(式11)
垂直画角α/2 = arctan((正方形対角/2) / 平面画像Pの35mm換算焦点距離))・・・(式12)
このような垂直画角αで射影方式変換することで、注視点を中心に平面画像Pの対角画角αにおける画像をできるだけ広くカバーでき、かつ垂直画角αが大きくなりすぎない周辺領域画像PI(透視射影画像)を作成することができる。
In the present embodiment, the 35 mm equivalent focal length of the planar image is used for specifying the peripheral area image PI, and this is obtained from the Exif data recorded at the time of imaging. Since the 35 mm equivalent focal length is a focal length based on a so-called 24 mm × 36 mm film size, the following calculation formulas (Equation 9) and (Equation 10) correspond to the diagonal of the film and the focal length. The angle of view can be calculated.
Film diagonal = sqrt (24 * 24 + 36 * 36) (Equation 9)
Image angle for superimposition / 2 = arctan ((film diagonal / 2) / 35mm equivalent focal length for superimposition image) ... (Equation 10)
By the way, the image covering this angle of view is circular, but since the actual image sensor (film) is rectangular, it is a rectangular image inscribed in the circle. In the present embodiment, the vertical field angle α of the peripheral area image PI is set to be the same as the diagonal field angle α of the planar image P. As a result, the peripheral area image PI shown in FIG. 21B becomes a square circumscribing a circle covering the diagonal angle of view α of the planar image P shown in FIG. The angle α can be calculated from the square diagonal and the focal length of the planar image P as shown in the following (Expression 11) and (Expression 12).
Square diagonal = sqrt (film diagonal * film diagonal + film diagonal * film diagonal) ... (Formula 11)
Vertical angle of view α / 2 = arctan ((square diagonal / 2) / 35mm equivalent focal length of plane image P)) ... (Formula 12)
By performing the projection method conversion at such a vertical angle of view α, the peripheral region image that can cover the image at the diagonal angle of view α of the planar image P as wide as possible with the gazing point as the center, and the vertical angle of view α is not too large. PI (perspective projection image) can be created.

(位置パラメータの算出)
続いて、図16に戻り、第2の対応領域算出部558は、平面画像Pにおける複数の特徴点fp2と周辺領域画像PIにおける複数の特徴点fp3の特徴量fv3を算出する。←fv2を出す。算出された各特徴量fv2,fv3の類似度に基づき画像間の対応点を算出し、算出した画像間の対応点の関係から、周辺領域画像PIにおいて、平面画像Pに対応するホモグラフィを算出し、このホモグラフィを変換に用いることで、第2のホモグラフィ変換を行なう。その結果、第2の対応領域算出部558は、第2の対応領域CA2を算出する。
(Calculation of position parameter)
Subsequently, returning to FIG. 16, the second corresponding region calculation unit 558 calculates feature amounts fv3 of the plurality of feature points fp2 in the planar image P and the plurality of feature points fp3 in the peripheral region image PI. ← Fv2 is issued. Corresponding points between images are calculated based on the calculated similarities of the feature quantities fv2 and fv3, and a homography corresponding to the planar image P is calculated in the peripheral region image PI from the calculated relationship between the corresponding points between the images. The second homography conversion is performed by using this homography for the conversion. As a result, the second corresponding area calculation unit 558 calculates the second corresponding area CA2.

なお、第1のホモグラフィ変換の前に、第1のホモグラフィの算出時間を早めるために、平面画像P及び正距円筒射影画像ECのうちの少なくとも一方の画像サイズをリサイズしてもよい。例えば、平面画像Pが4000万画素で、正距円筒射影画像ECが3000万画素の場合、平面画像Pを3000万画素にリサイズしたり、両画像を1000万画素になるようにそれぞれの画像をリサイズしたりする。同様に、第2のホモグラフィ変換行列算出前に、平面画像P及び周辺領域画像PIの少なくとも一方の画像サイズをリサイズしてもよい。   Note that, before the first homography conversion, the image size of at least one of the planar image P and the equirectangular projection image EC may be resized in order to advance the calculation time of the first homography. For example, if the planar image P is 40 million pixels and the equirectangular projection image EC is 30 million pixels, the planar image P is resized to 30 million pixels, or each image is adjusted so that both images become 10 million pixels. Or resizing. Similarly, the image size of at least one of the planar image P and the peripheral area image PI may be resized before calculating the second homography transformation matrix.

また、本実施形態でのホモグラフィ変換行列は、正距円筒射影画像ECと平面画像Pとの射影関係を表す変換行列であり、平面画像Pにおける座標にホモグラフィ変換行列を乗算することで、正距円筒射影画像EC(全天球画像CE)上での対応座標を算出することができる。領域分割部560は、画像における一部の領域を複数の格子領域に分割する。ここで、図22を用いて、第2の対応領域を複数の格子領域に分割する方法を詳細に説明する。なお、図22は、第2の対応領域を複数の格子領域に分割する際の概念図である。   Further, the homography transformation matrix in the present embodiment is a transformation matrix that represents the projection relationship between the equirectangular projection image EC and the plane image P, and by multiplying the coordinates in the plane image P by the homography transformation matrix, Corresponding coordinates on the equirectangular projection image EC (the omnidirectional image CE) can be calculated. The area dividing unit 560 divides a partial area in the image into a plurality of lattice areas. Here, a method of dividing the second corresponding region into a plurality of lattice regions will be described in detail with reference to FIG. FIG. 22 is a conceptual diagram when the second corresponding region is divided into a plurality of lattice regions.

領域分割部560は、図22(a)に示されているように、第1の対応領域算出部552が第2のホモグラフィ変換により算出した第2の対応領域CA2の頂点座標の4つの頂点から成る四角形を、図22(b)に示されているように、複数の格子領域LA2に分割する。例えば、水平方向に30、垂直方向に20で均等分割する。   As shown in FIG. 22A, the area dividing unit 560 has four vertices of the vertex coordinates of the second corresponding area CA2 calculated by the first corresponding area calculation unit 552 by the second homography transformation. Is divided into a plurality of lattice areas LA2, as shown in FIG. 22 (b). For example, it is equally divided by 30 in the horizontal direction and 20 in the vertical direction.

次に、複数の格子領域LA2の具体的な分割方法について説明する。   Next, a specific method for dividing the plurality of lattice areas LA2 will be described.

まず、第2の対応領域CA2を均等に分割する算出式を示す。2点をA(X1,Y1)、B(X2,Y2)として、その2点間の線分を等間隔にn個に分割する場合、Aからm番目にあたる点Pmの座標は、以下に示す(式13)によって算出される。
Pm = ( X1 + (X2 − X1) ×m / n, Y1 + (Y2 − Y1) × m / n )・・・(式13)
上記の(式13)によって、線分を均等に分割した座標が算出できるため、四角形の上辺、下辺をそれぞれ分割した座標を求め、分割した座標から成る線分を更に分割すればよい。四角形の左上、右上、右下、左下の各座標をそれぞれTL,TR,BR,BLとした場合、線分TL−TR及び線分BR−BLを均等に30分割した座標を求める。次に、0から30番目まで分割された各座標において、同じ順番に対応する座標同士から成る線分に対し、均等に20分割した座標を求める。これにより、四角形領域を30×20個の小領域に分割するための座標を求めることができる。図22(b)では、座標一例として、TRの座標(LO00,00,LA00,00)を示している。
First, a calculation formula for equally dividing the second corresponding area CA2 is shown. When the two points are A (X1, Y1) and B (X2, Y2) and the line segment between the two points is divided into n pieces at equal intervals, the coordinates of the point Pm corresponding to the mth point from A are as follows: Calculated by (Equation 13).
Pm = (X1 + (X2−X1) × m / n, Y1 + (Y2−Y1) × m / n) (Equation 13)
Since the coordinates obtained by equally dividing the line segment can be calculated by the above (Formula 13), the coordinates obtained by dividing the upper side and the lower side of the quadrangle may be obtained, and the line segment formed by the divided coordinates may be further divided. When the coordinates of the upper left, upper right, lower right, and lower left of the quadrangle are TL, TR, BR, and BL, respectively, the coordinates obtained by equally dividing the line segment TL-TR and the line segment BR-BL into 30 are obtained. Next, in each of the coordinates divided from the 0th to the 30th, coordinates obtained by equally dividing 20 into the line segments composed of the coordinates corresponding to the same order are obtained. Thereby, the coordinates for dividing the quadrangular area into 30 × 20 small areas can be obtained. In FIG. 22B, TR coordinates (LO 00,00 , LA 00,00 ) are shown as an example of coordinates.

続いて、図16及び図20に戻り、射影方式逆変換部562は、第2の対応領域CA2の射影方式を、正距円筒射影画像ECと同じ正距円筒射影方式に逆変換することで、正距円筒射影画像ECにおいて、第2の対応領域CA2に対応する第3の対応領域CA3を算出する。具体的には、射影方式逆変換部562は、正距円筒射影画像ECにおいて、第2の対応領域CA2における複数の格子領域LA2に対応する各格子領域LA3から成る第3の対応領域CA3を算出する。第3の対応領域CAは、図20に示されているが、拡大図として、図23にも示している。なお、図23は、正距円筒射影画像ECにおいて第3の対応領域を示す概念図である。これにより、平面画像Pは、最終的に第3の対応領域CA3に合わせるように(マッピングするように)、正距円筒射影画像ECによって作成された全天球画像CEに重畳表示される。この射影方式逆変換部562の処理により、各格子領域LA3の各格子点の座標を示す位置パラメータが作成される。位置パラメータは、図17及び図18(b)に示されている。なお、格子点は複数の点の一例である。   Subsequently, returning to FIG. 16 and FIG. 20, the projection method inverse conversion unit 562 reversely converts the projection method of the second corresponding area CA2 to the equirectangular projection method same as the equirectangular projection image EC, In the equirectangular projection image EC, a third corresponding area CA3 corresponding to the second corresponding area CA2 is calculated. Specifically, the projection method inverse transform unit 562 calculates a third corresponding area CA3 including each lattice area LA3 corresponding to the plurality of lattice areas LA2 in the second corresponding area CA2 in the equirectangular projection image EC. To do. The third corresponding area CA is shown in FIG. 20, but is also shown in FIG. 23 as an enlarged view. FIG. 23 is a conceptual diagram showing a third corresponding region in the equirectangular projection image EC. Thereby, the planar image P is superimposed and displayed on the omnidirectional image CE created by the equirectangular projection image EC so as to be finally matched (mapped) with the third corresponding area CA3. By the process of the projection method inverse transform unit 562, a position parameter indicating the coordinates of each grid point in each grid area LA3 is created. The positional parameters are shown in FIGS. 17 and 18 (b). Note that the grid point is an example of a plurality of points.

以上、位置パラメータを作成することにより、正距円筒射影画像ECと平面画像Pの位置関係を算出することができる。   As described above, the positional relationship between the equirectangular projection image EC and the planar image P can be calculated by creating the positional parameters.

(補正パラメータの算出)
前述のように位置パラメータは算出されたが、このまま重畳表示を行う場合、正距円筒射影画像ECと平面画像Pとで明るさや色味が大きく異なる場合に、不自然な重畳表示となることがある。そのため、以下に示す形状変換部564及び補正パラメータ作成部566は、明るさや色味が大きく異なる場合であっても、不自然な重畳表示となることを防止する役割を果たす。
(Calculation of correction parameters)
Although the position parameter is calculated as described above, when the superimposed display is performed as it is, when the equirectangular projection image EC and the planar image P are greatly different in brightness and color, an unnatural superimposed display may occur. is there. Therefore, the shape conversion unit 564 and the correction parameter creation unit 566 described below play a role of preventing unnatural superimposition display even when the brightness and color tone are greatly different.

形状変換部564は、後述の色合わせに先立って、第2の対応領域CA2の4頂点を平面画像Pの4頂点に射影することで、第2の対応領域CA2を平面画像Pと同じ形状に変換する。具体的には、図24(a)に示されている第2の対応領域CA2の各格子領域LA2を、図24(c)に示されている平面画像Pの各格子領域LA0に合わせるために、第2の対応領域CA2の形状を平面画像Pと同じ形状に変換する。これにより、図24(a)に示されている第2の対応領域CA2は、図24(b)に示されている第2の対応領域CA2'に形状が変換される。これに伴い、格子領域LA2が格子領域LA2'に変換されるため、平面画像Pの格子領域LA0と同じ形状となる。   Prior to color matching described later, the shape conversion unit 564 projects the four vertices of the second corresponding area CA2 onto the four vertices of the planar image P, so that the second corresponding area CA2 has the same shape as the planar image P. Convert. Specifically, in order to match each lattice area LA2 of the second corresponding area CA2 shown in FIG. 24 (a) with each lattice area LA0 of the planar image P shown in FIG. 24 (c). The shape of the second corresponding area CA2 is converted into the same shape as the planar image P. As a result, the shape of the second corresponding area CA2 shown in FIG. 24A is converted into the second corresponding area CA2 ′ shown in FIG. Accordingly, since the lattice area LA2 is converted into the lattice area LA2 ′, it has the same shape as the lattice area LA0 of the planar image P.

補正パラメータ作成部566は、同じ形状に変換後の第2の対応領域CA2'における各格子領域LA2'の明るさ値及び色値に対して、各格子領域LA2'と同じ形状である平面画像Pの各格子領域LA0の明るさ値及び色値を合わせるための補正パラメータを作成する。具体的には、補正パラメータ作成部566は、各格子点LA0の1点を共通に格子点として持つ4つの格子領域内の全ての画素の明るさ値及び色値(R,G,B)の平均値a= (Rave,Gave,Bave)を算出し、各格子点LA2'の1点を共通に格子点として持つ4つの格子領域内の全ての画素の明るさ値及び色値(R',G',B')の平均値a' = (R'ave,G'ave,B'ave)を算出する。なお、上記各格子点LA0の1点及び各格子点LA2'の1点が第2の対応領域CA2及び第3の対応領域CA3の4隅の位置となる場合、補正パラメータ作成部566は、1つの格子領域から明るさ値及び色値の平均値a及び平均値a'を算出する。また、上記各格子点LA0の1点及び各格子点LA2'の1点が第2の対応領域CA2及び第3の対応領域CA3の外周の位置となる場合、補正パラメータ作成部566は、内側2つの格子領域から明るさ値及び色値の平均値a及び平均値a'を算出する。そして、補正パラメータは、本実施形態では、平面画像Pの明るさ値及び色値を補正するためのゲインデータとなるため、以下の(式14)に示されているように、平均値a'を平均値aで除算することで、補正パラメータPaを求める。
Pa = a'/ a・・・(式14)
これにより、後述の重畳表示において、補正パラメータが示すゲイン値を、格子領域LAO毎に乗算することで、平面画像Pの明るさ及び色味が、正距円筒射影画像EC(全天球画像CE)の画素値と近くなり、見た目が違和感なく重畳表示することが可能となる。なお、補正パラメータは、平均値から算出されるだけでなく、平均値に代えて又は平均値に加えて、中央値、最頻値等を使って算出されるようにしてもよい。
The correction parameter creation unit 566 has a planar image P having the same shape as each grid area LA2 ′ with respect to the brightness value and color value of each grid area LA2 ′ in the second corresponding area CA2 ′ converted into the same shape. A correction parameter for matching the brightness value and the color value of each lattice area LA0 is created. Specifically, the correction parameter creation unit 566 calculates brightness values and color values (R, G, B) of all the pixels in the four grid areas having one grid point LA0 as a grid point in common. An average value a = (Rave, Gave, Bave) is calculated, and brightness values and color values (R ′, R ′, R) of all the pixels in the four grid areas having one grid point LA2 ′ as a grid point in common. The average value a ′ = (R′ave, G′ave, B′ave) of G ′, B ′) is calculated. When one point of each of the lattice points LA0 and one point of each of the lattice points LA2 ′ is the positions of the four corners of the second corresponding area CA2 and the third corresponding area CA3, the correction parameter creating unit 566 has 1 The average value a and the average value a ′ of the brightness value and the color value are calculated from the two grid areas. Further, when one point of each of the lattice points LA0 and one point of each of the lattice points LA2 ′ is an outer peripheral position of the second corresponding area CA2 and the third corresponding area CA3, the correction parameter creating unit 566 The average value a and the average value a ′ of the brightness value and the color value are calculated from the two grid areas. In this embodiment, the correction parameter is gain data for correcting the brightness value and the color value of the planar image P. Therefore, as shown in the following (Expression 14), the average value a ′ Is divided by the average value a to obtain the correction parameter Pa.
Pa = a '/ a (Formula 14)
Thereby, in the superimposed display described later, the brightness value and the color tone of the planar image P are multiplied by the equirectangular projection image EC (the omnidirectional image CE) by multiplying the gain value indicated by the correction parameter for each lattice area LAO. ) And the pixel value are close to each other, and the display can be superimposed and displayed without a sense of incongruity. The correction parameter is not only calculated from the average value, but may be calculated using a median value, a mode value, or the like instead of or in addition to the average value.

また、本実施形態では明るさ値及び色値の補正値の算出に画素値(R,G,B)を使用したが、輝度及び色差信号であるYUVフォーマットや、JPEGのsYCC(YCbCr)フォーマット等における輝度値、色差値を用いて、同様の方法にて格子領域を構成する全ての画素の輝度値及び色差値の平均値を求め、その平均値を除算することにより後述の重畳表示における補正パラメータとしてもよい。なお、RGB値からYUV、sYCC(YCbCr)に変換する方法は公知であるため詳細は省略するが、参考として(式15)を用いて、JPEG圧縮画像のフォーマットJFIF(JPEG file interchange format)形式のRGBからYCbCrへ変換する例を挙げる。   In the present embodiment, pixel values (R, G, B) are used for calculation of correction values for brightness values and color values. However, the YUV format for luminance and color difference signals, the JPEG sYCC (YCbCr) format, etc. Using the luminance value and color difference value in, the average value of the luminance value and color difference value of all the pixels constituting the grid area is obtained in the same way, and the average value is divided to correct a correction parameter for superimposed display described later. It is good. The method of converting RGB values to YUV and sYCC (YCbCr) is well known and will not be described in detail. However, using (Equation 15) as a reference, the JPEG compressed image format JFIF (JPEG file interchange format) format is used. Here is an example of converting from RGB to YCbCr.

重畳表示メタデータ作成部570は、位置パラメータ及び補正パラメータ等を用いて、全天球画像CEに対して平面画像Pを重畳する際の位置、並びに明るさ値及び色値の補正値を示す重畳表示メタデータを作成する。
(重畳表示メタデータ)
続いて、図17を用いて、重畳表示メタデータのデータ構造について説明する。図17は、重畳表示メタデータのデータ構造である。
The superimposed display metadata creation unit 570 uses the position parameter, the correction parameter, and the like to superimpose the position when the planar image P is superimposed on the omnidirectional image CE, and the correction value of the brightness value and the color value. Create display metadata.
(Superimposed display metadata)
Next, the data structure of the superimposed display metadata will be described with reference to FIG. FIG. 17 shows the data structure of the superimposed display metadata.

図17に示されているように、重畳表示メタデータは、正距円筒射影画像情報、平面画像情報、重畳表示情報、及びメタデータ作成情報によって構成されている。   As shown in FIG. 17, the superimposed display metadata is composed of equirectangular projection image information, planar image information, superimposed display information, and metadata creation information.

これらのうち、正距円筒射影画像情報は、特殊撮像装置1から撮像画像データと共に送られてきた情報である。正距円筒射影画像情報は、画像識別情報及び付属情報を含んでいる。正距円筒射影画像情報における画像識別情報は、正距円筒射影画像を識別するための画像識別情報である。図17では、正距円筒射影画像情報における画像識別情報の一例として、画像のファイル名が示されているが、画像を識別するための画像IDであってもよい。   Among these, the equirectangular projection image information is information sent together with the captured image data from the special imaging device 1. The equirectangular projection image information includes image identification information and attached information. The image identification information in the equirectangular projection image information is image identification information for identifying the equirectangular projection image. In FIG. 17, the file name of the image is shown as an example of the image identification information in the equirectangular projection image information, but an image ID for identifying the image may be used.

また、正距円筒射影画像情報における付属情報は、正距円筒射影画像情報に付属する関連情報である。図17では、付属情報の一例として、特殊撮像装置1で撮像された際に得られた正距円筒射影画像データの姿勢補正情報(Pitch,Yaw,Roll)が示されている。この姿勢補正情報は、特殊撮像装置1の画像記録フォーマットとして規格化されているExifで格納されている場合があり、GPano(Google Photo Sphere schema)で提供されている各種フォーマットで格納されている場合もある。全天球画像は、同じ位置で撮像すれば、姿勢が異なっていても360°全方位の画像が撮像できるという特徴があるが、全天球画像CEを表示する場合に、姿勢情報や、どこを画像の中心にするか(注視点)を指定しなければ表示位置が決まらない。そのため、一般的には天頂が撮像者の真上に来るように全天球画像CEを補正して表示する。これにより、水平線が真っ直ぐに補正された自然な表示が可能となる。   The attached information in the equirectangular projection image information is related information attached to the equirectangular projection image information. In FIG. 17, posture correction information (Pitch, Yaw, Roll) of equirectangular projection image data obtained when captured by the special imaging device 1 is shown as an example of attached information. This posture correction information may be stored in Exif, which is standardized as the image recording format of the special imaging device 1, and stored in various formats provided by GPano (Google Photo Sphere schema) There is also. The omnidirectional image has the feature that if it is taken at the same position, an image of 360 ° omnidirectional image can be taken even if the posture is different. The display position is not determined unless the center of the image is specified (gaze point). Therefore, generally, the omnidirectional image CE is corrected and displayed so that the zenith is directly above the photographer. As a result, a natural display in which the horizon is straightly corrected is possible.

次に、平面画像情報は、一般撮像装置3から撮像画像データと共に送られてきた情報である。平面画像情報は、画像識別情報及び付属情報を含んでいる。平面画像情報における画像識別情報は、平面画像Pを識別するための画像識別情報である。図17では、画像識別情報の一例として、画像のファイル名が示されているが、画像を識別するための画像IDであってもよい。   Next, the planar image information is information transmitted from the general imaging device 3 together with the captured image data. The planar image information includes image identification information and attached information. The image identification information in the planar image information is image identification information for identifying the planar image P. In FIG. 17, the file name of the image is shown as an example of the image identification information, but an image ID for identifying the image may be used.

また、平面画像情報における付属情報は、平面画像情報に付属する関連情報である。図17では、平面画像情報における付属情報の一例として、35mm換算焦点距離の値が示されている。35mm換算焦点距離の値は、全天球画像CEに平面画像Pを重畳して表示するために必須ではないが、重畳表示を行う場合に表示する画角を決めるための参考情報となるため、例として挙げている。   The attached information in the planar image information is related information attached to the planar image information. In FIG. 17, the value of the 35 mm equivalent focal length is shown as an example of the attached information in the planar image information. The value of the 35 mm equivalent focal length is not essential for displaying the celestial sphere image CE by superimposing the planar image P, but serves as reference information for determining the angle of view to be displayed when superimposing display is performed. Take as an example.

次に、重畳表示情報は、スマートフォン5で作成された情報であり、領域分割数情報、各格子領域の格子点の位置(位置パラメータ)、及び明るさ値及び色値の補正値(補正パラメータ)を含んでいる。これらのうち、領域分割数情報は、第1の対応領域CA1を複数の格子領域に分割する際の水平(経度)方向の分割数及び垂直(緯度)方向の分割数を示している。   Next, the superimposed display information is information created by the smartphone 5, and includes information on the number of area divisions, positions of lattice points in each lattice area (position parameters), and correction values (correction parameters) of brightness values and color values. Is included. Among these, the area division number information indicates the number of divisions in the horizontal (longitude) direction and the number of divisions in the vertical (latitude) direction when dividing the first corresponding area CA1 into a plurality of lattice areas.

また、位置パラメータは、平面画像Pを格子状の複数の領域に分割した場合の各格子点が、正距円筒射影画像EC(全天球画像CE)のどの位置に配置されるかを示す頂点マッピング情報である。補正パラメータは、本実施形態では、平面画像Pの色値を補正するためのゲインデータである。なお、補正対象がモノクロ画像の場合もあるため、補正パラメータは、明るさ値及び色値のうち少なくとも明るさ値を合わせるためのパラメータである。   The position parameter is a vertex indicating at which position in the equirectangular projection image EC (global celestial image CE) each lattice point when the planar image P is divided into a plurality of lattice-like regions is arranged. Mapping information. In this embodiment, the correction parameter is gain data for correcting the color value of the planar image P. Since the correction target may be a monochrome image, the correction parameter is a parameter for adjusting at least the brightness value among the brightness value and the color value.

全天球画像CEを得る場合、平面画像Pと同じ射影方式である透視射影方式を用いると、360°の全方位の撮像ができない。そのため、全天球画像CEの一部の領域に、全天球画像CEとは別に撮像することで得られた平面画像Pを重畳しようとしても、正距円筒射影画像ECと平面画像Pは射影方式が異なるため、正距円筒射影画像EC(全天球画像CE)と平面画像Pが合わず、平面画像Pが全天球画像CEに上手く溶け込まないため、全天球画像のように広い画角の画像は、射影方式の1つとして、正距円筒射影方式で作成されることが多い。しかし、正距円筒射影方式を用いると、いわゆるメルカトル図法のように標準緯線から離れるほど横方向の長さが拡大されるため、一般的なカメラで採用されている透視射影方式の画像とは大きく異なった画像となる。よって、単純に画像の縮尺だけを変更して重ね合わせても画像が一致せず、平面画像Pが全天球画像CEに上手く溶け込まない。そこで、本実施形態では、図20に示されている処理により、位置パラメータを作成する。   When the omnidirectional image CE is obtained, if the perspective projection method, which is the same projection method as the planar image P, is used, 360 ° omnidirectional imaging cannot be performed. Therefore, even if an attempt is made to superimpose a planar image P obtained by imaging separately from the omnidirectional image CE on a partial area of the omnidirectional image CE, the equirectangular projection image EC and the planar image P are projected. Since the method is different, the equirectangular projection image EC (the omnidirectional image CE) and the planar image P do not match, and the planar image P does not merge well with the omnidirectional image CE. A corner image is often created by an equirectangular projection method as one of the projection methods. However, if the equirectangular projection method is used, the length in the horizontal direction increases as the distance from the standard parallel as in the so-called Mercator projection, so it is greatly different from the image of the perspective projection method used in general cameras. The image will be different. Therefore, even if only the scales of the images are changed and superimposed, the images do not match, and the planar image P does not merge well with the omnidirectional image CE. Therefore, in the present embodiment, the position parameter is created by the processing shown in FIG.

ここで、図18を用いて、位置パラメータ及び補正パラメータについて詳細に説明する。図18(a)は第2の対応領域における各格子領域を示した概念図である。図18(b)は第3の対応領域における各格子領域を示した概念図である。   Here, the position parameter and the correction parameter will be described in detail with reference to FIG. FIG. 18A is a conceptual diagram showing each lattice region in the second corresponding region. FIG. 18B is a conceptual diagram showing each lattice region in the third corresponding region.

図18(a)に示されているように、正距円筒射影画像ECの一部の領域である第1の対応領域CA1が平面画像Pと同じ透視射影方式に変換されることで得られる第2の対応領域CA2は、本実施形態では、水平分割数が30、垂直分割数が20の複数の格子領域に分割される。図18(a)には、各格子領域の格子点の座標(LO00,00,LA00,00),(LO01,00,LA01,00),…,(LO30,20,LA30,20)、及び、各格子領域の格子点における明るさ値及び色値の補正値(R00,00,G00,00,B00,00),(R01,00,G01,00,B01,00),…,(R30,20,G30,20,B30,20)が示されている。なお、図面を簡略化するため、4頂点における格子点の座標、並びに明るさ値及び色値の補正値が示されているが、実際には、全ての格子点の座標、並びに明るさ値及び色値の補正値が存在する。また、各明るさ値及び色値の補正値R,G,Bは、それぞれ赤色の補正ゲイン、緑色の補正ゲイン、青色の補正ゲインを示している。各明るさ値及び色値の補正値R,G,Bは、実際には、各格子点の座標を中心とする所定範囲(隣の格子点の所定範囲と重ならない範囲)内の画像の明るさ値及び色値の補正値を示している。 As shown in FIG. 18A, the first corresponding area CA1 that is a partial area of the equirectangular projection image EC is converted into the same perspective projection method as that of the planar image P. In the present embodiment, the second corresponding area CA2 is divided into a plurality of lattice areas having a horizontal division number of 30 and a vertical division number of 20. FIG. 18A shows the coordinates (LO 00,00 , LA 00,00 ), (LO 01,00 , LA 01,00 ),..., (LO 30,20 , LA 30 ) of each lattice area. , 20 ), and correction values (R 00,00 , G 00,00 , B 00,00 ), (R 01,00 , G 01,00 , B 01,00 ), ..., (R 30,20 , G 30,20 , B 30,20 ) are shown. In order to simplify the drawing, the coordinates of the grid points at the four vertices and the correction values of the brightness value and the color value are shown, but in reality, the coordinates of all the grid points, the brightness values, and There is a correction value for the color value. Further, the correction values R, G, and B of the brightness value and the color value respectively indicate a red correction gain, a green correction gain, and a blue correction gain. The correction values R, G, and B of each brightness value and color value are actually the brightness of an image within a predetermined range centered on the coordinates of each grid point (a range that does not overlap with the predetermined range of adjacent grid points). The correction values for the color value and the color value are shown.

一方、図18(b)に示されているように、第2の対応領域CA2が正距円筒射影画像ECと同じ正距円筒射影方式に逆変換されることで得られた第3の対応領域CA3は、本実施形態では、同じく水平分割数が30、垂直分割数が20の複数の格子領域に分割される。図18(b)には、各格子領域の格子点の座標(LO'00,00,LA'00,00),(LO'01,00,LA'01,00),…,(LO'30,20,LA'30,20)の座標、及び、第2の対応領域CA2の各補正値と同じ値の明るさ値及び色値の補正値が示されている。この場合も、図面を簡略化するため、4頂点における格子点の座標及び明るさ値及び色値の補正値が示されているが、実際には、全ての格子点の座標と明るさ値及び色値の補正値が存在する。 On the other hand, as shown in FIG. 18B, the third corresponding area obtained by inversely transforming the second corresponding area CA2 into the same equirectangular projection method as the equirectangular projection image EC. In the present embodiment, CA3 is similarly divided into a plurality of lattice regions having 30 horizontal divisions and 20 vertical divisions. The FIG. 18 (b), the coordinate of the lattice point of each grid area (LO '00,00, LA' 00,00 ), (LO '01,00, LA' 01,00), ..., (LO '30 , 20 , LA ′ 30,20 ), and brightness value and color value correction values having the same values as the correction values of the second corresponding area CA2. In this case, too, the coordinates of the grid points, the brightness values, and the correction values of the color values at the four vertices are shown in order to simplify the drawing. There is a correction value for the color value.

次に、メタデータ作成情報は、重畳表示メタデータのバージョンを示すバージョン情報を示している。   Next, the metadata creation information indicates version information indicating the version of the superimposed display metadata.

なお、上記のように、位置パラメータは、平面画像Pと正距円筒射影画像EC(全天球画像CE)のそれぞれの位置対応関係を示すものである。しかし、位置パラメータで、平面画像Pの全ての画素位置が正距円筒射影画像EC(全天球画像CE)のどの座標に対応付けられるかの情報を表わそうとすると、一般撮像装置3が高画素数のデジタルカメラの場合、約4000万画素数分の情報を表わさなければならない。そのため、位置パラメータのデータ量が多くなり、データ記憶等の扱いが大変である。そこで、本実施形態の位置パラメータは、平面画像Pを600個(30×20)の領域に分割することで、平面画像の格子点の座標が、正距円筒射影画像EC(全天球画像CE)のどこに対応するかを示すだけのデータを示している。また、スマートフォン5は重畳表示する場合には、格子点の座標から各領域内の画像の位置を補間することで、重畳表示を実現することができる。   As described above, the position parameter indicates the positional correspondence between the planar image P and the equirectangular projection image EC (the omnidirectional image CE). However, if the position parameter is intended to represent information on which coordinates of all the pixel positions of the planar image P are associated with the equirectangular projection image EC (the omnidirectional image CE), the general imaging device 3 In the case of a digital camera having a high number of pixels, information corresponding to about 40 million pixels must be represented. For this reason, the amount of position parameter data increases, and handling of data storage and the like is difficult. Therefore, the position parameter of the present embodiment is that the plane image P is divided into 600 (30 × 20) regions, so that the coordinates of the lattice points of the plane image are the equirectangular projection image EC (the omnidirectional image CE). ) Shows only data indicating where to correspond. In addition, when the smartphone 5 performs superimposed display, the superimposed display can be realized by interpolating the position of the image in each region from the coordinates of the grid points.

{重畳部の機能構成}
図16を用い、重畳部55bの機能構成について説明する。重畳部55bは、貼付領域作成部582、補正部584、画像作成部586、画像重畳部588、及び射影方式変換部590を有している。
{Functional structure of superimposition unit}
The functional configuration of the superimposing unit 55b will be described with reference to FIG. The superimposing unit 55 b includes a pasting area creating unit 582, a correcting unit 584, an image creating unit 586, an image superimposing unit 588, and a projection method conversion unit 590.

これらのうち、貼付領域作成部582は、仮想の立体球CSにおいて、第3の対応領域CA3に対応する領域部分(以下、「部分立体球」という)PSを作成する。   Among these, the pasting area creation unit 582 creates an area part (hereinafter referred to as “partial solid sphere”) PS corresponding to the third corresponding area CA3 in the virtual solid sphere CS.

補正部584は、重畳表示メタデータ内の補正パラメータに基づいて、平面画像Pの明るさ値及び色値を、正距円筒射影画像ECの明るさ値及び色値に合わせる補正を行なう。なお、補正部584は、必ずしも明るさや色の補正を行なう必要はない。また、補正パラメータが補正を行なう場合、明るさの補正を行なっても、色の補正を行なわなくてもよい。   The correction unit 584 performs correction to match the brightness value and color value of the planar image P with the brightness value and color value of the equirectangular projection image EC based on the correction parameter in the superimposed display metadata. Note that the correction unit 584 does not necessarily have to correct brightness and color. In addition, when the correction parameter is corrected, the brightness may be corrected or the color may not be corrected.

画像作成部586は、部分立体球PSに対して、平面画像P(又は、平面画像Pを補正した後の補正画像C)を貼り付けることで、重畳画像Sを作成する。また、画像作成部586は、部分立体球PSの領域に基づいて、マスクデータMを作成する。更に、画像作成部586は、立体球CSに対して、正距円筒射影画像ECを貼り付けることで全天球画像CEを作成する。   The image creating unit 586 creates the superimposed image S by pasting the planar image P (or the corrected image C after correcting the planar image P) to the partial solid sphere PS. The image creation unit 586 creates mask data M based on the region of the partial solid sphere PS. Furthermore, the image creation unit 586 creates the omnidirectional image CE by pasting the equirectangular projection image EC to the solid sphere CS.

ここで、重畳画像Sを全天球画像CEに重畳する場合に用いることが可能な透過比率データである。マスクデータMは、重畳画像Sを全天球画像CEに重畳した場合の境界周辺の明るさ及び色を、内側の重畳画像S側から外側の全天球画像CE側に徐々に近づけるために、マスク周辺の透過度が、内側から外側に向けて徐々に重畳画像S寄りから全天球画像CE寄りに高くなっている。これにより、全天球画像CEに重畳画像Sが重畳されても、極力、重畳されたことが分からないようにすることができる。なお、マスクデータMの作成は、必須ではない。   Here, it is transmission ratio data that can be used when the superimposed image S is superimposed on the omnidirectional image CE. The mask data M is used to gradually bring the brightness and color around the boundary when the superimposed image S is superimposed on the omnidirectional image CE from the inner superimposed image S side to the outer omnidirectional image CE side. The transmittance around the mask gradually increases from the superimposed image S to the omnidirectional image CE from the inside to the outside. Thereby, even if the superimposition image S is superimposed on the omnidirectional image CE, it is possible to prevent the superimposition from being recognized as much as possible. Note that the creation of the mask data M is not essential.

画像重畳部588は、全天球画像CEに対して重畳画像S及びマスクデータMを重畳する。これにより、境目が目立たないように高精細の重畳画像Sが重畳された低精細の全天球画像CEが完成する。   The image superimposing unit 588 superimposes the superimposed image S and the mask data M on the omnidirectional image CE. Thereby, the low-definition omnidirectional image CE on which the high-definition superimposed image S is superimposed so that the boundary is not conspicuous is completed.

射影方式変換部590は、図7に示されているように、予め定められた仮想カメラICの視線方向(所定領域Tの中心点CP)と所定領域Tの画角αに基づいて、重畳画像Sが重畳された状態の全天球画像CEにおける所定領域Tをディスプレイ517で見ることができるように射影方式変換する。また、射影方式変換部590は、射影方式変換する際に、所定領域Tをディスプレイ517における表示領域の解像度に合わせる処理も行う。具体的には、所定領域Tの解像度がディスプレイ517の表示領域の解像度よりも小さい場合には、射影方式変換部590は、所定領域Tをディスプレイ517の表示領域に合わせるように拡大する。一方、所定領域Tの解像度がディスプレイ517の表示領域の解像度よりも大きい場合には、射影方式変換部590は、所定領域Tをディスプレイ517の表示領域に合わせるように縮小する。これにより、表示制御部56は、ディスプレイ517の表示領域の全体に亘って、所定領域Tを示す所定領域画像Qを表示することができる(ステップS24)。ここでは、所定領域画像Q内に、平面画像Pが重畳された状態の平面画像P'である重畳画像Sが含まれている。   As shown in FIG. 7, the projection method conversion unit 590 generates a superimposed image based on a predetermined line-of-sight direction of the virtual camera IC (a center point CP of the predetermined area T) and an angle of view α of the predetermined area T. The projection method is converted so that the predetermined area T in the omnidirectional image CE with S superimposed can be seen on the display 517. The projection method conversion unit 590 also performs processing for matching the predetermined area T with the resolution of the display area on the display 517 when performing the projection method conversion. Specifically, when the resolution of the predetermined area T is smaller than the resolution of the display area of the display 517, the projection method conversion unit 590 enlarges the predetermined area T so as to match the display area of the display 517. On the other hand, when the resolution of the predetermined area T is larger than the resolution of the display area of the display 517, the projection method conversion unit 590 reduces the predetermined area T so as to match the display area of the display 517. Thereby, the display control part 56 can display the predetermined area image Q which shows the predetermined area T over the whole display area of the display 517 (step S24). Here, a superimposed image S that is a planar image P ′ in a state where the planar image P is superimposed is included in the predetermined region image Q.

<<実施形態の処理又は動作>>
続いて、図19乃至図30を用いて、本実施形態の処理又は動作について説明する。まず、図19を用いて、撮像システムが実行する撮像方法を説明する。図19は、撮像方法を示したシーケンス図である。なお、以下では、被写体や風景等の撮像を行なう場合について説明するが、撮像と同時に集音部14によって周囲の音を録音してもよい。
<< Processing or Operation of Embodiment >>
Subsequently, processing or operation of the present embodiment will be described with reference to FIGS. 19 to 30. First, an imaging method executed by the imaging system will be described with reference to FIG. FIG. 19 is a sequence diagram illustrating an imaging method. In the following description, a case where a subject, a landscape, or the like is imaged will be described. However, ambient sounds may be recorded by the sound collecting unit 14 simultaneously with the imaging.

図19に示されているように、スマートフォン5の受付部52は、ユーザから連携撮像開始を受け付ける(ステップS11)。この場合、図15(b)に示されているように、表示制御部56が、図15(b)に示されている連携撮像装置設定画面をディスプレイ517に表示させる。この画面には、撮像装置毎に、連携撮像する際のメインの撮像装置を指定するためのラジオボタン、連携撮像する際のサブの撮像装置を指定(選択)するためのチェックボックスが表示されている。更に、撮像装置毎に、撮像装置の装置名及び電波の受信強度が表示されている。そして、ユーザが所望の撮像装置をメイン及びサブとして指定(選択)して、「確定」ボタンを押下することで、受付部が連携撮像開始を受け付ける。なお、サブの撮像装置は複数であってもよいため、チェックボックスにして複数の撮像装置を指定(選択)することができるようになっている。   As illustrated in FIG. 19, the reception unit 52 of the smartphone 5 receives the cooperative imaging start from the user (Step S <b> 11). In this case, as illustrated in FIG. 15B, the display control unit 56 causes the display 517 to display the cooperative imaging device setting screen illustrated in FIG. On this screen, a radio button for designating a main imaging device for cooperative imaging and a check box for designating (selecting) a sub imaging device for cooperative imaging are displayed for each imaging device. Yes. Furthermore, the device name of the imaging device and the reception intensity of the radio wave are displayed for each imaging device. Then, when the user designates (selects) a desired imaging device as a main and a sub and presses a “confirm” button, the accepting unit accepts the start of cooperative imaging. Since there may be a plurality of sub imaging devices, a plurality of imaging devices can be designated (selected) using check boxes.

そして、スマートフォン5の近距離通信部58は、一般撮像装置3の近距離通信部38に対して、ポーリングにより、撮像開始の問い合わせを示す撮像開始問合せ情報を送信する(ステップS12)。これにより、一般撮像装置3の近距離通信部38は、撮像開始問合せ情報を受信する。   And the near field communication part 58 of the smart phone 5 transmits the imaging start inquiry information which shows the inquiry of an imaging start by polling with respect to the near field communication part 38 of the general imaging device 3 (step S12). Thereby, the near field communication part 38 of the general imaging device 3 receives imaging start inquiry information.

次に、一般撮像装置3の判断部37は、受付部32がユーザからシャッターボタン315aの押下を受け付けるか否かにより、撮像開始を行なったか否かを判断する(ステップS13)。   Next, the determination unit 37 of the general imaging device 3 determines whether or not imaging has been started based on whether or not the reception unit 32 receives pressing of the shutter button 315a from the user (step S13).

次に、一般撮像装置3の近距離通信部38は、スマートフォン5に対して、ステップS13による判断結果に応じた応答内容を示す応答情報を送信する(ステップS14)。ステップS13によって撮像が開始されたと判断された場合には、応答情報は、撮像開始を示す撮像開始情報を含む。この場合、応答情報は、一般撮像装置3の画像識別情報も含んでいる。一方、ステップS13によって撮像が開始されたと判断されない場合には、応答情報は、撮像待機を示す撮像待機情報を含む。これにより、スマートフォン5の近距離通信部58は、応答情報を受信する。   Next, the short-range communication unit 38 of the general imaging device 3 transmits response information indicating the response content according to the determination result in step S13 to the smartphone 5 (step S14). If it is determined in step S13 that imaging has started, the response information includes imaging start information indicating the start of imaging. In this case, the response information includes image identification information of the general imaging device 3. On the other hand, when it is not determined in step S13 that imaging has started, the response information includes imaging standby information indicating imaging standby. Thereby, the near field communication part 58 of the smart phone 5 receives response information.

続いて、ステップS13によって、撮像が開始されたと判断された場合、及びステップS14によって受信された応答情報が撮像開始情報を含む場合について説明する。   Subsequently, a case where it is determined in step S13 that imaging has started and a case where the response information received in step S14 includes imaging start information will be described.

まず、一般撮像装置3は、撮像を開始する(ステップS15)。この撮像の処理は、シャッターボタン315aが押下された後、撮像部33が被写体や風景等を撮像することで撮像画像データ(ここでは、平面画像データ)し、記憶・読出部39が記憶部3000に撮像画像データを記憶するまでの処理である。   First, the general imaging device 3 starts imaging (step S15). In this image capturing process, after the shutter button 315a is pressed, the image capturing unit 33 captures an image of a subject, a landscape, and the like, thereby capturing image data (planar image data in this case), and the storage / reading unit 39 stores the storage unit 3000. This is the process until the captured image data is stored.

次に、スマートフォン5では、近距離通信部58が、特殊撮像装置1に対して、撮像開始の要求を示す撮像開始要求情報を送信する(ステップS16)。これにより、特殊撮像装置1の近距離通信部18は撮像開始要求情報を受信する。   Next, in the smartphone 5, the short-range communication unit 58 transmits imaging start request information indicating an imaging start request to the special imaging device 1 (step S16). Thereby, the short-range communication unit 18 of the special imaging device 1 receives the imaging start request information.

一方、特殊撮像装置1は、撮像を開始する(ステップS17)。この撮像の処理は、撮像部13が被写体や風景等を撮像して撮像画像データ(図3(a),(b)に示されているような2つの半球画像データ)を生成し、画像・音処理部15が、2つの半球画像データに基づいて、図3(c)に示されているような単一の正距円筒射影画像データを作成して、記憶・読出部19が記憶部1000に正距円筒射影画像データを記憶するまでの処理である。   On the other hand, the special imaging device 1 starts imaging (step S17). In this imaging process, the imaging unit 13 images a subject, a landscape, and the like to generate captured image data (two hemispherical image data as shown in FIGS. 3A and 3B). The sound processing unit 15 creates single equirectangular projection image data as shown in FIG. 3C based on the two hemispherical image data, and the storage / reading unit 19 stores the storage unit 1000. This is the process until the equirectangular projection image data is stored.

次に、スマートフォン5では、近距離通信部58が、一般撮像装置3に対して、撮像画像を要求する旨を示す撮像画像要求情報を送信する(ステップS18)。この撮像画像要求情報には、ステップS14で受信された画像識別情報が含まれている。これにより、一般撮像装置3の近距離通信部38は撮像開始要求情報を受信する。   Next, in the smartphone 5, the short-range communication unit 58 transmits captured image request information indicating that a captured image is requested to the general imaging device 3 (step S18). This captured image request information includes the image identification information received in step S14. Thereby, the near field communication part 38 of the general imaging device 3 receives imaging start request information.

次に、一般撮像装置3の近距離通信部38は、スマートフォン5に対して、ステップS15によって得られた平面画像データを送信する(ステップS19)。この際、送信される平面画像データを識別するための画像識別情報、及び付属情報も送信される。画像識別情報及び付属情報は、図17に平面画像情報として示されている。これにより、スマートフォン5の近距離通信部58は、平面画像データ、画像識別情報、及び付属情報を受信する。   Next, the short-range communication unit 38 of the general imaging device 3 transmits the planar image data obtained in step S15 to the smartphone 5 (step S19). At this time, image identification information for identifying the plane image data to be transmitted, and attached information are also transmitted. The image identification information and the attached information are shown as planar image information in FIG. Thereby, the near field communication part 58 of the smart phone 5 receives plane image data, image identification information, and attached information.

一方、特殊撮像装置1の近距離通信部18は、スマートフォン5に対して、ステップS17によって得られた正距円筒射影画像データを送信する(ステップS20)。この際、送信される正距円筒射影画像データを識別するための画像識別情報、及び付属情報も送信される。画像識別情報及び付属情報は、図17に正距円筒射影画像情報として示されている。これにより、スマートフォン5の近距離通信部58は、正距円筒射影画像データ、画像識別情報、及び付属情報を受信する。   On the other hand, the short-range communication unit 18 of the special imaging device 1 transmits the equirectangular projection image data obtained in step S17 to the smartphone 5 (step S20). At this time, image identification information for identifying the equirectangular projection image data to be transmitted, and attached information are also transmitted. The image identification information and attached information are shown as equidistant cylindrical projection image information in FIG. Thereby, the near field communication part 58 of the smart phone 5 receives equirectangular projection image data, image identification information, and attached information.

次に、スマートフォン5の記憶・読出部59は、ステップS19によって受信された平面画像データの電子ファイルと、及びステップS20によって受信された正距円筒射影画像データの電子ファイルを同一の電子フォルダに格納して、記憶部5000に記憶する(ステップS21)。   Next, the storage / reading unit 59 of the smartphone 5 stores the electronic file of planar image data received in step S19 and the electronic file of equirectangular projection image data received in step S20 in the same electronic folder. And it memorize | stores in the memory | storage part 5000 (step S21).

次に、スマートフォン5の画像・音処理部55は、全天球画像CEの一部の領域に平面画像Pを重畳して表示する際に利用する、重畳表示メタデータを作成する(ステップS22)。この際、記憶・読出部59が、記憶部5000に重畳表示用メタデータを記憶する。   Next, the image / sound processing unit 55 of the smartphone 5 creates superimposed display metadata used when the planar image P is superimposed and displayed on a partial region of the omnidirectional image CE (step S22). . At this time, the storage / reading unit 59 stores the superimposed display metadata in the storage unit 5000.

ここで、主に、図20乃至図24を用いて、重畳表示メタデータの作成処理について詳細に説明する。なお、一般撮像装置3と特殊撮像装置1の撮像素子の解像度が、たとえ同じであっても、特殊撮像装置1の撮像素子は360°全天球画像CEの元になる正距円筒射影画像を全て網羅しなければならないため、撮像画像における一定領域あたりの精細度が低くなる。
{重畳表示メタデータの作成処理}
まず、低精細な正距円筒射影画像ECによって作成される全天球画像CEに対して、高精細な平面画像Pを重畳してディスプレイ517に表示するための重畳表示メタデータの作成処理について説明する。重畳表示メタデータは、図17に示されているように、位置パラメータ及び補正パラメータを含んでいるため、主に、位置パラメータ及び補正パラメータの作成方法について図20を用いて説明する。
Here, the process of creating superimposed display metadata will be described in detail mainly with reference to FIGS. 20 to 24. Note that even if the resolutions of the image pickup devices of the general image pickup device 3 and the special image pickup device 1 are the same, the image pickup device of the special image pickup device 1 generates an equirectangular projection image that is the basis of the 360 ° omnidirectional image CE. Since all must be covered, the definition per fixed area in the captured image is low.
{Process for creating superimposed display metadata}
First, a description will be given of a process for creating superimposition display metadata for superimposing a high-definition plane image P on the omnidirectional image CE created by the low-definition equirectangular projection image EC and displaying it on the display 517. To do. As shown in FIG. 17, the superimposed display metadata includes a position parameter and a correction parameter. Therefore, a method for creating the position parameter and the correction parameter will be mainly described with reference to FIG.

抽出部550は、正距円筒射影方式によって得られた長方形の正距円筒射影画像ECにおける複数の特徴点、及び透視射影方式によって得られた長方形の平面画像Pにおける複数の特徴点を抽出する(ステップS110)。   The extraction unit 550 extracts a plurality of feature points in the rectangular equirectangular projection image EC obtained by the equirectangular projection method and a plurality of feature points in the rectangular planar image P obtained by the perspective projection method ( Step S110).

次に、第1の対応領域算出部552は、第1のホモグラフィ変換によって、正距円筒射影画像ECにおける複数の特徴点と平面画像Pにおける複数の特徴点との類似度に基づき、図20に示されているように、正距円筒射影画像ECにおいて、平面画像Pに対応する四角形の第1の対応領域CA1を算出する(ステップS120)。より具体的には、第1の対応領域算出部552は、算出した正距円筒射影画像ECの複数の特徴点fp1の特徴量fv1と、平面画像Pにおける複数の特徴点fp2の特徴量fv2の類似度に基づき画像間の対応点を算出し、正距円筒射影画像ECにおいて、平面画像Pに対応するホモグラフィを求めることで得られる第1のホモグラフィ変換によって、図20に示されているように、正距円筒射影画像ECにおいて、平面画像Pに対応する四角形の第1の対応領域CA1を算出する。この処理は、正距円筒射影画像ECに対して射影方式が異なる平面画像Pを正確に対応付けることができないが、ひとまず大まかに対応位置を推定するための処理(仮決め処理)である。   Next, the first corresponding region calculation unit 552 performs the first homography conversion based on the similarity between the plurality of feature points in the equirectangular projection image EC and the plurality of feature points in the planar image P, as shown in FIG. In the equirectangular projection image EC, a quadrangular first corresponding area CA1 corresponding to the planar image P is calculated (step S120). More specifically, the first corresponding area calculation unit 552 calculates the feature amounts fv1 of the plurality of feature points fp1 of the equirectangular projection image EC and the feature amounts fv2 of the plurality of feature points fp2 in the planar image P. FIG. 20 shows a first homography transformation obtained by calculating corresponding points between images based on the similarity and obtaining homography corresponding to the planar image P in the equirectangular projection image EC. As described above, in the equirectangular projection image EC, a quadrangular first corresponding area CA1 corresponding to the planar image P is calculated. This process is a process (provisional decision process) for roughly estimating the corresponding position for the time being, although it is impossible to accurately associate the flat image P having a different projection method with the equirectangular projection image EC.

次に、注視点特定部554は、平面画像Pの中心点CM1が第1のホモグラフィ変換後に位置する正距円筒射影画像EC上の点(注視点GP1)を特定する(ステップS130)。   Next, the gazing point identification unit 554 identifies a point (gaze point GP1) on the equirectangular projection image EC where the center point CM1 of the planar image P is located after the first homography transformation (step S130).

次に、射影方式変換部556は、図21に示されているように、周辺領域画像PIの垂直画角αが平面画像Pの対角画角αと同じになるようにすることで、結果的に周辺領域画像PIが作成できるように、正距円筒射影画像EC内で注視点GP1を中心とした周辺領域PAを、平面画像Pと同じ透視射影方式に変換する(ステップS140)。   Next, the projection method conversion unit 556 sets the vertical field angle α of the peripheral area image PI to be the same as the diagonal field angle α of the planar image P as shown in FIG. Thus, the peripheral area PA centered on the gazing point GP1 in the equirectangular projection image EC is converted into the same perspective projection method as that of the planar image P so that the peripheral area image PI can be created (step S140).

次に、抽出部550は、射影方式変換部556によって得られた周辺領域画像PIにおける複数の特徴点を抽出する(ステップS150)。   Next, the extraction unit 550 extracts a plurality of feature points in the peripheral area image PI obtained by the projection method conversion unit 556 (step S150).

次に、第1の対応領域算出部552は、第2のホモグラフィ変換によって、平面画像Pにおける複数の特徴点と周辺領域画像PIにおける複数の特徴点との類似度に基づき、周辺領域画像PIにおいて、平面画像Pに対応する四角形の第2の対応領域CA2を算出する(ステップS160)。なお、平面画像Pは、例えば4000万画素の高精細な画像であるため、予め適切な大きさにリサイズしておく。   Next, the first corresponding region calculation unit 552 performs peripheral region image PI based on the similarity between the plurality of feature points in the planar image P and the plurality of feature points in the peripheral region image PI by the second homography transformation. In step S160, a quadrangular second corresponding area CA2 corresponding to the planar image P is calculated. Note that the planar image P is a high-definition image of 40 million pixels, for example, and is resized to an appropriate size in advance.

次に、領域分割部560は、図22(b)に示されているように、第2の対応領域CA2を複数の格子領域LA2に分割する(ステップS170)。   Next, the area dividing unit 560 divides the second corresponding area CA2 into a plurality of lattice areas LA2 as shown in FIG. 22B (step S170).

次に、射影方式逆変換部562は、図20に示されているように、第2の対応領域CA2の射影方式を、正距円筒射影画像ECと同じ正距円筒射影方式に変換(逆変換)する(ステップS180)。これにより、射影方式逆変換部562は、図23に示されているように、正距円筒射影画像ECにおいて、第2の対応領域CA2内の複数の格子領域LA2に対応する各格子領域LA3から成る第3の対応領域CA3を算出する。なお、図23は、正距円筒射影画像ECにおいて第3の対応領域を示す概念図である。この射影方式逆変換部562の処理により、各格子領域LA3の各格子点の座標を示す位置パラメータが作成される。位置パラメータは、上記のように、図17及び図18(b)に示されている。   Next, as shown in FIG. 20, the projection method inverse conversion unit 562 converts the projection method of the second corresponding area CA2 into the equirectangular projection method same as the equirectangular projection image EC (inverse conversion). (Step S180). Thereby, as shown in FIG. 23, the projection method inverse transform unit 562 starts from each lattice area LA3 corresponding to the plurality of lattice areas LA2 in the second corresponding area CA2 in the equirectangular projection image EC. A third corresponding area CA3 is calculated. FIG. 23 is a conceptual diagram showing a third corresponding region in the equirectangular projection image EC. By the process of the projection method inverse transform unit 562, a position parameter indicating the coordinates of each grid point in each grid area LA3 is created. The position parameter is shown in FIGS. 17 and 18B as described above.

続いて、図20及び図24を用いて、補正パラメータの作成処理について説明する。図24は、補正パラメータの作成処理の過程における画像の概念図である。   Next, correction parameter creation processing will be described with reference to FIGS. 20 and 24. FIG. 24 is a conceptual diagram of an image in the process of the correction parameter creation process.

ステップS180の処理後、形状変換部564は、図24(a)に示されているような第2の対応領域CA2の4頂点を平面画像Pの4頂点に射影することで、第2の対応領域CA2を平面画像Pと同じ形状に変換し、図24(b)に示されているような第2の対応領域CA2'を得る(ステップS190)。   After the process of step S180, the shape conversion unit 564 projects the second correspondence by projecting the four vertices of the second corresponding area CA2 as illustrated in FIG. The area CA2 is converted into the same shape as the planar image P, and a second corresponding area CA2 ′ as shown in FIG. 24B is obtained (step S190).

次に、領域分割部560は、図24(c)に示されているように、平面画像Pを、変換後の第2の対応領域CA2'における各格子領域LA2'と同じ形状で同じ数である複数の格子領域LA0に分割する(ステップS200)。   Next, as shown in FIG. 24C, the area dividing unit 560 converts the planar image P into the same number and the same shape as each lattice area LA2 ′ in the second corresponding area CA2 ′ after conversion. Dividing into a plurality of lattice areas LA0 (step S200).

次に、補正パラメータ作成部566は、第2の対応領域CA2'における各格子領域LA2'の色値に対して、各格子領域LA2'に対応する平面画像Pの各格子領域LA0の明るさ値及び色値を合わせるための補正パラメータを作成する(ステップS210)。   Next, the correction parameter creation unit 566 performs the brightness value of each grid area LA0 of the planar image P corresponding to each grid area LA2 ′ with respect to the color value of each grid area LA2 ′ in the second corresponding area CA2 ′. Then, a correction parameter for matching the color value is created (step S210).

最後に、重畳表示メタデータ作成部570は、図17に示されているように、特殊撮像装置1から取得した正距円筒射影画像情報、一般撮像装置3から取得した平面画像情報、予め定められている領域分割数情報、射影方式逆変換部562によって作成された位置パラメータ、補正パラメータ作成部566によって作成された補正パラメータ、及びメタデータ作成情報に基づいて、重畳表示メタデータを作成する(ステップS220)。
この重畳表示メタデータは、記憶・読出部59によって、記憶部5000に記憶される。
Finally, as shown in FIG. 17, the superimposed display metadata creation unit 570 includes predetermined distance cylindrical projection image information acquired from the special imaging device 1 and planar image information acquired from the general imaging device 3. The superimposed display metadata is created based on the area division number information, the position parameter created by the projection method inverse transform unit 562, the correction parameter created by the correction parameter creation unit 566, and the metadata creation information (step) S220).
The superimposed display metadata is stored in the storage unit 5000 by the storage / readout unit 59.

以上より、図19に示されているステップS23の処理が終了する。そして、記憶・読出部59及び表示制御部56は、重畳表示メタデータを用いて、重畳表示の処理を行なう(ステップS23)。   Thus, the process of step S23 shown in FIG. Then, the storage / reading unit 59 and the display control unit 56 perform superimposed display processing using the superimposed display metadata (step S23).

{重畳表示の処理}
続いて、図25乃至図30を用いて、重畳表示の処理について詳細に説明する。図25は、重畳表示の処理の過程における画像の概念図である。
{Superimposed display processing}
Next, the superimposed display process will be described in detail with reference to FIGS. 25 to 30. FIG. 25 is a conceptual diagram of an image in the process of superimposed display processing.

まず、図14に示されている記憶・読出部59(取得部)が、予め、記憶部5000から、正距円筒射影方式によって得られた正距円筒射影画像ECのデータ、透視射影方式によって得られた平面画像Pのデータ、及び重畳表示メタデータを読み出して取得しておく。   First, the storage / reading unit 59 (acquisition unit) shown in FIG. 14 obtains from the storage unit 5000 the data of the equirectangular projection image EC obtained by the equirectangular projection method, the perspective projection method. The obtained data of the plane image P and the superimposed display metadata are read out and acquired.

次に、貼付領域作成部582は、図25に示されているように、位置パラメータに基づき、仮想の立体球CSにおいて、第3の対応領域CA3に対応する部分立体球PSを作成する(ステップS310)。この際、位置パラメータで示されていない格子点以外の画素に関しては、例えば、線形補間を用いて補間する。   Next, as shown in FIG. 25, the pasting area creation unit 582 creates a partial solid sphere PS corresponding to the third corresponding area CA3 in the virtual solid sphere CS based on the position parameter (step). S310). At this time, pixels other than the lattice points not indicated by the position parameter are interpolated using, for example, linear interpolation.

次に、補正部584は、重畳表示メタデータ内の補正パラメータに基づいて、平面画像Pの明るさ値及び色値を、正距円筒射影画像ECの明るさ値及び色値に合わせる補正を行なう(ステップS320)。以降、補正後の平面画像Pは、「補正画像C」という。   Next, the correction unit 584 performs correction to match the brightness value and color value of the planar image P with the brightness value and color value of the equirectangular projection image EC based on the correction parameter in the superimposed display metadata. (Step S320). Hereinafter, the corrected planar image P is referred to as “corrected image C”.

次に、画像作成部586は、部分立体球PSに対して、補正画像Cを貼り付けることで、重畳画像Sを作成する(ステップS330)。この際、位置パラメータで示されていない格子点以外の画素に関しては、例えば、線形補間を用いて補間する。また、画像作成部586は、部分立体球PSに基づいて、マスクデータMを作成する(ステップS340)。更に、画像作成部586は、立体球CSに対して、正距円筒射影画像ECを貼り付けることで全天球画像CEを作成する(ステップS350)。そして、画像重畳部588は、全天球画像CEに対して重畳画像S及びマスクデータMを用いて重畳画像Sを重畳する(ステップS360)。これにより、境目が目立たないように高精細の重畳画像Sが重畳された低精細の全天球画像CEが完成する。   Next, the image creation unit 586 creates the superimposed image S by pasting the corrected image C on the partial solid sphere PS (step S330). At this time, pixels other than the lattice points not indicated by the position parameter are interpolated using, for example, linear interpolation. The image creation unit 586 creates mask data M based on the partial solid sphere PS (step S340). Furthermore, the image creation unit 586 creates the omnidirectional image CE by pasting the equirectangular projection image EC on the solid sphere CS (step S350). Then, the image superimposing unit 588 superimposes the superimposed image S on the omnidirectional image CE using the superimposed image S and the mask data M (step S360). Thereby, the low-definition omnidirectional image CE on which the high-definition superimposed image S is superimposed so that the boundary is not conspicuous is completed.

次に、射影方式変換部590は、図7に示されているように、予め定められた仮想カメラICの視線方向(所定領域Tの中心点CP)と所定領域Tの画角αに基づいて、重畳画像Sが重畳された状態の全天球画像CEにおける所定領域Tをディスプレイ517で見ることができるように射影方式変換する(ステップS370)。この際、射影方式変換部590は、所定領域Tをディスプレイ517における表示領域の解像度に合わせる処理も行なう。これにより、表示制御部56は、ディスプレイ517の表示領域の全体に亘って、所定領域Tを示す所定領域画像Qを表示することができる。ここでは、所定領域画像Q内に、平面画像Pが重畳された状態の平面画像P'である重畳画像Sが含まれている。   Next, as shown in FIG. 7, the projection method conversion unit 590 is based on the predetermined viewing direction of the virtual camera IC (the center point CP of the predetermined region T) and the angle of view α of the predetermined region T. Then, the projection system conversion is performed so that the predetermined area T in the omnidirectional image CE with the superimposed image S superimposed can be seen on the display 517 (step S370). At this time, the projection method conversion unit 590 also performs processing for matching the predetermined area T with the resolution of the display area on the display 517. Thereby, the display control unit 56 can display the predetermined area image Q indicating the predetermined area T over the entire display area of the display 517. Here, a superimposed image S that is a planar image P ′ in a state where the planar image P is superimposed is included in the predetermined region image Q.

続いて、図26乃至図30を用いて、重畳表示された状態について詳細に説明する。図26は、全天球画像に平面画像を重畳した場合の二次元の概念図である。ここでは、図5に対して、平面画像Pを重畳している場合を示している。図26に示されているように、高精細な重畳画像Sは、立体球CSに張り付けられた低精細な全天球画像CEに対し、位置パラメータに従って、立体球CSの内側に重畳されている。   Next, the state of the superimposed display will be described in detail with reference to FIGS. FIG. 26 is a two-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image. Here, the case where the planar image P is superimposed on FIG. 5 is shown. As shown in FIG. 26, the high-definition superimposed image S is superimposed on the inside of the solid sphere CS according to the position parameter with respect to the low-definition omnidirectional image CE attached to the solid sphere CS. .

図27は、全天球画像に平面画像を重畳した場合の三次元の概念図である。図27では、立体球CSに全天球画像CE及び重畳画像Sが貼り付けられ、重畳画像Sを含む画像が所定領域画像Qとなっている状態を表している。   FIG. 27 is a three-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image. FIG. 27 illustrates a state in which the omnidirectional image CE and the superimposed image S are pasted on the solid sphere CS and the image including the superimposed image S is the predetermined region image Q.

図28は、本実施形態の位置パラメータを用いずに、全天球画像に平面画像を重畳した場合の二次元の概念図である。図29は、本実施形態の位置パラメータを用いて、全天球画像に平面画像を重畳した場合の二次元の概念図である。   FIG. 28 is a two-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image without using the position parameter of the present embodiment. FIG. 29 is a two-dimensional conceptual diagram when a planar image is superimposed on the omnidirectional image using the position parameters of the present embodiment.

図28(a)に示されているように、仮想カメラICが立体球CSの中心点に位置している場合を基準にすると、被写体P1は、全天球画像CE上で像P2として表され、重畳画像S上で像P3として表されている。図28(a)に示されているように、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置しているため、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。しかし、図28(b)に示されているように、仮想カメラICが立体球CSの中心点から離れると、仮想カメラICと被写体P1とを結ぶ直線上に、像P2は位置しているが、像P3はやや内側に位置している。このため、仮想カメラICと被写体P1とを結ぶ直線上における重畳画像S上の像を像P3'とすると、全天球画像CEと重畳画像Sに、像P3と像P3'との間のズレ量g分のズレが生じてしまう。これにより、全天球画像CEに対して重畳画像Sがズレて表示されてしまう。   As shown in FIG. 28A, when the virtual camera IC is located at the center point of the solid sphere CS, the subject P1 is represented as an image P2 on the omnidirectional image CE. , Represented as an image P3 on the superimposed image S. As shown in FIG. 28A, since the image P2 and the image P3 are located on a straight line connecting the virtual camera IC and the subject P1, the superimposed image S is superimposed on the omnidirectional image CE. Even if displayed in the state, the omnidirectional image CE and the superimposed image S are not displaced. However, as shown in FIG. 28B, when the virtual camera IC is separated from the center point of the solid sphere CS, the image P2 is located on a straight line connecting the virtual camera IC and the subject P1. The image P3 is located slightly inside. For this reason, when an image on the superimposed image S on the straight line connecting the virtual camera IC and the subject P1 is an image P3 ′, the omnidirectional image CE and the superimposed image S are shifted from each other between the image P3 and the image P3 ′. Deviation of the amount g occurs. Thereby, the superimposed image S is shifted from the omnidirectional image CE and displayed.

これに対して、本実施形態では、複数の格子領域によって示された位置パラメータを用いているため、図29(a)、(b)に示されているように、重畳画像Sを全天球画像CEに沿って重畳することができる。これにより、図29(a)に示されているように、仮想カメラICが立体球CSの中心点に位置する場合だけでなく、図29(b)に示されているように、仮想カメラが立体球CSの中心点から離れた場合であっても、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置することになる。よって、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。   On the other hand, in the present embodiment, since the position parameters indicated by the plurality of lattice regions are used, the superimposed image S is represented as an omnidirectional ball as shown in FIGS. 29 (a) and 29 (b). It can be superimposed along the image CE. Thereby, as shown in FIG. 29A, not only when the virtual camera IC is located at the center point of the solid sphere CS, but also as shown in FIG. Even when the three-dimensional sphere CS is away from the center point, the image P2 and the image P3 are located on a straight line connecting the virtual camera IC and the subject P1. Therefore, even if the superimposed image S is displayed in a state of being superimposed on the omnidirectional image CE, there is no deviation between the omnidirectional image CE and the superimposed image S.

図30(a)は重畳表示しない場合のワイド画像の表示例、図30(b)は重畳表示しない場合のテレ画像の表示例、図30(c)は重畳表示する場合のワイド画像の表示例、図30(d)は重畳表示する場合のテレ画像の表示例を示した概念図である。なお、図中の波線は、説明の便宜上表しただけであり、実際にディスプレイ517上には表示されてもよく、表示されなくてもよい。   FIG. 30A shows a display example of a wide image without superimposing display, FIG. 30B shows a display example of a tele image without superimposition display, and FIG. 30C shows a display example of a wide image with superimposition display. FIG. 30D is a conceptual diagram showing a display example of a tele image when superimposed display is performed. Note that the wavy lines in the figure are merely shown for convenience of explanation, and may or may not be actually displayed on the display 517.

図30(a)に示されているように、全天球画像CEに対して平面画像Pを重畳して表示しない場合、図30(a)における波線で示される領域まで拡大表示すると、図30(b)に示されているように、低精細の画像のままとなっており、ユーザは鮮明でない画像を見ることになってしまう。これに対して、図30(c)に示されているように、全天球画像CEに対して平面画像Pを重畳して表示する場合、図30(c)における波線で示される領域まで拡大表示すると、図30(d)に示されているように、高精細の画像が表示され、ユーザは鮮明な画像を見ることができる。特に、波線で示されている領域に、文字が描かれた看板等が表示されている場合、高精細な平面画像Pを重畳表示しなければ、拡大表示させても文字がぼやけてしまい、何が書かれてあるのか分からない。しかし、高精細な平面画像Pを重畳表示すれば、拡大表示させても文字が鮮明に見えるため、ユーザは何が書かれているのかを把握することができる。   As shown in FIG. 30A, when the planar image P is not superimposed and displayed on the omnidirectional image CE, when the enlarged display is performed up to the area indicated by the wavy line in FIG. As shown in (b), the low-definition image remains as it is, and the user will see an unclear image. On the other hand, as shown in FIG. 30C, when the planar image P is superimposed and displayed on the omnidirectional image CE, it is enlarged to the area indicated by the wavy line in FIG. When displayed, a high-definition image is displayed as shown in FIG. 30D, and the user can see a clear image. In particular, when a signboard or the like on which characters are drawn is displayed in the area indicated by the wavy line, if the high-definition plane image P is not superimposed and displayed, the characters are blurred even if enlarged and displayed. I don't know if is written. However, if the high-definition flat image P is displayed in a superimposed manner, the characters can be seen clearly even if the enlarged display is performed, so that the user can grasp what is written.

〔第一の実施形態〕
<平面画像Pと正距円筒射影画像ECの明るさ値と色値の補正>
図25のステップS320では明るさ値と色値が補正されたが、これだけでは、全天球画像CEの一部が表示された場合に、重畳画像Sの明るさ値と色値が適正でなくなる場合がある。全天球画像などの広角画像は360度の画像全体を考慮して適正な露出が決定されるため、一部の領域の明るさが適正でなく、露出オーバーだったり露出アンダーだったりする場合がある。そこで、以下では、平面画像Pと正距円筒射影画像ECの明るさ値と色値を補正すると共に、平面画像Pと正距円筒射影画像ECの明るさ値と色値のそれぞれの補正量を適切に制御するスマートフォン5の処理について説明する。
[First embodiment]
<Correction of brightness value and color value of planar image P and equirectangular projection image EC>
In step S320 of FIG. 25, the brightness value and the color value are corrected. However, when only a part of the omnidirectional image CE is displayed, the brightness value and the color value of the superimposed image S are not appropriate. There is a case. For wide-angle images such as omnidirectional images, the appropriate exposure is determined in consideration of the entire 360-degree image, so the brightness of some areas may not be appropriate and may be overexposed or underexposed. is there. Therefore, in the following, the brightness value and the color value of the planar image P and the equirectangular projection image EC are corrected, and the correction amounts of the brightness value and the color value of the planar image P and the equirectangular projection image EC are corrected. Processing of the smartphone 5 that is appropriately controlled will be described.

図31は、実施形態である補正処理の過程における画像の概念図である。図25と比較して説明する。図31では、ステップS400に新たに正距円筒射影画像ECの明るさと色を補正する補正処理が追加されている。ステップS400では、補正部584が重畳表示メタデータ内の補正パラメータに基づいて、正距円筒射影画像ECの明るさ値及び色値を、平面画像Pの明るさ値及び色値に合わせる補正を行なう。以降、ステップS400の補正後の正距円筒射影画像ECを「補正画像D」という。   FIG. 31 is a conceptual diagram of an image in the process of correction processing according to the embodiment. This will be described in comparison with FIG. In FIG. 31, a correction process for correcting the brightness and color of the equirectangular projection image EC is newly added to step S400. In step S400, the correction unit 584 performs correction to match the brightness value and color value of the equirectangular projection image EC with the brightness value and color value of the planar image P based on the correction parameter in the superimposed display metadata. . Hereinafter, the equirectangular projection image EC after the correction in step S400 is referred to as a “corrected image D”.

また、図31のステップS320の補正は、図25の補正と異なっている。図31では視線方向と平面画像Pの中心点との角度βに応じて、平面画像Pの明るさ値と色値の補正量を制御する。これと同様の処理がステップS400の処理で正距円筒射影画像ECにも行われる。   Further, the correction in step S320 in FIG. 31 is different from the correction in FIG. In FIG. 31, the correction amount of the brightness value and the color value of the planar image P is controlled according to the angle β between the viewing direction and the center point of the planar image P. A process similar to this is performed on the equirectangular projection image EC in the process of step S400.

<<S320 平面画像Pの明るさ値と色値の補正>>
図32は、平面画像Pの補正処理の過程における画像の概念図である。図31に示されている平面画像Pの補正処理(S320)を詳細に説明する。
<< S320 Correction of Brightness Value and Color Value of Plane Image P >>
FIG. 32 is a conceptual diagram of an image in the process of correcting the planar image P. The correction process (S320) of the planar image P shown in FIG. 31 will be described in detail.

ステップS321では、重畳表示メタデータ内の補正パラメータに基づいて、補正部584が平面画像Pの明るさ値及び色値を正距円筒射影画像ECの明るさ値及び色値に補正した補正画像C1を作成する。   In step S321, the correction unit 584 corrects the brightness value and color value of the planar image P to the brightness value and color value of the equirectangular projection image EC based on the correction parameter in the superimposed display metadata. Create

ステップS322では、予め定められている仮想カメラICの視線方向(所定領域Tの中心点)と平面画像Pの中心点までの角度βに基づき、補正部584が補正画像C1と補正前の平面画像Pの合成割合を変更して合成して、新たに補正画像C2を作成する。合成割合を変更した合成について図34にて説明する。   In step S322, based on the predetermined viewing direction of the virtual camera IC (the center point of the predetermined region T) and the angle β to the center point of the planar image P, the correcting unit 584 performs the correction image C1 and the uncorrected planar image. A corrected image C2 is newly created by changing the composition ratio of P and compositing. The composition in which the composition ratio is changed will be described with reference to FIG.

ステップS330では、画像作成部586が部分立体球PSに対して、補正画像C2を貼り付けることで重畳画像Sを作成する。   In step S330, the image creating unit 586 creates the superimposed image S by pasting the corrected image C2 on the partial solid sphere PS.

<<S400 正距円筒射影画像ECの明るさ値と色値の補正>>
図33は、正距円筒射影画像ECの補正処理の過程における画像の概念図である。図31に示されている正距円筒射影画像ECの補正処理(ステップS400)を詳細に説明する。
<< S400 Correction of brightness value and color value of equirectangular projection image EC >>
FIG. 33 is a conceptual diagram of an image in the process of correcting the equirectangular projection image EC. The correction process (step S400) of the equirectangular projection image EC shown in FIG. 31 will be described in detail.

ステップS411では、正距円筒射影画像ECの明るさ値及び色値を、補正部584が平面画像Pの明るさ値及び色値に補正した補正画像D1を作成する。重畳表示メタデータ内の補正パラメータには、平面画像Pの明るさ値及び色値を、正距円筒射影画像ECの明るさ値及び色値に合わせるゲインデータが格納されているが、補正部584がゲインデータの逆数を正距円筒射影画像ECに乗算することで上記の補正処理が可能となる。また、重畳表示メタデータ内の補正パラメータは、重畳画像S(平面画像P')の領域における明るさ値及び色値を合わせる補正データであるが、正距円筒射影画像ECの全体領域に適用することで、重畳画像S(平面画像P')の領域より精度は劣るが違和感なく重畳画像S(平面画像P')以外の領域も補正することが可能となる。   In step S411, the correction unit 584 generates the corrected image D1 in which the brightness value and color value of the equirectangular projection image EC are corrected to the brightness value and color value of the planar image P. The correction parameter in the superimposed display metadata stores gain data that matches the brightness value and color value of the planar image P with the brightness value and color value of the equirectangular projection image EC. Multiplying the equirectangular projection image EC by the inverse of the gain data makes it possible to perform the above correction processing. The correction parameter in the superimposed display metadata is correction data that matches the brightness value and the color value in the region of the superimposed image S (planar image P ′), and is applied to the entire region of the equirectangular projection image EC. Thus, although the accuracy is inferior to the region of the superimposed image S (planar image P ′), it is possible to correct a region other than the superimposed image S (planar image P ′) without a sense of incongruity.

ステップS412では、補正部584が予め定められている仮想カメラICの視線方向(所定領域Tの中心点)とユーザの操作で定まる平面画像Pとの角度βに基づき、補正画像D1及び補正前の正距円筒射影画像ECの割合を変更して合成して、新たに補正画像D2を作成する。   In step S412, the correction unit 584 determines the corrected image D1 and the pre-correction image based on the angle β between the predetermined line-of-sight direction of the virtual camera IC (the center point of the predetermined region T) and the plane image P determined by the user's operation. A corrected image D2 is newly created by changing and synthesizing the proportion of the equirectangular projection image EC.

ステップS350では、画像作成部586が立体球CSに対して、補正画像D2を貼り付けることで全天球画像CEを作成する。   In step S350, the image creation unit 586 creates the omnidirectional image CE by pasting the corrected image D2 onto the solid sphere CS.

<画像合成割合の変更>
図34は、画像合成割合の変更方法について説明する図である。図34(a)は、視線方向と重畳画像S(平面画像P')の中心との変位量として角度βを示している。図7に示されているように、予め定められた仮想カメラICの視線方向(所定領域Tの中心点CP)と重畳画像Sの中心点CMとの角度を角度βとする。角度βは0から180°までの値をとる。
<Change of image composition ratio>
FIG. 34 is a diagram for explaining a method of changing the image composition ratio. FIG. 34A shows an angle β as the amount of displacement between the line-of-sight direction and the center of the superimposed image S (planar image P ′). As shown in FIG. 7, an angle between a predetermined line-of-sight direction of the virtual camera IC (a center point CP of the predetermined region T) and the center point CM of the superimposed image S is an angle β. The angle β takes a value from 0 to 180 °.

図34(b)は、仮想カメラICの視線方向(所定領域Tの中心点)と平面画像Pとの角度βに基づいて、重畳画像Sと正距円筒射影画像ECのそれぞれの補正処理(S320,S400)の合成処理における合成割合の変更方法を示した図である。図34(b)の(b−1)に示すように、所定領域T(所定領域画像Q)の中心点CPを中心に角度βがth1となる領域より内側の領域をエリア1とし、角度βがth2となる領域よりも内側でエリア1を含まない領域をエリア2とする。また、所定領域Tの領域内でエリア1、2に含まれない領域をエリア3とする。   FIG. 34B shows the respective correction processes (S320) of the superimposed image S and the equirectangular projection image EC based on the angle β between the viewing direction of the virtual camera IC (the center point of the predetermined region T) and the planar image P. , S400) is a diagram showing a method for changing the composition ratio in the composition processing. As shown in (b-1) of FIG. 34B, an area inside the area where the angle β is th1 around the center point CP of the predetermined area T (predetermined area image Q) is defined as area 1, and the angle β An area that does not include area 1 inside the area where is equal to th2 is defined as area 2. Further, an area that is not included in areas 1 and 2 within the predetermined area T is defined as area 3.

まず、補正画像C1と平面画像Pの合成割合の算出方法について説明する。図34(b)の(b−2)は、角度βに対する補正画像C1と平面画像Pの合成割合の関係を示している。縦軸の重畳画像のSの合成割合は0.0から1.0の値をとる。重畳画像Sの合成割合とは、図32で示したように平面画像Pの明るさ値と色値を正距円筒射影画像ECに合わせた補正画像C1と平面画像Pの合成割合を示す。例えば合成割合が0.3の場合、平面画像Pが0.7(=1−0.3)、補正画像C1が0.3の割合で合成される。よって、合成割合が0.0の場合、補正画像C2は平面画像Pとなり、合成割合が1.0の場合、補正画像C2は補正画像C1となる。このように合成割合は平面画像Pをどの程度、補正画像C1に近づけるかという補正量を制御する。   First, a method for calculating the composition ratio of the corrected image C1 and the planar image P will be described. (B-2) in FIG. 34 (b) shows the relationship of the composition ratio of the corrected image C1 and the planar image P with respect to the angle β. The composite ratio of S in the superimposed image on the vertical axis takes a value from 0.0 to 1.0. The composite ratio of the superimposed image S indicates the composite ratio of the corrected image C1 and the flat image P obtained by matching the brightness value and color value of the flat image P with the equirectangular projection image EC as shown in FIG. For example, when the composition ratio is 0.3, the planar image P is composed at a ratio of 0.7 (= 1-0.3) and the corrected image C1 is composed at a ratio of 0.3. Therefore, when the composition ratio is 0.0, the corrected image C2 is the planar image P, and when the composition ratio is 1.0, the corrected image C2 is the corrected image C1. In this way, the composition ratio controls the amount of correction of how close the planar image P is to the corrected image C1.

図34(b)の(b−2)によればエリア1(角度β≦th1)の領域では画像の合成割合0.0であるため補正画像C2が平面画像Pとなり、エリア2(th1<角度β≦th2)の領域では合成割合が変動しエリア2の外周側に行く(角度βがth2に近づく)のに従って補正画像C1の合成割合が高くなる。エリア3(角度β>th2)の領域では合成割合が1.0であるため補正画像C2が補正画像C1の状態となる。   According to (b-2) of FIG. 34 (b), in the area of area 1 (angle β ≦ th1), the composition ratio of the image is 0.0, so that the corrected image C2 becomes the plane image P, and area 2 (th1 <angle) In the region of β ≦ th2), the composition ratio varies, and the composition ratio of the corrected image C1 increases as it goes to the outer peripheral side of area 2 (angle β approaches th2). In the area 3 (angle β> th2), since the composition ratio is 1.0, the corrected image C2 becomes the corrected image C1.

このような合成割合を用いることで、所定領域Tに重畳画像Sが表示される場合、重畳画像Sが所定領域Tの中心に位置すると(重畳画像Sの中心点CMが所定領域Tの中心点CPに近づく)、平面画像Pの元々の明るさ値及び色値の状態で表示され、重畳画像Sが所定領域Tの中心から離れていく(重畳画像の中心点CMが所定領域Tの中心点CPから遠ざかる)に従って、正距円筒射影画像ECの明るさ値及び色値の状態に近づき、最終的には正距円筒射影画像ECの明るさ値及び色値の状態となる。   By using such a composition ratio, when the superimposed image S is displayed in the predetermined region T, if the superimposed image S is positioned at the center of the predetermined region T (the center point CM of the superimposed image S is the center point of the predetermined region T). The image is displayed in the state of the original brightness value and color value of the planar image P when approaching the CP, and the superimposed image S moves away from the center of the predetermined region T (the center point CM of the superimposed image is the center point of the predetermined region T) As the distance from the CP increases, the brightness value and the color value of the equirectangular projection image EC approach the state, and finally the brightness value and the color value of the equirectangular projection image EC are obtained.

図34(b)の(b−3)は、角度βと正距円筒射影画像ECの合成割合の関係を示している。縦軸の正距円筒射影画像ECの合成割合は0.0から1.0の値をとる。正距円筒射影画像ECの合成割合とは、図33で説明したように、正距円筒射影画像ECの明るさ値と色値を平面画像Pに合わせた補正画像D1と、正距円筒射影画像ECとを合成する割合のことを指す。例えば合成割合が0.3の場合、正距円筒射影画像ECが0.7(=1−0.3)、補正画像D1が0.3の割合で合成される。よって、合成割合が0.0の場合、補正画像D2は正距円筒射影画像ECとなり、合成割合が1.0の場合、補正画像D2は補正画像D1となる。このように合成割合は正距円筒射影画像ECをどの程度、補正画像D1に近づけるかという補正量を制御する。   (B-3) in FIG. 34 (b) shows the relationship between the angle β and the composition ratio of the equirectangular projection image EC. The composition ratio of the equirectangular projection image EC on the vertical axis takes a value from 0.0 to 1.0. As described with reference to FIG. 33, the composition ratio of the equirectangular projection image EC is the correction image D1 in which the brightness value and the color value of the equirectangular projection image EC are matched to the planar image P, and the equirectangular projection image. Refers to the rate of synthesis with EC. For example, when the combination ratio is 0.3, the equirectangular projection image EC is combined at a ratio of 0.7 (= 1−0.3) and the corrected image D1 is combined at a ratio of 0.3. Therefore, when the composition ratio is 0.0, the correction image D2 is the equirectangular projection image EC, and when the composition ratio is 1.0, the correction image D2 is the correction image D1. In this way, the composition ratio controls the correction amount that determines how close the equirectangular projection image EC is to the corrected image D1.

図34の(b−2)と(b−3)で角度βの領域は同じで、合成割合が重畳画像Sと反転していることが異なっている(逆位相)。エリア2の合成割合は合計すると1になる場合がある。   34 (b-2) and (b-3) in FIG. 34, the region of the angle β is the same, and the composition ratio is different from that of the superimposed image S (reverse phase). The combined ratio of area 2 may be 1 in total.

図34の(b−3)で、エリア1(角度β≦th1)の領域では画像の合成割合が1.0であるため補正画像D2は補正画像D1となり、エリア2(th1<角度β≦th2)の領域では合成割合が変動しエリア2の外周側に行く(角度βがth2に近づく)のに従って正距円筒射影画像ECの合成割合が高くなる。エリア3(角度β>th2)の領域では合成割合が0.0であるため補正画像D2は正距円筒射影画像ECとなる。   In (b-3) of FIG. 34, in the area of area 1 (angle β ≦ th1), the composition ratio of the image is 1.0, so that the corrected image D2 becomes the corrected image D1, and area 2 (th1 <angle β ≦ th2). ), The composition ratio fluctuates, and the composition ratio of the equirectangular projection image EC increases as it goes to the outer peripheral side of the area 2 (the angle β approaches th2). In the area 3 (angle β> th2), since the composition ratio is 0.0, the corrected image D2 is an equirectangular projection image EC.

これにより、所定領域Tに重畳画像Sが表示される場合、重畳画像Sが所定領域Tの中心に位置すると(重畳画像の中心点CMが所定領域Tの中心点CPに近づく)、平面画像Pに合わせた補正画像D1の状態で正距円筒射影画像ECが表示され、重畳画像Sが所定領域Tの中心から離れていく(重畳画像の中心点CMが所定領域Tの中心点CPから遠ざかる)に従って、正距円筒射影画像ECの明るさ値及び色値の状態に近づき、最終的には正距円筒射影画像ECの明るさ値及び色値の状態となる。   Thereby, when the superimposed image S is displayed in the predetermined area T, when the superimposed image S is positioned at the center of the predetermined area T (the center point CM of the superimposed image approaches the center point CP of the predetermined area T), the planar image P The equirectangular projection image EC is displayed in the state of the corrected image D1 in accordance with, and the superimposed image S moves away from the center of the predetermined region T (the central point CM of the superimposed image moves away from the center point CP of the predetermined region T). Accordingly, the brightness value and color value of the equirectangular projection image EC are approached, and finally the brightness value and color value of the equirectangular projection image EC are obtained.

従って、正距円筒射影画像ECに対する視線方向と重畳画像Sの中心との変位量が小さくなるほど、平面画像の画素値の補正量が小さくなり、正距円筒射影画像ECの画素値が平面画像Pの画素値に近づくように正距円筒射影画像ECの画素値が補正される。正距円筒射影画像ECの視線方向と重畳画像Sの中心との変位量が大きくなるほど、正距円筒射影画像ECの画素値が正距円筒射影画像ECの画素値に近づくように正距円筒射影画像ECの画素値が補正される。   Accordingly, the smaller the displacement between the line-of-sight direction and the center of the superimposed image S with respect to the equirectangular projection image EC, the smaller the correction amount of the pixel value of the planar image, and the pixel value of the equirectangular projection image EC becomes the planar image P. The pixel value of the equirectangular projection image EC is corrected so as to approach the pixel value of. The equirectangular projection so that the pixel value of the equirectangular projection image EC approaches the pixel value of the equirectangular projection image EC as the amount of displacement between the line-of-sight direction of the equirectangular projection image EC and the center of the superimposed image S increases. The pixel value of the image EC is corrected.

<仮想カメラICの視線方向と重畳画像Sと中心点の具体的な例>
図35及び図36を用いて、仮想カメラICの視線方向(所定領域Tの中心点CP)と重畳画像Sの中心点との関係について説明する。図35(d)は、全天球画像CEの所定の視線方向における所定領域T(所定領域画像Q)の表示例を示している。所定領域Tの中心点CPは仮想カメラICの視線方向に該当し、黒丸で示されている。また、全天球画像CEに重畳された重畳画像Sの領域が点線で示され、重畳画像Sの中心点CMが白丸で示されている。なお、中心点CPの黒丸、中心点CPの白丸は説明のために表示されており実際は表示されない。このように、所定領域Tの中心点CPに対する重畳画像Sの中心点CMの位置はユーザの操作により任意に変更されうる。
<Specific Example of Virtual Camera IC Gaze Direction, Superimposed Image S, and Center Point>
The relationship between the viewing direction of the virtual camera IC (the center point CP of the predetermined area T) and the center point of the superimposed image S will be described with reference to FIGS. FIG. 35D shows a display example of the predetermined area T (predetermined area image Q) in the predetermined line-of-sight direction of the omnidirectional image CE. The center point CP of the predetermined area T corresponds to the visual line direction of the virtual camera IC and is indicated by a black circle. Further, the region of the superimposed image S superimposed on the omnidirectional image CE is indicated by a dotted line, and the center point CM of the superimposed image S is indicated by a white circle. It should be noted that the black circle at the center point CP and the white circle at the center point CP are displayed for explanation and are not actually displayed. As described above, the position of the center point CM of the superimposed image S with respect to the center point CP of the predetermined region T can be arbitrarily changed by a user operation.

図35(a)、図35(b)、図35(c)は、全天球画像CEに対してユーザが仮想カメラICの視線方向を変更した場合の所定領域Tの表示例を示している。また、図36(a)、図36(b)、図36(c)は、図35(a)〜(c)に対応した所定領域Tと重畳画像Sとの領域の関係を示したものである。   FIG. 35A, FIG. 35B, and FIG. 35C illustrate display examples of the predetermined region T when the user changes the line-of-sight direction of the virtual camera IC with respect to the omnidirectional image CE. . 36 (a), 36 (b), and 36 (c) show the relationship between the predetermined region T and the superimposed image S corresponding to FIGS. 35 (a) to 35 (c). is there.

図35(a)及び図36(a)は、仮想カメラICの視線方向(所定領域Tの中心点CP)に対し重畳画像Sの中心点CMが所定領域Tに対し右方向に大きく外れた場合の表示例である。図36(a)に示すように視線方向と重畳画像Sの中心点CMとの角度β(=β2)が大きい。   FIG. 35A and FIG. 36A show the case where the center point CM of the superimposed image S deviates significantly in the right direction with respect to the predetermined region T with respect to the viewing direction of the virtual camera IC (center point CP of the predetermined region T). Is a display example. As shown in FIG. 36A, the angle β (= β2) between the line-of-sight direction and the center point CM of the superimposed image S is large.

図35(b)及び図36(b)は、仮想カメラICの視線方向(所定領域Tの中心点CP)に対し重畳画像Sの中心点CMが所定領域Tの領域で右方向にずれた場合の表示例である。図36(b)に示すように視線方向と重畳画像Sの中心点CMとで角度β(=β1)が小さくなる。   FIG. 35B and FIG. 36B show the case where the center point CM of the superimposed image S is shifted to the right in the region of the predetermined region T with respect to the viewing direction of the virtual camera IC (center point CP of the predetermined region T). Is a display example. As shown in FIG. 36B, the angle β (= β1) decreases between the line-of-sight direction and the center point CM of the superimposed image S.

図35(c)及び図36(c)は、仮想カメラICの視線方向(所定領域Tの中心点CP)と重畳画像Sの中心点CMが一致した場合の表示例である。図36(c)に示すように視線方向と重畳画像Sの中心点CMとの角度βは0である。   FIG. 35C and FIG. 36C are display examples when the line-of-sight direction of the virtual camera IC (the center point CP of the predetermined area T) and the center point CM of the superimposed image S match. As shown in FIG. 36C, the angle β between the line-of-sight direction and the center point CM of the superimposed image S is zero.

図35(a)のように重畳画像Sの中心点CMが所定領域Tの中心点CPに対し離れている場合、ユーザは全天球画像を閲覧していることが多いため、全天球画像の露出に基づく明るさ値及び色値が優先されても違和感は生じにくい。一方、図35(c)のように重畳画像Sの中心点CMが所定領域Tの中心点CPとほぼ一致している場合、ユーザは重畳画像Sを閲覧していることが多いため、重畳画像Sの露出に基づく明るさ値及び色値が優先されることで高画質な重畳画像Sを閲覧できる。補正部584が図34の合成割合で補正画像C2と補正画像D2の明るさ値と色値を補正することで、重畳画像Sの中心点CMと所定領域Tの中心点CPの関係に応じて適切な明るさ値と色値に補正できる。   When the center point CM of the superimposed image S is away from the center point CP of the predetermined region T as shown in FIG. 35A, the user often views the omnidirectional image. Even if the brightness value and the color value based on the exposure are prioritized, a sense of incongruity is unlikely to occur. On the other hand, when the center point CM of the superimposed image S substantially coincides with the center point CP of the predetermined region T as shown in FIG. 35 (c), the user often views the superimposed image S. The high-quality superimposed image S can be viewed by giving priority to the brightness value and color value based on the exposure of S. The correction unit 584 corrects the brightness value and the color value of the correction image C2 and the correction image D2 at the composition ratio of FIG. 34, so that the relationship between the center point CM of the superimposed image S and the center point CP of the predetermined region T is obtained. Correct brightness and color values.

<補正の効果>
図37及び図38は、本実施形態の補正の有無による効果を示す図の一例である。図37は、全天球画像CEがオーバー露出の場合の補正の効果を示す図であり、図35及び図36で説明したように仮想カメラICの視線方向が変更された場合に所定領域Tがどのように補正されるかを示している。なお、全天球画像CEへ重畳される平面画像Pは適正な露出で撮像されているものとする。
<Effect of correction>
FIG. 37 and FIG. 38 are examples of diagrams showing the effects of the presence or absence of correction according to the present embodiment. FIG. 37 is a diagram showing the effect of correction when the omnidirectional image CE is overexposed. As described with reference to FIGS. 35 and 36, the predetermined region T is displayed when the line-of-sight direction of the virtual camera IC is changed. It shows how it is corrected. It is assumed that the planar image P superimposed on the omnidirectional image CE is captured with appropriate exposure.

図37(a−1)、図37(b−1)、図37(c−1)は、重畳画像Sの明るさ値と色値が全天球画像CEの明るさ値と色値に補正された場合の表示例を示す。図面からは分かりにくいが全天球画像CEはオーバー露出により全体が明るくなっている。オーバー露出の全天球画像CEの明るさ値及び色値に近づくように重畳画像Sの明るさ値及び色値が補正されるため、仮想カメラICの視線方向を変更しても(重畳画像Sが所定領域Tの中心に来ても)表示される画像はオーバー露出のままとなる。図面からは分かりにくいが図37(a−1)、図37(b−1)、図37(c−1)の全てでオーバー露出のままとなる。   37 (a-1), 37 (b-1), and 37 (c-1), the brightness value and color value of the superimposed image S are corrected to the brightness value and color value of the omnidirectional image CE. A display example in the case of being performed is shown. Although it is difficult to understand from the drawing, the whole celestial sphere image CE is brightened by overexposure. Since the brightness value and the color value of the superimposed image S are corrected so as to approach the brightness value and the color value of the overexposed omnidirectional image CE, even if the line-of-sight direction of the virtual camera IC is changed (the superimposed image S The image that is displayed remains overexposed (even if it comes to the center of the predetermined area T). Although it is difficult to understand from the drawings, overexposure remains in all of FIGS. 37 (a-1), 37 (b-1), and 37 (c-1).

図37(a−2)、図37(b−2)、図37(c−2)は、オーバー露出の全天球画像CEの明るさ値及び色値に近づくように重畳画像Sの明るさ値及び色値が補正されない場合の所定領域Tの表示を示している。重畳画像Sは補正されていないため、適正な露出で撮像されている平面画像Pの明るさ値及び色値で表示されている。しかし、図37(a−1)、図37(b−1)、図37(c−1)と比較すると、重畳画像Sは適正な露出となっているが、全天球画像CEと重畳画像Sで明るさ値及び色値に差が生じ重畳画像Sが全天球画像CEに上手く溶け込んでいない(重畳画像Sに違和感が生じている)。図面からは分かりにくいが図37(a−2)、図37(b−2)、図37(c−2)の適正な露出の重畳画像Sが目立ってしまう。   37A-2, 37B-2, and 37C-2 illustrate the brightness of the superimposed image S so as to approach the brightness value and the color value of the overexposed omnidirectional image CE. The display of the predetermined area | region T when a value and a color value are not correct | amended is shown. Since the superimposed image S is not corrected, it is displayed with the brightness value and the color value of the planar image P captured with appropriate exposure. However, compared with FIGS. 37 (a-1), 37 (b-1), and 37 (c-1), the superimposed image S has a proper exposure, but the omnidirectional image CE and the superimposed image are displayed. The brightness value and the color value are different in S, and the superimposed image S is not well blended with the omnidirectional image CE (the superimposed image S is uncomfortable). Although it is difficult to understand from the drawings, the superimposed images S with appropriate exposure in FIGS. 37 (a-2), 37 (b-2), and 37 (c-2) are conspicuous.

図37(a−3)、図37(b−3)、図37(c−3)は、本実施形態の補正が実施された場合の表示例を示す。図37(a−3)では、重畳画像Sの中心点CMが仮想カメラICの視線方向(所定領域Tの中心点CP)から大きく外れているため図37(a−1)の従来の補正による表示例と変わらない。図37(b−3)では、重畳画像Sの中心点CMが仮想カメラICの視線方向(所定領域Tの中心点CP)に近づくに従って、全天球画像CE及び重畳画像Sは、適正な露出で撮像されている平面画像Pの明るさ値及び色値を基準とする合成割合が高くなる。このため、図34で説明したように全天球画像CEは平面画像Pの明るさ値及び色味に合わせた補正画像D1の合成割合が高くなり、重畳画像Sは平面画像Pの合成割合が高くなることで、所定領域Tのオーバー露出が低減される。   FIG. 37 (a-3), FIG. 37 (b-3), and FIG. 37 (c-3) show display examples when the correction of the present embodiment is performed. In FIG. 37 (a-3), the center point CM of the superimposed image S is greatly deviated from the line-of-sight direction of the virtual camera IC (center point CP of the predetermined region T), so that the conventional correction of FIG. Same as the display example. In FIG. 37 (b-3), as the center point CM of the superimposed image S approaches the visual line direction of the virtual camera IC (center point CP of the predetermined area T), the omnidirectional image CE and the superimposed image S are appropriately exposed. The composition ratio based on the brightness value and the color value of the planar image P imaged at is increased. Therefore, as described with reference to FIG. 34, the omnidirectional image CE has a higher composition ratio of the correction image D1 in accordance with the brightness value and color of the planar image P, and the superimposed image S has a composition ratio of the planar image P. By becoming higher, the overexposure of the predetermined region T is reduced.

図37(c−3)では、重畳画像Sの中心点CMが仮想カメラICの視線方向(所定領域Tの中心点CP)に近づき、重畳画像Sの中心点CMが所定領域Tの中心付近にあるため、適正な露出で撮像されている平面画像Pの明るさ値及び色値を基準とする合成割合が最大となり、所定領域Tは平面画像Pの明るさ値及び色値となり適正な露出で表示されている。   In FIG. 37 (c-3), the center point CM of the superimposed image S approaches the line-of-sight direction of the virtual camera IC (center point CP of the predetermined region T), and the center point CM of the superimposed image S is near the center of the predetermined region T. Therefore, the composition ratio based on the brightness value and color value of the planar image P captured with appropriate exposure is maximized, and the predetermined area T becomes the brightness value and color value of the planar image P with appropriate exposure. It is displayed.

図面からは分かりにくいが図37(a−3)→図37(b−3)→図37(c−3)の順で、全天球画像CEの明るさと色値が平面画像Pに近づいている。   Although it is difficult to understand from the drawing, the brightness and color values of the omnidirectional image CE approach the planar image P in the order of FIG. 37 (a-3) → FIG. 37 (b-3) → FIG. 37 (c-3). Yes.

また、図37(a−3)、図37(b−3)、図37(c−3)では、全天球画像CEと重畳画像Sと両方の画像を補正しているため、図37(a−2)、図37(b−2)、図37(c−2)のように全天球画像CEと重畳画像Sで明るさ値及び色値に差が生じることはなく、重畳画像Sが全天球画像CEに上手く溶け込んでいる。   37 (a-3), 37 (b-3), and 37 (c-3), since both the omnidirectional image CE and the superimposed image S are corrected, FIG. a-2), FIG. 37 (b-2), and FIG. 37 (c-2), there is no difference in brightness value and color value between the omnidirectional image CE and the superimposed image S, and the superimposed image S Is well integrated into the spherical image CE.

図38は、全天球画像CEがアンダー露出の場合の補正の効果の一例であり、図35及び図36で説明したように仮想カメラICの視線方向が変更された場合に所定領域Tがどのように補正されるかを示している。全天球画像CEに重畳される平面画像Pは適正な露出で撮像されているものとする。   FIG. 38 is an example of the effect of the correction when the omnidirectional image CE is underexposed. As described with reference to FIGS. 35 and 36, the predetermined region T is changed when the line-of-sight direction of the virtual camera IC is changed. It shows how it is corrected. It is assumed that the planar image P superimposed on the omnidirectional image CE is captured with appropriate exposure.

図38(a−1)、図38(b−1)、図38(c−1)は、重畳画像Sの明るさ値と色値が全天球画像CEの明るさ値と色値に補正された場合の表示例を示す。図面が暗いのはアンダー露出を意図したものである。アンダー露出の全天球画像CEの明るさ値及び色値に近づくように重畳画像Sの明るさ値及び色値が補正されるため、仮想カメラICの視線方向を変更しても(重畳画像Sが所定領域Tの中心に来ても)表示される画像はアンダー露出のままとなる。   38 (a-1), 38 (b-1), and 38 (c-1), the brightness value and color value of the superimposed image S are corrected to the brightness value and color value of the omnidirectional image CE. A display example in the case of being performed is shown. The dark drawing is intended for underexposure. Since the brightness value and the color value of the superimposed image S are corrected so as to approach the brightness value and the color value of the underexposed celestial sphere image CE, even if the line-of-sight direction of the virtual camera IC is changed (the superimposed image S The displayed image remains underexposed (even if it comes to the center of the predetermined area T).

図38(a−2)、図38(b−2)、図38(c−2)は、アンダー露出の全天球画像CEの明るさ値及び色値に近づくように重畳画像Sの明るさ値及び色値が補正されない場合の所定領域Tの表示を示している。重畳画像Sは適正な露出となっているが、全天球画像CEと重畳画像Sで明るさ値及び色値に差が生じ重畳画像Sが全天球画像CEに上手く溶け込んでいない(重畳画像Sに違和感が生じている)。   38 (a-2), 38 (b-2), and 38 (c-2) show the brightness of the superimposed image S so as to approach the brightness value and color value of the underexposed omnidirectional image CE. The display of the predetermined area | region T when a value and a color value are not correct | amended is shown. Although the superimposed image S has an appropriate exposure, there is a difference in brightness value and color value between the omnidirectional image CE and the superimposed image S, and the superimposed image S is not well blended with the omnidirectional image CE (superimposed image). S is uncomfortable.)

図38(a−3)、図37(b−3)、図37(c−3)は、本実施形態の補正が実施された場合の表示例を示す。図38(a−3)では、重畳画像Sの中心点CMが仮想カメラICの視線方向(所定領域Tの中心点CP)から大きく外れているため図38(a−1)の従来の補正による表示例と変わらない。図38(b−3)では、重畳画像Sの中心点CMが仮想カメラICの視線方向(所定領域Tの中心点CP)に近づくに従って、全天球画像CE及び重畳画像Sは、適正な露出で撮像されている平面画像Pの明るさ値及び色値を基準とする合成割合が高くなる。このため、図34で説明したように全天球画像CEは平面画像Pの明るさ値及び色味に合わせた補正画像D1の合成割合が高くなり、重畳画像Sは平面画像Pの合成割合が高くなることで、所定領域Tのアンダー露出が低減される。   FIG. 38A-3, FIG. 37B-3, and FIG. 37C-3 show display examples when the correction of the present embodiment is performed. In FIG. 38 (a-3), the center point CM of the superimposed image S is greatly deviated from the viewing direction of the virtual camera IC (center point CP of the predetermined region T), so that the conventional correction in FIG. 38 (a-1) is performed. Same as the display example. In FIG. 38 (b-3), as the center point CM of the superimposed image S approaches the line-of-sight direction of the virtual camera IC (center point CP of the predetermined area T), the omnidirectional image CE and the superimposed image S are appropriately exposed. The composition ratio based on the brightness value and the color value of the planar image P imaged at is increased. Therefore, as described with reference to FIG. 34, the omnidirectional image CE has a higher composition ratio of the correction image D1 in accordance with the brightness value and color of the planar image P, and the superimposed image S has a composition ratio of the planar image P. By becoming higher, underexposure of the predetermined region T is reduced.

図38(c−3)では、重畳画像Sの中心点CMが仮想カメラICの視線方向(所定領域Tの中心点CP)に近づき、重畳画像Sの中心点CMが所定領域Tの中心付近にあるため、適正な露出で撮像されている平面画像Pの明るさ値及び色値を基準とする合成割合が最大となり、所定領域Tは平面画像Pの明るさ値及び色値となり適正な露出で表示されている。このように、アンダー露出の全天球画像CEの場合においても、オーバー露出のときと同様の効果が得られる。   In FIG. 38 (c-3), the center point CM of the superimposed image S approaches the line-of-sight direction of the virtual camera IC (center point CP of the predetermined region T), and the center point CM of the superimposed image S is near the center of the predetermined region T. Therefore, the composition ratio based on the brightness value and color value of the planar image P captured with appropriate exposure is maximized, and the predetermined area T becomes the brightness value and color value of the planar image P with appropriate exposure. It is displayed. Thus, even in the case of the underexposed celestial sphere image CE, the same effect as in the case of overexposure is obtained.

〔第二の実施形態〕
第二の実施形態では、明るさ値と色値の補正方法が異なる2つの正距円筒射影画像ECを用いた補正方法について説明する。
[Second Embodiment]
In the second embodiment, a correction method using two equirectangular projection images EC having different brightness value and color value correction methods will be described.

図39は、正距円筒射影画像の補正処理の過程における画像の概念図である。図39は、図31に示されている正距円筒射影画像ECの補正処理(ステップS400)について説明している。   FIG. 39 is a conceptual diagram of an image in the process of correcting an equirectangular projection image. FIG. 39 explains the correction processing (step S400) of the equirectangular projection image EC shown in FIG.

第二の実施形態では、正距円筒射影画像ECとは別に異なる露出で撮像された複数枚の正距円筒射影画像(図ではEC1, EC2)が必要である。特殊撮像装置1は正距円筒射影画像ECと同じ構図で露出のみを変更して複数枚の正距円筒射影画像EC1, EC2を撮像することが好ましい。少なくとも、正距円筒射影画像ECの露出よりもオーバー露出の正距円筒射影画像EC1、アンダー露出の正距円筒射影画像EC2の2枚が必要である。図39では、正距円筒射影画像ECの露出よりもオーバー露出の正距円筒射影画像EC1、及び、アンダー露出の正距円筒射影画像EC2が示されているが、露出が異なる正距円筒射影画像は3枚以上でもよい。   In the second embodiment, apart from the equirectangular projection image EC, a plurality of equirectangular projection images (EC1 and EC2 in the figure) captured at different exposures are required. It is preferable that the special imaging device 1 captures a plurality of equirectangular projection images EC1 and EC2 by changing only the exposure with the same composition as the equirectangular projection image EC. At least two images, ie, an over-exposed equirectangular projection image EC1 and an under-exposed equidistant cylindrical projection image EC2, are required rather than exposure of the equidistant cylindrical projection image EC. In FIG. 39, the equirectangular projection image EC1 and the underexposed equirectangular projection image EC2 that are over-exposed than the equidistant cylindrical projection image EC are shown. May be three or more.

ステップS421では、補正部584が、正距円筒射影画像ECと合成して補正画像D1を作成するために必要な画像の選択を行う。画像の選択には、重畳表示メタデータ内の補正パラメータを使用する。重畳表示メタデータ内の補正パラメータは、平面画像Pを正距円筒射影画像ECの明るさ値及び色値に合わせるゲインデータであるが、ゲインデータの逆数を算出すると、正距円筒射影画像ECを平面画像Pの明るさ値及び色値に合わせるゲインデータ(以降、逆ゲインデータという)となる。補正部584は、ここで算出した逆ゲインデータが1.0以上の場合は正距円筒射影画像ECを明るく補正し、1.0より小さいときは正距円筒射影画像ECを暗く補正する。   In step S421, the correction unit 584 selects an image necessary for generating the corrected image D1 by combining with the equirectangular projection image EC. For selecting an image, correction parameters in the superimposed display metadata are used. The correction parameter in the superimposed display metadata is gain data that matches the planar image P with the brightness value and color value of the equirectangular projection image EC. When the reciprocal of the gain data is calculated, the equirectangular projection image EC is obtained. This is gain data (hereinafter referred to as inverse gain data) that matches the brightness value and color value of the planar image P. The correction unit 584 corrects the equirectangular projection image EC brightly when the calculated inverse gain data is 1.0 or more, and corrects the equirectangular projection image EC darkly when smaller than 1.0.

ステップS422では、補正部584が、平面画像Pの明るさ値及び色値に合わせた補正画像D1を作成するため、逆ゲインデータが1.0以上の場合は、正距円筒射影画像ECよりもオーバー露出である正距円筒射影画像EC1を選択し、1.0より小さい場合は、正距円筒射影画像ECよりもアンダー露出である正距円筒射影画像EC2を選択する。補正画像D2の作成方法は第一の実施形態と同様である。   In step S422, the correction unit 584 creates a corrected image D1 that matches the brightness value and color value of the planar image P. Therefore, when the inverse gain data is 1.0 or more, the correction unit 584 is more than the equirectangular projection image EC. The equirectangular projection image EC1 that is overexposed is selected. If it is smaller than 1.0, the equirectangular projection image EC2 that is underexposed rather than the equirectangular projection image EC is selected. The method for creating the corrected image D2 is the same as in the first embodiment.

図40は、露出の異なる複数枚の正距円筒射影画像EC1,EC2を用いた場合の位置パラメータと補正パラメータの関係について説明する図である。重畳表示メタデータ作成によって、平面画像Pと正距円筒射影画像ECに対応した位置パラメータと補正パラメータが重畳表示メタデータに格納されている。   FIG. 40 is a diagram for explaining the relationship between the position parameter and the correction parameter when using a plurality of equirectangular projection images EC1 and EC2 having different exposures. By creating the superimposed display metadata, position parameters and correction parameters corresponding to the planar image P and the equirectangular projection image EC are stored in the superimposed display metadata.

正距円筒射影画像EC、正距円筒射影画像EC1、及び正距円筒射影画像EC2は、同じ構図で露出のみ異なる関係であるため、位置パラメータは共通で使用可能であり、補正パラメータは正距円筒射影画像ECのみに使用可能である。補正部584は、位置パラメータにより正距円筒射影画像ECの第3の対応領域CA3に対応する、正距円筒射影画像EC、正距円筒射影画像EC1、正距円筒射影画像EC2の第3の対応領域CA3を特定し、それぞれの第3の対応領域CA3の明るさ値及び色値を測定することができる。   Since the equirectangular projection image EC, the equirectangular projection image EC1, and the equirectangular projection image EC2 have the same composition and only different exposure, the positional parameters can be used in common, and the correction parameter is the equirectangular cylinder. It can be used only for the projected image EC. The correcting unit 584 corresponds to the third corresponding area CA3 of the equirectangular projection image EC according to the position parameter, and corresponds to the third correspondence of the equirectangular projection image EC, the equirectangular projection image EC1, and the equirectangular projection image EC2. The area CA3 is specified, and the brightness value and the color value of each third corresponding area CA3 can be measured.

まず、補正部584は、正距円筒射影画像ECと、正距円筒射影画像EC1及び正距円筒射影画像ECの第3の対応領域CA3における、明るさ値及び色値の比率を算出する。   First, the correction unit 584 calculates the ratio between the brightness value and the color value in the third corresponding area CA3 of the equirectangular projection image EC, the equirectangular projection image EC1, and the equirectangular projection image EC.

例えば、正距円筒射影画像ECの第3の対応領域CA3の明るさ値をY、正距円筒射影画像EC1の明るさ値をY1、正距円筒射影画像EC2の明るさ値をY2とすると、正距円筒射影画像ECに対する正距円筒射影画像EC1の明るさ値の比率はY1/Y、正距円筒射影画像ECに対する正距円筒射影画像EC2の明るさ値の比率はY2/Yとなる。補正パラメータにこの比率を乗算することで平面画像Pを正距円筒射影画像EC1又は正距円筒射影画像EC2の明るさ値に補正する補正パラメータを算出することができる。   For example, if the brightness value of the third corresponding area CA3 of the equirectangular projection image EC is Y, the brightness value of the equirectangular projection image EC1 is Y1, and the brightness value of the equirectangular projection image EC2 is Y2, The ratio of the brightness value of the equirectangular projection image EC1 to the equirectangular projection image EC is Y1 / Y, and the ratio of the brightness value of the equirectangular projection image EC2 to the equirectangular projection image EC is Y2 / Y. By multiplying the correction parameter by this ratio, a correction parameter for correcting the planar image P to the brightness value of the equirectangular projection image EC1 or equirectangular projection image EC2 can be calculated.

色値に対しても同様にして比率を算出すれば、正距円筒射影画像EC1又は正距円筒射影画像EC2の色値の補正パラメータも算出することができる。   If the ratio is similarly calculated for the color value, the correction parameter for the color value of the equirectangular projection image EC1 or the equirectangular projection image EC2 can also be computed.

なお、上記方法を用いず、重畳表示メタデータ作成時に正距円筒射影画像EC1と正距円筒射影画像EC2に対して正距円筒射影画像ECと同様の方法で補正パラメータを作成してもよい。   Instead of using the above method, correction parameters may be created for the equirectangular projection image EC1 and the equirectangular projection image EC2 by the same method as the equirectangular projection image EC when superimposing display metadata is created.

補正部584は以上のようにして求めた補正パラメータを用いてステップS422の補正画像作成(補正画像D1を作成)を行う。   The correction unit 584 creates a corrected image (creates a corrected image D1) in step S422 using the correction parameters obtained as described above.

図39に戻り、ステップS422の補正画像作成について説明する。正距円筒射影画像ECの補正パラメータをPC、正距円筒射影画像EC1の補正パラメータをPC1、正距円筒射影画像EC2の補正パラメータをPC2とする。補正パラメータPCは平面画像Pを正距円筒射影画像ECの明るさ値及び色値に近づけるゲインデータである。補正パラメータが1.0となる場合、平面画像Pと正距円筒射影画像は同じ明るさ値及び色値となる。   Returning to FIG. 39, the correction image creation in step S422 will be described. The correction parameter of the equirectangular projection image EC is PC, the correction parameter of the equirectangular projection image EC1 is PC1, and the correction parameter of the equirectangular projection image EC2 is PC2. The correction parameter PC is gain data that brings the planar image P close to the brightness value and color value of the equirectangular projection image EC. When the correction parameter is 1.0, the planar image P and the equirectangular projection image have the same brightness value and color value.

ステップS422では、露出の異なる複数枚の正距円筒射影画像EC1、EC2から平面画像Pと同じ明るさ値及び色値となる補正画像D1を作成する。例えば、補正パラメータの値がPC=1.2、PC1=1.6、PC2=0.8とすると、逆ゲインデータは、1/PC=0.833となり1.0よりも小さいのでステップS421の画像の選択処理では、正距円筒射影画像ECを暗く補正するため正距円筒射影画像EC2を選択する。   In step S422, a corrected image D1 having the same brightness value and color value as the planar image P is created from a plurality of equirectangular projection images EC1, EC2 having different exposures. For example, if the correction parameter values are PC = 1.2, PC1 = 1.6, and PC2 = 0.8, the inverse gain data is 1 / PC = 0.833, which is smaller than 1.0. In the image selection process, the equirectangular projection image EC2 is selected to darken the equirectangular projection image EC.

次に、ステップS422の補正画像作成では、正距円筒射影画像ECとステップS421で選択された正距円筒射影画像EC2との合成割合を算出する。ここで正距円筒射影画像ECとステップS421で選択された画像との合成割合k(kは0.0〜1.0)とすると、以下の(式16)又は(式17)によって合成割合を算出することができる。
k/PC+(1−k)/PC1=1.0・・・(式16)
k/PC+(1−k)/PC2=1.0・・・(式17)
但し、画像の選択(ステップS421)で(式16)は正距円筒射影画像EC1が選択された場合、(式17)は正距円筒射影画像EC2が選択された場合に使用する。正距円筒射影画像EC2が選択された場合の(式17)を使用して合成割合kを算出するとk=0.60となり、合成割合は正距円筒射影画像ECが0.60、正距円筒射影画像EC2が(1−k)=0.40となる。算出した合成割合で画像を合成することで平面画像Pと同じ明るさ値及び色値となる補正画像D1を作成することができる。ステップS412以降の処理は前述と同様であるため説明を省略する。
Next, in the correction image creation in step S422, the composition ratio of the equirectangular projection image EC and the equirectangular projection image EC2 selected in step S421 is calculated. Here, assuming that the composition ratio k (k is 0.0 to 1.0) between the equirectangular projection image EC and the image selected in step S421, the composition ratio is expressed by the following (Expression 16) or (Expression 17). Can be calculated.
k / PC + (1-k) /PC1=1.0 (Expression 16)
k / PC + (1-k) /PC2=1.0 (Expression 17)
However, in the image selection (step S421), (Equation 16) is used when the equirectangular projection image EC1 is selected, and (Equation 17) is used when the equirectangular projection image EC2 is selected. When the composition ratio k is calculated using (Equation 17) when the equirectangular projection image EC2 is selected, k = 0.60, and the composition ratio is 0.60 for the equirectangular projection image EC, and the equirectangular cylinder. The projected image EC2 is (1-k) = 0.40. A corrected image D1 having the same brightness value and color value as the planar image P can be created by combining the images at the calculated combining ratio. Since the process after step S412 is the same as that described above, the description thereof is omitted.

図41は、明るさ値(又は色値)が補正された補正画像C2、D2の作成方法を説明する図である。図41は、正距円筒射影画像EC、平面画像Pの明るさ値(又は色値)の違いを示している。上方向に値が大きく、下方向に値が小さくなる。正距円筒射影画像ECと補正画像D1から合成割合に応じて補正画像D2が作成され、平面画像Pと補正画像C1から合成割合に応じて補正画像C2が作成される。図34に示したように、補正画像を作成する合成割合は、正距円筒射影画像と重畳画像で反転している(逆位相)ため、図41のように補正画像D2と補正画像C2の明るさ値(又は色値)が一致する。   FIG. 41 is a diagram illustrating a method of creating corrected images C2 and D2 in which brightness values (or color values) are corrected. FIG. 41 shows the difference in brightness value (or color value) between the equirectangular projection image EC and the planar image P. The value is large in the upward direction and the value is small in the downward direction. A corrected image D2 is created from the equirectangular projection image EC and the corrected image D1 according to the composition ratio, and a corrected image C2 is created from the plane image P and the correction image C1 according to the composition ratio. As shown in FIG. 34, since the composition ratio for creating the corrected image is inverted between the equirectangular projection image and the superimposed image (opposite phase), the brightness of the corrected image D2 and the corrected image C2 as shown in FIG. The value (or color value) matches.

<複数枚の平面画像が重畳した場合>
これまでは1つの正距円筒射影画像ECに1つの重畳画像Sが重畳される例が説明されていたが、1つの正距円筒射影画像ECに2つ以上の重畳画像Sが重畳される場合がある。
<When multiple planar images are superimposed>
The example in which one superimposed image S is superimposed on one equirectangular projection image EC has been described so far, but two or more superimposed images S are superimposed on one equirectangular projection image EC. There is.

図8の撮像システムでは、特殊撮像装置1と一般撮像装置3とが1台ずつの構成であり、1組の正距円筒射影画像ECと平面画像Pが同時に撮像される。被写体が静止物体である場合、ユーザが同じ位置から一般撮像装置3の撮像方向又は画角の少なくとも一方を変更して2つめの平面画像P2を撮像することができる。スマートフォン5は、正距円筒射影画像ECと同時に撮像した平面画像Pだけでなく、追加で撮像した平面画像P2も正距円筒射影画像ECに重畳することができる。   In the imaging system of FIG. 8, the special imaging device 1 and the general imaging device 3 are configured one by one, and a set of equirectangular projection images EC and a planar image P are simultaneously captured. When the subject is a stationary object, the user can capture the second planar image P2 by changing at least one of the imaging direction or the angle of view of the general imaging device 3 from the same position. The smartphone 5 can superimpose not only the planar image P captured at the same time as the equirectangular projection image EC but also the additionally captured planar image P2 on the equirectangular projection image EC.

また、一般撮像装置3が1台ではなく複数台あり、それぞれが異なる撮像方向を向いているか又は異なる画角である場合、撮像システムは同時に複数枚の平面画像を取得することができる。例えば、スマートフォン5ではフロントカメラとリアカメラの2つのカメラを有しているため、同時に2つの平面画像を取得できる。   In addition, when there are a plurality of general imaging devices 3 instead of one, and each of them is facing a different imaging direction or has a different angle of view, the imaging system can simultaneously acquire a plurality of planar images. For example, since the smartphone 5 has two cameras, a front camera and a rear camera, two planar images can be acquired simultaneously.

以下、正距円筒射影画像ECに複数枚の重畳画像Sを重畳する場合の処理について説明する。   Hereinafter, a process in the case where a plurality of superimposed images S are superimposed on the equirectangular projection image EC will be described.

図42は、複数枚の重畳画像Sが重畳された所定領域Tの一例を示す図である。図42(d)では、所定領域Tに2枚の重畳画像S1、S2が重畳されている。   FIG. 42 is a diagram illustrating an example of the predetermined region T on which a plurality of superimposed images S are superimposed. In FIG. 42D, two superimposed images S1 and S2 are superimposed on the predetermined area T.

図42(a)、図42(b)、図42(c)は、全天球画像CEに対する仮想カメラICの視線方向をユーザが変更した場合の所定領域Tの表示例である。所定領域Tの中心点CPを黒丸で示し、2つの重畳画像S1,S2の中心点CM1、CM2を白丸で示す。なお、中心点CPの黒丸、中心点CMの白丸は説明のために表示しており実際は表示されない。   42A, 42B, and 42C are display examples of the predetermined region T when the user changes the line-of-sight direction of the virtual camera IC with respect to the omnidirectional image CE. The center point CP of the predetermined region T is indicated by a black circle, and the center points CM1 and CM2 of the two superimposed images S1 and S2 are indicated by white circles. Note that the black circle at the center point CP and the white circle at the center point CM are displayed for explanation and are not actually displayed.

また、図43(a)、図43(b)、図43(c)は、図42(a)、図42(b)、図42(c)のそれぞれに対応した視線方向と重畳画像S1又は重畳画像S2の中心点CMの角度の関係を示したものである。   43 (a), 43 (b), and 43 (c) show the line-of-sight direction and the superimposed image S1 corresponding to each of FIGS. 42 (a), 42 (b), and 42 (c). It shows the relationship of the angle of the center point CM of the superimposed image S2.

所定領域Tに複数枚の重畳画像Sが重畳される場合、複数枚の重畳画像Sの明るさ値及び色値を近づける目標対象となる画像は1つの正距円筒射影画像ECだけである。しかし、正距円筒射影画像ECの明るさ値及び色値を近づける目標対象となる画像は複数枚存在することになる。以下では、いくつかの処理方法を挙げて目標対象の決定方法について説明する。   When a plurality of superimposed images S are superimposed on the predetermined region T, only one equirectangular projection image EC is a target object for bringing the brightness value and color value of the plurality of superimposed images S close to each other. However, there are a plurality of images to be targeted that bring the brightness value and color value of the equirectangular projection image EC closer. Hereinafter, a method for determining a target object will be described with some processing methods.

<<第1の処理方法>>
第1の処理方法は、視線方向(所定領域Tの中心点CP)と重畳画像Sとの角度βを基準として目標対象を決定する。
(1−1)第1の処理方法の更に1つ目の方法は、視線方向(所定領域Tの中心点CP)と重畳画像Sとの角度βが最小となる重畳画像を目標対象とする。例えば、図42(a)及び図43(a)の場合、視線方向と重畳画像S1との角度β1、重畳画像S2との角度β2とすると、β1>β2の状態となっており、補正部584は角度βが最小となる重畳画像S2を目標対象とする。図42(b)及び図43(b)の場合、β1<β2であるため補正部584は重畳画像S1を目標対象とする。図42(c)及び図43(c)の場合、β1<β2であり補正部584は重畳画像S1を目標対象とする。
(1−2)第1の処理形態の2つ目の方法は、視線方向(所定領域Tの中心点CP)と重畳画像Sとの角度βの値に応じて対象とする重畳画像の割合を変更すると共に、角度βが小さい方の割合が高くなるような加重平均から割合を算出する。
<< First processing method >>
In the first processing method, the target object is determined based on the angle β between the line-of-sight direction (the center point CP of the predetermined region T) and the superimposed image S.
(1-1) A first method of the first processing method targets a superimposed image in which the angle β between the line-of-sight direction (the center point CP of the predetermined region T) and the superimposed image S is the minimum. For example, in the case of FIGS. 42A and 43A, if the angle β1 between the line-of-sight direction and the superimposed image S1 and the angle β2 between the superimposed image S2 are β1, the state of β1> β2, and the correction unit 584 Uses the superimposed image S2 having the smallest angle β as the target object. In the case of FIGS. 42B and 43B, since β1 <β2, the correction unit 584 sets the superimposed image S1 as the target object. In the case of FIG. 42C and FIG. 43C, β1 <β2 and the correction unit 584 sets the superimposed image S1 as the target object.
(1-2) In the second method of the first processing mode, the ratio of the target superimposed image is determined according to the value of the angle β between the line-of-sight direction (the center point CP of the predetermined region T) and the superimposed image S. While changing, the ratio is calculated from the weighted average so that the ratio with the smaller angle β becomes higher.

例えば、図42(a)及び図43(a)の場合、視線方向と重畳画像S1との角度β1、重畳画像S2との角度β2とすると、重畳画像S1の割合はβ2/(β1+β2)、重畳画像S2の割合はβ1/(β1+β2)となる。図42(b)及び図43(b)の場合、及び、図42(c)及び図43(c)の場合も同じ式で割合を算出できる。この割合で複数の平面画像P1,P2の画素値を正距円筒射影画像EC1の画素値に反映させる。算出した割合から目標対象の明るさ値(又は色値)を算出する方法については後述する。   For example, in the case of FIGS. 42A and 43A, if the angle β1 between the line-of-sight direction and the superimposed image S1 and the angle β2 between the superimposed image S2 are β2, the ratio of the superimposed image S1 is β2 / (β1 + β2), The ratio of the image S2 is β1 / (β1 + β2). 42B and 43B, and also in the case of FIGS. 42C and 43C, the ratio can be calculated by the same equation. At this ratio, the pixel values of the plurality of planar images P1 and P2 are reflected in the pixel values of the equirectangular projection image EC1. A method for calculating the brightness value (or color value) of the target object from the calculated ratio will be described later.

<<第2の処理方法>>
第2の処理形態は、所定領域Tに表示された重畳画像Sの面積が占める割合を基準として目標対象を決定する。
<< Second processing method >>
In the second processing mode, the target object is determined based on the ratio of the area of the superimposed image S displayed in the predetermined region T.

(2−1)第2の処理方法の1つ目の方法は、所定領域Tに表示された重畳画像Sの面積が占める割合が最大となる重畳画像を目標対象とする。例えば、図42(a)及び図43(a)の場合、所定領域Tに表示された重畳画像S1の面積をSS1、重畳画像S1の面積をSS2とすると、SS1<SS2であるため重畳画像S2を目標対象とする。図42(b)及び図43(b)の場合、SS1<SS2であるため重畳画像S2を目標対象とする。図42(c)及び図43(c)の場合、重畳画像S2が所定領域Tに全て表示されておらずSS1>SS2であるため重畳画像S1を目標対象とする。   (2-1) The first method of the second processing method targets a superimposed image in which the ratio of the area of the superimposed image S displayed in the predetermined region T is maximized. For example, in the case of FIGS. 42A and 43A, assuming that the area of the superimposed image S1 displayed in the predetermined region T is SS1, and the area of the superimposed image S1 is SS2, SS1 <SS2, and thus the superimposed image S2. Is the target. In the case of FIGS. 42B and 43B, since SS1 <SS2, the superimposed image S2 is the target object. In the case of FIGS. 42 (c) and 43 (c), the superimposed image S2 is not displayed in the predetermined area T, and SS1> SS2, so the superimposed image S1 is set as the target object.

(2−2)第2の処理方法の2つ目の方法は、所定領域Tに表示された重畳画像の面積が占める割合に応じて対象とする重畳画像の割合を変更するようにし、面積が占める割合が大きい方の割合が高くなるような加重平均で割合を算出する。   (2-2) The second method of the second processing method is to change the ratio of the target superimposed image according to the ratio of the area of the superimposed image displayed in the predetermined region T, and the area is The ratio is calculated by a weighted average so that the ratio of the larger one is higher.

例えば、図42(a)及び図43(a)の場合、所定領域Tに表示された重畳画像S1の面積をSS1、重畳画像S1の面積をSS2とすると、重畳画像S1の割合はSS1/(SS1+SS2)、重畳画像S2の割合はSS2/(SS1+SS2)となる。図42(b)及び図43(b)の場合、図42(c)及び図43(c)の場合も同じ式で割合を算出できる。この割合で複数の平面画像P1,P2の画素値を正距円筒射影画像EC1の画素値に反映させる。算出した割合から目標対象の明るさ値(又は色値)を算出する方法については後述する。   For example, in the case of FIGS. 42A and 43A, if the area of the superimposed image S1 displayed in the predetermined region T is SS1, and the area of the superimposed image S1 is SS2, the ratio of the superimposed image S1 is SS1 / ( SS1 + SS2) and the ratio of the superimposed image S2 is SS2 / (SS1 + SS2). In the case of FIG. 42B and FIG. 43B, the ratio can be calculated by the same formula also in the case of FIG. 42C and FIG. At this ratio, the pixel values of the plurality of planar images P1 and P2 are reflected in the pixel values of the equirectangular projection image EC1. A method for calculating the brightness value (or color value) of the target object from the calculated ratio will be described later.

<<第3の処理方法>>
第3の処理方法は、第1と第2の処理方法を組合せた方法である。補正部584は、第1の処理方法の視線方向(所定領域Tの中心点CP)と重畳画像との角度βと、第2の処理方法の所定領域Tに表示された2つの重畳画像Sの面積が占める割合とを組合せる。例えば、角度βが所定の角度以下の重畳画像Sで、所定領域Tに表示された重畳画像Sの面積が占める割合が最大の重畳画像Sを目標対象とする。
<< Third processing method >>
The third processing method is a method combining the first and second processing methods. The correction unit 584 includes the angle β between the line-of-sight direction (center point CP of the predetermined region T) of the first processing method and the superimposed image, and the two superimposed images S displayed in the predetermined region T of the second processing method. Combine with the proportion of area. For example, the target image is the superimposed image S in which the angle β is equal to or smaller than the predetermined angle and the ratio of the area of the superimposed image S displayed in the predetermined region T is the largest.

あるいは、角度βが所定の角度以下の重畳画像Sで、所定領域Tに表示された重畳画像Sの面積が占める割合に応じて対象とする重畳画像Sの割合を変更する。これらの他、様々な組合せが考えられる。   Alternatively, the ratio of the target superimposed image S is changed according to the ratio of the area of the superimposed image S displayed in the predetermined region T in the superimposed image S in which the angle β is equal to or smaller than the predetermined angle. In addition to these, various combinations are possible.

(正距円筒射影画像EC及び平面画像Pの補正画像の作成方法)
次に、決定した目標対象に対して、正距円筒射影画像EC及び平面画像Pの補正画像の作成方法について説明する。
(Method of creating corrected image of equirectangular projection image EC and plane image P)
Next, a method for creating a corrected image of the equirectangular projection image EC and the planar image P for the determined target object will be described.

図44は、平面画像P1,P2の補正処理の過程における画像の概念図である。図44(a)は図32と同様である。図44(b)は目標対象でない平面画像(図44では平面画像P2を目標対象でないとした)の補正処理の過程における画像の概念図である。補正画像C12は正距円筒射影画像ECに明るさと色値が合わせられた画像を示し、補正画像C32は平面画像P1に明るさと色値が合わせられた画像を示す。   FIG. 44 is a conceptual diagram of an image in the process of correcting the planar images P1 and P2. FIG. 44A is the same as FIG. FIG. 44B is a conceptual diagram of an image in the process of correcting a planar image that is not a target object (in FIG. 44, the planar image P2 is not a target object). The corrected image C12 shows an image in which brightness and color values are matched with the equirectangular projection image EC, and the corrected image C32 shows an image in which brightness and color values are matched with the planar image P1.

補正部584は、重畳画像Sとなる補正画像C22を補正画像C12と補正画像C32との合成割合を変更して作成する(ステップS322)。   The correction unit 584 creates the corrected image C22 that becomes the superimposed image S by changing the composition ratio of the corrected image C12 and the corrected image C32 (step S322).

以下では、目標対象が1枚の画像の場合と、複数の重畳画像Sの視線方向までの距離や面積で算出された場合のそれぞれについて説明する。
(1)図45及び図46は、目標対象が1枚の重畳画像Sの場合に明るさ値(又は色値)が補正された補正画像C2の作成方法を説明する図である。図45(a)は、正距円筒射影画像ECと平面画像P1、平面画像P2の明るさ値(又は色値)の違いを示している。縦軸に画像の明るさ値(又は色値)を示しており、上方向に値が大きく、下方向に値が小さくなることを示している。図45(a)では正距円筒射影画像ECの明るさ値(又は色値)が2枚の平面画像P1,P2よりも小さい状態であることを示している。
Hereinafter, a case where the target object is a single image and a case where the target object is calculated based on the distance and area to the line-of-sight direction of the plurality of superimposed images S will be described.
(1) FIGS. 45 and 46 are diagrams illustrating a method of creating a corrected image C2 in which the brightness value (or color value) is corrected when the target object is one superimposed image S. FIG. FIG. 45A shows a difference in brightness value (or color value) between the equirectangular projection image EC, the planar image P1, and the planar image P2. The vertical axis indicates the brightness value (or color value) of the image, and indicates that the value is large in the upward direction and small in the downward direction. FIG. 45A shows that the brightness value (or color value) of the equirectangular projection image EC is smaller than the two planar images P1 and P2.

図45(b)は、図45(a)の状態で目標対象を平面画像P1とした場合の補正画像C21,C22の関係を示した図である。補正画像C1,C3の作成では、正距円筒射影画像ECと各平面画像P1,P2との間で作成された補正パラメータを使用する。補正パラメータは、平面画像の明るさ値(又は色値)を正距円筒射影画像ECに近づけるゲインデータであるため、逆ゲインデータを正距円筒射影画像ECに乗算することで正距円筒射影画像ECを平面画像P1,P2の明るさ値(又は色値)に近づけることができる。   FIG. 45B is a diagram showing the relationship between the corrected images C21 and C22 when the target object is the plane image P1 in the state of FIG. In creation of the correction images C1 and C3, correction parameters created between the equirectangular projection image EC and the planar images P1 and P2 are used. Since the correction parameter is gain data for bringing the brightness value (or color value) of the planar image closer to the equirectangular projection image EC, the equirectangular projection image is multiplied by the inverse gain data by the equirectangular projection image EC. EC can be brought close to the brightness values (or color values) of the planar images P1 and P2.

平面画像P1のゲインデータをg1、平面画像P2のゲインデータをg2、平面画像P1の逆ゲインデータをG1(=1/g1)、平面画像P2の逆ゲインデータをG2(=1/g2)とする。まず、目標対象の平面画像P1の明るさ値(又は色値)に近づけた補正画像C1の作成について説明する。正距円筒射影画像ECでは、正距円筒射影画像ECに逆ゲインデータG1を乗算することで、平面画像P1の明るさ値(又は色値)に近づけた補正画像D1を作成できる。平面画像P2では、平面画像P2にゲインデータg2/g1を乗算することで平面画像P1の明るさ値(又は色値)に近づけた補正画像C32を作成できる。   The gain data of the plane image P1 is g1, the gain data of the plane image P2 is g2, the reverse gain data of the plane image P1 is G1 (= 1 / g1), and the reverse gain data of the plane image P2 is G2 (= 1 / g2). To do. First, the creation of the corrected image C1 close to the brightness value (or color value) of the target target planar image P1 will be described. In the equirectangular projection image EC, a corrected image D1 close to the brightness value (or color value) of the planar image P1 can be created by multiplying the equirectangular projection image EC by the inverse gain data G1. In the planar image P2, a corrected image C32 that is close to the brightness value (or color value) of the planar image P1 can be created by multiplying the planar image P2 by the gain data g2 / g1.

次に、正距円筒射影画像ECの明るさ値(又は色値)に近づけた補正画像の作成について説明する。平面画像P1では平面画像P1にゲインデータg1を、平面画像P2では平面画像P2にゲインデータg2を乗算することで、補正画像C11と、補正画像C12を作成できる。そして、正距円筒射影画像ECでは、図33で示したように正距円筒射影画像ECと補正画像D1から補正画像D2を作成する。また、平面画像P1では、図32で示したように平面画像P1と補正画像C11から補正画像C21を作成する。平面画像P2では、図44に示したように補正画像C32と補正画像C12から補正画像C22を作成する。   Next, creation of a corrected image close to the brightness value (or color value) of the equirectangular projection image EC will be described. In the plane image P1, the correction image C11 and the correction image C12 can be created by multiplying the plane image P1 by the gain data g1, and in the plane image P2 by multiplying the plane image P2 by the gain data g2. Then, in the equirectangular projection image EC, as shown in FIG. 33, a correction image D2 is created from the equirectangular projection image EC and the correction image D1. In the plane image P1, a corrected image C21 is created from the plane image P1 and the corrected image C11 as shown in FIG. In the planar image P2, as shown in FIG. 44, a corrected image C22 is created from the corrected image C32 and the corrected image C12.

図45(c)は、図45(a)の状態で目標対象を平面画像P2とした場合の補正画像C21、C22の関係を示した図である。目標対象の平面画像P2の明るさ値(又は色値)に近づけた補正画像として、正距円筒射影画像ECに逆ゲインデータG2を乗算した補正画像D1と、平面画像P1にゲインデータg1/g2を乗算した補正画像C31を作成する。また、正距円筒射影画像ECの明るさ値(又は色値)に近づけた補正画像として、平面画像P1にゲインデータg1を乗算した補正画像C11と、平面画像P2にゲインデータg2を乗算した補正画像C12を作成する。   FIG. 45 (c) is a diagram showing the relationship between the corrected images C21 and C22 when the target object is the plane image P2 in the state of FIG. 45 (a). As a corrected image close to the brightness value (or color value) of the target planar image P2, a corrected image D1 obtained by multiplying the equirectangular projection image EC by the inverse gain data G2, and the planar image P1 with gain data g1 / g2 The corrected image C31 multiplied by is created. Further, as a correction image close to the brightness value (or color value) of the equirectangular projection image EC, a correction image C11 obtained by multiplying the plane image P1 by the gain data g1 and a correction image obtained by multiplying the plane image P2 by the gain data g2. An image C12 is created.

そして、正距円筒射影画像ECでは、図33で示したように正距円筒射影画像ECと補正画像D1から補正画像D2を作成する。また、平面画像P2では、図32で示したように平面画像P2と補正画像C12から補正画像C22を作成する。平面画像P1では、図44に示したように補正画像C31と補正画像C11から補正画像C21を作成する。   Then, in the equirectangular projection image EC, as shown in FIG. 33, a correction image D2 is created from the equirectangular projection image EC and the correction image D1. In the plane image P2, a corrected image C22 is created from the plane image P2 and the corrected image C12 as shown in FIG. In the planar image P1, a corrected image C21 is created from the corrected image C31 and the corrected image C11 as shown in FIG.

図46(a)は、正距円筒射影画像の明るさ値(又は色値)が2枚の平面画像P1,P2の間にある状態を示している。図46(b)は、図46(a)の状態のとき、目標対象を平面画像P1とした場合の補正画像C21、C22の関係を示した図である。図46(c)は、図46(a)の状態のとき、目標対象を平面画像P2とした場合の補正画像C21、C22の関係を示した図である。図45で示した方法と同様にして補正画像C21,C22を作成することができる。   FIG. 46A shows a state in which the brightness value (or color value) of the equirectangular projection image is between two plane images P1 and P2. FIG. 46B is a diagram showing the relationship between the corrected images C21 and C22 when the target object is the plane image P1 in the state of FIG. 46A. FIG. 46C is a diagram showing the relationship between the corrected images C21 and C22 when the target object is the planar image P2 in the state of FIG. 46A. The corrected images C21 and C22 can be created in the same manner as the method shown in FIG.

(2)図47は、目標対象が2枚の重畳画像Sの場合に明るさ値(又は色値)が補正された補正画像C2の作成方法を説明する図である。目標対象が複数の重畳画像Sの割合で算出された場合には、算出された割合及び正距円筒射影画像ECと各平面画像P1,P2との間で作成された補正パラメータを使用する。   (2) FIG. 47 is a diagram illustrating a method of creating a corrected image C2 in which the brightness value (or color value) is corrected when the target object is two superimposed images S. When the target object is calculated at the ratio of the plurality of superimposed images S, the calculated ratio and the correction parameters created between the equirectangular projection image EC and the planar images P1 and P2 are used.

図47(a)は、正距円筒射影画像の明るさ値(又は色値)が2枚の平面画像の間にある状態を示している。図47(b)は、図47(a)の状態で目標対象を平面画像P1の割合をa、平面画像P2の割合を1−aとした場合の補正画像C21、C22の関係を示した図である。   FIG. 47A shows a state where the brightness value (or color value) of the equirectangular projection image is between two planar images. FIG. 47B shows the relationship between the corrected images C21 and C22 when the ratio of the plane image P1 is a and the ratio of the plane image P2 is 1-a in the state of FIG. It is.

ここで、平面画像P1のゲインデータをg1、平面画像P2のゲインデータをg2とする。なおaの値の求め方は上記の(1−2)(2−2)にて説明した。   Here, the gain data of the plane image P1 is g1, and the gain data of the plane image P2 is g2. The method for obtaining the value of a has been described in (1-2) and (2-2) above.

補正部584は目標対象の明るさ値(又は色値)に近づけた以下の補正画像を作成する。
補正画像D1=正距円筒射影画像ECにa/g1+(1−a)/g2を乗算
補正画像C31=平面画像P1に{a/g1+(1−a)/g2}*g1を乗算
補正画像C32=平面画像P2に{a/g1+(1−a)/g2}*g2を乗算
このように、目標対象の明るさ値(又は色値)は、平面画像P1と平面画像P2の明るさ値(又は色値)を算出した割合の比率で加重平均した値となる。
The correction unit 584 creates the following corrected image close to the brightness value (or color value) of the target object.
Corrected image D1 = Multiply corrected image C32 by multiplying equirectangular projection image EC by a / g1 + (1-a) / g2 Corrected image C31 = Flat image P1 {a / g1 + (1-a) / g2} * g1 = Multiplying the planar image P2 by {a / g1 + (1-a) / g2} * g2 Thus, the brightness value (or color value) of the target object is the brightness value of the planar image P1 and the planar image P2 ( (Or color value) is a weighted average of the calculated ratios.

また、正距円筒射影画像ECの明るさ値(又は色値)に近づけた補正画像として、平面画像P1にゲインデータg1を乗算した補正画像C11と、平面画像P2にゲインデータg2を乗算した補正画像C12を作成する。そして、正距円筒射影画像ECでは、図33で示したように正距円筒射影画像ECと補正画像D1から補正画像D2を作成する。平面画像P1に関し、図44(b)に示したように補正画像C31と補正画像C11から補正画像C21を作成する。また、平面画像P2に関し、図44(b)で示したように補正画像C32と補正画像C12から補正画像C22を作成する。   Further, as a correction image close to the brightness value (or color value) of the equirectangular projection image EC, a correction image C11 obtained by multiplying the plane image P1 by the gain data g1 and a correction image obtained by multiplying the plane image P2 by the gain data g2. An image C12 is created. Then, in the equirectangular projection image EC, as shown in FIG. 33, a correction image D2 is created from the equirectangular projection image EC and the correction image D1. Regarding the planar image P1, as shown in FIG. 44B, a corrected image C21 is created from the corrected image C31 and the corrected image C11. Further, regarding the planar image P2, as shown in FIG. 44B, a corrected image C22 is created from the corrected image C32 and the corrected image C12.

所定領域Tに2枚の重畳画像Sが重畳された場合について説明を行ったが、2枚に限らず2枚以上の重畳画像Sにおいても同様の処理を行うことで対応することができる。   The case where two superimposed images S are superimposed on the predetermined region T has been described. However, the present invention is not limited to two, and the same processing can be applied to two or more superimposed images S.

上記のように処理することで、所定領域Tに複数枚の重畳画像Sが重畳された場合でも、補正部584は複数枚の重畳画像Sから自動的に目標対象を選択し、目標対象に明るさ値及び色値を近づけた正距円筒射影画像及び平面画像Pの補正画像を作成し、全天球画像及び重畳画像を作成できる。所定領域Tを最適な明るさ値及び色値で表示することができると共に、全天球画像に複数枚の重畳画像Sを上手く溶け込ませた表示を行うことが可能となる。   By performing the processing as described above, even when a plurality of superimposed images S are superimposed on the predetermined region T, the correction unit 584 automatically selects a target target from the plurality of superimposed images S, and the target target is bright. A correction image of the equirectangular projection image and the planar image P with closeness values and color values close to each other can be created, and an omnidirectional image and a superimposed image can be created. The predetermined area T can be displayed with the optimum brightness value and color value, and a display in which a plurality of superimposed images S are well mixed with the omnidirectional image can be performed.

<変形例>
〔第三の実施形態〕
本実施形態では、第二の実施形態において、視線方向(中心点)及び画角によって所定領域T内に平面画像が存在しない場合、すなわち、目標対象がない場合について説明する。
<Modification>
[Third embodiment]
In the present embodiment, a case will be described in which, in the second embodiment, there is no planar image in the predetermined region T according to the viewing direction (center point) and the angle of view, that is, there is no target object.

図48は、本実施形態において、正距円筒射影画像ECの補正処理の過程における画像の概念図である。図48の説明では主に図31との相違を説明する。図48では図31と異なり、所定領域画像Qに重畳画像Sが存在しない。   FIG. 48 is a conceptual diagram of an image in the process of correcting the equirectangular projection image EC in the present embodiment. In the description of FIG. 48, differences from FIG. 31 are mainly described. 48, unlike FIG. 31, the superimposed image S does not exist in the predetermined area image Q.

図49は、図48に示されている正距円筒射影画像ECの補正処理(ステップ500)について説明する図の一例である。本実施形態では、第二の実施形態と同様に、正距円筒射影画像ECとは別に異なる露出で撮像された複数枚の正距円筒射影画像(図ではEC1,EC2)が必要である。   FIG. 49 is an example of a diagram for explaining the correction processing (step 500) of the equirectangular projection image EC shown in FIG. In the present embodiment, as in the second embodiment, a plurality of equirectangular projection images (EC1 and EC2 in the figure) captured at different exposures are required separately from the equirectangular projection image EC.

特殊撮像装置1は正距円筒射影画像ECと同じ機構で露光条件のみを変更して複数枚の正距円筒射影画像EC1、正距円筒射影画像EC2を撮像することが好ましい。少なくとも、正距円筒射影画像ECの露出よりもオーバー露出の正距円筒射影画像EC1、及び、アンダー露出の正距円筒射影画像EC2が必要である。図49では、正距円筒射影画像ECの露出より、オーバー露出の正距円筒射影画像EC1、及び、アンダー露出の正距円筒射影画像EC2が示されているが、露出の異なる正距円筒射影画像は3枚以上でもよい(オーバー露出の正距円筒射影画像EC1とアンダー露出の正距円筒射影画像EC2の少なくとも一方が2枚以上)。   The special imaging apparatus 1 preferably captures a plurality of equirectangular projection images EC1 and equirectangular projection images EC2 by changing only the exposure conditions with the same mechanism as that of the equirectangular projection image EC. At least the equirectangular projection image EC1 that is overexposed and the underexposed equirectangular projection image EC2 is required as compared with the exposure of the equirectangular projection image EC. FIG. 49 shows an overexposed equirectangular projection image EC1 and an underexposed equirectangular projection image EC2 based on the exposure of the equirectangular projection image EC. May be three or more (at least one of overexposed equirectangular projection image EC1 and underexposed equirectangular projection image EC2 is two or more).

図49では、画像作成部586が立体球CSに対して、正距円筒射影画像ECを貼り付けることで全天球画像CEを作成したのち射影方式変換部590が射影方式変換で参照領域画像Rを作成しているが、正距円筒射影画像EC上で所定領域Tに対応する領域を求めてもよい。   In FIG. 49, after the image creation unit 586 creates the omnidirectional image CE by pasting the equirectangular projection image EC on the solid sphere CS, the projection method conversion unit 590 performs the reference method image R with the projection method conversion. However, an area corresponding to the predetermined area T on the equirectangular projection image EC may be obtained.

図49のステップS510では、画像作成部586が補正していない正距円筒射影画像ECをステップS350と同様に立体球CSに対して張り付けることで全天球画像CEを作成する。   In step S510 of FIG. 49, the omnidirectional image CE is created by pasting the equirectangular projection image EC that has not been corrected by the image creation unit 586 to the solid sphere CS in the same manner as in step S350.

ステップS520では、ステップS370と同様に、視線方向(中心点)・画角等で指定される所定領域Tがディスプレイで見られるように、射影方式変換部590が射影方式変換する。この際、作成された画像を参照領域画像Rとする。本実施形態では、平面画像Pがない正距円筒射影画像ECの部分が参照領域画像Rとして作成される場合を説明する。   In step S520, similarly to step S370, the projection method conversion unit 590 performs the projection method conversion so that the predetermined area T specified by the line-of-sight direction (center point), the angle of view, etc. can be seen on the display. At this time, the created image is set as a reference area image R. In the present embodiment, a case will be described in which a part of an equirectangular projection image EC having no planar image P is created as the reference region image R.

ステップS530では、補正部584が参照領域画像Rの全体の明るさ値の平均値に応じて、正距円筒射影画像ECと合成する異なる露出で撮像された正距円筒射影画像EC1、又は、正距円筒射影画像EC2を選択する。   In step S530, the equirectangular projection image EC1 captured with a different exposure that is combined with the equirectangular projection image EC according to the average value of the overall brightness values of the reference region image R, or the regularity projection image EC1. The distance cylindrical projection image EC2 is selected.

図50を用いて、正距円筒射影画像EC1又は正距円筒射影画像EC2の選択について説明する。図50は、補正部584が、参照領域画像Rと合成するための異なる露出で撮像された正距円筒射影画像を選択する手順を説明する一例のフローチャート図である。   The selection of the equirectangular projection image EC1 or the equirectangular projection image EC2 will be described with reference to FIG. FIG. 50 is a flowchart illustrating an example of a procedure for the correction unit 584 to select an equirectangular projection image captured at a different exposure for composition with the reference region image R.

例えば、補正部584は、参照領域画像Rの目標とする明るさ値を決め、それに対して参照領域画像Rの全体の明るさ値の平均(輝度情報)とを比べる(S531)。目標とする明るさ値とは、一例として予め定められているものとする。例えばRGBの各色が8bitの場合、256階調なので、中間は128である。補正部584は、128と参照領域画像Rの明るさ値の平均とを比較する。なお、本実施例では画素値が0〜1の値に正規化されているため0.5が目標とする明るさ値となる。取り得る明るさの中間値と比較するのでなく、256段階の100や150等を目標とする明るさ値としてもよい。   For example, the correction unit 584 determines the target brightness value of the reference area image R, and compares it with the average (luminance information) of the entire brightness values of the reference area image R (S531). The target brightness value is determined in advance as an example. For example, when each color of RGB is 8 bits, there are 256 gradations, so the middle is 128. The correction unit 584 compares 128 with the average brightness value of the reference region image R. In this embodiment, since the pixel value is normalized to a value of 0 to 1, 0.5 is a target brightness value. Instead of comparing with the intermediate value of the brightness that can be taken, the target brightness value may be 100 or 150 in 256 stages.

参照領域画像Rの全体の明るさ値の平均の方が大きい場合、処理はステップS532に進む。この場合、目標とする明るさ値より参照領域画像Rの方がオーバー露出なので、アンダー露出画像と合成するために補正部584はアンダー露出画像を選択する(S532)。   If the average of the entire brightness values of the reference area image R is larger, the process proceeds to step S532. In this case, since the reference area image R is overexposed than the target brightness value, the correcting unit 584 selects the underexposed image to be combined with the underexposed image (S532).

参照領域画像Rの全体の明るさ値の平均の方が小さい場合、目標とする明るさ値より参照領域画像Rの方がアンダー露出なので、補正部584はオーバー露出画像を選択する(S533)。なお、参照領域画像Rの明るさ値と目標とする明るさ値が等しい場合はどちらを選択してもよい。   If the average brightness value of the entire reference area image R is smaller, the correction area 584 selects the overexposed image because the reference area image R is underexposed than the target brightness value (S533). If the brightness value of the reference area image R is equal to the target brightness value, either one may be selected.

ここでは一例として、参照領域画像Rの全体の明るさ値の平均を使用したが、中央部分など一部だけの明るさ値を使用してもよい。また、明るさ値の平均の代わりにヒストグラム等の明るさの特性値を使用してもよい。   Here, as an example, the average of the entire brightness values of the reference region image R is used, but only a part of the brightness values such as the central portion may be used. Further, brightness characteristic values such as a histogram may be used instead of the average brightness value.

図49に戻って説明する。ステップS540では、補正部584がステップS530で選択した正距円筒射影画像EC1又は正距円筒射影画像EC2と、正距円筒射影画像ECとの合成を行う。参照領域画像Rの明るさ値の平均をref(refは0.0〜1.0の値を取る)とし、目標とする明るさ値をaim(aimは0.0〜1.0)とすると、補正値adjは以下の(式18)で求められる。
adj=|(aim−ref)× 補正係数|
但し 0.0≦adj≦1.0にクリップ (式18)
クリップとは、値が範囲未満であれば範囲の下限値に、範囲超であれば範囲の上限値に置き換えることをいう。補正係数は目標とする明るさ値に対して参照領域画像Rの明るさ値の平均との離れ具合に応じて、どのくらいオーバー露出、又は、アンダー露出画像に近づかせるかを決める値である。画像を見てユーザが指定するか、撮像時の露出変更値から自動的に計算してもよい。予め決まっている場合、補正係数を例えば3.0とする。
Returning to FIG. In step S540, the correcting unit 584 combines the equirectangular projection image EC1 or equirectangular projection image EC2 selected in step S530 and the equirectangular projection image EC. If the average brightness value of the reference area image R is ref (ref takes a value of 0.0 to 1.0) and the target brightness value is aim (aim is 0.0 to 1.0). The correction value adj is obtained by the following (formula 18).
adj = | (aim−ref) × correction coefficient |
However, clip to 0.0 ≦ adj ≦ 1.0 (Formula 18)
Clip means replacing the lower limit value of the range if the value is less than the range, and replacing the upper limit value of the range if the value exceeds the range. The correction coefficient is a value that determines how much the overexposure or underexposure image is approached in accordance with how far the target brightness value is from the average brightness value of the reference region image R. The image may be specified by the user by looking at the image, or automatically calculated from the exposure change value at the time of imaging. If it is determined in advance, the correction coefficient is set to 3.0, for example.

ステップS530で選択された正距円筒射影画像をECSとした場合、補正画像Dの各画素値D(u,v)は下記の(式19)によって求められる。   When the equirectangular projection image selected in step S530 is ECS, each pixel value D (u, v) of the corrected image D is obtained by (Equation 19) below.

D(u,v) = ECS(u,v)×adj + EC(u,v)×(1.0−adj)
(式19)
以上により図48の補正画像Dが作成された。この後の処理は図31と同様である。ステップS360で全天球画像CEに重畳画像Sが重畳され、視線方向(中心点)及び画角により射影方式変換され所定領域画像Qがディスプレイ517に表示される。本実施形態では所定領域画像Qに平面画像Pが含まれないので、平面画像Pは図34のエリア3に存在することになる。すなわち、重畳画像Sと補正画像Cの合成割合は1.0となり、補正画像C2は補正画像C1(正距円筒射影画像ECの明るさ・色値)となる。逆に、正距円筒射影画像ECと補正画像D1の合成割合は0.0となり、補正画像D2は補正画像D1(正距円筒射影画像ECの明るさ・色値)となる。補正画像Dにより明るさ値及び色値が適正な値に補正されているので、所定領域Tを最適な明るさ値及び色値で表示することができる。
D (u, v) = ECS (u, v) × adj + EC (u, v) × (1.0−adj)
(Formula 19)
Thus, the corrected image D shown in FIG. 48 is created. The subsequent processing is the same as in FIG. In step S360, the superimposed image S is superimposed on the omnidirectional image CE, and the projection method is converted according to the line-of-sight direction (center point) and angle of view, and the predetermined area image Q is displayed on the display 517. In the present embodiment, since the planar image P is not included in the predetermined area image Q, the planar image P exists in the area 3 in FIG. That is, the composition ratio of the superimposed image S and the corrected image C is 1.0, and the corrected image C2 is the corrected image C1 (brightness / color value of the equirectangular projection image EC). Conversely, the composition ratio of the equirectangular projection image EC and the corrected image D1 is 0.0, and the corrected image D2 is the corrected image D1 (brightness / color value of the equirectangular projected image EC). Since the brightness value and the color value are corrected to appropriate values by the corrected image D, the predetermined area T can be displayed with the optimum brightness value and color value.

<オーバー側の画像又はアンダー側の画像が複数ある場合>
一例として、オーバー側の画像が2枚、アンダー側の画像が2枚ある場合について説明する。正距円筒射影画像EC(参照領域画像R)を含めると5枚の画像がある。それぞれの画像の露出を−2.0、-1.0、0.0、+1.0、+2.0とする。この露出の値はEV値であり、+1.0、+2.0がオーバー側、−1.0、-2.0がアンダー側を示している。正距円筒射影画像ECの露出をEv0.0とすると±2.0の露出範囲で撮像した画像を使用する。
<If there are multiple images on the over or under side>
As an example, a case where there are two over images and two under images will be described. Including the equirectangular projection image EC (reference region image R), there are five images. The exposure of each image is set to −2.0, −1.0, 0.0, +1.0, and +2.0. This exposure value is an EV value, with +1.0 and +2.0 indicating the over side, and −1.0 and −2.0 indicating the under side. When the exposure of the equirectangular projection image EC is Ev0.0, an image captured in an exposure range of ± 2.0 is used.

合成値blend求め方は(式19)でよい。ただし、クリップされる値の範囲が異なる。   The method of obtaining the composite value blend may be (Equation 19). However, the range of clipped values is different.

0.0≦blend≦2.0にクリップ (式20)
補正部584は、オーバー側又はアンダー側に複数の露出変更画像がある場合はクリップの範囲を変更することで、合成値blendに応じて合成する画像を切り替える。ここでは説明のため、参照領域画像Rを暗くする場合を説明する。
(i) 0.0 ≦ blend ≦ 1.0 の場合
adj=blend
I1=露出が-1.0の画像
I2=露出が0.0の画像(参照領域画像R)
(ii) 1.0 < blend ≦ 2.0 の場合
adj=blend-1.0
I1=露出が-2.0の画像
I2=露出が-1.0の画像
補正画像Dの各画素値D(u,v)は(式21)によって求められる。
D(u,v) = I1(u,v)×adj + I2(u,v)×(1.0 − adj) (式21)
このように合成値blendが大きい場合は参照領域画像Rと次に暗い画像を合成し、合成値blendが小さい場合は参照領域画像Rよりも暗い2枚の画像を合成する。これにより、参照領域画像Rを暗くしたい場合は、暗くしたい程度(合成値blend)に応じて参照領域画像R及びアンダー側の2枚の画像から2枚の画像を選択して合成値blendに応じて合成できる。
Clip to 0.0 ≦ blend ≦ 2.0 (Formula 20)
When there are a plurality of exposure change images on the over side or the under side, the correction unit 584 switches the image to be synthesized in accordance with the synthesis value blend by changing the clip range. Here, for explanation, a case where the reference area image R is darkened will be described.
(i) When 0.0 ≤ blend ≤ 1.0
adj = blend
I1 = Image with exposure -1.0
I2 = image with exposure 0.0 (reference area image R)
(ii) 1.0 <blend ≤ 2.0
adj = blend-1.0
I1 = Image with -2.0 exposure
I2 = Image with exposure of −1.0 Each pixel value D (u, v) of the corrected image D is obtained by (Equation 21).
D (u, v) = I1 (u, v) × adj + I2 (u, v) × (1.0−adj) (Formula 21)
In this way, when the composite value blend is large, the reference region image R and the next dark image are composited, and when the composite value blend is small, two images that are darker than the reference region image R are composited. Thereby, when it is desired to darken the reference area image R, two images are selected from the reference area image R and the two images on the under side according to the degree to which the reference area image R is desired to be dark (composite value blend). Can be synthesized.

<合成例>
図51を用いて画像の合成の具体例について説明する。図51(a)では、基準となる露出で撮像された正距円筒射影画像ECを示す。明暗の差が大きいため、図51(a)の所定領域Tの中央部分は黒つぶれしている。
<Synthesis example>
A specific example of image composition will be described with reference to FIG. FIG. 51A shows an equirectangular projection image EC that is captured with a reference exposure. Since the difference between brightness and darkness is large, the central portion of the predetermined region T in FIG.

図51(b)は、図51(a)と同じ場所がオーバー露出で撮像された正距円筒射影画像EC1の所定領域Tを示す。図51(b)の中央部の露出はほぼ適正である。図51(c)は、第三の実施形態を用いて図51(a)の正距円筒射影画像ECと図51(b)の正距円筒射影画像EC1が合成された補正画像Dを示す。   FIG. 51B shows a predetermined region T of the equirectangular projection image EC1 in which the same location as that in FIG. The exposure at the center of FIG. 51 (b) is almost appropriate. FIG. 51C shows a corrected image D obtained by combining the equirectangular projection image EC of FIG. 51A and the equirectangular projection image EC1 of FIG. 51B using the third embodiment.

このように、目標対象が無くとも、所定領域Tの明るさに応じてオーバー露出の画像と合成することにより、所定領域Tのアンダー露出を低減することができる。   As described above, even if there is no target object, the underexposure of the predetermined area T can be reduced by combining the overexposed image according to the brightness of the predetermined area T.

図52(a)は、基準となる露出で撮像された正距円筒射影画像ECを示す。明暗の差が大きいため、図52(a)の所定領域Tの中央部分は白とびしている。   FIG. 52A shows an equirectangular projection image EC that is captured with a reference exposure. Since the difference between brightness and darkness is large, the central portion of the predetermined area T in FIG.

図52(b)は、図52(a)と同じ場所がアンダー露出で撮像された正距円筒射影画像EC2の所定領域Tを示す。図52(b)の中央部の露出はほぼ適正である。図52(c)は、第三の実施形態を用いて、図52(a)の正距円筒射影画像ECと図52(b)の正距円筒射影画像EC2が合成された補正画像Dを示す。   FIG. 52B shows a predetermined region T of the equirectangular projection image EC2 in which the same place as that in FIG. 52A is captured with underexposure. The exposure at the center of FIG. 52 (b) is almost appropriate. FIG. 52C shows a corrected image D in which the equirectangular projection image EC of FIG. 52A and the equirectangular projection image EC2 of FIG. 52B are synthesized using the third embodiment. .

このように、目標対象が無くとも、所定領域Tの明るさに応じてアンダー露出の画像と合成することにより、所定領域Tのオーバー露出を低減することができる。   As described above, even if there is no target object, the overexposure of the predetermined area T can be reduced by combining the underexposed image according to the brightness of the predetermined area T.

なお、本実施形態では広角画像に重畳される平面画像を適切に補正できる手法のうち、視線方向(中心位置)及び画角によって重畳画像が所定領域内に無い場合についての全天球画像の明るさ値補正について記述したが、平面画像が全くなく広角画像だけの場合にも適応可能である。   In this embodiment, among the methods that can appropriately correct the planar image superimposed on the wide-angle image, the brightness of the omnidirectional image when the superimposed image is not within the predetermined region depending on the viewing direction (center position) and the angle of view. Although the correction of the depth value has been described, the present invention can also be applied to a case where there is no flat image and there is only a wide-angle image.

〔第四の実施形態〕
図53及び図54を用いて、第四の実施形態について説明する。図53は、第四の実施形態における正距円筒射影画像ECの補正処理の過程における画像の概念図である。図53の説明では主に図48との相違を説明する。
[Fourth embodiment]
The fourth embodiment will be described with reference to FIGS. 53 and 54. FIG. 53 is a conceptual diagram of an image in the process of correcting the equirectangular projection image EC in the fourth embodiment. In the description of FIG. 53, differences from FIG. 48 will be mainly described.

図53に示されている正距円筒射影画像ECの補正処理(ステップS500)は、第三の実施形態で説明した方法と同様であり、露出の異なる複数枚の正距円筒射影画像EC1、EC2から、ユーザが見ている画像全体の目標とする明るさ値(又は色値)に近づけた補正画像Dが作成されている。   The correction processing (step S500) of the equirectangular projection image EC shown in FIG. 53 is the same as the method described in the third embodiment, and a plurality of equirectangular projection images EC1, EC2 having different exposures. Thus, a corrected image D that is close to the target brightness value (or color value) of the entire image viewed by the user is created.

第三の実施形態では所定領域Tに平面画像が存在しない場合でも適切な露出に補正できる実施形態を説明したが、第四の実施形態では平面画像Pを正距円筒射影画像の明るさ値及び色値に近づくように補正する。従って、所定領域Tに平面画像Pが存在しても平面画像Pを適切な明るさ値及び色値に補正できるようにする。   In the third embodiment, the embodiment has been described in which the exposure can be corrected to an appropriate exposure even when the planar image does not exist in the predetermined region T. In the fourth embodiment, the planar image P is converted into the brightness value of the equirectangular projection image and Correct the color value so that it approaches. Therefore, even if the planar image P exists in the predetermined region T, the planar image P can be corrected to an appropriate brightness value and color value.

第四の実施形態はステップ600を有しており、補正部584が、補正画像Dの明るさ値(又は色値)に近づくように平面画像Pを補正した補正画像Cを作成する。   The fourth embodiment includes step 600, and the correction unit 584 creates a corrected image C in which the planar image P is corrected so as to approach the brightness value (or color value) of the corrected image D.

図54は、補正画像Dと補正画像Cの関係を示す図である。図54では上方向に信号値が大きく、下方向に信号値が小さいことを示している。正距円筒射影画像ECの補正処理(ステップ500)では、正距円筒射影画像ECと正距円筒射影画像EC1又は正距円筒射影画像EC2(図では、正距円筒射影画像EC1)から目標とする明るさ値(又は色値)に近づけた補正画像Dが作成された。   FIG. 54 is a diagram illustrating the relationship between the corrected image D and the corrected image C. FIG. 54 shows that the signal value is large in the upward direction and the signal value is small in the downward direction. In the correction processing of the equirectangular projection image EC (step 500), a target is obtained from the equirectangular projection image EC and the equirectangular projection image EC1 or the equirectangular projection image EC2 (the equirectangular projection image EC1 in the figure). A corrected image D close to the brightness value (or color value) was created.

平面画像Pの補正処理(ステップ600)では、補正部584が補正画像Dの明るさ値(又は色値)に近づけるように平面画像Pを補正した補正画像Cを作成する。   In the correction process (step 600) of the planar image P, the correction unit 584 creates a corrected image C in which the planar image P is corrected so as to approach the brightness value (or color value) of the corrected image D.

補正画像Cの作成方法の具体例を説明する。補正画像Dは正距円筒射影画像ECの明るさ値(又は色値)を補正した画像であるので、補正部584で正距円筒射影画像ECと補正画像Dの第3の対応領域CA3における明るさ値(又は色値)の比率を算出する。   A specific example of a method for creating the corrected image C will be described. Since the corrected image D is an image obtained by correcting the brightness value (or color value) of the equirectangular projection image EC, the brightness of the equirectangular projection image EC and the correction image D in the third corresponding area CA3 is corrected by the correcting unit 584. The ratio of the value (or color value) is calculated.

例えば、正距円筒射影画像ECの第3の対応領域CA3の明るさ値をY、補正画像Dの明るさ値をYDとすると、正距円筒射影画像ECに対する補正画像Dの明るさ値の比率はYD/Yとなる。重畳表示メタデータ内の補正パラメータには、平面画像Pの明るさ値及び色値を、正距円筒射影画像ECの明るさ値及び色値に合わせるゲインデータが格納されているため、重畳表示メタデータ内の補正パラメータにこの比率を乗算することで平面画像Pを補正画像Dの明るさ値に補正する補正パラメータを算出することができる。色値に対しても同様にして比率を算出すれば、平面画像Pを補正画像Dの色値に補正する補正パラメータを算出することができる。このようにして算出した補正パラメータを使用して、平面画像Pに補正パラメータを乗算することで、補正画像Dの明るさ値(又は色値)に近づけるように補正した補正画像Cを作成することができる。   For example, if the brightness value of the third corresponding area CA3 of the equirectangular projection image EC is Y and the brightness value of the correction image D is YD, the ratio of the brightness value of the correction image D to the equirectangular projection image EC Becomes YD / Y. The correction parameter in the superimposed display metadata stores gain data that matches the brightness value and color value of the planar image P with the brightness value and color value of the equirectangular projection image EC. A correction parameter for correcting the planar image P to the brightness value of the corrected image D can be calculated by multiplying the correction parameter in the data by this ratio. If the ratio is calculated in the same manner for the color value, the correction parameter for correcting the planar image P to the color value of the corrected image D can be calculated. Using the correction parameter calculated in this way, the correction image C corrected to be close to the brightness value (or color value) of the correction image D is created by multiplying the plane image P by the correction parameter. Can do.

図54によれば、正距円筒射影画像ECがオーバー露出の正距円筒射影画像EC1と合成されることで明るさ値及び色値が調整された補正画像Dが得られる。また、平面画像Pの明るさ値及び色値が調整され補正画像Cが得られる。   According to FIG. 54, the equirectangular projection image EC is combined with the overexposed equirectangular projection image EC1, thereby obtaining a corrected image D in which the brightness value and the color value are adjusted. In addition, the brightness value and the color value of the planar image P are adjusted, and the corrected image C is obtained.

補正画像Cは補正画像Dの明るさ値及び色値に補正されているので、所定領域に平面画像Pが含まれているか否かに関係なく、スマートフォン5は補正画像Dの明るさ値及び色値で所定領域画像Qを表示できる。   Since the corrected image C is corrected to the brightness value and the color value of the corrected image D, the smartphone 5 can detect the brightness value and the color of the corrected image D regardless of whether the predetermined area includes the planar image P or not. The predetermined area image Q can be displayed by the value.

以上のように作成した補正画像Dと補正画像Cを使用することで、ディスプレイ等に表示された領域において最適な露出、色味で重畳表示を行うことができる。   By using the corrected image D and the corrected image C created as described above, superimposed display can be performed with optimal exposure and color in the area displayed on the display or the like.

第四の実施形態では、第一、第二の実施形態よりも補正後の明るさ値及び色値の自由度が高い。すなわち、第一、第二の実施形態では最終的に表示される明るさ値及び色値は図41に示すように正距円筒射影画像ECと平面画像Pの間で生成される明るさ値及び色値に限定されていた。第四の実施形態では、正距円筒射影画像ECを目標とする明るさ値及び色値に変換して、平面画像Pをその目標とする明るさ値及び色値に近づけるため、第一、第二の実施形態のような制限がなく、最終的に表示される画像の明るさ値及び色値を表示するのに適正な明るさ値及び色値にすることができる。   In the fourth embodiment, the degree of freedom of the corrected brightness value and color value is higher than those in the first and second embodiments. That is, in the first and second embodiments, the brightness value and the color value that are finally displayed are the brightness value generated between the equirectangular projection image EC and the planar image P as shown in FIG. Limited to color values. In the fourth embodiment, the equirectangular projection image EC is converted into target brightness values and color values, and the planar image P is brought close to the target brightness values and color values. There is no limitation as in the second embodiment, and the brightness value and color value appropriate for displaying the brightness value and color value of the finally displayed image can be obtained.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、変位量として角度βを例示したが、変位量は視線方向と平面画像Pの距離で表してもよい。   For example, the angle β is exemplified as the displacement amount, but the displacement amount may be represented by a distance between the line-of-sight direction and the planar image P.

また、全天球画像の表示はブラウザソフトウェアで行ってもよいし、全天球画像を表示するためのアプリケーションソフトで行ってもよい。   Moreover, the display of the omnidirectional image may be performed by browser software or may be performed by application software for displaying the omnidirectional image.

また、スマートフォン5が行っていた処理をサーバが行い、スマートフォン5は主に操作を受け付けたり全天球画像CEを表示したりするのみでもよい。この場合、スマートフォン5がネットワークを介してサーバに画像データを送信し、サーバが所定領域画像を作成してスマートフォン5に送信する。サーバは本実施形態で説明したスマートフォン5の機能の一部又は全体を有する。   In addition, the server may perform the processing that the smartphone 5 has performed, and the smartphone 5 may mainly accept operations or display the omnidirectional image CE. In this case, the smartphone 5 transmits image data to the server via the network, and the server creates a predetermined area image and transmits it to the smartphone 5. The server has some or all of the functions of the smartphone 5 described in the present embodiment.

また、本実施形態の全天球画像は所定領域Tに表示しきない画角の画像データであればよい。例えば、水平方向にだけ180度〜360度の画角を有する広角画像でもよい。すなわち、全天球画像に限られない。   Further, the omnidirectional image of the present embodiment may be image data having an angle of view that cannot be displayed in the predetermined area T. For example, a wide-angle image having an angle of view of 180 degrees to 360 degrees only in the horizontal direction may be used. That is, it is not limited to the omnidirectional image.

また、特許請求の範囲の「重畳する」とは、一方の画像に優先して他方の画像が見られることをいう。2枚の画像は独立に存在しても、1枚に画像の一部に置き換わることで一体化されていてもよい。「重畳する」を、貼り付ける、合成する、又は、配置するなどと表現してもよい。   In addition, “superimpose” in the scope of claims means that the other image can be seen with priority over one image. The two images may exist independently or may be integrated by replacing a part of the image with one image. “Superimpose” may be expressed as pasting, combining, or arranging.

また、スマートフォン5が有しているか又はスマートフォン5に外部接続されるカメラの数は3つ以上でもよい。   Also, the number of cameras that the smartphone 5 has or is externally connected to the smartphone 5 may be three or more.

また、図14、図16などの構成例は、特殊撮像装置1、一般撮像装置3、及びスマートフォン5による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。特殊撮像装置1、一般撮像装置3、及びスマートフォンの処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。   In addition, the configuration examples such as FIGS. 14 and 16 are divided according to main functions in order to facilitate understanding of processing by the special imaging device 1, the general imaging device 3, and the smartphone 5. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the special imaging device 1, the general imaging device 3, and the smartphone can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

なお、特殊撮像装置1は第1の撮像装置の一例であり、スマートフォン5は第2の撮像装置の一例であり、近距離通信部58は取得手段の一例であり、補正部584は補正手段の一例であり、射影方式逆変換部562は射影方式逆変換手段の一例であり、画像作成部586は画像作成手段の一例であり、射影方式変換部590は射影方式変換手段の一例であり、記憶部5000は記憶手段の一例である。   The special imaging device 1 is an example of a first imaging device, the smartphone 5 is an example of a second imaging device, the short-range communication unit 58 is an example of an acquisition unit, and the correction unit 584 is a correction unit. The projection method reverse conversion unit 562 is an example of a projection method reverse conversion unit, the image creation unit 586 is an example of an image creation unit, and the projection method conversion unit 590 is an example of a projection method conversion unit. The unit 5000 is an example of a storage unit.

補正画像C1は第1の補正画像の一例であり、補正画像D1は第2の補正画像の一例であり、図34の重畳画像Sの合成割合は第1の合成割合の一例であり、図34の正距円筒射影画像ECの合成割合は第2の合成割合の一例であり、図39の正距円筒射影画像EC1は第2の広角画像の一例であり、正距円筒射影画像EC2は第三の広角画像の一例であり、図34の閾値th1は第1の閾値の一例であり、図34の閾値th2は第2の閾値の一例である。第三の実施形態の正距円筒射影画像ECは第四の広角画像の一例であり、正距円筒射影画像EC1又はEC2は第五の広角画像の一例であり、補正画像Dは第三の補正画像の一例であり、第四の実施形態の補正画像Cは第四の補正画像の一例である。
th1は第1の閾値の一例であり、th2は第2の閾値の一例である。
The correction image C1 is an example of the first correction image, the correction image D1 is an example of the second correction image, the composition ratio of the superimposed image S in FIG. 34 is an example of the first composition ratio, and FIG. The equirectangular projection image EC is an example of the second synthesis proportion, the equirectangular projection image EC1 in FIG. 39 is an example of the second wide-angle image, and the equirectangular projection image EC2 is the third composition ratio. 34 is an example of the first threshold value, and the threshold value th2 of FIG. 34 is an example of the second threshold value. The equirectangular projection image EC of the third embodiment is an example of a fourth wide-angle image, the equirectangular projection image EC1 or EC2 is an example of a fifth wide-angle image, and the correction image D is a third correction image. It is an example of an image, and the correction image C of the fourth embodiment is an example of a fourth correction image.
th1 is an example of a first threshold, and th2 is an example of a second threshold.

1 特殊撮像装置(第1の撮像装置の一例)
5 スマートフォン(第2の撮像装置の一例)
52 受付部
55 画像・音処理部
56 表示制御部
58 近距離通信部(取得手段の一例)
550 抽出部
584 補正部(補正手段の一例)
562 射影方式逆変換部(射影方式逆変換手段の一例)
586 画像作成部(画像作成手段の一例)
588 画像重畳部
590 射影方式変換部(射影方式変換手段の一例)
5000 記憶部(記憶手段の一例)
1 Special imaging device (an example of a first imaging device)
5 Smartphone (example of second imaging device)
52 reception unit 55 image / sound processing unit 56 display control unit 58 near field communication unit (an example of an acquisition unit)
550 Extraction unit 584 Correction unit (an example of correction means)
562 Projection method reverse conversion unit (an example of projection method reverse conversion means)
586 Image creation unit (an example of image creation means)
588 Image superimposing unit 590 Projection method conversion unit (an example of projection method conversion means)
5000 storage unit (an example of storage means)

特許5745134号公報Japanese Patent No. 5745134

Claims (15)

第1の射影方式によって得られた広角画像に対し、第2の射影方式によって得られた平面画像を重畳する情報処理装置を、
前記広角画像において前記平面画像が対応する対応領域を算出する射影方式逆変換手段と、
前記広角画像の視線方向と前記平面画像の中心との変位量に応じて、前記広角画像と前記平面画像の少なくとも一方を補正する補正手段と、
前記補正手段により補正された前記広角画像の前記対応領域に、前記補正手段により補正された前記平面画像を重畳する画像作成手段、
として機能させることを特徴とするプログラム。
An information processing apparatus that superimposes a planar image obtained by the second projection method on a wide-angle image obtained by the first projection method,
A projection method inverse transform means for calculating a corresponding area corresponding to the planar image in the wide-angle image;
Correction means for correcting at least one of the wide-angle image and the planar image according to the amount of displacement between the line-of-sight direction of the wide-angle image and the center of the planar image;
Image creating means for superimposing the planar image corrected by the correcting means on the corresponding area of the wide-angle image corrected by the correcting means;
A program characterized by functioning as
前記補正手段は、前記広角画像の視線方向と前記平面画像の中心との変位量が小さくなるほど、前記平面画像の画素値の補正量を小さくし、
前記広角画像の画素値が前記平面画像の画素値に近づくように前記広角画像の画素値を補正する請求項1に記載のプログラム。
The correction unit reduces the correction amount of the pixel value of the planar image as the displacement amount between the line-of-sight direction of the wide-angle image and the center of the planar image decreases.
The program according to claim 1, wherein the pixel value of the wide-angle image is corrected so that the pixel value of the wide-angle image approaches the pixel value of the planar image.
前記補正手段は、前記広角画像の視線方向と前記平面画像の中心との変位量が大きくなるほど、前記平面画像の画素値が前記広角画像の画素値に近づくように前記平面画像の画素値を補正し、
前記広角画像の画素値の補正量を小さくする請求項1又は2に記載のプログラム。
The correction unit corrects the pixel value of the planar image so that the pixel value of the planar image approaches the pixel value of the wide-angle image as the amount of displacement between the line-of-sight direction of the wide-angle image and the center of the planar image increases. And
The program according to claim 1, wherein a correction amount of a pixel value of the wide-angle image is reduced.
前記補正手段は、前記広角画像の視線方向と前記平面画像の中心との変位量が第1の閾値より小さい場合、前記平面画像の画素値を補正せず、
前記広角画像の画素値が前記平面画像の画素値に近づくように前記広角画像の画素値を補正する請求項1〜3のいずれか1項に記載のプログラム。
The correction unit does not correct the pixel value of the planar image when the displacement amount between the line-of-sight direction of the wide-angle image and the center of the planar image is smaller than a first threshold,
The program according to claim 1, wherein the pixel value of the wide-angle image is corrected so that the pixel value of the wide-angle image approaches the pixel value of the planar image.
前記補正手段は、前記広角画像の視線方向と前記平面画像の中心との変位量が第1の閾値より大きい第2の閾値を超える場合、前記平面画像の画素値が前記広角画像の画素値に近づくように前記平面画像の画素値を補正し、
前記広角画像の画素値を補正しない請求項1〜4のいずれか1項に記載のプログラム。
When the displacement between the line-of-sight direction of the wide-angle image and the center of the planar image exceeds a second threshold value that is larger than the first threshold value, the correcting unit changes the pixel value of the planar image to the pixel value of the wide-angle image. Correct the pixel value of the planar image to approach,
The program according to any one of claims 1 to 4, wherein a pixel value of the wide-angle image is not corrected.
前記補正手段は、前記平面画像の画素値を前記広角画像の画素値に近づくように補正するための補正パラメータにより、前記平面画像の画素値を補正して第1の補正画像を作成し、
前記変位量が大きくなるほど大きくなる前記平面画像の画素値と前記第1の補正画像の画素値の第1の合成割合を参照し、
前記変位量に対応した前記第1の合成割合で、前記平面画像の画素値と前記第1の補正画像の画素値を合成することで前記平面画像の画素値を補正する請求項2〜5のいずれか1項に記載のプログラム。
The correction unit corrects the pixel value of the planar image by a correction parameter for correcting the pixel value of the planar image so as to approach the pixel value of the wide-angle image, and creates a first corrected image.
With reference to the first composition ratio of the pixel value of the planar image and the pixel value of the first corrected image that increase as the displacement amount increases,
The pixel value of the planar image is corrected by combining the pixel value of the planar image and the pixel value of the first correction image at the first synthesis ratio corresponding to the displacement amount. The program according to any one of the above items.
前記補正手段は、前記補正パラメータの逆数により、前記広角画像の画素値を補正して第2の補正画像を作成し、
前記変位量が小さくなるほど大きくなる前記広角画像の画素値と前記第2の補正画像の画素値の第2の合成割合を参照し、前記変位量に対応した前記第2の合成割合で、前記広角画像の画素値と前記第2の補正画像の画素値を合成することで前記広角画像の画素値を補正する請求項6に記載のプログラム。
The correction means corrects the pixel value of the wide-angle image by the reciprocal of the correction parameter to create a second corrected image,
With reference to a second composition ratio of the pixel value of the wide-angle image and the pixel value of the second corrected image that increases as the displacement amount decreases, the wide-angle image is obtained at the second composition ratio corresponding to the displacement amount. The program according to claim 6, wherein the pixel value of the wide-angle image is corrected by combining the pixel value of the image and the pixel value of the second corrected image.
前記補正手段は、前記広角画像と同じ構図で露出が異なる第2の広角画像と第三の広角画像から、前記補正パラメータに基づきいずれかを選択し、
前記補正パラメータにより算出される合成割合により、選択した前記第2の広角画像又は前記第三の広角画像と前記広角画像を合成することで、前記第2の補正画像を作成する請求項7に記載のプログラム。
The correction means selects one of a second wide-angle image and a third wide-angle image having the same composition as the wide-angle image and different exposures based on the correction parameter,
8. The second corrected image is created by synthesizing the selected second wide-angle image or the third wide-angle image and the wide-angle image based on a composition ratio calculated by the correction parameter. Program.
前記広角画像が表示された際の所定領域に複数の前記平面画像が重畳される場合、
前記補正手段は、前記視線方向と前記平面画像の中心点との変位量が最も小さい前記平面画像との前記変位量に応じて前記広角画像の画素値を補正するか、又は、
前記所定領域における面積が最も大きい前記平面画像との前記変位量に応じて前記広角画像の画素値を補正する請求項1〜8のいずれか1項に記載のプログラム。
When a plurality of the planar images are superimposed on a predetermined area when the wide-angle image is displayed,
The correcting means corrects the pixel value of the wide-angle image according to the displacement amount of the planar image with the smallest displacement amount of the line-of-sight direction and the center point of the planar image, or
The program according to any one of claims 1 to 8, wherein a pixel value of the wide-angle image is corrected according to the amount of displacement from the planar image having the largest area in the predetermined region.
前記広角画像が表示された際の所定領域に複数の前記平面画像が重畳される場合、
前記補正手段は、前記視線方向と複数の前記平面画像の中心点との変位量の加重平均から割合を算出し、前記割合で複数の前記平面画像の画素値を前記広角画像の画素値に反映させることで前記広角画像の画素値を補正するか、又は、
前記所定領域における複数の前記平面画像の面積の加重平均から割合を算出し、前記割合で複数の前記平面画像の画素値を前記広角画像の画素値に反映させることで前記広角画像の画素値を補正する請求項1〜8のいずれか1項に記載のプログラム。
When a plurality of the planar images are superimposed on a predetermined area when the wide-angle image is displayed,
The correction means calculates a ratio from a weighted average of displacement amounts between the line-of-sight direction and the center points of the plurality of planar images, and reflects the pixel values of the plurality of planar images in the pixel values of the wide-angle image at the ratio. To correct the pixel value of the wide-angle image, or
A ratio is calculated from a weighted average of the areas of the plurality of planar images in the predetermined region, and the pixel values of the plurality of planar images are reflected in the pixel values of the wide-angle image at the ratios, thereby obtaining the pixel values of the wide-angle image. The program according to any one of claims 1 to 8, which is corrected.
前記補正手段は、前記第1の射影方式によって撮像された第四の広角画像の明るさ値又は色値と、前記第四の広角画像とは異なる露光条件の第五の広角画像の明るさ値又は色値とを、前記第四の広角画像の所定領域の輝度情報に応じた割合で合成して第三の補正画像を生成し、
前記変位量が第2の閾値を超える場合、前記平面画像を補正せず、
前記画像作成手段は前記第三の補正画像で表示用の画像を作成する請求項1に記載のプログラム。
The correction means includes a brightness value or a color value of a fourth wide-angle image captured by the first projection method, and a brightness value of a fifth wide-angle image having an exposure condition different from that of the fourth wide-angle image. Or a color value is synthesized at a ratio according to the luminance information of the predetermined area of the fourth wide-angle image to generate a third corrected image,
If the displacement amount exceeds the second threshold, the planar image is not corrected,
The program according to claim 1, wherein the image creating unit creates an image for display using the third corrected image.
前記補正手段は、前記第1の射影方式によって撮像された第四の広角画像の明るさ値又は色値と、前記第四の広角画像とは異なる露光条件の第五の広角画像の明るさ値又は色値とを前記第四の広角画像の所定領域の輝度情報に応じた割合で合成して第三の補正画像を生成し、
前記平面画像を前記第三の補正画像の明るさ値又は色値に近づけた第四の補正画像を生成し、
前記画像作成手段は、前記第三の補正画像の前記対応領域に、前記第四の補正画像を重畳する請求項1に記載のプログラム。
The correction means includes a brightness value or a color value of a fourth wide-angle image captured by the first projection method, and a brightness value of a fifth wide-angle image having an exposure condition different from that of the fourth wide-angle image. Alternatively, a third correction image is generated by combining the color value with a ratio according to the luminance information of the predetermined area of the fourth wide-angle image,
Generating a fourth corrected image in which the planar image is close to the brightness value or color value of the third corrected image;
The program according to claim 1, wherein the image creating unit superimposes the fourth corrected image on the corresponding area of the third corrected image.
前記補正手段は、視線方向と画角により指定される前記第四の広角画像の所定領域の輝度情報に基づいて、前記第四の広角画像の所定領域より明るい前記第五の広角画像又は前記第四の広角画像の所定領域より暗い前記第五の広角画像を選択し、
前記第四の広角画像と選択した前記第五の広角画像とを合成する請求項11又は12に記載のプログラム。
The correction means is configured to determine whether the fifth wide-angle image or the fifth bright-angle image is brighter than the predetermined area of the fourth wide-angle image based on luminance information of the predetermined area of the fourth wide-angle image specified by the viewing direction and the angle of view. Selecting the fifth wide-angle image darker than a predetermined region of the four wide-angle images;
The program according to claim 11 or 12, wherein the fourth wide-angle image and the selected fifth wide-angle image are synthesized.
第1の射影方式によって得られた広角画像に対し、第2の射影方式によって得られた平面画像を重畳する情報処理装置を、
前記広角画像において前記平面画像が対応する対応領域を算出する射影方式逆変換手段と、
前記広角画像の視線方向と前記平面画像の中心との変位量に応じて、前記広角画像と前記平面画像の少なくとも一方を補正する補正手段と、
前記補正手段により補正された前記広角画像の前記対応領域に、前記補正手段により補正された前記平面画像を重畳する画像作成手段、
として機能させることを特徴とするプログラムと、
第1の撮像装置から前記広角画像を取得し、第2の撮像装置から前記平面画像を取得する取得手段と、を有する前記情報処理装置と、
を有する撮像システム。
An information processing apparatus that superimposes a planar image obtained by the second projection method on a wide-angle image obtained by the first projection method,
A projection method inverse transform means for calculating a corresponding area corresponding to the planar image in the wide-angle image;
Correction means for correcting at least one of the wide-angle image and the planar image according to the amount of displacement between the line-of-sight direction of the wide-angle image and the center of the planar image;
Image creating means for superimposing the planar image corrected by the correcting means on the corresponding area of the wide-angle image corrected by the correcting means;
A program characterized by functioning as
An acquisition unit that acquires the wide-angle image from a first imaging device and acquires the planar image from a second imaging device;
An imaging system.
第1の射影方式によって得られた広角画像に対し、第2の射影方式によって得られた平面画像を重畳する情報処理装置であって、
前記広角画像において前記平面画像が対応する対応領域を算出する射影方式逆変換手段と、
前記広角画像の視線方向と前記平面画像の中心との変位量に応じて、前記広角画像と前記平面画像の少なくとも一方を補正する補正手段と、
前記補正手段により補正された前記広角画像の前記対応領域に、前記補正手段により補正された前記平面画像を重畳する画像作成手段と、
を有する情報処理装置。
An information processing apparatus that superimposes a planar image obtained by a second projection method on a wide-angle image obtained by a first projection method,
A projection method inverse transform means for calculating a corresponding area corresponding to the planar image in the wide-angle image;
Correction means for correcting at least one of the wide-angle image and the planar image according to the amount of displacement between the line-of-sight direction of the wide-angle image and the center of the planar image;
Image creating means for superimposing the planar image corrected by the correcting means on the corresponding area of the wide-angle image corrected by the correcting means;
An information processing apparatus.
JP2017208677A 2016-12-28 2017-10-27 Program, imaging system, and information processing apparatus Pending JP2018157538A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2017/047192 WO2018124268A1 (en) 2016-12-28 2017-12-28 Image processing apparatus, image processing system, image capturing system, image processing method, and recording medium
CN201780081095.6A CN110114798A (en) 2016-12-28 2017-12-28 Image processing equipment, image processing system, image capture system, image processing method and recording medium
EP17840600.5A EP3563337A1 (en) 2016-12-28 2017-12-28 Image processing apparatus, image processing system, image capturing system, image processing method, and recording medium
US16/474,458 US20190340737A1 (en) 2016-12-28 2017-12-28 Image processing apparatus, image processing system, image capturing system, image processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017051838 2017-03-16
JP2017051838 2017-03-16

Publications (1)

Publication Number Publication Date
JP2018157538A true JP2018157538A (en) 2018-10-04

Family

ID=63716904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017208677A Pending JP2018157538A (en) 2016-12-28 2017-10-27 Program, imaging system, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP2018157538A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111767700A (en) * 2019-04-01 2020-10-13 珠海金山办公软件有限公司 Graph adjusting method and device
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111767700A (en) * 2019-04-01 2020-10-13 珠海金山办公软件有限公司 Graph adjusting method and device
CN111767700B (en) * 2019-04-01 2023-10-27 珠海金山办公软件有限公司 Graph adjustment method and device
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Similar Documents

Publication Publication Date Title
US10681271B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
US10789671B2 (en) Apparatus, system, and method of controlling display, and recording medium
US10638039B2 (en) Apparatus, system, and method of controlling image capturing, and recording medium
US20190340737A1 (en) Image processing apparatus, image processing system, image capturing system, image processing method, and recording medium
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
US11393070B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US10855916B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US10937134B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP7135299B2 (en) Image processing device, display device, image processing method, program
US20190306420A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2019164782A (en) Image processing apparatus, image capturing system, image processing method, and program
US20200236277A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2018110384A (en) Image processing apparatus, imaging system, image processing method and program
US11250540B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
WO2018124267A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2018157538A (en) Program, imaging system, and information processing apparatus
JP2018109946A (en) Display device, program, and method for display
JP2019185757A (en) Image processing device, imaging system, image processing method, and program
JP2019164783A (en) Image processing apparatus, image capturing system, image processing method, and program
JP2018109971A (en) Image processing device, image processing system, photographing system, image processing method, and program
JP2018110385A (en) Communication terminal, imaging system, method for image processing, and program
CN112887663A (en) Image display method, image communication system, image capturing apparatus, and storage medium
JP2017162014A (en) Communication terminal, image communication system, display method, and program