JP6824143B2 - Imaging equipment, imaging systems, image processing methods, information processing equipment, and programs - Google Patents

Imaging equipment, imaging systems, image processing methods, information processing equipment, and programs Download PDF

Info

Publication number
JP6824143B2
JP6824143B2 JP2017226953A JP2017226953A JP6824143B2 JP 6824143 B2 JP6824143 B2 JP 6824143B2 JP 2017226953 A JP2017226953 A JP 2017226953A JP 2017226953 A JP2017226953 A JP 2017226953A JP 6824143 B2 JP6824143 B2 JP 6824143B2
Authority
JP
Japan
Prior art keywords
image
conversion data
image pickup
spherical
tilt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017226953A
Other languages
Japanese (ja)
Other versions
JP2018038087A (en
JP2018038087A5 (en
Inventor
竹中 博一
博一 竹中
祥明 入野
祥明 入野
田中 智憲
智憲 田中
今江 望
望 今江
山本 英明
英明 山本
憲介 増田
憲介 増田
伊藤 洋一
洋一 伊藤
聡 澤口
聡 澤口
大介 別所
大介 別所
佐藤 裕之
裕之 佐藤
誠 庄原
誠 庄原
寺尾 典之
典之 寺尾
亨 原田
亨 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2018038087A publication Critical patent/JP2018038087A/en
Publication of JP2018038087A5 publication Critical patent/JP2018038087A5/ja
Application granted granted Critical
Publication of JP6824143B2 publication Critical patent/JP6824143B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置、撮像システム、情報処理装置、及びプログラムに関する。 The present invention relates to an imaging device, an imaging system, an information processing device, and a program.

従来、全方位(又は全天球)を撮像する装置として、双曲面ミラーを用いたものや、魚眼レンズを用いたもの等が存在する。これらは、特殊な光学系であり、ユーザにとって可視化可能な画像にするためには、歪み補正や射影変換といった非線形な画像変換を行う必要がある。 Conventionally, as a device for imaging omnidirectional (or omnidirectional), there are a device using a hyperboloid mirror, a device using a fisheye lens, and the like. These are special optical systems, and in order to make an image visible to the user, it is necessary to perform non-linear image conversion such as distortion correction and projective transformation.

魚眼レンズを用いた広角撮影により得られる半球を記録した歪曲円形画像より、その一部を切り出し、コンピュータで画像処理を行って歪曲している画像を平面正則画像に変換する技術が既に知られている。 A technique is already known in which a part of a distorted circular image obtained by recording a hemisphere obtained by wide-angle photography using a fisheye lens is cut out and image processing is performed by a computer to convert the distorted image into a regular plane image. ..

さらに、そのような画像処理を行う際に、円形歪曲画像の中心位置が天頂方向と正しく一致していない場合に、ユーザに傾き角度のパラメータを指定させることにより、画像の歪曲補正時の負荷を軽減する技術も存在しており、既に知られている。 Further, when performing such image processing, when the center position of the circularly distorted image does not correctly match the zenith direction, the load at the time of image distortion correction is increased by having the user specify the tilt angle parameter. Techniques for mitigation also exist and are already known.

このように、撮像装置が傾いた状態で撮影されると、鉛直方向の間違った全方位(全天球)画像が作成される可能性があり、それを解決するための発明が既に知られている。 In this way, when the image pickup device is taken in an inclined state, there is a possibility that an omnidirectional (omnidirectional) image in the vertical direction is created, and an invention for solving this may already be known. There is.

特許文献1又は特許文献2には、非線形な画像変換工程に、カメラの傾きに応じた回転変換を追加することにより、鉛直方向の正しい全方位(全天球)画像を作成する技術が開示されている。 Patent Document 1 or Patent Document 2 discloses a technique for creating a correct omnidirectional (omnidirectional) image in the vertical direction by adding a rotation conversion according to the tilt of the camera to the non-linear image conversion step. ing.

また、特許文献3又は特許文献4には、鉛直方向の正しい全方位(全天球)画像を生成するのに要する時間の短縮化、又は演算コストの低減を達成する目的で、歪み補正や射影変換に加え、カメラの傾きに応じた回転変換を加えて一括して非線形変換を行うための変換テーブルを事前に作成しておき、撮影時にはこの変換テーブルによる一括変換を行うことにより、鉛直方向の正しい全方位(全天球)画像を高速に作成する技術が開示されている。 Further, in Patent Document 3 or Patent Document 4, distortion correction and projection are performed for the purpose of shortening the time required to generate a correct omnidirectional (omnidirectional) image in the vertical direction or reducing the calculation cost. In addition to the conversion, a conversion table for performing non-linear conversion collectively by adding rotation conversion according to the tilt of the camera is created in advance, and batch conversion using this conversion table is performed at the time of shooting in the vertical direction. A technique for creating a correct omnidirectional (omnidirectional) image at high speed is disclosed.

しかしながら、今までの全天球撮像装置では、一度に複数の撮影方向から撮影した複数の画像を繋ぎあわせ、、さらに、平面正則画像に変換して表示する際に、ユーザによる撮影時の傾き角度の指定が必要であり、撮影時に補正に必要なパラメータを取得して自動的に画像の補正を行うことができないという問題があった。 However, in the conventional spherical image pickup device, when a plurality of images taken from a plurality of shooting directions at one time are joined together and further converted into a plane regular image and displayed, the tilt angle at the time of shooting by the user is displayed. It is necessary to specify, and there is a problem that it is not possible to acquire the parameters necessary for correction at the time of shooting and automatically correct the image.

また、従来行われてきた、傾きに対応した変換テーブルを用いて画像を処理する全方位(全天球)撮像方法では、傾きの量や向きが変化した場合、変換テーブルを最初から改めて作り直す必要がある。この場合、撮像装置の任意の傾きに対応して、鉛直方向の正しい全方位(全天球)画像を生成するためには、処理に時間がかかるという問題があった。 In addition, in the conventional omnidirectional (omnidirectional) imaging method that processes an image using a conversion table corresponding to tilt, if the amount or orientation of tilt changes, it is necessary to recreate the conversion table from the beginning. There is. In this case, there is a problem that processing takes time in order to generate a correct omnidirectional (omnidirectional) image in the vertical direction corresponding to an arbitrary tilt of the image pickup apparatus.

特に、特許文献3又は特許文献4に記載された技術は、カメラの傾きに応じた回転変換を含む変換テーブルを用いて画像生成を行っているが、事前に定めた傾き量に応じた変換テーブルを用いている。すなわち、傾きの量や向きが定めた傾きとは異なって変化した場合、変換テーブルを最初から作成し直すため、撮像装置の任意の傾きに対応して、鉛直方向の正しい全方位(全天球)画像生成を行うには、処理に時間がかかるという問題は依然として解決されていない。 In particular, in the technique described in Patent Document 3 or Patent Document 4, image generation is performed using a conversion table including rotation conversion according to the tilt of the camera, but a conversion table according to a predetermined tilt amount is used. Is used. That is, if the amount or orientation of the tilt changes differently from the defined tilt, the conversion table is recreated from the beginning, so the correct omnidirectional (omnidirectional) vertical direction corresponds to any tilt of the imaging device. ) The problem that it takes a long time to generate an image has not been solved yet.

そこで、本発明は、上記従来の問題点に鑑みてなされたもので、撮像装置の任意の傾きに対応して、鉛直方向の正しい全方位(全天球)画像を生成することが可能な撮像装置を提供することを目的とする。 Therefore, the present invention has been made in view of the above-mentioned conventional problems, and is capable of generating a correct omnidirectional (omnidirectional) image in the vertical direction in response to an arbitrary tilt of the imaging device. The purpose is to provide the device.

上記課題を解決するため、請求項1に記載の本発明における撮像装置は、広角レンズを介して入力された像を撮影する撮像素子を備えた撮像装置であって、前記撮像素子による撮影毎に前記撮像装置の重力方向に対する傾きを検出する傾き検出手段と、前記撮像素子により撮影された平面座標値で表現される平面画像を球面座標値で表現される球面画像に変換するための変換データを記憶する記憶手段と、前記変換データにより変換された球面画像を生成する生成手段と、をさらに備え、前記変換データは、前記傾き検出手段により撮影毎に検出された前記撮像装置の重力方向に対する傾きに応じて撮影毎に補正されることを特徴とする。 In order to solve the above problems, the image pickup apparatus according to the present invention according to claim 1 is an image pickup apparatus provided with an image pickup element that captures an image input via a wide-angle lens, and each time the image pickup device captures an image. The tilt detecting means for detecting the tilt of the image pickup device with respect to the gravity direction and the conversion data for converting the plane image represented by the plane coordinate values taken by the image pickup element into the spherical image represented by the spherical coordinate values. A storage means for storing and a generation means for generating a spherical image converted by the conversion data are further provided, and the conversion data is tilted with respect to the gravity direction of the imaging device detected for each shooting by the tilt detecting means. It is characterized in that it is corrected for each shooting according to.

本発明によれば、全方位(全天球)撮像装置において、撮像装置の任意の傾きに対応して、鉛直方向の正しい全方位(全天球)画像を生成することが可能となる。 According to the present invention, in an omnidirectional (omnidirectional) imaging device, it is possible to generate a correct omnidirectional (omnidirectional) image in the vertical direction corresponding to an arbitrary tilt of the imaging device.

実施形態における撮像装置の全体構成について説明する概略ブロック図である。It is a schematic block diagram explaining the whole structure of the image pickup apparatus in embodiment. 実施形態における全方位(全天球)撮像装置の側面視における外観を示す図である。It is a figure which shows the appearance in the side view of the omnidirectional (omnidirectional) image pickup apparatus in embodiment. 実施形態における撮像装置の動作フローについて説明するフローチャート図である。It is a flowchart explaining the operation flow of the image pickup apparatus in embodiment. 実施形態における撮像装置に用いられる魚眼レンズの射影関係について(a)魚眼レンズの側面視における外観、(b)撮影画像の平面視における射影関数f、をそれぞれ説明する図である。It is a figure explaining the projection relationship of the fisheye lens used for the image pickup apparatus in an embodiment, (a) the appearance of the fisheye lens in the side view, and (b) the projection function f in the plan view of the photographed image. 実施形態における撮像装置で撮影された全方位(全天球)画像フォーマットについて、(a)平面で表した場合、(b)球面で表した場合、についてそれぞれ説明する図である。It is a figure explaining the omnidirectional (omnidirectional) image format photographed by the image pickup apparatus in the embodiment, when (a) is represented by a plane and (b) is represented by a spherical surface. 実施形態における撮像装置で撮影された全方位(全天球)画像生成処理の概要について、(a1)(a2)2つの魚眼レンズで撮影された画像、(b1)(b2)変換テーブルによって変換された魚眼レンズで撮影された画像、(c)変換後の2つの画像が組み合わせられることにより生成された画像、をそれぞれ説明する図である。The outline of the omnidirectional (omnidirectional) image generation process taken by the image pickup apparatus in the embodiment was converted by (a1) (a2) images taken by two fisheye lenses and (b1) (b2) conversion table. It is a figure explaining each of the image taken by a fisheye lens and (c) the image generated by combining the two images after conversion. 実施形態における撮像装置で撮影された全方位(全天球)画像の変換テーブルについて、(a)変換前後の画像座標値のマトリクス、(b)変換後画像の座標値、(c)変換前画像の座標値、をそれぞれ説明する図である。Regarding the conversion table of the omnidirectional (omnidirectional) image taken by the imaging device in the embodiment, (a) a matrix of image coordinate values before and after conversion, (b) coordinate values of the image after conversion, and (c) an image before conversion. It is a figure explaining each of the coordinate values of. 実施形態における撮像装置で撮影された全方位(全天球)画像に対する変換テーブルの補正処理の動作フローについて説明するフローチャート図である。It is a flowchart explaining the operation flow of the correction processing of the conversion table with respect to the omnidirectional (omnidirectional) image taken by the image pickup apparatus in embodiment. 実施形態における撮像装置の傾きについて説明する概略図である。It is the schematic explaining the inclination of the image pickup apparatus in an embodiment. 実施形態における撮像装置で撮影された全方位(全天球)画像の鉛直補正演算について、(a)カメラ座標系、(b)グローバル座標系、を用いて説明する図である。It is a figure explaining the vertical correction calculation of the omnidirectional (omnidirectional) image taken by the image pickup apparatus in embodiment using (a) a camera coordinate system, and (b) a global coordinate system. 実施形態における撮像装置で撮影された全方位(全天球)画像の鉛直補正演算の他の例について、(a)カメラ座標系、(b)グローバル座標系、を用いて説明する図である。It is a figure explaining another example of the vertical correction calculation of the omnidirectional (omnidirectional) image taken by the image pickup apparatus in embodiment, using (a) a camera coordinate system, (b) a global coordinate system. 実施形態における撮像装置で撮影された全方位(全天球)画像に対する変換テーブルの補正処理の動作フローの他の例について説明する図である。It is a figure explaining another example of the operation flow of the correction processing of the conversion table with respect to the omnidirectional (omnidirectional) image taken by the image pickup apparatus in embodiment. 他の実施形態における撮像システムの全体構成について説明する図である。It is a figure explaining the whole structure of the image pickup system in another embodiment. 他の実施形態における撮像システムの転送先デバイスの電子回路の全体構成について説明する概略ブロック図である。It is a schematic block diagram explaining the whole structure of the electronic circuit of the transfer destination device of the image pickup system in another embodiment. 他の実施形態における撮像システムの動作フローについて説明するフローチャート図である。It is a flowchart explaining the operation flow of the image pickup system in another embodiment. 全方位(全天球)を一度に撮影する多眼の撮像装置の構成について説明する図である。It is a figure explaining the structure of the multi-eye image pickup apparatus which captures all directions (omnidirectional) at once. 図16の多眼の撮像装置における1つのレンズから得られる画像について説明する図である。It is a figure explaining the image obtained from one lens in the multi-eye image pickup apparatus of FIG. 図17で得られた画像に歪曲補正を施した上で接合した画像について説明する図である。It is a figure explaining the image which joined after applying the distortion correction to the image obtained in FIG. 図16の多眼の撮像装置を傾けて撮影を行った場合の画像について説明する図である。It is a figure explaining the image at the time of taking a picture by tilting the multi-eye image pickup apparatus of FIG. 図19の画像を、傾きを考慮せずに歪曲補正と画像合成を行った場合の画像について説明する図である。It is a figure explaining the image at the time of performing distortion correction and image composition without considering the inclination of the image of FIG. 傾き角度を計測する加速度センサを模式的に説明する図である。It is a figure which illustrates typically the acceleration sensor which measures a tilt angle.

本発明を実施するための形態について図面を参照して詳細に説明する。なお、各図中、同一又は相当する部分には同一の符号を付しており、その重複説明は適宜に簡略化乃至省略する。本実施形態では、全方位(全天球)撮像装置において、全方位(全天球)画像の生成を行うに際して、鉛直方向を検出し、画像処理に用いる変換テーブルに対して鉛直方向に応じた補正を行う。本実施形態では、この補正された変換テーブルを用いて全方位(全天球)画像の生成を行うことにより、最初から変換テーブルを作成し直す必要がなく、処理時間が短縮される。なお、撮像装置とは、デジタルカメラのような単体の装置を意味し、撮像システムとは、複数の装置、例えば、デジタルカメラと、情報処理装置とが分離して利用されるものと意味するが、本実施形態で、特に、断りがなければ、撮像装置は撮像システムを概念的に含むものとする。 A mode for carrying out the present invention will be described in detail with reference to the drawings. In each figure, the same or corresponding parts are designated by the same reference numerals, and the duplicated description thereof will be appropriately simplified or omitted. In the present embodiment, when the omnidirectional (omnidirectional) image pickup device generates an omnidirectional (omnidirectional) image, the vertical direction is detected and the vertical direction is adjusted with respect to the conversion table used for image processing. Make corrections. In the present embodiment, by generating the omnidirectional (omnidirectional) image using this corrected conversion table, it is not necessary to recreate the conversion table from the beginning, and the processing time is shortened. The image pickup device means a single device such as a digital camera, and the image pickup system means that a plurality of devices, for example, a digital camera and an information processing device are used separately. In the present embodiment, unless otherwise specified, the imaging device conceptually includes an imaging system.

ここで、全方位(全天球)を一度に撮影する多眼の撮像装置について説明する。図16は、全方位(全天球)を一度に撮影する多眼の撮像システムの構成について説明する図である。図16において、全方位(全天球)を一度に撮影するために、広角レンズを複数枚用いる撮像システムを作成する。 Here, a multi-lens imaging device that captures all directions (omnidirectional) at once will be described. FIG. 16 is a diagram illustrating a configuration of a multi-eye imaging system that captures all directions (omnidirectional) at once. In FIG. 16, an imaging system using a plurality of wide-angle lenses is created in order to photograph all directions (omnidirectional) at one time.

例えば、図16の左側の多眼の撮像装置において、1つの撮像レンズで180度以上の画角を有する魚眼レンズ(超広角レンズ)を利用すると、最小の構成として、2眼(2つの異なる撮像方向を持つ撮像レンズ)の構成のみで全方位(全天球)を一度に撮影することができる。2眼以外であっても、なるべく画像の歪みを軽減したい場合には、中心部分の画質が良い部分のみを選択的に利用する、図16の右側に示した4眼(4つの異なる撮像方向を持つ撮像レンズ)の構成を取るなど、さらに撮像レンズを増やすこと等も可能である。この4眼の撮像装置では、1眼が90度以上、好ましくは100度前後の画角を有するレンズを用いることが望まれる。 For example, in the multi-lens imaging device on the left side of FIG. 16, when a fisheye lens (ultra-wide-angle lens) having an angle of view of 180 degrees or more with one imaging lens is used, two eyes (two different imaging directions) are used as the minimum configuration. It is possible to shoot all directions (all celestial spheres) at once only by the configuration of the image pickup lens). If you want to reduce image distortion as much as possible even if you have other than two eyes, you can selectively use only the part with good image quality in the central part, and use the four eyes (four different imaging directions) shown on the right side of FIG. It is also possible to increase the number of image pickup lenses by adopting the configuration of the image pickup lens to have. In this four-eye imaging device, it is desirable to use a lens in which one eye has an angle of view of 90 degrees or more, preferably about 100 degrees.

以下の説明において、基本的な概念は図16の右側に示した4眼の構成でも適用可能であるが、基本概念を理解し易くするため、以下の説明は2眼の構成の撮像装置を例示に用いる。 In the following description, the basic concept can be applied to the four-eye configuration shown on the right side of FIG. 16, but in order to make the basic concept easier to understand, the following description illustrates an imaging device having a two-eye configuration. Used for.

この撮像装置においては、撮像装置の縦方向の中心軸が、天球の垂直軸と一致することを想定している。例えば、2つの魚眼レンズを用いて各々のレンズから得られる画像は、図17のようになっている。図17は、図16の左側の2眼の撮像装置における1つのレンズを通して得られる画像について説明する図である。このように、撮影した者が認識する天頂と、水平線とが一致するように撮像されることが好ましい。 In this image pickup apparatus, it is assumed that the vertical central axis of the image pickup apparatus coincides with the vertical axis of the celestial sphere. For example, an image obtained from each lens using two fisheye lenses is as shown in FIG. FIG. 17 is a diagram illustrating an image obtained through one lens in the two-eye imaging device on the left side of FIG. In this way, it is preferable that the image is taken so that the zenith recognized by the photographer and the horizon coincide with each other.

なお、図中の180度の境界とは、2つのレンズ(2つの撮像方向)を持つ、撮像システムでは、互いに重畳する領域を持つように撮像することにより、この重畳する領域を用いて画像の繋ぎ合わせを行う。この180度の境界よりも外側部分が、この重畳する領域である。したがって、2つのレンズを用いる場合は、1つのレンズ側は180度以上、好ましくは190度前後の画角を有して、重畳する領域を設けることになる。たとえば、4眼であれば、100度前後の画角を有すれば、適切な重畳する領域を設定することができる。 The 180-degree boundary in the figure means that in an imaging system having two lenses (two imaging directions), images are taken so as to have regions that overlap each other, and the overlapping regions are used to capture an image. Make a connection. The portion outside the 180-degree boundary is the overlapping region. Therefore, when two lenses are used, one lens side has an angle of view of 180 degrees or more, preferably about 190 degrees, and an overlapping region is provided. For example, in the case of four eyes, if the angle of view is around 100 degrees, an appropriate overlapping area can be set.

図16の右側に示したレンズを4つ使用する構成であっても、撮像装置が正しく垂直に向けられて撮影された場合には、同様に水平線が正しく水平に撮影される。また、天頂の位置も一致する。この様にして撮影された画像を繋ぎ合わせて歪曲補正を行う手法が広く知られている。 Even in the configuration using four lenses shown on the right side of FIG. 16, when the image pickup device is correctly oriented vertically and photographed, the horizontal line is correctly photographed horizontally. The position of the zenith also matches. A method of joining images taken in this way to perform distortion correction is widely known.

例えば、複数の画像の歪曲補正を行いつつ、地図のメルカトール図法的に繋ぎ合わせた場合には以下の図18に示すような画像が得られる。図18は、図17で得られた画像に歪曲補正を施した上で接合した画像について説明する図である。 For example, when a plurality of images are corrected for distortion and the maps are connected in a Mercator projection manner, an image as shown in FIG. 18 below can be obtained. FIG. 18 is a diagram illustrating an image obtained by applying distortion correction to the image obtained in FIG. 17 and then joining the images.

撮像装置が正しく垂直方向に載置され、傾くことなく撮影されると、歪曲補正を行って接続するだけで、図18に示すように水平線が正しく直線となるような画像を得ることができる。撮像装置を何らかの固定具に装着し、水準器等を用いて水平/垂直を調整して撮影される場合には、正しく垂直方向の撮影が可能となる。 When the image pickup device is correctly placed in the vertical direction and photographed without tilting, it is possible to obtain an image in which the horizontal line is correctly straight as shown in FIG. 18 simply by performing distortion correction and connecting. When the image pickup device is attached to some kind of fixture and the horizontal / vertical adjustment is performed using a spirit level or the like, the image can be correctly photographed in the vertical direction.

図19は、図16の右側に示した多眼、2眼の撮像装置を傾けて撮影された場合の画像について説明する図である。一般的に、人間が手に持って撮影する場合には、水平で垂直に撮影されることは難しい。図19は、そのような状況で撮影された画像の例示で、互いの画像の天頂部がずれ、水平線が歪む。このように、傾いて撮影された画像を、何ら傾きを考慮せずに歪曲補正及び接続を行うと、図20に示すように、図19で現れた水平線の歪みがそのまま反映された画像となってしまう。 FIG. 19 is a diagram illustrating an image taken when the multi-eye and two-eye image pickup devices shown on the right side of FIG. 16 are tilted. In general, when a person holds it in his hand and shoots it, it is difficult to shoot horizontally and vertically. FIG. 19 is an example of images taken in such a situation, in which the zeniths of the images are displaced from each other and the horizon is distorted. When the image taken at an inclination is corrected for distortion and connected without considering the inclination in this way, as shown in FIG. 20, the distortion of the horizontal line appearing in FIG. 19 is reflected as it is. It ends up.

この図20のように、撮像装置が傾いている場合に、傾き角を考慮せずに歪曲補正と画像の接合を行うと、水平線が三角関数的な曲線となってしまい、また、角度の直交性も崩れてしまう。そのため、鉛直方向からの傾き角を考慮した補正を行う必要がある。 As shown in FIG. 20, when the image pickup device is tilted and the distortion correction and the image joining are performed without considering the tilt angle, the horizontal line becomes a trigonometric curve, and the angle is orthogonal. The sex also collapses. Therefore, it is necessary to make a correction in consideration of the inclination angle from the vertical direction.

ここで、傾き角度を測定する原理について図21を用いて説明する。図21は、傾き角度を計測する加速度センサを模式的に説明する図である。撮像装置内に、図21に示すような加速度センサを内蔵させ、撮像装置が鉛直方向からどの程度傾いているのかを重力加速度センサを用いて測定する。 Here, the principle of measuring the tilt angle will be described with reference to FIG. FIG. 21 is a diagram schematically illustrating an acceleration sensor that measures a tilt angle. An acceleration sensor as shown in FIG. 21 is built in the image pickup device, and the degree of inclination of the image pickup device from the vertical direction is measured by using the gravitational acceleration sensor.

図21では、簡単化のために、2眼構成でレンズ面の中心軸を含む平面内での傾きのみを取得することを表すため、1軸の加速度センサを用いた角度取得の概要を図示している。ただし、実際にユーザが撮影を行う場合には、上述した平面から捩れた角度で撮影が行われることが想定される。そのため、加速度センサとしては、3軸の物を用いて、2つのレンズ中心面を含む平面からの捩れ角度も測定できるようにする。 FIG. 21 illustrates an outline of angle acquisition using a uniaxial accelerometer in order to show that only the inclination in the plane including the central axis of the lens surface is acquired in the binocular configuration for simplification. ing. However, when the user actually shoots, it is assumed that the shooting is performed at an angle twisted from the above-mentioned plane. Therefore, as the acceleration sensor, a three-axis one is used so that the twist angle from the plane including the two lens center planes can also be measured.

次に、本実施形態における撮像装置について詳細に説明していく。図1は、実施形態における撮像装置の電子的な回路の全体構成について説明する概略ブロック図である。図1において、撮像装置(以下、「デジタルカメラ」ともいう。)100は、撮像素子1 109と、撮像素子2 110と、SDRAM(Synchronous Dynamic Random Access Memo
ry)111と、外部ストレージ112と、加速度センサ113とが、それぞれコントローラ10に接続されている。
Next, the image pickup apparatus in this embodiment will be described in detail. FIG. 1 is a schematic block diagram illustrating an overall configuration of an electronic circuit of an imaging device according to an embodiment. In FIG. 1, the image sensor (hereinafter, also referred to as “digital camera”) 100 includes an image sensor 1 109, an image sensor 2 110, and an SDRAM (Synchronous Dynamic Random Access Memo).
ry) 111, the external storage 112, and the acceleration sensor 113 are connected to the controller 10, respectively.

ここで、本実施形態では、2つの撮像素子(いわゆる2眼)を用いて、全方位の画像を取得する構成としているが、この撮像素子は3つ以上でも良い。この撮像素子が3つ以上の場合、図2で説明する撮像素子に対応するレンズとしては、180度以上の画角を有する必要は無く、適宜に画角を調整することが可能である。なお、一般的には、レンズとしては、魚眼レンズを含む広角レンズが用いられる。また、撮像装置としては、全方位に限らず、水平方向に360度をカバーするような画像を取得できるものであっても良い。 Here, in the present embodiment, two image pickup elements (so-called two eyes) are used to acquire an omnidirectional image, but the number of the image pickup elements may be three or more. When there are three or more image pickup devices, the lens corresponding to the image pickup device described with reference to FIG. 2 does not need to have an angle of view of 180 degrees or more, and the angle of view can be adjusted as appropriate. In general, a wide-angle lens including a fisheye lens is used as the lens. Further, the image pickup device may be one that can acquire an image that covers 360 degrees in the horizontal direction, not limited to all directions.

コントローラ10は、CPU(Central Processing Unit)101と、SRAM(Static RAM)102と、ROM(Read Only Memory)103と、画像処理ブロック104と、SDRAM I/F(Inter/Face)105と、外部ストレージI/F 106と、外部センサI/F 107とを具備している。 The controller 10 includes a CPU (Central Processing Unit) 101, a SRAM (Static RAM) 102, a ROM (Read Only Memory) 103, an image processing block 104, an SDRAM I / F (Inter / Face) 105, and an external storage. It includes an I / F 106 and an external sensor I / F 107.

なお、この実施形態において、画像処理ブロック104は、歪み補正、画素欠陥補正等の一般的な画像処理を行い、CPUが所定のテーブルやプログラムを読み出して、デジタルカメラ100の傾きにより鉛直方向の補正処理を行うことで説明を行っている。しかしながら、鉛直方向の補正処理を、画像処理ブロック104で行っても良いことはいうまでもない。 In this embodiment, the image processing block 104 performs general image processing such as distortion correction and pixel defect correction, the CPU reads a predetermined table or program, and corrects in the vertical direction by tilting the digital camera 100. The explanation is given by performing the processing. However, it goes without saying that the correction process in the vertical direction may be performed by the image processing block 104.

撮影時は、撮像素子1 109及び撮像素子2 110によって、デジタル化された画像データがコントローラ10の画像処理ブロック104に入力される。入力された画像データは、画像処理ブロック104、CPU101、SRAM102、SDRAM111等を使って画像処理され、最終的に外部ストレージ112に保存される。なお、外部ストレージとしては、例えば、コンパクトフラッシュ(登録商標)、SD(Secure Digital)メモリ等が挙げられる。 At the time of shooting, the image sensor 1 109 and the image sensor 2 110 input the digitized image data to the image processing block 104 of the controller 10. The input image data is image-processed using the image processing block 104, the CPU 101, the SRAM 102, the SDRAM 111, and the like, and finally stored in the external storage 112. Examples of the external storage include a compact flash (registered trademark), an SD (Secure Digital) memory, and the like.

さらに、コントローラ10には、外部の機器に接続するためのUSB(Universal Serial Bus)接続I/Fやネットワークに接続するための有線又は無線のネットワークI/Fが設けられても良い。なお、後述する変換テーブル、変換テーブルの補正処理プログラム、鉛直補正演算の処理プログラムは、先のSRAM102や、SDRAM111に記憶されている。 Further, the controller 10 may be provided with a USB (Universal Serial Bus) connection I / F for connecting to an external device or a wired or wireless network I / F for connecting to a network. The conversion table, the correction processing program for the conversion table, and the processing program for the vertical correction calculation, which will be described later, are stored in the SRAM 102 and the SDRAM 111.

加速度センサ113は、デジタルカメラ100の撮影時の傾きを検出するために使用される。これにより、デジタルカメラ100の傾き方向の検出を瞬時に、かつ容易に行うことができる。 The acceleration sensor 113 is used to detect the tilt of the digital camera 100 during shooting. As a result, the tilt direction of the digital camera 100 can be detected instantly and easily.

加速度センサ113は、デジタルカメラ100に対して、上下、左右、前後の互いに直交する3方向の加速度を検出する3軸加速度センサである。例えば、デジタルカメラ100が静止するように手で保持した場合、加速度センサ113は重力加速度のみを検出する。 The acceleration sensor 113 is a three-axis acceleration sensor that detects acceleration in three directions orthogonal to each other in the vertical, horizontal, and front-back directions with respect to the digital camera 100. For example, when the digital camera 100 is held by hand so as to be stationary, the acceleration sensor 113 detects only the gravitational acceleration.

よって、上下方向の下方向のみの加速度が検出された場合には、デジタルカメラ100の上下方向と、地上面の天地方向とが一致していることが分かる。つまり、一般的にデジタルカメラを操作するようにデジタルカメラを水平になるように保持していることが分かる。 Therefore, when the acceleration in the vertical direction only in the downward direction is detected, it can be seen that the vertical direction of the digital camera 100 and the vertical direction of the ground surface coincide with each other. That is, it can be seen that the digital camera is held horizontally as if the digital camera were generally operated.

また、天地方向から傾いている場合には、傾き方に応じて、加速度センサ113は、左右、前後の方向に対して加速度が検出され、上下、左右、前後の加速度の大きさの比によって、デジタルカメラ100の傾き角度を求めることができる。 When tilted from the top and bottom directions, the acceleration sensor 113 detects acceleration in the left-right and front-back directions according to the tilt direction, and depends on the ratio of the magnitudes of the up-down, left-right, and front-back accelerations. The tilt angle of the digital camera 100 can be obtained.

次に、全方位(全天球)撮像装置について説明する。図2は、実施形態における全方位(全天球)撮像装置の側面視における外観を示す図である。 Next, an omnidirectional (omnidirectional) imaging device will be described. FIG. 2 is a diagram showing the appearance of the omnidirectional (omnidirectional) imaging device according to the embodiment in a side view.

本実施形態では、撮影地点からの全ての方向を撮影することが可能な全方位(全天球)撮像装置によって全方向(全天球)画像を生成することを対象としている。すなわち、全方向(全天球)撮像装置(デジタルカメラ)は、撮影地点から見渡すことのできる全ての方向を撮影することができるのである。 In the present embodiment, it is intended to generate an omnidirectional (omnidirectional) image by an omnidirectional (omnidirectional) imaging device capable of photographing all directions from a shooting point. That is, the omnidirectional (omnidirectional) imaging device (digital camera) can shoot in all directions that can be seen from the shooting point.

全方向(全天球)撮像装置であるデジタルカメラ100(図1)は、180度を超える画角を有する広角レンズの一例である魚眼レンズを備えた2つの撮像素子1 109、撮像素子2 110によって画像を撮影する。この2つの魚眼レンズを介して2つの撮像素子で撮影された画像は、互いに重畳する部分を有する。そこで、所定の歪み補正等の画像処理を施してから変換し、2つの画像を繋ぎ合わせることによって全方向(全天球)画像を作成する。 The digital camera 100 (FIG. 1), which is an omnidirectional (omnidirectional) image pickup device, is composed of two image pickup elements 1 109 and image pickup elements 2 110 equipped with a fisheye lens, which is an example of a wide-angle lens having an angle of view exceeding 180 degrees. Take an image. Images taken by the two image sensors via the two fisheye lenses have portions that overlap each other. Therefore, an omnidirectional (omnidirectional) image is created by performing image processing such as predetermined distortion correction and then converting and joining the two images.

次に、実施形態における全方向(全天球)撮像装置の動作について説明する。図3は、実施形態における撮像装置の動作フローについて説明するフローチャート図である。図3を用いて、撮像画像が入力された後、当該画像を外部ストレージ112(図1)に保存するまでの動作について説明する。 Next, the operation of the omnidirectional (omnidirectional) imaging device in the embodiment will be described. FIG. 3 is a flowchart illustrating an operation flow of the image pickup apparatus according to the embodiment. The operation from the input of the captured image to the storage of the image in the external storage 112 (FIG. 1) will be described with reference to FIG.

ステップ(以下、「S」という。)301では、加速度センサ113が、デジタルカメラ100の傾き角度を検出する。そして、S302では、S301で検出されたデジタルカメラ100の傾き角度に応じて、コントローラ10は、例えば、SDRAM 111に記憶されている変換テーブルを読み出し、所定の補正方法にて変換テーブルを補正する。なお、変換テーブルの補正方法については後述する。 In step (hereinafter, referred to as “S”) 301, the acceleration sensor 113 detects the tilt angle of the digital camera 100. Then, in S302, the controller 10 reads, for example, the conversion table stored in the SDRAM 111 according to the tilt angle of the digital camera 100 detected in S301, and corrects the conversion table by a predetermined correction method. The correction method of the conversion table will be described later.

次に、S303では、撮像素子1(付番 109)、撮像素子2(付番 110)によって撮影されたデジタル化された2つの魚眼画像が画像処理ブロック104に入力される。この画像処理ブロック104では、一般的な歪み補正等画像処理を行う。そして、S304では、コントローラ10が、S302で補正された変換テーブルを用いて、撮影された2枚の魚眼画像(図17で得られるような画像)を変換する。なお、変換方法については後述する。 Next, in S303, two digitized fisheye images taken by the image sensor 1 (numbering 109) and the image pickup element 2 (numbering 110) are input to the image processing block 104. In this image processing block 104, general image processing such as distortion correction is performed. Then, in S304, the controller 10 converts the two captured fisheye images (images as obtained in FIG. 17) using the conversion table corrected in S302. The conversion method will be described later.

次に、S305では、コントローラ10は、S304で変換された2枚の画像の重畳する部分を利用して、合成した全方位(全天球)画像を生成する。そして、S306では、コントローラ10は、外部ストレージI/F 106を介して、S305で生成された全方向(全天球)画像を、外部ストレージ112に保存する。 Next, in S305, the controller 10 generates a synthesized omnidirectional (omnidirectional) image by using the overlapping portion of the two images converted in S304. Then, in S306, the controller 10 stores the omnidirectional (omnidirectional) image generated in S305 in the external storage 112 via the external storage I / F 106.

次に、本実施形態におけるデジタルカメラで用いられる広角レンズの一例である魚眼レンズの射影関係について説明する。図4は、実施形態におけるデジタルカメラに用いられる魚眼レンズの射影関係について(a)魚眼レンズの側面視における外観、(b)撮影画像の平面視における射影関数f、をそれぞれ説明する図である。 Next, the projection relationship of a fisheye lens, which is an example of a wide-angle lens used in a digital camera in the present embodiment, will be described. FIG. 4 is a diagram illustrating (a) the appearance of the fisheye lens in the side view and (b) the projection function f in the plan view of the captured image, respectively, regarding the projection relationship of the fisheye lens used in the digital camera in the embodiment.

180度を超える画角を有する魚眼レンズを通して撮影された画像は、図17のように撮影位置から略半球分のシーンの撮影画像となる。そして、図4(a)、(b)に示すように、入射角度θに対応する像高hで画像生成され、入射角度θと像高hとの関係は、射影関数fによって定められている(h=f(θ))。なお、射影関数は、魚眼レンズの性質によって異なるものである。 The image taken through the fisheye lens having an angle of view exceeding 180 degrees is a shot image of a scene substantially hemisphere from the shooting position as shown in FIG. Then, as shown in FIGS. 4A and 4B, an image is generated at an image height h corresponding to the incident angle θ, and the relationship between the incident angle θ and the image height h is determined by the projection function f. (H = f (θ)). The projection function differs depending on the properties of the fisheye lens.

射影変換の方式(関数)としては、中心射影方式、立体射影方式、等距離射影方式、等立体角射影方式、正射影方式を挙げることができる。中心射影方式は、通常の画角を有するレンズを備えるデジタルカメラで撮影する際に用いられる方式であり、その他4つの方式は、魚眼レンズなどの超広角な画角を持つ広角レンズを用いたデジタルカメラで利用される方式である。 Examples of the projection conversion method (function) include a central projection method, a stereographic projection method, an equidistant projection method, an equidistant angle projection method, and a normal projection method. The central projection method is a method used when shooting with a digital camera equipped with a lens having a normal angle of view, and the other four methods are digital cameras using a wide-angle lens having an ultra-wide angle of view such as a fisheye lens. This is the method used in.

次に、本実施形態におけるデジタルカメラで撮影された全方位(全天球)画像のフォーマット(表現方式)について説明する。図5は、本実施形態におけるデジタルカメラで撮影された全方位(全天球)画像フォーマットについて、(a)平面で表した場合、(b)球面で表した場合、についてそれぞれ説明する図である。 Next, the format (expression method) of the omnidirectional (omnidirectional) image taken by the digital camera in the present embodiment will be described. FIG. 5 is a diagram illustrating an omnidirectional (omnidirectional) image format captured by a digital camera in the present embodiment when (a) is represented by a plane and (b) is represented by a spherical surface. ..

図5において、全方位(全天球)画像のフォーマットは、図5(a)に示すように、平面に展開した場合、水平角度が0から360度、垂直角度が0から180度の、角度座標に対応する画素値を有する画像である。角度座標は、図5(b)に示す球面上の座標点の各点と対応付けられており、地球儀上における緯度経度座標のようなものとなっている。 In FIG. 5, the format of the omnidirectional (omnidirectional) image is an angle having a horizontal angle of 0 to 360 degrees and a vertical angle of 0 to 180 degrees when developed on a plane, as shown in FIG. 5 (a). It is an image having pixel values corresponding to coordinates. The angular coordinates are associated with each of the coordinate points on the spherical surface shown in FIG. 5B, and are similar to the latitude and longitude coordinates on the globe.

魚眼レンズで撮影された画像の平面座標値と、全方位(全天球)画像の球面座標値との関係は、図4で説明したような射影関数f(h=f(θ))を用いることによって対応付けることができる。これにより、魚眼レンズで撮影された画像2枚を変換して結合(合成)することによって、図5(a)や図5(b)に示すような全方位(全天球)画像を作成することができる。 For the relationship between the plane coordinate values of the image taken with the fisheye lens and the spherical coordinate values of the omnidirectional (omnidirectional) image, the projection function f (h = f (θ)) as described in FIG. 4 is used. Can be associated with. As a result, two images taken with a fisheye lens are converted and combined (combined) to create an omnidirectional (omnidirectional) image as shown in FIGS. 5 (a) and 5 (b). Can be done.

次に、実際に魚眼レンズで撮影された画像を用いて全方向(全天球)画像が生成される過程について説明する。図6は、実施形態におけるデジタルカメラで撮影された全方位(全天球)画像生成処理の概要について、(a1)(a2)2つの魚眼レンズを介して各撮像素子で取得した画像、(b1)(b2)変換テーブルによって変換された画像(図5(a)に対応)、(c)変換後の2つの画像が組み合わせられる(合成される)ことにより生成された画像(図5(b)に対応)、をそれぞれ説明する図である。 Next, the process of generating an omnidirectional (omnidirectional) image using an image actually taken with a fisheye lens will be described. FIG. 6 shows an outline of the omnidirectional (omnidirectional) image generation process taken by the digital camera in the embodiment, (a1) and (a2) images acquired by each image sensor via two fisheye lenses, (b1). (B2) The image converted by the conversion table (corresponding to FIG. 5 (a)), and (c) the image generated by combining (combining) the two converted images (in FIG. 5 (b)). Correspondence), is a figure explaining each.

図6において、図17に示したような、2つの魚眼レンズを介して各撮像素子で撮影された画像(a1)(a2)は、図3で説明したS304の処理、すなわち、補正後の変換テーブルを用いた画像変換処理によって、それぞれ(b1)(b2)に変換される。この時点で、画像(b1)(b2)は、全方向(全天球)画像フォーマットに合致した表現形式、すなわち、図5(a)に対応する表現となっている。 In FIG. 6, the images (a1) and (a2) taken by each image sensor via the two fisheye lenses as shown in FIG. 17 are the processing of S304 described in FIG. 3, that is, the corrected conversion table. Is converted into (b1) and (b2), respectively, by the image conversion process using. At this point, the images (b1) and (b2) have an expression format that matches the omnidirectional (omnidirectional) image format, that is, an expression corresponding to FIG. 5A.

図3のS305の処理、すなわち、2枚の変換後の画像が組み合わせられ、全方位(全天球)画像が生成される。すなわち、画像(b1)と(b2)とが重複している部分をキーにして、重ね合わせて合成され、画像(c)、すなわち、全方位(全天球)画像が生成される。 The process of S305 in FIG. 3, that is, the two converted images are combined to generate an omnidirectional (omnidirectional) image. That is, the image (c), that is, the omnidirectional (omnidirectional) image is generated by superimposing and synthesizing the overlapping portion of the images (b1) and (b2) as a key.

次に、図3のS304で説明した変換テーブルの補正方法について説明する。図7は、本実施形態におけるデジタルカメラで撮影された全方位(全天球)画像の変換テーブルについて示す。 Next, the correction method of the conversion table described in S304 of FIG. 3 will be described. FIG. 7 shows a conversion table of omnidirectional (omnidirectional) images taken by a digital camera in the present embodiment.

図7(a)は、変換前後の画像座標値のマトリクスを示した変換テーブル(変換データともいう。)を説明する図である。また、図7(b)と(c)は、(b)変換後画像の座標値、(c)変換前画像の座標値の関係を説明する図である。 FIG. 7A is a diagram for explaining a conversion table (also referred to as conversion data) showing a matrix of image coordinate values before and after conversion. Further, FIGS. 7 (b) and 7 (c) are diagrams for explaining the relationship between (b) the coordinate values of the image after conversion and (c) the coordinate values of the image before conversion.

図3のS304で説明した画像変換に用いられる変換テーブルは、図7(a)に示すように変換後画像の座標値である(θ、φ)(pix:ピクセル)と、それに対応する変換前画像の座標値(x、y)(pix)とのデータセットを、すべての変換後画像の座標値に対して有する。ここで、変換テーブルとして、テーブル状のデータ構造を示しているが、必ずしもテーブル状のデータ構造でなくても良い。つまり、変換データであれば良い。 As shown in FIG. 7A, the conversion table used for the image conversion described in S304 of FIG. 3 is the coordinate values (θ, φ) (pix: pixels) of the converted image and the corresponding pre-conversion. It has a dataset with the coordinate values (x, y) (pix) of the image for all the coordinate values of the converted image. Here, the table-like data structure is shown as the conversion table, but it does not necessarily have to be the table-like data structure. That is, it may be converted data.

図7(a)に示した変換テーブルにしたがって、撮像された画像(変換前画像)から変換後画像を生成する。具体的には、図7(b)、(c)に示すように、変換前と変換後の変換テーブル(図7(a))の対応関係から、変換後画像の各画素を、座標値(θ、φ)(pix)に対応する変換前画像の座標値(x、y)(pix)の画素値を参照することによって生成する。 A converted image is generated from the captured image (pre-conversion image) according to the conversion table shown in FIG. 7 (a). Specifically, as shown in FIGS. 7 (b) and 7 (c), each pixel of the converted image is divided into coordinate values (from the correspondence between the conversion table before conversion and the conversion table (FIG. 7 (a)) after conversion. It is generated by referring to the pixel values of the coordinate values (x, y) (pix) of the pre-conversion image corresponding to θ, φ) (pix).

次に、本実施形態におけるデジタルカメラで撮影された全方位(全天球)画像に対する変換テーブルを、デジタルカメラの傾きに応じて補正する処理について説明する。図8は、本実施形態におけるデジタルカメラで撮影された全方位(全天球)画像に対する変換テーブルの補正処理の動作フローについて説明するフローチャート図である。 Next, a process of correcting the conversion table for the omnidirectional (omnidirectional) image taken by the digital camera in the present embodiment according to the tilt of the digital camera will be described. FIG. 8 is a flowchart illustrating an operation flow of correction processing of a conversion table for an omnidirectional (omnidirectional) image taken by a digital camera in the present embodiment.

図8において、S801では、コントローラ10が、加速度センサ113(図1)で検出されたデジタルカメラ100の傾斜値に基づいて、カメラ傾きパラメータ(α、β)が取得される。ここで、カメラ傾きパラメータ(α、β)において、α、βはそれぞれ回転角を表すが、詳細ついては後述する。 In FIG. 8, in S801, the controller 10 acquires camera tilt parameters (α, β) based on the tilt value of the digital camera 100 detected by the acceleration sensor 113 (FIG. 1). Here, in the camera tilt parameters (α, β), α and β each represent the angle of rotation, but the details will be described later.

次に、S802では、変換テーブルの入力値(θ1、φ1)がセットされる。なお、図8において、カメラ座標系については(θ0、φ0)、グローバル座標系については(θ1、φ1)と表記し、座標系に依存するパラメータ値である(θ、φ)を区別して表記する。すなわち、ここでは、グローバル座標系である(θ1、φ1)がセットされる。 Next, in S802, the input values (θ1, φ1) of the conversion table are set. In FIG. 8, the camera coordinate system is expressed as (θ0, φ0) and the global coordinate system is expressed as (θ1, φ1), and the parameter values (θ, φ) depending on the coordinate system are described separately. .. That is, here, the global coordinate system (θ1, φ1) is set.

次に、S803では、コントローラ10による鉛直補正演算によって、入力値のグローバル座標系である(θ1、φ1)が、カメラ座標系である(θ0、φ0)に変換される。なお、鉛直補正演算については後述する。 Next, in S803, the global coordinate system (θ1, φ1) of the input value is converted to the camera coordinate system (θ0, φ0) by the vertical correction calculation by the controller 10. The vertical correction calculation will be described later.

次に、S804では、変換されたカメラ座標系である(θ0、φ0)が、補正前の変換テーブル(図7(a))を用いて変換前画像の座標値(x、y)に変換される。なお、予め、カメラが傾いていない条件の下で作成された正確な全方位(全天球)画像が生成されるための変換テーブルを、事前に準備しておき、所定の記憶部(SRAMやSDRAM)に記憶させておく必要がある。 Next, in S804, the converted camera coordinate system (θ0, φ0) is converted into the coordinate values (x, y) of the unconverted image using the conversion table before correction (FIG. 7 (a)). To. In addition, a conversion table for generating an accurate omnidirectional (omnidirectional) image created under the condition that the camera is not tilted is prepared in advance, and a predetermined storage unit (RAM) or It is necessary to store it in SDRAM).

次に、S805では、コントローラ10は、グローバル座標系の入力値(θ1、φ1)と、最終的に算出された補正前の座標値(x、y)とを、補正後の変換テーブルの対応する座標セットとして保存する。 Next, in S805, the controller 10 makes the input values (θ1, φ1) of the global coordinate system correspond to the finally calculated coordinate values (x, y) before correction in the converted conversion table after correction. Save as a coordinate set.

次に、S806では、コントローラ10は、未処理の入力値(θ1、φ1)、すなわち、対応する補正前の座標値(x、y)が算出されていないグローバル座標系の入力値(θ1、φ1)が残っているか否かが判定される。残っていれば(S806:YES)、次の値としてグローバル座標系の入力値(θ1、φ1)がセットされるように、S802の処理に戻る。 Next, in S806, the controller 10 receives an unprocessed input value (θ1, φ1), that is, an input value (θ1, φ1) of the global coordinate system for which the corresponding uncorrected coordinate value (x, y) has not been calculated. ) Remains or not. If it remains (S806: YES), the process returns to S802 so that the input values (θ1, φ1) of the global coordinate system are set as the next values.

残っていなければ(S806:NO)、処理を終了する。この場合、コントローラ10は、グローバル座標系の入力値(θ1、φ1)を座標値として有する、全方位(全天球)画像フォーマットの各画素に対応する補正前の座標値(x、y)の算出が完了したことになる。 If there is no remaining (S806: NO), the process ends. In this case, the controller 10 has the input values (θ1, φ1) of the global coordinate system as the coordinate values, and the coordinate values (x, y) before correction corresponding to each pixel of the omnidirectional (omnidirectional) image format. The calculation is complete.

次に、本実施形態におけるデジタルカメラ100の傾きについて説明する。図9は、本実施形態におけるデジタルカメラの傾きについて説明する概略図である。 Next, the inclination of the digital camera 100 in this embodiment will be described. FIG. 9 is a schematic view illustrating the inclination of the digital camera in the present embodiment.

図9において、鉛直方向は、グローバル座標系のxyz3次元方向の直交座標におけるz軸に一致する。この方向と、図9に示したデジタルカメラの向きとが一致するときが、カメラが傾いてない状態である。これが一致していないときは、デジタルカメラは傾いた状態となる。 In FIG. 9, the vertical direction coincides with the z-axis in Cartesian coordinates in the xyz three-dimensional direction of the global coordinate system. When this direction matches the direction of the digital camera shown in FIG. 9, the camera is not tilted. If they do not match, the digital camera is tilted.

つまり、重力ベクトルからの傾き角度αと、xy平面での傾斜角度βとは、加速度センサの出力を用いて、次の式で求められる。ここで、Axは、加速度センサのカメラ座標系のx0軸方向成分の値、Ayは加速度センサのカメラ座標系のy0軸方向成分の値、Azは加速度センサのカメラ座標系のz0軸方向成分の値である。 That is, the tilt angle α from the gravity vector and the tilt angle β in the xy plane can be obtained by the following equations using the output of the acceleration sensor. Here, Ax is the value of the x0-axis direction component of the camera coordinate system of the acceleration sensor, Ay is the value of the y0-axis direction component of the camera coordinate system of the acceleration sensor, and Az is the value of the z0-axis direction component of the camera coordinate system of the acceleration sensor. The value.

次に、鉛直補正演算について説明する。図10は、本実施形態におけるデジタルカメラで撮影された全方位(全天球)画像の鉛直補正演算について、(a)カメラ座標系、(b)グローバル座標系、を用いて説明する図である。 Next, the vertical correction calculation will be described. FIG. 10 is a diagram illustrating a vertical correction calculation of an omnidirectional (omnidirectional) image taken by a digital camera in the present embodiment using (a) a camera coordinate system and (b) a global coordinate system. ..

図10において、グローバル座標系の3次元直交座標を(x1、y1、z1)、球面座標を(θ1、φ1)と表記し、カメラ座標系の3次元直交座標を(x0、y0、z0)、球面座標を(θ0、φ0)と表記する。 In FIG. 10, the three-dimensional Cartesian coordinates of the global coordinate system are expressed as (x1, y1, z1), the spherical coordinates are expressed as (θ1, φ1), and the three-dimensional Cartesian coordinates of the camera coordinate system are expressed as (x0, y0, z0). The spherical coordinates are expressed as (θ0, φ0).

図10に示した式を用いて、球面座標(θ1、φ1)から球面座標(θ0、φ0)への変換を行う。まず、傾きを補正するためには、3次元直交座標を用いて回転変換する必要があるため、図10の(1)式から(3)式を用いて、球面座標(θ1、φ1)から3次元直交座標(x1、y1、z1)への変換を行う。 Using the equation shown in FIG. 10, conversion from spherical coordinates (θ1, φ1) to spherical coordinates (θ0, φ0) is performed. First, in order to correct the inclination, it is necessary to perform rotational conversion using three-dimensional Cartesian coordinates. Therefore, using equations (1) to (3) in FIG. 10, spherical coordinates (θ1, φ1) to 3 Convert to dimensional Cartesian coordinates (x1, y1, z1).

次に、カメラ傾きパラメータ(α、β)を用いて、図10に示した回転座標変換((4)式)により、グローバル座標系(x1、y1、z1)を、カメラ座標系(x0、y0、z0)に変換する。換言すれば、この式(図10に示した(4)式)が、カメラ傾きパラメータ(α、β)の定義となる。 Next, using the camera tilt parameters (α, β), the global coordinate system (x1, y1, z1) is converted to the camera coordinate system (x0, y0) by the rotating coordinate transformation (equation (4)) shown in FIG. , Z0). In other words, this equation (Equation (4) shown in FIG. 10) defines the camera tilt parameters (α, β).

これは、グローバル座標系を、まずz軸を軸にα回転させ、次にx軸を軸にβ回転させるとカメラ座標系になることを意味する。最後に、図10に示された(5)式、図10に示された(6)式を用いて、カメラ座標系の3次元直交座標(x0、y0、z0)を球面座標(θ0、φ0)に戻す変換を行う。 This means that the global coordinate system becomes a camera coordinate system when first α-rotated around the z-axis and then β-rotated around the x-axis. Finally, using the equation (5) shown in FIG. 10 and the equation (6) shown in FIG. 10, the three-dimensional Cartesian coordinates (x0, y0, z0) of the camera coordinate system are converted into spherical coordinates (θ0, φ0). ) Is converted back.

次に、鉛直補正演算の他の例について説明する。図11は、本実施形態におけるデジタルカメラで撮影された全方位(全天球)画像の鉛直補正演算の他の例について、(a)カメラ座標系、(b)グローバル座標系、を用いて説明する図である。 Next, another example of the vertical correction calculation will be described. FIG. 11 describes another example of vertical correction calculation of an omnidirectional (omnidirectional) image taken by a digital camera in the present embodiment using (a) a camera coordinate system and (b) a global coordinate system. It is a figure to do.

この実施形態では、鉛直補正演算を高速化する。上記図10に示した実施形態における演算式(1)から(6)は、図11の演算式(7)から(14)ように書くこともできる。 In this embodiment, the vertical correction calculation is speeded up. The calculation formulas (1) to (6) in the embodiment shown in FIG. 10 can also be written as the calculation formulas (7) to (14) in FIG.

すなわち、z軸を軸とする回転α、γは、球面座標(θ、φ)のうちのθの回転そのものであるため、回転変換を、直交座標系に変換することなく、簡単な加減算で可能であり、高速化を可能とする。よって、x軸を軸とする回転βの回転変換のみ、直交座標系を用いた変換が必要となる。これにより、演算速度を上げることができる。 That is, since the rotations α and γ about the z-axis are the rotations of θ in the spherical coordinates (θ, φ), the rotation conversion can be performed by simple addition and subtraction without converting to the Cartesian coordinate system. It enables high speed. Therefore, only the rotation transformation of the rotation β about the x-axis requires the transformation using the Cartesian coordinate system. As a result, the calculation speed can be increased.

次に、本実施形態におけるデジタルカメラで撮影された全方位(全天球)画像に対する変換テーブルの、デジタルカメラの傾きに応じた補正処理の他の例について説明する。図12は、本実施形態におけるデジタルカメラで撮影された全方位(全天球)画像に対する変換テーブルの補正処理の動作フローの他の例について説明する図である。 Next, another example of the correction processing according to the tilt of the digital camera of the conversion table for the omnidirectional (omnidirectional) image taken by the digital camera in the present embodiment will be described. FIG. 12 is a diagram illustrating another example of the operation flow of the correction processing of the conversion table for the omnidirectional (omnidirectional) image taken by the digital camera in the present embodiment.

この実施形態では、変換テーブルに対する補正処理を高速化することができる。すなわち、図11に示した実施形態においても、鉛直補正演算を高速化することにより、変換テーブルの補正処理を実施していたが、本実施形態では、鉛直補正演算を省略することにより高速化を図る。 In this embodiment, the correction process for the conversion table can be speeded up. That is, also in the embodiment shown in FIG. 11, the correction process of the conversion table is performed by speeding up the vertical correction calculation, but in the present embodiment, the speed is increased by omitting the vertical correction calculation. Try.

図12を用いて、変換テーブルの補正処理について説明すると、S1201では、カメラ傾きパラメータ(α、β)を取得する。この処理は、図8のS801の処理と同じである。 Explaining the correction processing of the conversion table with reference to FIG. 12, in S1201, the camera tilt parameters (α, β) are acquired. This process is the same as the process of S801 of FIG.

次に、S1202では、カメラ傾きパラメータ(α、β)の値に対応した変換テーブルを取得して処理を終了する。すなわち、変換テーブルを各々はカメラ傾きパラメータ(α、β)に応じて異なる値となるように複数保持しておくことで、鉛直補正演算の処理を省略する。 Next, in S1202, the conversion table corresponding to the value of the camera tilt parameter (α, β) is acquired and the process is completed. That is, by holding a plurality of conversion tables so as to have different values according to the camera tilt parameters (α, β), the processing of the vertical correction calculation is omitted.

つまり、カメラ傾きパラメータ(α、β)は、原理的には3次元の実数ベクトルであるが、特定の(α、β)に対してのみ変換テーブルを用意しておいて、検出された(α、β)に最も近いテーブルを採用することで、すべての場合に対して対応が可能である。もしくは、検出された(α、β)に近いテーブルを複数抽出し、近さに応じた重み付けや差分を取るといった補間演算を行うことも有効である。これにより、補間演算という比較的単純な演算のみで変換テーブルの補正を行うことができ、演算に掛かる処理を抑制することができる。 That is, the camera tilt parameter (α, β) is a three-dimensional real number vector in principle, but the conversion table is prepared only for a specific (α, β) and detected (α). , Β) By adopting the table closest to), it is possible to deal with all cases. Alternatively, it is also effective to extract a plurality of tables close to the detected (α, β) and perform interpolation operations such as weighting and difference according to the proximity. As a result, the conversion table can be corrected only by a relatively simple operation called an interpolation operation, and the processing required for the operation can be suppressed.

次に、他の実施形態における撮像システムの全体構成について説明する。図13は、他の実施形態における撮像システムの全体構成について説明する概略ブロック図である。上述した実施形態では、全天球の撮像装置(デジタルカメラ)内で傾きを補正する処理を行っていたが、必ずしも、全天球の撮像装置内で傾きを補正する必要はない。 Next, the overall configuration of the imaging system according to another embodiment will be described. FIG. 13 is a schematic block diagram illustrating an overall configuration of an imaging system according to another embodiment. In the above-described embodiment, the tilt is corrected in the spherical image pickup device (digital camera), but it is not always necessary to correct the tilt in the spherical image pickup device.

図13に示すように、全天球の撮像装置に、有線又は無線を用いた通信機能を付加することにより、コンピュータや携帯情報端末(スマートフォンやタブレットPC)といった、画像処理を行うことが可能な情報処理装置に対して補正前の画像を転送する。そして、転送先の情報処理装置(転送先デバイス)において、傾きを補正する処理を実施することも可能である。 As shown in FIG. 13, by adding a wired or wireless communication function to the all-sky imaging device, it is possible to perform image processing on a computer or a portable information terminal (smartphone or tablet PC). The image before correction is transferred to the information processing device. Then, it is also possible to perform a process of correcting the inclination in the information processing device (transfer destination device) of the transfer destination.

ただし、傾き補正処理には、全天球の撮像装置の傾き情報が必要となる。全天球の撮像装置の傾き情報は、撮像装置本体でのみしか検出できないため、補正前の画像と共に、傾き情報も併せて転送する必要がある。また、変換テーブルについては、全天球の撮像装置内に保持しておき、画像と共に転送しても良いし、また、撮影前の準備として、事前(例えば、転送先デバイスが撮像装置を認識したとき、又は撮像装置が転送先デバイスを認識したとき)に転送先のデバイス(転送先デバイス)に対して転送しておいても良い。 However, the tilt correction process requires tilt information of the spherical image pickup device. Since the tilt information of the spherical image pickup device can be detected only by the image pickup device main body, it is necessary to transfer the tilt information together with the image before correction. Further, the conversion table may be held in the image pickup device of the whole celestial sphere and transferred together with the image, or the transfer destination device recognizes the image pickup device in advance (for example, the transfer destination device recognizes the image pickup device) as a preparation before shooting. At that time, or when the image pickup apparatus recognizes the transfer destination device), the transfer may be performed to the transfer destination device (transfer destination device).

さらに、変換テーブルは、毎回、画像と共に転送する必要はなく、転送先デバイスが、変換テーブルを要求したり、変換テーブルが最新か否かを確認してから、転送しても良い。さらに言えば、必ずしも撮像装置から変換テーブルが送信される必要もない、例えば、撮像装置を販売している製造者のWEBサイト等からダウンロードできるようにしておき、転送先デバイスに格納されても良い。なお、撮像装置から転送される変換テーブルは、個々の撮像装置に適した変換テーブルにカスタマイズされていても良い。 Further, the conversion table does not need to be transferred together with the image every time, and the transfer destination device may request the conversion table or check whether the conversion table is up-to-date before transferring. Furthermore, the conversion table does not necessarily have to be transmitted from the image pickup device, for example, it may be made available for download from the WEB site of the manufacturer selling the image pickup device and stored in the transfer destination device. .. The conversion table transferred from the imaging device may be customized to a conversion table suitable for each imaging device.

次に、他の実施形態における撮像システムの転送先デバイス200について説明する。図14は、他の実施形態における撮像システムの転送先デバイス200の電子回路の全体構成について説明する概略ブロック図である。図14において、SDRAM1411と、外部ストレージ1412とが、それぞれコントローラ140に接続されている。 Next, the transfer destination device 200 of the imaging system according to another embodiment will be described. FIG. 14 is a schematic block diagram illustrating an overall configuration of an electronic circuit of a transfer destination device 200 of an imaging system according to another embodiment. In FIG. 14, the SDRAM 1411 and the external storage 1412 are connected to the controller 140, respectively.

コントローラ140は、CPU1401と、SRAM1402と、ROM1403と、画像処理ブロック1404と、SDRAM I/F1405と、外部ストレージI/F 1406と、を具備している。さらに、コントローラ140は、外部の機器に接続するためのUSB接続I/F 1407と、ネットワークに接続するための有線又は無線のネットワークI/F 1408と、を具備している。 The controller 140 includes a CPU 1401, a SDRAM 1402, a ROM 1403, an image processing block 1404, an SDRAM I / F 1405, and an external storage I / F 1406. Further, the controller 140 includes a USB connection I / F 1407 for connecting to an external device and a wired or wireless network I / F 1408 for connecting to a network.

なお、上述した実施形態では、画像処理ブロック1404が、歪み補正、画素欠陥補正等の一般的な画像処理を行っていることとして説明してきた。また、CPU1401が、所定のテーブルやプログラムを読み出し、デジタルカメラ100の傾きにより鉛直方向の補正処理を行っていることとして説明してきた。しかしながら、鉛直方向の補正処理を、画像処理ブロック1404で行っても良いことはいうまでもない。 In the above-described embodiment, it has been described that the image processing block 1404 performs general image processing such as distortion correction and pixel defect correction. Further, it has been described that the CPU 1401 reads a predetermined table or program and performs a correction process in the vertical direction by tilting the digital camera 100. However, it goes without saying that the correction process in the vertical direction may be performed by the image processing block 1404.

次に、他の実施形態における撮像システムの動作について説明する。図15は、他の実施形態における撮像システムの動作フローについて説明するフローチャート図である。図15では、撮像画像が入力された後、当該画像が転送先デバイスのストレージに保存されることを説明している。 Next, the operation of the imaging system in another embodiment will be described. FIG. 15 is a flowchart illustrating an operation flow of the imaging system according to another embodiment. FIG. 15 explains that after the captured image is input, the image is stored in the storage of the transfer destination device.

まず、デジタルカメラ100内の処理が行われる。S1501では、加速度センサ113(図1)により、デジタルカメラ100の傾き角度が検出される。そして、S1502では、コントローラ10により、撮像素子1(付番 109)及び撮像素子2(付番 110)によって撮影されデジタル化された2つの魚眼画像(図17のような画像)が、図13に示したようにUSB接続I/F 1407又はネットワークI/F 1408を介して転送先デバイス200、例えば携帯情報端末やコンピュータに転送される。併せて、デジタルカメラの傾き情報、及び変換テーブルが、USB接続I/F 1407又はネットワークI/F 1408を介して転送先デバイス200に転送される。 First, processing in the digital camera 100 is performed. In S1501, the tilt angle of the digital camera 100 is detected by the acceleration sensor 113 (FIG. 1). Then, in S1502, two fisheye images (images as shown in FIG. 17) captured and digitized by the image sensor 1 (numbering 109) and the image sensor 2 (numbering 110) by the controller 10 are shown in FIG. As shown in the above, the image is transferred to the transfer destination device 200, for example, a mobile information terminal or a computer via the USB connection I / F 1407 or the network I / F 1408. At the same time, the tilt information of the digital camera and the conversion table are transferred to the transfer destination device 200 via the USB connection I / F 1407 or the network I / F 1408.

なお、先述したように、デジタルカメラ100と転送先デバイス200とが互いに認識した際に、変換テーブルを転送しておいても良い。さらに、一度、変換テーブルが転送先デバイス200に転送されていれば良く、毎回、変換テーブルは転送される必要はない。 As described above, the conversion table may be transferred when the digital camera 100 and the transfer destination device 200 recognize each other. Further, it is sufficient that the conversion table is transferred to the transfer destination device 200 once, and the conversion table does not need to be transferred every time.

変換テーブルは、例えば、デジタルカメラ100に接続されたSDRAM1411に記憶されており、そこから読み出され転送される。ここまでが、デジタルカメラ100内における処理である。次のステップからは、転送先デバイス200内において実行される処理となる。 The conversion table is stored in, for example, an SDRAM 1411 connected to the digital camera 100, and is read and transferred from the conversion table. The process up to this point is the processing in the digital camera 100. From the next step, the process is executed in the transfer destination device 200.

S1503では、転送されたデジタルカメラの角度情報である傾き情報に応じて、コントローラ140において、所定の補正方法を用いることにより変換テーブルが補正される。なお、変換テーブルの補正方法については、上述した実施形態の通りである。次に、S1504では、転送された2つの撮像素子による魚眼画像が、転送先デバイス200の画像処理ブロック1404に入力される。 In S1503, the conversion table is corrected by using a predetermined correction method in the controller 140 according to the tilt information which is the angle information of the transferred digital camera. The correction method of the conversion table is as described in the above-described embodiment. Next, in S1504, the fisheye image by the two transferred image sensors is input to the image processing block 1404 of the transfer destination device 200.

この画像処理ブロック1404では、一般的な歪み補正等の画像処理が行われる。そして、S1505では、コントローラ140により、S1503で補正された変換テーブルを用いて、2枚の魚眼画像が変換される。なお、変換方法は、上記した実施形態と同様である。 In this image processing block 1404, general image processing such as distortion correction is performed. Then, in S1505, the controller 140 converts two fisheye images using the conversion table corrected in S1503. The conversion method is the same as that of the above-described embodiment.

次に、S1506では、コントローラ140によって、S1505で変換された2枚の画像の重畳する部分を利用して、合成した全方位(全天球)画像が生成される。そして、S1507では、コントローラ140によって、外部ストレージI/F 1406を介して、S1506で生成された全方向(全天球)画像が、外部ストレージ1412に保存される。 Next, in S1506, the controller 140 generates a combined omnidirectional (omnidirectional) image by using the overlapping portion of the two images converted in S1505. Then, in S1507, the omnidirectional (omnidirectional) image generated in S1506 is stored in the external storage 1412 by the controller 140 via the external storage I / F 1406.

なお、図3、8、12、及び図15に示した実施形態におけるフローチャートに係る動作は、コンピュータ上のプログラムに実行させることができる。すなわち、撮像装置の動作を制御するCPU(制御回路)101(図1)、又は転送先デバイス200の動作を制御するCPU(制御回路)1401(図14)が、ROM103、1403、SRAM102、1402の記憶媒体に格納されたプログラムをロードし、プログラムの処理ステップが順次実行されることによって行われる。 The operations related to the flowcharts in the embodiments shown in FIGS. 3, 8, 12 and 15 can be executed by a program on a computer. That is, the CPU (control circuit) 101 (FIG. 1) that controls the operation of the image pickup apparatus or the CPU (control circuit) 1401 (FIG. 14) that controls the operation of the transfer destination device 200 is the ROM 103, 1403, SRAM 102, 1402. This is done by loading the program stored in the storage medium and sequentially executing the processing steps of the program.

以上説明してきたように、全方位(全天球)撮像装置、又は撮像システムにおいて、鉛直方向を検出し、画像処理に用いる変換テーブルに対して鉛直方向に応じた補正を行い、補正された変換テーブルを用いて全方位(全天球)画像生成を行ことにより、最初から変換テーブルを作成し直す必要がないため、処理時間を短縮することができるのである。 As described above, in the omnidirectional (omnidirectional) imaging device or imaging system, the vertical direction is detected, the conversion table used for image processing is corrected according to the vertical direction, and the corrected conversion is performed. By generating omnidirectional (omnidirectional) images using the table, it is not necessary to recreate the conversion table from the beginning, so that the processing time can be shortened.

以上、好適な実施の形態により説明した。ここでは特定の具体例を示して説明したが、特許請求の範囲に定義された広範囲な趣旨及び範囲から逸脱することなく、これら具体例に様々な修正及び変更が可能である。 The above description has been made according to a preferred embodiment. Although specific examples have been described here, various modifications and changes can be made to these specific examples without departing from the broad purpose and scope defined in the claims.

10、140 コントローラ
100 撮像装置
101、1401 CPU
102、1402 SRAM
103、1403 ROM
104、1404 画像処理ブロック
105、1405 SDRAM I/F
106、1406 外部ストレージI/F
107 外部センサI/F
109 撮像素子1
110 撮像素子2
111、1411 SDRAM
112、1412 外部ストレージ
113 加速度センサ
200 転送先デバイス
1407 USB接続I/F
1408 ネットワークI/F
10, 140 controller 100 image pickup device 101, 1401 CPU
102, 1402 SRAM
103, 1403 ROM
104, 1404 Image processing block 105, 1405 SDRAM I / F
106, 1406 External storage I / F
107 External sensor I / F
109 Image sensor 1
110 image sensor 2
111, 1411 SDRAM
112, 1412 External storage 113 Accelerometer 200 Transfer destination device 1407 USB connection I / F
1408 Network I / F

特開2003−223633号公報Japanese Unexamined Patent Publication No. 2003-223633 特開2006−059202号公報Japanese Unexamined Patent Publication No. 2006-059202 特開平11−309137号公報Japanese Unexamined Patent Publication No. 11-309137 特許第4175832号公報Japanese Patent No. 4175832

Claims (10)

広角レンズを介して入力された像を撮影する撮像素子を備えた撮像装置であって、
前記撮像素子による撮影毎に前記撮像装置の重力方向に対する傾きを検出する傾き検出手段と、
前記撮像素子により撮影された平面座標値で表現される平面画像を球面座標値で表現される球面画像に変換するための変換データを記憶する記憶手段と、
前記変換データにより変換された球面画像を生成する生成手段と、をさらに備え、
前記変換データは、前記傾き検出手段により撮影毎に検出された前記撮像装置の重力方向に対する傾きに応じて撮影毎に補正されることを特徴とする撮像装置。
An image pickup device equipped with an image pickup device that captures an image input through a wide-angle lens.
A tilt detecting means for detecting the tilt of the image pickup device with respect to the gravity direction each time the image sensor takes a picture.
A storage means for storing conversion data for converting a plane image represented by plane coordinate values taken by the image sensor into a spherical image represented by spherical coordinate values.
A generation means for generating a spherical image converted by the conversion data is further provided.
The image pickup device is characterized in that the conversion data is corrected for each shooting according to the tilt of the imaging device with respect to the gravity direction detected for each shooting by the tilt detecting means.
前記傾きは、鉛直方向に対する3次元方向への傾きベクトルであり、前記傾きベクトルに対応する変換データを予め用意しておき、前記検出された傾きに最も近い傾きベクトルに対応する変換データを、前記予め用意された変換データの中から抽出することを特徴とする請求項1に記載の撮像装置。 The slope is a slope vector in the three-dimensional direction with respect to the vertical direction. Conversion data corresponding to the slope vector is prepared in advance, and the conversion data corresponding to the slope vector closest to the detected slope is used. The imaging apparatus according to claim 1, wherein the imaging apparatus is extracted from conversion data prepared in advance. 前記傾きは、鉛直方向に対する3次元方向への傾きベクトルであり、前記傾きベクトルに対応する変換データを予め用意しておき、前記検出された傾きに最も近い傾きベクトルに対応する変換データを、前記予め用意された変換データの中から抽出し、前記抽出された変換データと前記検出された傾きに対応する変換データとの差分を補間することを特徴とする請求項1に記載の撮像装置。 The slope is a slope vector in the three-dimensional direction with respect to the vertical direction. Conversion data corresponding to the slope vector is prepared in advance, and the conversion data corresponding to the slope vector closest to the detected slope is used. The imaging device according to claim 1, wherein the imaging device is extracted from the conversion data prepared in advance, and the difference between the extracted conversion data and the conversion data corresponding to the detected inclination is interpolated. 前記傾きは、加速度センサによって検出されることを特徴とする請求項1から3の何れか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 3, wherein the inclination is detected by an acceleration sensor. 撮像装置と、前記撮像装置とネットワークを介して接続される情報処理装置とを含む撮像システムは、
広角レンズを介して入力された像を撮影する撮像素子を備えた撮像装置であって、
前記撮像素子による撮影毎に前記撮像装置の重力方向に対する傾きを検出する傾き検出手段と、
前記撮像素子により撮影された平面座標値で表現される平面画像を球面座標値で表現される球面画像に変換するための変換データを記憶する記憶手段と、
前記変換データにより変換された球面画像を生成する生成手段と、をさらに備え、
前記変換データは、前記傾き検出手段により撮影毎に検出された前記撮像装置の重力方向に対する傾きに応じて撮影毎に補正されることを特徴とする撮像システム。
An imaging system including an imaging device and an information processing device connected to the imaging device via a network
An image pickup device equipped with an image pickup device that captures an image input through a wide-angle lens.
A tilt detecting means for detecting the tilt of the image pickup device with respect to the gravity direction each time the image sensor takes a picture.
A storage means for storing conversion data for converting a plane image represented by plane coordinate values taken by the image sensor into a spherical image represented by spherical coordinate values.
A generation means for generating a spherical image converted by the conversion data is further provided.
The image pickup system is characterized in that the conversion data is corrected for each shooting according to the tilt of the imaging device with respect to the gravity direction detected for each shooting by the tilt detecting means.
前記撮像装置は、前記傾き、前記変換データ、及び前記撮像装置により撮像された像を前記情報処理装置へ転送し、
前記情報処理装置は、前記転送された前記傾きに応じて、前記変換データを補正し、前記補正された変換データに基づいて、前記転送された像の座標変換を行い、座標変換後の像を組み合わせることを特徴とする請求項5に記載の撮像システム。
The image pickup device transfers the tilt, the conversion data, and the image captured by the image pickup device to the information processing device.
The information processing apparatus corrects the conversion data according to the transferred inclination, performs coordinate conversion of the transferred image based on the corrected conversion data, and obtains the image after the coordinate conversion. The imaging system according to claim 5, wherein the imaging system is combined.
広角レンズを介して入力された像を撮影する撮像素子による撮影毎に前記撮像素子を有する撮像装置の重力方向に対する傾きを傾き検出手段により検出する工程と、
前記撮像素子により撮影された平面座標値で表現される平面画像を球面座標値で表現される球面画像に変換するための変換データを記憶手段に記憶する工程と、
前記変換データにより変換された球面画像を生成する工程と、を備え、
前記変換データは、前記傾き検出手段により撮影毎に検出された前記撮像装置の重力方向に対する傾きに応じて撮影毎に補正されることを特徴とする画像処理方法。
A step of detecting the inclination of the image pickup device having the image pickup element with respect to the gravity direction by the tilt detection means for each image pickup by the image pickup element that captures the image input through the wide-angle lens.
A step of storing the conversion data for converting the plane image represented by the plane coordinate values taken by the image sensor into the spherical image represented by the spherical coordinate values in the storage means.
A step of generating a spherical image converted by the conversion data is provided.
An image processing method characterized in that the converted data is corrected for each shooting according to the tilt of the imaging device with respect to the gravity direction detected for each shooting by the tilt detecting means.
撮像装置に実行させるプログラムは、
広角レンズを介して入力された像を撮影する撮像素子により撮影された平面座標値で表現される平面画像を球面座標値で表現される球面画像に変換するための変換データを記憶手段に記憶する処理と、
前記変換データにより変換された球面画像を生成する処理と、を含み、
前記変換データは、撮影毎に検出される前記撮像装置の重力方向に対する傾きに応じて撮影毎に補正されることを特徴とするプログラム。
The program to be executed by the image pickup device is
The conversion data for converting the plane image represented by the plane coordinate values taken by the image pickup element that captures the image input through the wide-angle lens into the spherical image represented by the spherical coordinate values is stored in the storage means. Processing and
Including a process of generating a spherical image converted by the conversion data.
The conversion data is a program characterized in that it is corrected for each shooting according to the inclination of the imaging device with respect to the gravity direction, which is detected for each shooting.
広角レンズを介して入力された像を撮影する撮像素子を備えた撮像装置とネットワークを介して接続される情報処理装置は、
前記撮像素子による撮影毎に検出される前記撮像装置の重力方向に対する傾きを受信する手段と、
前記撮像素子により撮影された平面座標値で表現される平面画像を球面座標値で表現される球面画像に変換するための変換データを記憶する記憶手段と、
前記変換データにより変換された球面画像を生成する生成手段と、をさらに備え、
前記変換データは、前記撮影毎に検出された前記撮像装置の重力方向に対する傾きに応じて撮影毎に補正されることを特徴とする情報処理装置。
An image sensor equipped with an image sensor that captures an image input via a wide-angle lens and an information processing device connected via a network are
A means for receiving the inclination of the image pickup device with respect to the gravitational direction, which is detected for each shooting by the image pickup device.
A storage means for storing conversion data for converting a plane image represented by plane coordinate values taken by the image sensor into a spherical image represented by spherical coordinate values.
A generation means for generating a spherical image converted by the conversion data is further provided.
An information processing device characterized in that the converted data is corrected for each shooting according to the inclination of the imaging device with respect to the gravity direction detected for each shooting.
広角レンズを介して入力された像を撮影する撮像素子を備えた撮像装置とネットワークを介して接続される情報処理装置に実行させるプログラムは、
前記撮像素子による撮影毎に検出される前記撮像装置の重力方向に対する傾きを受信する処理と、
前記撮像素子により撮影された平面座標値で表現される平面画像を球面座標値で表現される球面画像に変換するための変換データを記憶手段に記憶する処理と、
前記変換データにより変換された球面画像を生成する生成処理と、を含み、
前記変換データは、前記撮影毎に検出された前記撮像装置の重力方向に対する傾きに応じて撮影毎に補正されることを特徴とするプログラム。
A program to be executed by an image sensor equipped with an image sensor that captures an image input via a wide-angle lens and an information processing device connected via a network
The process of receiving the inclination of the image pickup device with respect to the gravity direction, which is detected every time the image sensor takes a picture
A process of storing conversion data in a storage means for converting a plane image represented by plane coordinate values captured by the image sensor into a spherical image represented by spherical coordinate values.
A generation process for generating a spherical image converted by the conversion data is included.
A program characterized in that the conversion data is corrected for each shooting according to the inclination of the imaging device with respect to the gravity direction detected for each shooting.
JP2017226953A 2012-03-09 2017-11-27 Imaging equipment, imaging systems, image processing methods, information processing equipment, and programs Active JP6824143B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012053190 2012-03-09
JP2012053190 2012-03-09

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012263542A Division JP2013214947A (en) 2012-03-09 2012-11-30 Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020078570A Division JP7024817B2 (en) 2012-03-09 2020-04-27 Image pickup device, image pickup system, image processing method, information processing device, and program

Publications (3)

Publication Number Publication Date
JP2018038087A JP2018038087A (en) 2018-03-08
JP2018038087A5 JP2018038087A5 (en) 2018-06-21
JP6824143B2 true JP6824143B2 (en) 2021-02-03

Family

ID=61567842

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017226953A Active JP6824143B2 (en) 2012-03-09 2017-11-27 Imaging equipment, imaging systems, image processing methods, information processing equipment, and programs
JP2020078570A Active JP7024817B2 (en) 2012-03-09 2020-04-27 Image pickup device, image pickup system, image processing method, information processing device, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020078570A Active JP7024817B2 (en) 2012-03-09 2020-04-27 Image pickup device, image pickup system, image processing method, information processing device, and program

Country Status (1)

Country Link
JP (2) JP6824143B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101883498B1 (en) 2016-06-09 2018-08-07 최우용 Air Injection collecting dust removal equipment
CN115100026B (en) * 2022-06-15 2023-07-14 佳都科技集团股份有限公司 Label coordinate conversion method, device, equipment and storage medium based on target object
WO2024004134A1 (en) * 2022-06-30 2024-01-04 株式会社ソニー・インタラクティブエンタテインメント Image transmission device and image transmission method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10145667A (en) * 1996-11-05 1998-05-29 Canon Inc Image pickup device
JP4355535B2 (en) * 2003-08-07 2009-11-04 株式会社岩根研究所 360 degree image conversion processing device
JP2005063141A (en) * 2003-08-12 2005-03-10 D Link Corp Image conversion system and image conversion method
JP2006059202A (en) * 2004-08-20 2006-03-02 Iwate Univ Imaging device and image correction method
JP2008141649A (en) * 2006-12-05 2008-06-19 Alpine Electronics Inc Vehicle periphery monitoring apparatus
JP4857143B2 (en) * 2007-02-20 2012-01-18 アルパイン株式会社 Camera posture calculation target device, camera posture calculation method using the same, and image display method
JP5268743B2 (en) * 2009-03-30 2013-08-21 パナソニック株式会社 Image communication system
JP2011114496A (en) * 2009-11-25 2011-06-09 Olympus Imaging Corp Imaging apparatus

Also Published As

Publication number Publication date
JP2018038087A (en) 2018-03-08
JP2020129823A (en) 2020-08-27
JP7024817B2 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
JP2013214947A (en) Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program
JP6927382B2 (en) Imaging systems, methods, programs, video display devices and image processing devices.
JP6919334B2 (en) Image processing device, image processing method, program
JP5920507B1 (en) Image processing system, image processing method, and program
JP7024817B2 (en) Image pickup device, image pickup system, image processing method, information processing device, and program
JP6398472B2 (en) Image display system, image display apparatus, image display method, and program
JP6677098B2 (en) Spherical video shooting system and program
JP2019110434A (en) Image processing apparatus, image processing system, and program
JP6256513B2 (en) Imaging system, imaging apparatus, method, and program
JP6610741B2 (en) Image display system, image display apparatus, image display method, and program
JP7206797B2 (en) Imaging device, information processing device, correction value calculation method and program
JP6879350B2 (en) Image display systems, image display devices, image display methods, and programs
WO2017002360A1 (en) Full-spherical video imaging system and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200128

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200427

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200908

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20201124

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201222

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210112

R150 Certificate of patent or registration of utility model

Ref document number: 6824143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150