JP2020036249A - Image processing device that performs tilt correction - Google Patents

Image processing device that performs tilt correction Download PDF

Info

Publication number
JP2020036249A
JP2020036249A JP2018162502A JP2018162502A JP2020036249A JP 2020036249 A JP2020036249 A JP 2020036249A JP 2018162502 A JP2018162502 A JP 2018162502A JP 2018162502 A JP2018162502 A JP 2018162502A JP 2020036249 A JP2020036249 A JP 2020036249A
Authority
JP
Japan
Prior art keywords
image
unit
tilt correction
reliability
tilt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018162502A
Other languages
Japanese (ja)
Inventor
佳絵 伊藤
Yoshie Ito
佳絵 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018162502A priority Critical patent/JP2020036249A/en
Publication of JP2020036249A publication Critical patent/JP2020036249A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing device which can determine whether tilt correction is necessary or not when shooting with a tilt angle on a camera and can obtain a high-quality panoramic image.SOLUTION: An image processing device obtains a tilt correction coefficient on the basis of posture information of an imaging unit or an arbitrary set value, creates a determination temporary image in which tilt correction has been performed on at least two captured images, calculates a correspondence between feature points for each of the determination temporary image and the image before the tilt correction is performed, compares the number of correspondence between the determination temporary image and the image before the tilt correction is performed to determine the magnitude relationship, and evaluates the reliability of posture information and correspondence calculation. Further, the image processing device determines a tilt correction coefficient from any of the posture information and the magnitude relationship of the number of correspondences on the basis of the evaluation of the reliability, corrects the tilt of the image, and synthesizes the tilt-corrected image.SELECTED DRAWING: Figure 4

Description

本発明は、互いに共通領域が写るように撮像方向を順次変化させながら連続撮影した画像を合成することで、より広範囲の画像、すなわちパノラマ画像を得る画像処理装置および方法、並びにプログラムに関する。特に高品質なパノラマ画像を得ることができるようにした画像処理装置および方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus and method for obtaining a wider range of images, that is, a panoramic image, and a program by synthesizing continuously shot images while sequentially changing the imaging direction so that a common region is captured. In particular, the present invention relates to an image processing apparatus and method capable of obtaining a high-quality panoramic image, and a program.

従来、撮影方向を順次変化させて撮影範囲の一部を構成する単位画像を撮像し、撮像ステップにおいて撮像した単位画像の一部を構成する所定サイズの画像領域を互いに重複領域が生じるように切り出し、切り出した画像領域を順次重ね合わせることによりパノラマ画像を生成する技術が公開されている(特許文献1)。   Conventionally, a unit image forming a part of a shooting range is picked up by sequentially changing a shooting direction, and an image region of a predetermined size forming a part of the unit image picked up in the shooting step is cut out so as to generate an overlapping region. A technique has been disclosed for generating a panoramic image by successively superimposing cut-out image areas (Patent Document 1).

パノラマ撮影では、スイングの上下ブレにより上下方向の位置ずれが生じるため、パノラマ画像の合成後に上下方向をクロップした画像を出力する。図9(a)はあおりがない状態で撮影したパノラマ画像を位置合わせし、クロップした結果である。撮影した4枚の画像はクロップ範囲を割り込んでいないため、最終的に全画像を繋げたパノラマ画像が出力される。   In the panoramic shooting, since the vertical displacement of the swing causes a vertical displacement, an image in which the vertical direction is cropped after the panoramic image is synthesized is output. FIG. 9A shows a result obtained by aligning and cropping a panoramic image captured without tilt. Since the captured four images do not interrupt the cropping range, a panoramic image connecting all the images is finally output.

一方、クロップ領域を超えてずれが生じた場合は、画像のない領域を持つパノラマ画像が生じてしまうため、クロップ領域を超えたずれが生じる前までの画像を合成に使用するが、撮影者が意図するよりも短い画角の画像となってしまう。   On the other hand, if a shift occurs beyond the crop area, a panoramic image having an area without an image is generated. Therefore, the image before the shift beyond the crop area occurs is used for synthesis. The resulting image has a shorter angle of view than intended.

図8(a)はあおりでパノラマ撮影を行った時のカメラと被写体の位置関係、そして撮像されるパノラマ画像の形状を示す模式図である。撮影者800が水平線に沿ってカメラ802をスイングして聳えるビル群などの被写体801などを撮影する場合に、図8(a)のようにしばしば被写体801を見上げるようにカメラ802をあおり角805分傾けて撮影する場合がある。この時、カメラを回転させる軸803が画像素子面804と平行でない状態で撮影すると、取得される画像は先のすぼまった円柱806に張り付いた扇形807となり、これを二次元的に展開すると、扇状の横長な画像808となる。この場合に、撮像される画像が図9(b)で、取得した画像を位置合わせしていくとあおりによる歪みのため図中の4枚目の画像を合成した時点で点線内のクロップ範囲を逸脱する。そのため、3枚目までの画像までしか合成に利用できず、撮影者が意図するよりも短い画角の画像となってしまう。これに対し、あおり補正をした図9(b)の画像を合成した場合が図9(c)で、あおり補正により画像の歪みが軽減するために図9(b)よりも長い範囲のパノラマ画像を取得できる。   FIG. 8A is a schematic diagram showing the positional relationship between a camera and a subject when panoramic shooting is performed by tilting, and the shape of a captured panoramic image. When the photographer 800 swings the camera 802 along the horizon to photograph an object 801 such as a towering building group, the camera 802 is often tilted up and down by an angle of 805 so as to look up at the object 801 as shown in FIG. In some cases, the camera is tilted. At this time, if the image is taken in a state where the axis 803 for rotating the camera is not parallel to the image element surface 804, the obtained image becomes a sector 807 attached to the narrowed cylinder 806, which is developed two-dimensionally. Then, a fan-shaped horizontally long image 808 is obtained. In this case, the image to be captured is shown in FIG. 9B, and when the acquired images are aligned, the cropping range within the dotted line is changed at the time when the fourth image in the figure is combined due to distortion due to tilt. Deviate. For this reason, only the third image can be used for synthesis, and the image has an angle of view shorter than the photographer intends. On the other hand, FIG. 9C shows a case where the image of FIG. 9B subjected to the tilt correction is synthesized, and a panoramic image having a longer range than that of FIG. 9B because distortion of the image is reduced by the tilt correction. Can be obtained.

特許文献2には、複数枚の画像データを合成する際に、ジャイロセンサーで検出したあおり角から歪みの評価値を算出し、評価値から画像データの合成比率を決定する方法が開示されている。   Patent Literature 2 discloses a method of calculating a distortion evaluation value from a tilt angle detected by a gyro sensor and synthesizing image data from the evaluation value when combining a plurality of image data. .

特許文献3には、複数種類の画像合成方法で合成した画像を評価し、それらの中から適切な合成方法を選択する画像処理方法が提示されている。前記評価方法では、画像間の重複領域内において対応点を抽出して合成誤差を計算し、所定値と比較するあるいは合成誤差の大小を比較することで合成方法を評価する。   Patent Literature 3 discloses an image processing method for evaluating images synthesized by a plurality of types of image synthesis methods and selecting an appropriate synthesis method from the images. In the evaluation method, a corresponding point is extracted in an overlapping area between images to calculate a combining error, and the combining method is evaluated by comparing the extracted value with a predetermined value or comparing the magnitude of the combining error.

特開2005−328497号公報JP 2005-328497 A 特許第4174122号公報Japanese Patent No. 4174122 特許第5875248号公報Japanese Patent No. 5875248

しかしながらパノラマ撮影においては、あおり角を付けて撮影している場合においても、必ずしもあおり補正をすることで画像の改善が見られるわけではない。例えば、図8(b)のように、撮影者810はカメラ812にあおり角815を付けて撮影しているが、カメラ812を回転させる軸813が画像素子面814と平行である場合は、取得される画像は円柱816に張り付いた長方形817となり、これを二次元的に展開すると、長方形状の画像818となる。撮影画像は歪まず、あおり補正が不要となる。また、図8(c)のように、図8(a)と同様に、撮影者820がカメラ822を回転軸823が画像素子面824と平行でない状態であおり角825を付けて撮影しているが、撮影される対象821が回転の軌跡と略相似型の表面形状(例えばドームなど)をしている場合は、結果的に撮影画像828は歪まず、あおり補正が不要となる。パノラマ画像の歪みを、特許文献1と同様にジャイロセンサーのあおり角のみで判定した場合、図8(b)及び(c)のような、あおり補正が不要なシーンにおいてもあおり補正をしてしまい、画像の劣化につながってしまうという課題がある。   However, in panoramic shooting, even when shooting is performed with a tilt angle, an image is not always improved by tilt correction. For example, as shown in FIG. 8B, the photographer 810 shoots the camera 812 with a tilt angle 815, but if the axis 813 for rotating the camera 812 is parallel to the image element surface 814, The resulting image is a rectangle 817 attached to a cylinder 816, and when this is developed two-dimensionally, it becomes a rectangular image 818. The captured image is not distorted, and the tilt correction is not required. As shown in FIG. 8C, similarly to FIG. 8A, the photographer 820 photographs the camera 822 with the rotation axis 823 not parallel to the image element surface 824 and with an angle 825. However, when the object 821 to be photographed has a surface shape (for example, a dome) substantially similar to the locus of rotation, the photographed image 828 is not distorted as a result, and the tilt correction is unnecessary. When the distortion of the panoramic image is determined only by the tilt angle of the gyro sensor as in Patent Literature 1, the tilt correction is performed even in a scene that does not require the tilt correction as shown in FIGS. 8B and 8C. However, there is a problem that the image is deteriorated.

一方で、特許文献3に記載の手法ならば、あおり補正が必要な図8(a)のシーンとあおり補正が不要な図8(b)と図8(c)のシーンとを分けて最適な合成を行うことが可能である。しかしながら、画像の対応点が少ないシーンにおいては、判定の精度が低下してしまうという課題がある。   On the other hand, according to the method described in Patent Literature 3, the scene of FIG. 8A that requires tilt correction and the scene of FIG. 8B and FIG. It is possible to perform the synthesis. However, in a scene where the number of corresponding points in an image is small, there is a problem that the accuracy of the determination is reduced.

以上を鑑み、本発明の目的は、カメラにあおり角を付けて撮影している時に、あおり補正が必要なシーン(図8のa)か不要なシーン(図8のbとc)を判別でき、かつ画像の対応点抽出の信頼性が不十分なシーンにおいても、判定精度の低下を防ぎ、高品質なパノラマ画像を得ることができる画像処理装置および方法、並びにプログラムを提供することにある。   In view of the above, it is an object of the present invention to be able to discriminate between scenes requiring tilt correction (a in FIG. 8) and unnecessary scenes (b and c in FIG. 8) when shooting with a tilt angle on the camera. Another object of the present invention is to provide an image processing apparatus and method, and a program that can prevent a decrease in determination accuracy and obtain a high-quality panoramic image even in a scene where the reliability of corresponding point extraction of an image is insufficient.

上記の目的を達成するために、本発明に係る画像処理装置は、
撮像素子によって撮影された画像を順次入力し、入力の画像をつなぎ合わせて合成画像を生成する画像処理装置であって、前記撮像素子で撮影する撮像部と、前記画像処理装置の姿勢情報を取得する姿勢情報取得部と、前記撮像部で撮影された画像を幾何変形する画像補正部と、前記基準画像の特徴点と前記対象画像の特徴点との対応関係を算出し、対応関係の算出結果を基に画像の位置合わせを行う画像位置合わせ部と、前記姿勢情報および前記対応関係算出の信頼性を評価する信頼性評価部と、あおり補正係数を設定するあおり補正係数設定部と、前記位置合わせされた画像を合成する画像合成部を有し、前記撮影開始時に、前記姿勢情報取得部が撮像部の姿勢情報を取得し、前記補正係数設定部が前記姿勢情報あるいは任意の設定値を基にあおり補正係数を画像補正部に入力し、前記画像補正部で、前記撮像された少なくとも2枚の画像に対してあおり補正を施した判定用仮画像を作成し、前記画像位置合わせ部で、前記判定用仮画像とあおり補正を施す前の画像のそれぞれに対して特徴点の対応関係算出を行い、前記判定用仮画像とあおり補正を施す前の画像の間で対応数を比較して大小関係を求め、前記信頼性評価部で前記姿勢情報および前記対応関係算出の信頼性を評価して前記あおり補正係数設定部に入力し、前記あおり補正係数設定部は、前記信頼性の評価を基に撮像部の姿勢情報および対応数の大小関係のいずれから画像補正部にあおり補正係数を入力し、前記画像補正部で前記あおり補正係数を基に撮影された画像をあおり補正し、前記画像合成部で前記あおり補正済み画像をつなぎ合わせて合成画像を生成することを特徴とする。
In order to achieve the above object, an image processing apparatus according to the present invention includes:
An image processing apparatus for sequentially inputting images captured by an imaging device and connecting the input images to generate a composite image, wherein an imaging unit configured to capture an image using the imaging device and attitude information of the image processing device are acquired. An orientation information acquiring unit, an image correcting unit for geometrically deforming an image captured by the imaging unit, and calculating a correspondence between a feature point of the reference image and a feature point of the target image, and calculating the correspondence. An image alignment unit that performs image alignment based on the position information, a reliability evaluation unit that evaluates the reliability of the posture information and the correspondence calculation, a tilt correction coefficient setting unit that sets a tilt correction coefficient, and the position An image synthesizing unit for synthesizing the combined images, at the start of the photographing, the posture information obtaining unit obtains the posture information of the imaging unit, and the correction coefficient setting unit sets the posture information or an arbitrary set value. The tilt correction coefficient is input to the image correction unit, and the image correction unit creates a determination temporary image in which tilt correction has been performed on the captured at least two images, and the image alignment unit determines The correspondence between feature points is calculated for each of the temporary image for determination and the image before the tilt correction is performed, and the corresponding number is compared between the temporary image for determination and the image before the tilt correction is performed. A relationship is obtained, the reliability evaluation unit evaluates the reliability of the posture information and the correspondence calculation, and inputs the reliability to the tilt correction coefficient setting unit, and the tilt correction coefficient setting unit evaluates the reliability based on the reliability evaluation. Inputting a tilt correction coefficient to the image correction unit from any of the attitude information of the imaging unit and the magnitude relationship of the number of correspondences, tilt-corrects the image captured based on the tilt correction coefficient by the image correction unit, and performs the image synthesis. In the department By joining the corrected image and generating a composite image.

本発明によれば、画像の対応点抽出の信頼性が不十分なシーンにおいても、あおり補正を適切に掛けることができ、高品質なパノラマ画像を得ることができる画像処理装置および方法、並びにプログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, even in the scene where the reliability of the corresponding point extraction of an image is inadequate, an image processing apparatus and method, and a program which can perform a tilt correction appropriately and can obtain a high-quality panoramic image Can be provided.

実施の形態における画像処理装置の構成を説明する概念図である。1 is a conceptual diagram illustrating a configuration of an image processing device according to an embodiment. 第1の実施の形態の処理フローを説明するフロー図である。FIG. 4 is a flowchart illustrating a processing flow according to the first embodiment. 第1の実施の形態の構成要因間のやり取りに関する概念図である。It is a conceptual diagram about exchange between the components of a 1st embodiment. 第1の実施の形態の処理フローを詳細に説明するフロー図である。FIG. 3 is a flowchart for explaining a processing flow of the first embodiment in detail; 加速度センサーと差像処理装置のあおり角に関する概念図である。It is a conceptual diagram about the tilt angle of an acceleration sensor and a difference image processing apparatus. 画像位置合わせおよびジャイロセンサーの信頼性に関する概念図である。FIG. 4 is a conceptual diagram related to image alignment and the reliability of a gyro sensor. 画像位置合わせの信頼性算出に関する概念図である。It is a conceptual diagram regarding calculation of reliability of image alignment. 発明が解決する課題に関する概念図である。It is a conceptual diagram about the subject which the invention solves. 発明が解決する課題に関する概念図である。It is a conceptual diagram about the subject which the invention solves.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(実施形態1)
図1は、本実施形態の画像処理装置の基本構成を示すブロック図である。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a basic configuration of the image processing apparatus according to the present embodiment.

画像処理装置100は、デジタルカメラ、デジタルビデオカメラのようなカメラであってもよいし、カメラ機能付き携帯電話、カメラ付きコンピュータなど、カメラ機能を備える任意の電子機器であってもよい。   The image processing apparatus 100 may be a camera such as a digital camera or a digital video camera, or may be any electronic device having a camera function, such as a mobile phone with a camera function and a computer with a camera.

光学系101は、レンズ、シャッター、絞りを備え、CPU103の制御によって被写体からの光を撮像素子102に結像させる。光学系101に含まれるレンズは、例えば、フォーカスレンズ、ズームレンズ、シフトレンズ等を有する。シフトレンズは、画像処理装置100に加わる振れにより撮像画像に生じるブレ(像ブレ)を光学的に補正するために用いる補正手段である。CPUは、Central Processing Unitの略称である。CCDイメージセンサ、CMOSイメージセンサなどの撮像素子102は、光学系101を通って結像した光を、画像信号に変換する。CCDは、Charge Coupled Deviceの略称である。CMOSは、Complementary Metal Oxide Semiconductorの略称である。   The optical system 101 includes a lens, a shutter, and an aperture, and forms light from a subject on the image sensor 102 under the control of the CPU 103. The lenses included in the optical system 101 include, for example, a focus lens, a zoom lens, a shift lens, and the like. The shift lens is a correction unit that is used to optically correct blur (image blur) generated in a captured image due to a shake applied to the image processing apparatus 100. CPU is an abbreviation for Central Processing Unit. An image sensor 102 such as a CCD image sensor or a CMOS image sensor converts light focused through the optical system 101 into an image signal. CCD is an abbreviation for Charge Coupled Device. CMOS is an abbreviation for Complementary Metal Oxide Semiconductor.

姿勢情報取得部105は、ジャイロセンサーであってもよいし、加速度センサーでもよく、画像処理装置100の移動量を示す角速度乃至は重力加速度に対する装置の傾きを検出し、電気信号として変換してCPU103へ伝達する。CPU103は、入力された信号や予め記憶されたプログラムに従い、画像処理装置100を構成する各部を制御することで、画像処理装置100の機能を実現させる。一次記憶装置104は、例えば、RAMのような揮発性装置であり、一時的なデータを記憶し、CPU103の作業用に使われる。RAMは、Random Access Memoryの略称である。また、一次記憶装置104に記憶されている情報は、画像処理部106で利用されたり、記録媒体107へ記録されたりもする。   The posture information acquisition unit 105 may be a gyro sensor or an acceleration sensor, detects the angular velocity indicating the moving amount of the image processing apparatus 100 or the inclination of the apparatus with respect to the gravitational acceleration, converts the detected inclination into an electric signal, and converts the inclination into an electric signal. Communicate to The CPU 103 realizes the functions of the image processing apparatus 100 by controlling each unit constituting the image processing apparatus 100 according to an input signal or a program stored in advance. The primary storage device 104 is, for example, a volatile device such as a RAM, stores temporary data, and is used for the operation of the CPU 103. RAM is an abbreviation for Random Access Memory. The information stored in the primary storage device 104 is used by the image processing unit 106 or recorded on the recording medium 107.

二次記憶装置108は、例えばEEPROMのような不揮発性記憶装置であり、画像処理装置100を制御するためのプログラム(ファームウェア)や各種の設定情報を記憶し、CPU103によって利用される。EEPROMは、Electrically Etrasable Programmable Read Only Memoryの略称である。   The secondary storage device 108 is a non-volatile storage device such as an EEPROM, for example, and stores a program (firmware) for controlling the image processing apparatus 100 and various kinds of setting information, and is used by the CPU 103. EEPROM is an abbreviation for Electronically Erasable Programmable Read Only Memory.

記録媒体107は、一次記憶装置104に記憶されている、撮影により得られた画像のデータなどを記録する。なお、記録媒体107は、例えば半導体メモリカードのように撮像装置100から取り外し可能であり、記録されたデータはパーソナルコンピュータなどに装着してデータを読み出すことが可能である。つまり、画像処理装置100は、記録媒体107の着脱機構及び読み書き機能を有する。表示部109は、撮影時のビューファインダー画像の表示、撮影した画像の表示、対話的な操作のためのGUI画像などの表示を行う。GUIは、Graphical User Interfaceの略称である。操作部110は、ユーザの操作を受け付けてCPU103へ入力情報を伝達する入力デバイス群であり、例えばボタン、レバー、タッチパネル、音声や視線などを用いた入力機器であっても良い。   The recording medium 107 records data of an image obtained by shooting, which is stored in the primary storage device 104. Note that the recording medium 107 is detachable from the imaging device 100 like a semiconductor memory card, for example, and the recorded data can be read out by attaching it to a personal computer or the like. That is, the image processing apparatus 100 has a mechanism for attaching and detaching the recording medium 107 and a read / write function. The display unit 109 displays a viewfinder image at the time of shooting, displays a shot image, and displays a GUI image for interactive operation. GUI is an abbreviation for Graphical User Interface. The operation unit 110 is an input device group that receives a user's operation and transmits input information to the CPU 103, and may be, for example, a button, a lever, a touch panel, or an input device using a voice or a line of sight.

温度情報取得部111は、画像処理装置100内に設置され、姿勢情報取得部105やCPU103の温度をモニターする。   The temperature information acquisition unit 111 is installed in the image processing apparatus 100 and monitors the temperatures of the posture information acquisition unit 105 and the CPU 103.

なお、画像処理装置100は、画像処理部106が撮像画像に適用する画像処理のパターンを複数有し、パターンを撮像モードとして操作部110から設定可能である。画像処理部106は、いわゆる現像処理と呼ばれる画像処理をはじめ、撮影モードに応じた色調の調整なども行う。なお、画像処理部106の機能の少なくとも一部は、CPU103がソフトウェア的に実現しても良い。   Note that the image processing apparatus 100 has a plurality of image processing patterns applied to the captured image by the image processing unit 106, and the pattern can be set as the imaging mode from the operation unit 110. The image processing unit 106 performs not only image processing called so-called development processing, but also adjustment of color tone according to the shooting mode. Note that at least a part of the function of the image processing unit 106 may be implemented by the CPU 103 as software.

本発明のパノラマ撮影では、カメラを撮影者が動かしながら、もしくは自動雲台等で動かしながら連続撮影を行なうことで実施する。撮影された複数の各画像には被写体の共通領域が含まれるように撮影を行なう。各画像の共通領域の特徴点を抽出し、その特徴点がどのくらい動いたか移動ベクトルを検出する。その移動ベクトルから例えばアフィン変換の係数に変換し、特徴点が一致するように2枚の画像を重ね合わせることで、共通領域以外の部分が拡張された画像が得られる。これを複数回繰り返すことで1枚での撮影よりも広範囲のパノラマ画像を生成する。   In the panoramic photographing of the present invention, the photographing is performed by moving the camera continuously or by moving the camera with an automatic camera platform or the like. The photographing is performed so that the plurality of photographed images include the common area of the subject. A feature point of a common area of each image is extracted, and a movement vector is detected as to how much the feature point has moved. The movement vector is converted into, for example, an affine transformation coefficient, and the two images are superimposed so that the feature points coincide with each other, whereby an image in which a portion other than the common area is expanded is obtained. By repeating this a plurality of times, a panoramic image in a wider range than that of a single image is generated.

本発明のパノラマ撮影の詳細について主に図1から図7を使用して説明する。なお、図3ではあおり補正係数設定部302aと302b、および画像補正部303aと303bが登場するが、これらは互いに同じものであり、説明の明瞭化のために分けて表記している。また、図3では各構成部が互いに直接情報をやり取りしているように書かれているが、実際には一次記憶装置104やCPU103を介してやり取りを行う。   The details of the panoramic photographing of the present invention will be described mainly with reference to FIGS. Note that although FIG. 3 shows the tilt correction coefficient setting units 302a and 302b and the image correction units 303a and 303b, these are the same, and are separately illustrated for clarity of explanation. In FIG. 3, each component is described as directly exchanging information with each other, but actually exchanges information via the primary storage device 104 and the CPU 103.

本発明におけるパノラマ撮影は、撮影された最初の数枚の画像処理フロー図2(a)と、それ以降の画像処理フロー図2(b)とが異なる。ここでは、例として最初の2枚と、3枚以降として説明する。最初の1枚目及び2枚目では、あおり補正をするかしないかの判断を行う。具体的には、あおり補正をかけるための係数を設定するが、あおり補正が望ましくない場合は補正が掛らないような係数を設定する。3枚目以降ではあおり補正の実行判断を行わず、前の2枚で決定した内容に従い合成を行う。つまり、1枚目及び2枚目であおり補正の実行が決定した場合は、3枚目以後の撮影では1枚目及び2枚目と同様のあおり補正をかけた画像を合成する。以下に、1枚目及び2枚目における処理と、3枚目以降の処理に分けて説明する。   In the panoramic photography according to the present invention, the flow chart of the image processing of the first few images that have been photographed is different from the flow chart of the image processing shown in FIG. Here, the first two sheets and the third and subsequent sheets will be described as examples. For the first and second sheets, it is determined whether or not the tilt correction is performed. Specifically, a coefficient for performing the tilt correction is set. However, when the tilt correction is not desired, a coefficient is set so that the correction is not performed. For the third and subsequent sheets, the execution determination of the tilt correction is not performed, and the composition is performed according to the contents determined for the previous two sheets. In other words, when the execution of the tilt correction is determined for the first and second images, the images subjected to the tilt correction similar to those of the first and second images are combined in the third and subsequent images. Hereinafter, the processing for the first and second sheets and the processing for the third and subsequent sheets will be described separately.

まず、1枚目及び2枚目における処理フローを説明する。撮像部300は、画像センサーに光を導くための光学系と、受光した光を電気信号に変える画像センサーと、電気信号をYUVなどの画像データに変換する現像系を有する。一方、姿勢情報取得部301は、撮像部の撮影と並行して、単位時間当たりの撮像装置の姿勢情報を取得する。姿勢情報取得部301の例として、加速度センサーおよびジャイロセンサーが好適に使用される。   First, the processing flow for the first and second sheets will be described. The imaging unit 300 has an optical system for guiding light to the image sensor, an image sensor for converting received light into an electric signal, and a developing system for converting the electric signal into image data such as YUV. On the other hand, the posture information acquisition unit 301 acquires posture information of the imaging device per unit time in parallel with the photographing of the imaging unit. As an example of the posture information acquisition unit 301, an acceleration sensor and a gyro sensor are suitably used.

撮像部300によって撮像され(S200、S400)、現像されたS201像データは、画像補正部303aに入力され3001、画像前処理A(S202)が行われる。撮影同時に、姿勢情報取得部301の値が取得されS401、一次記憶装置104に保持される。画像前処理A(S202)とは、画像の歪みを補正するための処理で、具体的には円筒変換(S2020、S402)およびあおり補正(S2021、S403)である。パノラマ撮影において、位置合わせを簡便にできるように円筒変換(S2020、S402)を行なうことが好ましい。円筒変換には既存の方法が用いられる。また、この時同時に光学系101の歪曲収差を補正することも好ましい。   The S201 image data that has been captured by the imaging unit 300 (S200, S400) and developed is input to the image correction unit 303a 3001, and image preprocessing A (S202) is performed. At the same time as shooting, the value of the posture information obtaining unit 301 is obtained and stored in the primary storage device 104 in step S401. The image preprocessing A (S202) is a process for correcting image distortion, and specifically includes cylindrical transformation (S2020, S402) and tilt correction (S2021, S403). In panoramic imaging, it is preferable to perform cylindrical conversion (S2020, S402) so that positioning can be performed easily. An existing method is used for the cylinder conversion. It is also preferable to correct the distortion of the optical system 101 at this time.

一方、あおり補正(S2021、S403)では、あおり補正係数設定部302bがあおり補正の実行の判断を行うために使用する仮の判定用画像を作成する。あおり補正係数設定部302aは、姿勢情報取得部301から取得した撮像装置の姿勢情報から撮像1枚目のあおり角を算出し、画像補正部303aに入力する。撮像装置のあおり角の算出方法として、図5を参照しながら、加速度センサーを例に解説する。図5(a)にある通り、撮像装置における水平方向をx軸、光軸をy軸、重力方向をz軸とする。撮像装置のあおり角は図5(b)にあるように、x軸を回転中心とした、y−z軸の回転角、すなわち水平方向と撮像装置のy軸方向がなす角度があおり角θである。あおり角θは、以下の式1から求められる。   On the other hand, in the tilt correction (S2021, S403), the tilt correction coefficient setting unit 302b creates a temporary determination image used to determine whether to perform tilt correction. The tilt correction coefficient setting unit 302a calculates the tilt angle of the first image captured from the attitude information of the imaging device acquired from the attitude information acquisition unit 301, and inputs the angle to the image correction unit 303a. As a method of calculating the tilt angle of the imaging apparatus, an acceleration sensor will be described as an example with reference to FIG. As shown in FIG. 5A, the horizontal direction in the imaging apparatus is the x axis, the optical axis is the y axis, and the direction of gravity is the z axis. As shown in FIG. 5B, the tilt angle of the imaging device is the rotation angle of the yz axis around the x axis, that is, the angle between the horizontal direction and the y-axis direction of the imaging device is the tilt angle θ. is there. The tilt angle θ is obtained from the following equation 1.

式1のAy,outは加速度センサーのy軸方向の出力、Az,outは加速度センサーのz軸方向の出力である。姿勢情報の傾きを得る方法として、ジャイロセンサーを撮像前に水平状態にしてオフセットを取り、出力を積分して算出する方法もあるが、積分時間が長くなる場合はバイアスの安定性からくる積分誤差が生じるため、好適には加速度センサーが用いられる。   In Expression 1, Ay and out are outputs of the acceleration sensor in the y-axis direction, and Az and out are outputs of the acceleration sensor in the z-axis direction. As a method of obtaining the inclination of the posture information, there is a method of taking the offset with the gyro sensor in a horizontal state before imaging and integrating and calculating the output. However, when the integration time is long, the integration error due to the stability of the bias is required. Therefore, an acceleration sensor is preferably used.

次に、画像補正部303aは、下記式2と式3を用い、光学系101から撮像系の焦点距離dを、二次記憶装置108から撮像素子の画素ピッチpを取得し、あおり補正係数設定部302aから入力された(3003)あおり角θと合わせて下記あおり補正の変換係数を求める。   Next, the image correction unit 303a obtains the focal length d of the imaging system from the optical system 101 and the pixel pitch p of the imaging device from the secondary storage device 108 using the following Expressions 2 and 3, and sets the tilt correction coefficient. A conversion coefficient for the following tilt correction is obtained in combination with the (3003) tilt angle θ input from the unit 302a.

画像補正部303aは、円筒変換(S2020、S402)された1枚目および2枚目の画像データに対し、式2で求めたあおり補正係数を適用し、あおり補正を行う(S2021、S403)。画像補正部303aは、あおり補正した画像を画像位置合わせ部304に受け渡す(3004)。ここではあおり補正の係数を射影変換から導いたが、あおり補正が可能であるならば他の変換方式を用いても良い。   The image correction unit 303a performs the tilt correction by applying the tilt correction coefficient obtained by Expression 2 to the first and second image data subjected to the cylindrical conversion (S2020, S402) (S2021, S403). The image correcting unit 303a transfers the image after the tilt correction to the image positioning unit 304 (3004). Here, the coefficient of the tilt correction is derived from the projective transformation, but another conversion method may be used as long as the tilt correction is possible.

画像位置合わせ部304は、前記あおり補正された画像と、あおり補正していない画像の2ペアの画像それぞれに対して対応点算出処理(S203、S404)を行う。   The image positioning unit 304 performs a corresponding point calculation process (S203, S404) on each of the two pairs of images, the image subjected to the tilt correction and the image not subjected to the tilt correction.

対応点算出処理とは、2枚の画像間で対応する点を検出することである。対応点の検出は画像間で共通する特徴点を抽出することで行う。特徴点の抽出は既知の方法が採用できる。一例をあげると円筒変換(S2020、S402)を行なった2枚の画像の輝度情報のみを抽出し、1乃至数ピクセルずらしてもとの画像から減算してその絶対値を算出する方法(テンプレートマッチング)や、輝度情報のみを抽出した画像にハイパスフィルターをかけた画像をもとの輝度情報画像から減算する方法などでエッジを抽出する。複数枚のエッジ画像をずらした状態で減算し、差分が少なくなる位置を計算する。差分が任意の閾値以下の場合、一致とみなし対応点として計上する。特徴点の抽出では、画像を複数のブロックに分割して特徴点の抽出を行なうことが好ましい。ブロック分割することで、画像内で実際は異なる似通った特徴点を対応点として誤検出してしまうことを避けるためである。ブロック分割は画像のピクセル数やアスペクト比にもよるが、一般的には4×3の12ブロック乃至は96×64ブロックが好ましい。ブロックが細かすぎると特徴点が近づいて誤差を含むようになり、逆にブロックが大きすぎると上記で述べたように実際は異なる似通った特徴点を対応点として誤検出してしまうためである。このようなことから画素数や特徴点の見つけやすさ、被写体の画角などによって適宜最適なブロック数を選択可能である。画像位置合わせ部304は、前記あおり補正された画像と、あおり補正していない画像の2ペアの画像それぞれに対して上記対応点算出処理を行い、各ペアの対応点数(ブロック数を最大値とする)をあおり補正係数設定部302bに入力する3008。   The corresponding point calculation process is to detect a corresponding point between two images. The detection of the corresponding points is performed by extracting the feature points common to the images. A known method can be used for extracting the feature points. As an example, a method of extracting only luminance information of two images that have been subjected to the cylindrical transformation (S2020, S402), subtracting one or several pixels from the original image, and calculating the absolute value thereof (template matching) The edge is extracted by a method of subtracting an image obtained by applying a high-pass filter to an image obtained by extracting only luminance information from the original luminance information image. A plurality of edge images are subtracted while being shifted, and a position where the difference is reduced is calculated. If the difference is equal to or less than an arbitrary threshold value, it is regarded as a match and is counted as a corresponding point. In extracting feature points, it is preferable to divide an image into a plurality of blocks and extract feature points. This is to avoid erroneously detecting similar similar feature points that are actually different in the image as corresponding points by dividing the image into blocks. Although the block division depends on the number of pixels and the aspect ratio of the image, generally, 12 × 4 × 3 blocks or 96 × 64 blocks are preferable. If the blocks are too fine, the feature points approach each other and include an error. Conversely, if the blocks are too large, different similar feature points are erroneously detected as corresponding points as described above. Thus, the optimal number of blocks can be appropriately selected according to the number of pixels, the ease of finding feature points, the angle of view of the subject, and the like. The image alignment unit 304 performs the above-described corresponding point calculation process on each of the two pairs of images, the image that has been tilt-corrected and the image that has not been tilt-corrected, and calculates the number of corresponding points of each pair (the number of blocks is set to the maximum value. Is input to the tilt correction coefficient setting unit 302b (3008).

次いで、あおり補正係数設定部302bは、上記の対応点算出とは別に姿勢情報取得部301から取得した撮像装置の姿勢情報を基にあおり補正係数を設定する(S412、S414)。あおり補正が必要なシーン(図8a)では、撮像装置がロール方向に回転している。一方で、あおり補正が不要なシーン(図8のbとc)では撮像装置がロール方向に回転していない。このロール方向の回転は例えばジャイロセンサーによって検出可能である。姿勢情報取得部301は、1枚目から2枚目撮像間におけるジャイロセンサーのロール方向の回転量をあおり補正係数設定部に入力する(3005)。なお、ジャイロセンサーからの出力そのものは角速度であるが、パノラマ撮影では前回の撮影からどのくらいスイング(回転)されたかが必要なので、1枚目の撮影の場合はこの値を記録しておき、次の撮影まで角速度を積分し、2枚目の撮影時に前回からの回転角度を計算する。なお、撮像前のジャイロセンサーの出力値を手振れ量とし、ロール方向への回転量を算出する時に差し引くことが好ましい(不図示)。   Next, the tilt correction coefficient setting unit 302b sets a tilt correction coefficient based on the posture information of the imaging device acquired from the posture information acquisition unit 301 separately from the above-described calculation of the corresponding points (S412, S414). In a scene requiring tilt correction (FIG. 8A), the imaging device is rotating in the roll direction. On the other hand, in a scene (b and c in FIG. 8) in which the tilt correction is unnecessary, the imaging device is not rotating in the roll direction. The rotation in the roll direction can be detected by, for example, a gyro sensor. The posture information acquisition unit 301 inputs the amount of rotation of the gyro sensor in the roll direction between the first and second images to the tilt correction coefficient setting unit (3005). Note that the output from the gyro sensor itself is the angular velocity, but in panoramic shooting, it is necessary to determine how much the camera has been swung (rotated) since the previous shooting. The angular velocity is integrated up to and the rotation angle from the previous time is calculated when the second image is taken. It is preferable that the output value of the gyro sensor before imaging is set as the camera shake amount and subtracted when calculating the rotation amount in the roll direction (not shown).

画像位置合わせ部304から対応点数を受け取ったあおり補正係数設定部302bは、ペア間の対応点数を比較しS407、多い方のあおり補正係数を画像補正部303bに設定するS408。つまり、あおり補正を行ったペアの方が元画像のペアよりも対応点数が多い場合、あおり補正係数設定部302bは、画像補正部303bに判定用画像算出に用いたあおり補正係数を入力する。反対に、元画像のペアの方があおり補正を行ったペアよりも対応点数が多い場合、あおり補正係数設定部302bは、画像補正部303bに以下の係数1をあおり補正変換係数として入力することで、あおり補正を行わない設定にする。   The tilt correction coefficient setting unit 302b that has received the number of corresponding points from the image positioning unit 304 compares the number of corresponding points between pairs in S407, and sets the larger tilt correction coefficient in the image correction unit 303b in S408. In other words, when the pair subjected to the tilt correction has a larger number of corresponding points than the pair of the original image, the tilt correction coefficient setting unit 302b inputs the tilt correction coefficient used for calculating the determination image to the image correction unit 303b. Conversely, when the original image pair has more corresponding points than the pair that has undergone the tilt correction, the tilt correction coefficient setting unit 302b inputs the following coefficient 1 to the image correction unit 303b as the tilt correction conversion coefficient. So that the tilt correction is not performed.

また、姿勢情報取得部301から撮像装置のロール方向への回転量を受け取ったあおり補正係数設定部302bは、回転量が閾値以上である場合、画像補正部303bに判定用画像算出に用いたあおり補正係数を入力する(S412)。反対に、1枚目から2枚目撮像間においてジャイロセンサーがロール方向に回転していない場合、あおり補正係数設定部302bは、画像補正部303bに前記係数1をあおり補正変換係数として入力する(S414)。   When the rotation amount of the imaging device in the roll direction is received from the posture information acquisition unit 301, the tilt correction coefficient setting unit 302b causes the image correction unit 303b to calculate the tilt image when the rotation amount is equal to or larger than the threshold. A correction coefficient is input (S412). Conversely, when the gyro sensor is not rotating in the roll direction between the first and second images, the tilt correction coefficient setting unit 302b inputs the coefficient 1 to the image correction unit 303b as a tilt correction conversion coefficient ( S414).

前記あおり補正係数設定部302bによる前記あおり補正係数設定を、対応点数によって算出したあおり補正係数を設定するか、姿勢制御情報からのあおり補正係数を設定するかは、画像位置合わせ及び姿勢情報の信頼性によって判定する。以下、画像位置合わせおよび姿勢情報の信頼性の算出(S204,S405)の方法について説明する。   Whether the tilt correction coefficient set by the tilt correction coefficient setting unit 302b is set by the tilt correction coefficient calculated based on the number of corresponding points or the tilt correction coefficient from the attitude control information depends on the reliability of the image registration and attitude information. Determined by gender. Hereinafter, a method of calculating the reliability of image alignment and posture information (S204, S405) will be described.

対応点算出の信頼性および姿勢制御情報(特にジャイロセンサー)の信頼性は、画像位置合わせ部304からの情報入力(3005)および姿勢制御部301からの情報入力(3006)を受けた情報信頼性評価部305によって判定され、あおり補正係数設定部302bに受け渡される(3007)。信頼性は大小2つの閾値(位置合わせ:600、601、姿勢制御:610、611)によって区切られた3つの信頼性区間に分けられる。すなわち、値が十分に信頼できる場合(位置合わせ:Gr 604、姿勢制御:Pr 614)、信頼できない場合(位置合わせ:Gur 602、姿勢制御:Pur 612)、およびその中間(位置合わせ:Gpr 603、姿勢制御:Ppr 613)である。   The reliability of the corresponding point calculation and the reliability of the posture control information (especially the gyro sensor) are determined based on the information reliability received from the information input unit (3005) from the image alignment unit 304 and the information input unit (3006) from the posture control unit 301. The judgment is made by the evaluation unit 305, and the judgment is passed to the tilt correction coefficient setting unit 302b (3007). The reliability is divided into three reliability sections separated by two large and small thresholds (alignment: 600, 601; attitude control: 610, 611). That is, when the values are sufficiently reliable (alignment: Gr 604, attitude control: Pr 614), when the values are not reliable (alignment: Gur 602, attitude control: Pur 612), and in the middle (position alignment: Gpr 603, Posture control: Ppr 613).

例えばジャイロセンサーの場合において、上記区分がどうなるかを説明する。ジャイロセンサーを静置していた場合でも出力される信号があり、これをオフセットと呼ぶ。このオフセットは個体ごとにことなり、さらに温度などによっても強度が変わるのが一般的である。通常は常温で静置しておいた時のオフセット量を撮像装置内の二次記憶装置108に保存しておき、使用するときに出力信号からオフセットを減算した値を使用する。しかし高温下もしくは低温下ではオフセットが常温とはことなるために正確にオフセット分を除去できない。またパノラマ撮影では一度の撮影で何十枚も撮影することもあり、撮像装置の温度が上昇しやすい。このような場合、オフセットが除去しきれずジャイロセンサー情報から取得した移動量が正確に算出できないことがある。このため、温度情報取得部111から取得された1枚目ないしは2枚目撮像時のジャイロセンサー温度が常温から離れているほど、信頼性が低いとみなす。具体的には、ジャイロセンサーの温度が、メーカーが保証する動作温度範囲から外れている場合には、その値を判断に用いることはできないため、信頼性なし(Pur)に区分する。一方、動作温度範囲内において、特に常温前後の場合は信頼性が高い(Pr)と区分し、前記PurとPrの中間の場合は中程度の信頼性(Ppr)に区分する。   For example, in the case of a gyro sensor, what happens to the above classification will be described. There are signals output even when the gyro sensor is stationary, and this is called an offset. This offset is different for each individual, and the intensity generally changes depending on the temperature and the like. Normally, the offset amount at the time of standing at normal temperature is stored in the secondary storage device 108 in the imaging device, and a value obtained by subtracting the offset from the output signal when used is used. However, under a high or low temperature, the offset is different from a normal temperature, so that the offset cannot be accurately removed. In addition, in panoramic imaging, dozens of images may be taken at one time, and the temperature of the imaging device is likely to rise. In such a case, the amount of movement acquired from the gyro sensor information cannot be accurately calculated because the offset cannot be completely removed. For this reason, the reliability is considered to be lower as the gyro sensor temperature at the time of capturing the first or second image obtained from the temperature information obtaining unit 111 is farther from the normal temperature. Specifically, when the temperature of the gyro sensor is out of the operating temperature range guaranteed by the manufacturer, the value cannot be used for the determination, and thus the classification is classified as unreliable (Pur). On the other hand, within the operating temperature range, particularly when the temperature is around room temperature, the reliability is classified as high (Pr), and when the temperature is between Pur and Pr, the reliability is classified as medium (Ppr).

対応点算出の信頼性は、低コントラスト領域が画像中に占める割合、繰り返しパターンが画像中に占める割合、移動体が占める割合、前記で算出した対応点数のうちの少なくとも一つを評価基準とする。図7はスイング方向が700方向である場合の、撮像1枚目701、2枚目702、3枚目703の画像の位置関係と2つの対応点信頼性算出区間704および705の位置関係を示す概念図である。一つ目の対応点信頼性算出区間は、1枚目ないしは2枚目の位置合わせフレーム704の領域である。フレーム内の各ブロック内において低コントラスト領域が多い場合、全体の特徴点抽出数が少なくなるため、次ステップで対応点数を比較する時の信頼性が低いと判定する。また、各ブロック内が例えばタイルなどの繰り返しパターンで占められていた場合、2枚の画像間の差分が小さくなる位置が複数検出され、特徴点の対応関係が正しく算出されないため対応点算出の信頼性が低いと判定する。さらに、他ブロックよりも移動量が大きい対応点が検出されたブロックは移動体を検出している可能性が高く、信頼性が低いという判定となる。また、算出した対応点数が最大値の1割に満たない場合や、対応点が線状に連続的に並んでいる場合(水平線などのみ検知)は、信頼性が低いという判定にする。   The reliability of the corresponding point calculation is based on at least one of the ratio of the low contrast area in the image, the ratio of the repetitive pattern in the image, the ratio of the moving object, and the number of corresponding points calculated in the above. . FIG. 7 shows the positional relationship between the first image 701, the second image 702, and the third image 703 and the positional relationship between the two corresponding point reliability calculation sections 704 and 705 when the swing direction is the 700 direction. It is a conceptual diagram. The first corresponding point reliability calculation section is an area of the first or second alignment frame 704. When there are many low contrast areas in each block in the frame, the number of feature points extracted as a whole is small, so it is determined that the reliability when comparing the number of corresponding points in the next step is low. When each block is occupied by a repetitive pattern such as a tile, for example, a plurality of positions where the difference between two images is small are detected, and the correspondence between feature points is not correctly calculated. Is determined to be low. Furthermore, a block in which a corresponding point whose movement amount is larger than that of another block is detected has a high possibility of detecting a moving object, and is determined to have low reliability. If the calculated number of corresponding points is less than 10% of the maximum value, or if the corresponding points are continuously arranged linearly (only horizontal lines are detected), it is determined that the reliability is low.

姿勢情報の信頼性は、前記で述べたジャイロセンサーの温度(基準温度からの差)を評価基準とする。   The reliability of the posture information uses the temperature of the gyro sensor (difference from the reference temperature) as an evaluation criterion.

信頼性評価部305は上記に述べた判定基準を基に対応点算出および姿勢情報の信頼性を区分し、あおり補正係数設定部302bに情報を受け渡す(3007)。あおり補正係数設定部302bは、図6(c)にあるように、対応点算出とジャイロセンサーの信頼性区分の組合せによってあおり補正係数を対応点算出もしくは姿勢情報のどちらに基づいて設定するかを決定し、画像補正部303bにあおり補正係数を設定する。対応点算出と姿勢情報の信頼性区分が異なる場合は、より信頼性が高い区分の方のあおり補正係数を採用する(r>pr>ur)。例えば、S411の対応点算出の信頼性がない(Gur)場合で、ジャイロセンサーの信頼性が十分に高い(Pr)場合や中程度の信頼性(Ppr)の場合はジャイロセンサーの回転情報のみから係数を設定する。一方、S409で対応点算出と姿勢情報の信頼性区分が同じ区分である場合、すなわちPrとGr、PprとGprの組合せである場合は、S410のように両者が同じ結論(あおり補正係数)ならばすでに対応点算出結果から設定されているあおり補正係数を残し、別の結論であるならば、後述する3枚目以降を追加することで信頼性を上げられるかの判定S413を行う。PurとGurの組合せの場合は、どちらも信頼できない結果のため、後述する3枚目以降を追加することで信頼性を上げられるかの判定S413を行う。   The reliability evaluation unit 305 classifies the reliability of the corresponding point calculation and the attitude information based on the above-described determination criteria, and passes the information to the tilt correction coefficient setting unit 302b (3007). As shown in FIG. 6C, the tilt correction coefficient setting unit 302b determines whether to set the tilt correction coefficient based on the corresponding point calculation or the posture information based on a combination of the corresponding point calculation and the reliability classification of the gyro sensor. Then, the image correction unit 303b sets the tilt correction coefficient. When the reliability division of the corresponding point calculation and the posture information is different, the tilt correction coefficient of the higher reliability division is adopted (r> pr> ur). For example, when the reliability of the corresponding point calculation in S411 is not reliable (Gur), and when the reliability of the gyro sensor is sufficiently high (Pr) or when the reliability is moderate (Ppr), only the rotation information of the gyro sensor is used. Set the coefficient. On the other hand, if the corresponding point calculation and the reliability section of the posture information are the same in step S409, that is, if the combination is Pr and Gr, and the combination of Ppr and Gpr is the same conclusion (shift correction coefficient) as in step S410, For example, the tilt correction coefficient that has already been set from the corresponding point calculation result is left, and if the conclusion is a different conclusion, it is determined whether the reliability can be improved by adding a third or later sheet described later. In the case of the combination of Pur and Gur, since both are unreliable results, a determination S413 is made as to whether the reliability can be improved by adding a third or later sheet described later.

対応点算出の信頼性および姿勢情報の信頼性の両方が低い場合、もしくは両者が異なる結論を示していた場合においては、あおり補正係数設定部302bは信頼性評価部305に、3枚目以降を用いてあおり補正をするかしないかの判定をすれば信頼性を上げられるかどうかを調べる指示を出す(3010、S413)。図7の対応点の信頼性算出区間2(705)は、2枚目画像の3枚目以降との『のりしろ』となる部分であり、ここを調べることで3枚目以降を使用すれば対応点算出の精度を上げられるか判定できる。信頼性評価部305は、2枚目の対応点の信頼性算出区間2(705)において低コントラスト領域、繰り返しパターン領域、移動体領域の検出から少なくとも1つを行う。信頼性評価部305が3枚目で対応点算出の信頼性区分が上がると認定した場合は、撮影3枚目に対し、2枚目と3枚目で再度上記フローを行う。一方、信頼性評価部305から2枚目の対応点の信頼性算出区間2(705)で対応点算出の信頼性区分が上がらないと入力を受けたあおり補正係数設定部302bは、あおり補正係数に前記係数1を設定して、本処理を終了する。   If both the reliability of the corresponding point calculation and the reliability of the posture information are low, or if both have different conclusions, the tilt correction coefficient setting unit 302b sends the third and subsequent sheets to the reliability evaluation unit 305. An instruction is issued to determine whether the reliability can be improved by determining whether or not to use the tilt correction (3010, S413). The reliability calculation section 2 (705) of the corresponding point in FIG. 7 is a portion that is a “gap” between the third image and the third image of the second image. It can be determined whether the accuracy of point calculation can be improved. The reliability evaluation unit 305 performs at least one of the low contrast area, the repetitive pattern area, and the moving body area in the reliability calculation section 2 (705) of the second corresponding point. If the reliability evaluation unit 305 determines that the reliability of the corresponding point calculation increases in the third image, the above flow is performed again for the second and third images for the third image. On the other hand, when the reliability evaluation unit 305 receives an input indicating that the reliability division of the corresponding point calculation does not increase in the reliability calculation section 2 (705) of the second corresponding point, the tilt correction coefficient setting unit 302b outputs the tilt correction coefficient. Is set as the coefficient 1, and the process is terminated.

次に、3枚目以降(ただし、上記フローで3枚目を信頼性算出に用いた場合は、4枚目以降)における処理フローを説明する。図2(b)に示すように、3枚目以降では、前記1、2枚目で決定したあおり補正係数を用いてパノラマ撮影を行う。3、4枚目を撮像後210、現像処理を行いS211、画像前処理S212として円筒変換S2120およびあおり補正S2121を行う。あおり補正で使用するあおり補正係数は、図2(a)のフローで決定し、画像補正部303bに入力されたものを用い、以後の撮像でも同じ係数を用いる。これは、撮像間で異なるあおり補正係数を使用した場合、補正後画像の上下サイズや画像内の被写体の画像全体に対する相対的な位置が異なってしまうため、位置合わせ作業が困難になるためである。その後、あおり補正を掛けた(係数1の場合は実質掛けていない)2枚の画像の対応点検出S213を行い、対応点がどのくらい動いたか示す移動ベクトルを検出する。   Next, the processing flow for the third and subsequent sheets (however, when the third sheet is used for the reliability calculation in the above flow, the fourth and subsequent sheets) will be described. As shown in FIG. 2B, for the third and subsequent images, panoramic imaging is performed using the tilt correction coefficients determined for the first and second images. After imaging the third and fourth images 210, development processing is performed S211 and cylinder conversion S2120 and tilt correction S2121 are performed as image pre-processing S212. The tilt correction coefficient used in the tilt correction is determined according to the flow of FIG. 2A, and the input to the image correction unit 303b is used, and the same coefficient is used in the subsequent imaging. This is because, when a tilt correction coefficient that differs between imagings is used, the vertical size of the corrected image and the relative position of the subject in the image with respect to the entire image are different, so that the alignment work becomes difficult. . Thereafter, corresponding point detection S213 is performed on the two images subjected to the tilt correction (the coefficient is not substantially multiplied in the case of coefficient 1) to detect a movement vector indicating how much the corresponding point has moved.

次に、2枚の画像をどの程度移動させて合成すればよいか調べるために、3枚目画像に対し4枚目の画像を変形させて最小の差分となる変換方法を探すS214。変換方法には既存の方法が適用される。具体的には、回転や平行移動が可能なユークリッド変換、アフィン変換、さらに台形補正が可能な射影変換などがあげられるが、平行移動のできない線形変換は使用できない。   Next, in order to find out how much the two images should be moved and combined, the fourth image is transformed with respect to the third image to find a conversion method that minimizes the difference (S214). The existing method is applied to the conversion method. Specifically, there are Euclidean transformation, affine transformation, which can rotate and translate, and projective transformation, which can perform trapezoidal correction. However, linear transformation, which cannot translate, cannot be used.

X軸、Y軸への移動や回転の場合はユークリッド変換で可能であるが、実際にカメラで撮影する場合の手ブレは前後方向やパン・チルト方向の手振れなどもあり、一般的には拡大、スキューなども補正可能なアフィン変換が用いられる。このアフィン変換を例に挙げるならば、基準となる対応点の座標(x,y)が座標(x’、y’)に移動する場合、以下の式4で表わされる。   Movement and rotation to the X-axis and Y-axis can be performed by Euclidean conversion, but camera shake when actually shooting with a camera includes hand movements in the front-rear direction, pan / tilt directions, etc. , Skew, etc., can be corrected. Taking this affine transformation as an example, when the coordinates (x, y) of the corresponding reference point move to the coordinates (x ′, y ′), it is expressed by the following equation 4.

この時に3×3行列をアフィン係数と呼ぶ。この方程式からアフィン変換では最低3か所の対応点のずれが検出できればアフィン係数を算出可能である。ただし、対応点が近い距離にしか見つからない場合や、直線状になってしまう場合はその対応点よりも遠い個所の変換が不正確になることから、互いに遠くて直線状にない対応点を選択することが好ましい。一方、複数の対応点が検出された場合は、互いに近い対応点を省いて残りを最小二乗法で正規化を行う。   At this time, the 3 × 3 matrix is called an affine coefficient. An affine coefficient can be calculated from this equation by affine transformation if at least three corresponding point shifts can be detected. However, if the corresponding point is found only at a close distance or becomes linear, the corresponding points that are far from each other and are not linear are selected because the conversion of the point farther than the corresponding point will be inaccurate. Is preferred. On the other hand, when a plurality of corresponding points are detected, the corresponding points close to each other are omitted, and the rest is normalized by the least square method.

このように算出されたアフィン係数で4枚目の画像を変形して位置合わせを行ないS215、2枚の画像を合成するS216。なお合成時は境界が目立たないように合成比率を変えながら合成することが好ましい。   At step S215, the fourth image is deformed with the affine coefficients calculated in this way to perform alignment, and two images are combined at S216. In addition, it is preferable to perform synthesis while changing the synthesis ratio so that boundaries are not conspicuous.

なお、本実施形態では、あおり補正の判定に使用した1、2枚目の画像を最終合成画像には使用しない構成について述べたが、1次記憶装置104に1、2枚目の画像を保持しておき、3枚目以降の合成が終了した後に、画像の先頭に戻って合成することが好ましい。また、1、2枚目の追加合成時に画像位置合わせが信頼できない(Gur)場合は、ジャイロセンサー情報(1、2枚目撮像時に取得し、一次記憶装置104に保持)で位置合わせを行うことが好ましい。   In the present embodiment, the configuration in which the first and second images used for the tilt correction determination are not used as the final composite image has been described, but the first and second images are stored in the primary storage device 104. In addition, it is preferable to return to the top of the image and perform the synthesis after the synthesis of the third and subsequent sheets is completed. If the image registration is not reliable (Gur) at the time of the additional combination of the first and second images, the position adjustment is performed using the gyro sensor information (obtained at the time of capturing the first and second images and held in the primary storage device 104). Is preferred.

上記処理により、画像の対応点抽出の信頼性が不十分なシーンにおいても、あおり補正を適切に掛けることができ、高品質なパノラマ画像を得ることができる画像処理装置および方法、並びにプログラムを提供することができる。   The above processing provides an image processing apparatus, method, and program that can appropriately perform tilt correction and obtain a high-quality panoramic image even in a scene where the reliability of corresponding point extraction of an image is insufficient. can do.

(実施形態2)
実施形態1では、最初の2枚において、画像の前処理として円筒変換とあおり補正を行った。
(Embodiment 2)
In the first embodiment, cylindrical transformation and tilt correction are performed as preprocessing of images on the first two sheets.

しかしながら、画像処理装置100のあおり角度が非常に大きい場合(例えば45°など)、図5(a)における円柱806の上部のすぼまりがきつくなる。すなわち、画像808の曲がりが大きくなる。曲がりが大きい状態で画像の対応点算出を行うと、同一フレーム内に被写体の同一箇所が入らず、評価できなくなるため、あおり補正の前にフレームに入る程度に画像の曲がりを修正する回転補正を行うことが望ましい。   However, when the tilt angle of the image processing apparatus 100 is very large (for example, 45 °), the upper part of the cylinder 806 in FIG. That is, the curvature of the image 808 increases. If the corresponding point of the image is calculated in a state where the curvature is large, the same part of the subject will not be included in the same frame and it will not be possible to evaluate it.Therefore, rotation correction that corrects the curvature of the image enough to enter the frame before tilt correction will be performed. It is desirable to do.

実施形態2では、あおり補正の前に回転補正を行う例について説明する。フローチャートは実施形態1で使用した図4を用いる。   In a second embodiment, an example will be described in which rotation correction is performed before tilt correction. The flowchart uses FIG. 4 used in the first embodiment.

実施形態1では円筒変換S402後にあおり補正S403を行っていたが、実施形態2では円筒変換とあおり補正の間に画像の回転補正を行う。回転補正量は、ジャイロセンサーのロール値から計算した回転角を使用し、回転を行うことができる既知の変換(例えばユークリッド変換など)で回転させる。回転角の算出方法は実施形態1であおり補正係数の算出時にロール方向の角度を求めた方法が使用される。   In the first embodiment, the tilt correction S403 is performed after the cylindrical conversion S402. In the second embodiment, the image rotation is corrected between the cylindrical conversion and the tilt correction. As the rotation correction amount, a rotation angle calculated from the roll value of the gyro sensor is used, and rotation is performed by a known conversion (for example, Euclidean conversion) that can perform rotation. The method of calculating the rotation angle is the first embodiment, and a method of calculating the angle in the roll direction when calculating the correction coefficient is used.

以上によって、実施形態2ではあおり補正前に回転補正を行うことで、画像処理装置の傾きが大きい場合であっても対応点算出が可能となる。   As described above, in the second embodiment, by performing the rotation correction before the tilt correction, the corresponding points can be calculated even when the inclination of the image processing apparatus is large.

(実施形態3)
実施形態1では、判定用画像用のあおり補正係数算出に加速度センサーの値を使用した。しかしながら、画像処理装置100のあおり角が微量だった場合に加速度センサーから求められるあおり角の精度が不十分な場合がある。
(Embodiment 3)
In the first embodiment, the value of the acceleration sensor is used for calculating the tilt correction coefficient for the determination image. However, when the tilt angle of the image processing apparatus 100 is very small, the accuracy of the tilt angle obtained from the acceleration sensor may be insufficient.

実施形態3では、加速度センサーの値から算出したあおり角に加えて、前記あおり角に+15度〜−15度した角度範囲の少なくとも1つ以上の角度を使用してあおり補正を行い、その中で最も対応点が多くなる角度を正しいあおり角として採用する。前記角度範囲の理由は、画像処理装置100を手持ちした場合の加速度センサーから算出される角度の誤差が最大15度前後であったためである。   In the third embodiment, in addition to the tilt angle calculated from the value of the acceleration sensor, the tilt correction is performed using at least one angle in an angle range of +15 degrees to −15 degrees to the tilt angle. The angle with the largest number of corresponding points is adopted as the correct tilt angle. The reason for the angle range is that the error of the angle calculated from the acceleration sensor when the image processing apparatus 100 is held by hand is about 15 degrees at the maximum.

なお、前記角度の範囲は現加速度センサーの精度に基づいたものであり、加速度センサーの精度が向上した場合は角度範囲を狭めても良い。逆に、コストダウンのため、より精度の低い加速度センサーを採用する場合は、角度範囲を広げることが望ましい。   Note that the angle range is based on the accuracy of the current acceleration sensor, and the angle range may be narrowed when the accuracy of the acceleration sensor is improved. Conversely, if a lower-precision acceleration sensor is used for cost reduction, it is desirable to widen the angle range.

以上によって、実施形態3では画像処理装置100のあおり角が微量だった場合においても、適切なあおり補正を行うことができる。   As described above, in the third embodiment, appropriate tilt correction can be performed even when the tilt angle of the image processing apparatus 100 is minute.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限られるものではない。   As described above, the preferred embodiments of the present invention have been described, but the present invention is not limited to these embodiments.

100 画像処理装置、101 光学系、102 撮像素子、103 CPU、
104 一次記憶装置、105 姿勢情報取得部、106 画像処理部、
107 記憶媒体、108 二次記憶装置、109 表示部、110 操作部、
111 温度情報取得部、300 撮像部、301 姿勢情報取得部、
302a あおり補正係数設定部、302b あおり補正係数設定部、
303a 画像補正部、303b 画像補正部、304 画像位置合わせ部、
305 信頼性評価部
100 image processing apparatus, 101 optical system, 102 image sensor, 103 CPU,
104 primary storage device, 105 posture information acquisition unit, 106 image processing unit,
107 storage medium, 108 secondary storage device, 109 display unit, 110 operation unit,
111 temperature information acquisition unit, 300 imaging unit, 301 attitude information acquisition unit,
302a tilt correction coefficient setting unit, 302b tilt correction coefficient setting unit,
303a image correction unit, 303b image correction unit, 304 image alignment unit,
305 Reliability Evaluation Unit

Claims (11)

撮像素子によって撮影された画像を順次入力し、入力の画像をつなぎ合わせて合成画像を生成する画像処理装置であって、
前記撮像素子で撮影する撮像部と、
前記画像処理装置の姿勢情報を取得する姿勢情報取得部と、
前記撮像部で撮影された画像を幾何変形する画像補正部と、
前記基準画像の特徴点と前記対象画像の特徴点との対応関係を算出し、対応関係の算出結果を基に画像の位置合わせを行う画像位置合わせ部と、
前記姿勢情報および前記対応関係算出の信頼性を評価する信頼性評価部と、
あおり補正係数を設定するあおり補正係数設定部と、
前記位置合わせされた画像を合成する画像合成部を有し、
前記撮影開始時に、
前記姿勢情報取得部が撮像部の姿勢情報を取得し、
前記補正係数設定部が前記姿勢情報あるいは任意の設定値を基にあおり補正係数を画像補正部に入力し、
前記画像補正部で、前記撮像された少なくとも2枚の画像に対してあおり補正を施した判定用仮画像を作成し、
前記画像位置合わせ部で、前記判定用仮画像とあおり補正を施す前の画像のそれぞれに対して特徴点の対応関係算出を行い、前記判定用仮画像とあおり補正を施す前の画像の間で対応数を比較して大小関係を求め、
前記信頼性評価部で前記姿勢情報および前記対応関係算出の信頼性を評価して前記あおり補正係数設定部に入力し、
前記あおり補正係数設定部は、前記信頼性の評価を基に撮像部の姿勢情報および対応数の大小関係のいずれから画像補正部にあおり補正係数を入力し、
前記画像補正部で前記あおり補正係数を基に撮影された画像をあおり補正し、
前記画像合成部で前記あおり補正済み画像をつなぎ合わせて合成画像を生成することを特徴とする画像処理装置。
An image processing apparatus for sequentially inputting images captured by an image sensor and connecting the input images to generate a composite image,
An imaging unit that performs imaging with the imaging device;
A posture information acquisition unit for acquiring posture information of the image processing apparatus,
An image correction unit that geometrically deforms an image captured by the imaging unit,
An image alignment unit that calculates the correspondence between the feature points of the reference image and the feature points of the target image, and performs image registration based on the calculation result of the correspondence.
A reliability evaluation unit that evaluates the reliability of the posture information and the correspondence relationship calculation,
A tilt correction coefficient setting unit for setting a tilt correction coefficient,
An image combining unit that combines the aligned images,
At the start of the shooting,
The posture information acquisition unit acquires posture information of the imaging unit,
The correction coefficient setting unit inputs a tilt correction coefficient to the image correction unit based on the posture information or an arbitrary setting value,
The image correction unit creates a temporary image for determination in which the at least two captured images are tilt-corrected,
The image registration unit calculates the correspondence between feature points for each of the temporary image for determination and the image before performing the tilt correction, and calculates the correspondence between the temporary image for determination and the image before performing the tilt correction. Compare the number of correspondences and find the magnitude relationship,
The reliability evaluation unit evaluates the reliability of the posture information and the correspondence calculation and inputs the posture correction coefficient to the tilt correction coefficient setting unit,
The tilt correction coefficient setting unit inputs the tilt correction coefficient to the image correction unit from any of the magnitude information of the attitude information and the corresponding number of the imaging unit based on the evaluation of the reliability,
The image correction unit corrects the image captured based on the tilt correction coefficient,
An image processing apparatus, wherein the image synthesizing unit joins the tilt-corrected images to generate a synthesized image.
前記姿勢情報取得部として加速度センサーを備え、前記判定用仮画像作成の際に、あおり補正には、撮像時の加速度センサー情報のピッチ角およびヨー角の内、スイング方向に対して直交する方向の角度をパラメータとして使用することを特徴とする請求項1に記載の画像補正部。   An acceleration sensor is provided as the posture information acquisition unit, and when creating the provisional image for determination, in the tilt correction, of the pitch angle and the yaw angle of the acceleration sensor information at the time of imaging, of the direction orthogonal to the swing direction. The image correction unit according to claim 1, wherein the angle is used as a parameter. 前記判定用仮画像作成の際に、前記加速度センサーから求められるあおり角に加えて、前記あおり角に+15度〜−15度した角度範囲の少なくとも1つ以上の角度を使用してあおり補正係数を算出すること特徴とする請求項2に記載の画像補正部。   At the time of creating the provisional image for determination, in addition to the tilt angle obtained from the acceleration sensor, a tilt correction coefficient is calculated using at least one angle in an angle range of +15 degrees to −15 degrees to the tilt angle. The image correction unit according to claim 2, wherein the calculation is performed. 前記姿勢情報取得部としてジャイロセンサーを備え、前記判定用仮画像作成の際に、前記ジャイロセンサーのロール角を用いてユークリッド変換を行うことで回転補正をすることを特徴とする請求項1に記載の画像補正部。   The gyro sensor is provided as the posture information acquisition unit, and the rotation correction is performed by performing Euclidean transformation using a roll angle of the gyro sensor at the time of creating the temporary image for determination. Image correction unit. 前記撮像部の姿勢情報の信頼性は、ジャイロセンサー乃至はジャイロセンサー近傍の温度(基準温度からの差)であることを評価基準とする請求項1に記載の信頼性評価部。   The reliability evaluation unit according to claim 1, wherein the reliability of the posture information of the imaging unit is a gyro sensor or a temperature near the gyro sensor (a difference from a reference temperature) as an evaluation criterion. 前記対応点算出の信頼性は、低コントラスト領域が画像中に占める割合、繰り返しパターンが画像中に占める割合、移動体が占める割合、前記対応点数、前記対応点の並びかたのうちの少なくとも一つを評価基準とする請求項1に記載の信頼性評価部。   The reliability of the corresponding point calculation is at least one of the ratio of the low contrast area in the image, the ratio of the repeating pattern in the image, the ratio of the moving object, the number of corresponding points, and the arrangement of the corresponding points. The reliability evaluation unit according to claim 1, wherein one of the evaluation criteria is used. 信頼性評価部は、前記撮像部の姿勢情報および対応数の信頼性を2つの信頼度の閾値によって分けられた、3段階の信頼性区分に分けることを特徴とする請求項1に記載の信頼性評価部。   The reliability evaluation unit according to claim 1, wherein the reliability evaluation unit divides the reliability of the posture information and the number of correspondences of the imaging unit into three levels of reliability divisions divided by two reliability thresholds. Sex evaluation department. 請求項7に記載の信頼性評価部を有し、前記撮像部の姿勢情報および対応数の信頼性の区分が異なる場合は信頼性の高い方の結果を採用する請求項1に記載のあおり補正係数設定部。   The tilt correction according to claim 1, further comprising the reliability evaluation unit according to claim 7, wherein when the reliability divisions of the attitude information and the number of correspondences of the imaging unit are different, a result with higher reliability is adopted. Coefficient setting section. 前記撮像部の姿勢情報および対応数の信頼性の区分が同じであるが算出されたあおり補正係数が異なる場合、乃至は両方が信頼できない場合は、前記基準画像乃至は対応画像の一部から次の撮像の画像位置合わせの信頼性を推測することを特徴とする請求項8に記載のあおり補正係数設定部。   In the case where the sections of the reliability of the attitude information and the corresponding number of the imaging unit are the same but the calculated tilt correction coefficients are different, or if both are not reliable, the part of the reference image or the corresponding image 9. The tilt correction coefficient setting unit according to claim 8, wherein the reliability of the image registration of the image pickup is estimated. 前記撮像部の姿勢情報からあおり補正係数を設定する際に、使用する撮像部の姿勢情報とは撮像時のジャイロセンサーのロール角であり、ロール角が回転を示す値だった場合に、判定用仮画像作成に使用したあおり補正係数を画像補正部に設定することを特徴とする請求項1に記載のあおり補正係数設定部。   When setting the tilt correction coefficient from the orientation information of the imaging unit, the orientation information of the imaging unit to be used is a roll angle of the gyro sensor at the time of imaging, and is used for determination when the roll angle is a value indicating rotation. The tilt correction coefficient setting unit according to claim 1, wherein the tilt correction coefficient used for creating the temporary image is set in the image correction unit. 前記対応数は、テンプレートマッチングのマッチング数、あるいは画像位置合わせベクトルのベクトル数であり、あおり補正係数の設定は上記マッチング数乃至はベクトル数が大きい方を採用することを特徴とする請求項1に記載のあおり補正係数設定部。
2. The method according to claim 1, wherein the corresponding number is a matching number of template matching or a vector number of an image alignment vector, and the setting of the tilt correction coefficient adopts a larger number of the matching number or the vector number. The tilt correction coefficient setting unit described.
JP2018162502A 2018-08-31 2018-08-31 Image processing device that performs tilt correction Pending JP2020036249A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018162502A JP2020036249A (en) 2018-08-31 2018-08-31 Image processing device that performs tilt correction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018162502A JP2020036249A (en) 2018-08-31 2018-08-31 Image processing device that performs tilt correction

Publications (1)

Publication Number Publication Date
JP2020036249A true JP2020036249A (en) 2020-03-05

Family

ID=69668815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018162502A Pending JP2020036249A (en) 2018-08-31 2018-08-31 Image processing device that performs tilt correction

Country Status (1)

Country Link
JP (1) JP2020036249A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113556464A (en) * 2021-05-24 2021-10-26 维沃移动通信有限公司 Shooting method and device and electronic equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113556464A (en) * 2021-05-24 2021-10-26 维沃移动通信有限公司 Shooting method and device and electronic equipment
CN113556464B (en) * 2021-05-24 2023-02-03 维沃移动通信有限公司 Shooting method and device and electronic equipment

Similar Documents

Publication Publication Date Title
JP6721065B2 (en) Imaging device, image processing device and method
JP6157242B2 (en) Image processing apparatus and image processing method
JP4770924B2 (en) Imaging apparatus, imaging method, and program
JP4962460B2 (en) Imaging apparatus, imaging method, and program
JP5163409B2 (en) Imaging apparatus, imaging method, and program
JP4618370B2 (en) Imaging apparatus, imaging method, and program
KR101156991B1 (en) Image capturing apparatus, image processing method, and recording medium
JP5397751B2 (en) Camera and image correction method
JP2006211139A (en) Imaging apparatus
JP5846172B2 (en) Image processing apparatus, image processing method, program, and imaging system
JP2013183306A (en) Imaging apparatus, imaging method, and program
JP2015036841A (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
JP6222205B2 (en) Image processing device
JP5796611B2 (en) Image processing apparatus, image processing method, program, and imaging system
JP2019053758A (en) Image processing apparatus
JP2020036249A (en) Image processing device that performs tilt correction
JP6079838B2 (en) Image processing apparatus, program, image processing method, and imaging system
JP6439845B2 (en) Image processing device
JP2006254198A (en) Image-compositing device, camera-shake compensating device for camera and the camera
JP2020160773A (en) Image processing device, imaging device, image processing method, and program
JP6833772B2 (en) Image processing equipment, imaging equipment, image processing methods and programs
JP2020120194A (en) Imaging apparatus, imaging method, and program
JP2018081124A (en) Image processor, imaging apparatus, and control method
JP7458769B2 (en) Image processing device, imaging device, image processing method, program and recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125