JP2019129470A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2019129470A
JP2019129470A JP2018011036A JP2018011036A JP2019129470A JP 2019129470 A JP2019129470 A JP 2019129470A JP 2018011036 A JP2018011036 A JP 2018011036A JP 2018011036 A JP2018011036 A JP 2018011036A JP 2019129470 A JP2019129470 A JP 2019129470A
Authority
JP
Japan
Prior art keywords
image
magnification
main subject
vector
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018011036A
Other languages
Japanese (ja)
Inventor
賢 恩田
Masaru Onda
賢 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018011036A priority Critical patent/JP2019129470A/en
Publication of JP2019129470A publication Critical patent/JP2019129470A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing device that detects good motion vectors of a main subject and a background even when the magnification and rotation components of an image change due to the movement of a subject.SOLUTION: When an image of a main subject position is converted into polar coordinates, the image is corrected on the basis of the magnification and rotation variation calculated by first magnification and first rotation variation calculation means for calculating the magnification and the rotation variation of the image. When the first motion vector detection is performed by using the corrected image, a motion vector of a main subject is detected, and the image is corrected on the basis of the magnification and rotation variation calculated by a method different from the first magnification and rotation variation calculation means. When the second motion vector detection is performed by using the corrected image, the motion vector of the background subject is detected.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

撮像装置の振れ及び動きに伴う画像振れを検知する方法には、テンプレートマッチングなどのベクトル検出手法を利用して、画像間の移動量(動きベクトル)を算出する方法がある。   As a method for detecting image shake due to shake and motion of the imaging apparatus, there is a method of calculating a movement amount (motion vector) between images using a vector detection method such as template matching.

テンプレートマッチングを用いた動き検知方法はテンプレート画像の変化に弱く、倍率変動や画像面内方向の回転変動などによって画像のテクスチャが変化すると、ベクトル検出の性能が劣化してしまう。   The motion detection method using template matching is weak to changes in the template image, and if the texture of the image changes due to a change in magnification or a rotational change in the in-plane direction of the image, the performance of vector detection is degraded.

このため、特許文献1にて開示された移動ベクトル検出方法では、光学ズーム倍率が変動した場合に、光学ズーム倍率の情報に基づいて基準画像と比較画像が同一倍率となるように基準画像もしくは比較画像に対して電子ズーム補正した後に、移動ベクトルを検出している。   For this reason, in the movement vector detection method disclosed in Patent Document 1, when the optical zoom magnification varies, the reference image or the comparison image is set so that the reference image and the comparison image have the same magnification based on the information of the optical zoom magnification. The movement vector is detected after the electronic zoom correction is performed on the image.

また特許文献2にて開示された撮影装置のブレ補正方法では、算出した動きベクトルを極座標変換することで撮像装置の画像面内方向の回転成分を算出し、算出した動きベクトルから抽出した回転成分を除去することで動きベクトルを検出している。   In the camera shake correction method disclosed in Patent Literature 2, a rotation component in the image plane direction of the imaging device is calculated by performing polar coordinate conversion on the calculated motion vector, and the rotation component extracted from the calculated motion vector The motion vector is detected by removing the

特開2008−160274号公報JP, 2008-160274, A 特開2012−199814号公報JP, 2012-199814, A

しかしながら、被写体が動いている場合、被写体と撮影装置の位置関係が変化するため、特許文献1のように光学ズーム倍率の情報からでは、画像の倍率変化を取得することができない。   However, when the subject is moving, the positional relationship between the subject and the imaging device changes, so it is not possible to obtain a change in image magnification from the information on the optical zoom magnification as in Patent Document 1.

また特許文献2のように動きベクトルの極座標変換による回転成分の抽出方法は、画像内に被写体と背景が異なる動きをする場合に、異なる動きベクトルが混在するため、回転成分抽出結果を誤ってしまい、動きベクトルの検出精度が劣化することがあり得る。   In the method of extracting rotation components by polar coordinate conversion of motion vectors as in Patent Document 2, different motion vectors coexist when the subject and the background move differently in the image, so the rotation component extraction result is erroneous. The motion vector detection accuracy may deteriorate.

上記の課題を解決するために、本発明に係る画像処理装置は、
画像の主被写体位置情報取得手段と、
前記主被写体位置情報を元に、主被写体位置の画像を極座標変換することで、前記画像の倍率、回転の変化量を算出する第一の倍率、回転変化量算出手段と、
前記算出した方法とは異なる方法で画像の倍率、回転の変化量を算出する第二の倍率、回転変化量算出手段と、
画像の倍率と回転補正を行う画像補正手段と、
前記補正した画像を用いて動きベクトル検出を行うベクトル検出手段と、
を有し、
前記第一の倍率、回転変化量算出手段により算出した倍率、回転の変化量に基づいて画像補正を行い、前記補正した画像を用いて第一の動きベクトル検出を行うことで主被写体の動きベクトルを検出し、
前記第二の倍率、回転変化量算出手段により算出した倍率、回転の変化量に基づいて画像補正を行い、前記補正した画像を用いて第二の動きベクトル検出を行うことで背景の被写体の動きベクトルを検出することを特徴とする。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
Image main subject position information acquisition means;
A first magnification for calculating the magnification of the image and the amount of change of the image by polar coordinate conversion of the image of the main object position based on the main object position information;
A second magnification for calculating an image magnification and a rotation change amount by a method different from the calculated method, a rotation change amount calculating means;
Image correction means for correcting image magnification and rotation;
Vector detection means for performing motion vector detection using the corrected image;
Have
An image correction is performed based on the first magnification, the magnification calculated by the rotation change amount calculation means, and the rotation change amount, and the first motion vector is detected using the corrected image, thereby moving the motion vector of the main subject. To detect
The image is corrected based on the second magnification, the magnification calculated by the rotation change amount calculation means, and the rotation change amount, and the motion of the background subject is detected by performing the second motion vector detection using the corrected image. It is characterized by detecting a vector.

本発明に係る画像処理装置によれば、被写体が動くことによって画像の倍率や回転成分の変動があっても、主被写体、背景のそれぞれの良好な動きベクトルを検出することが可能である。   According to the image processing apparatus of the present invention, it is possible to detect good motion vectors of the main subject and the background even when the magnification of the image and the rotation component change due to the movement of the subject.

デジタルカメラの機能構成を示したブロック図Block diagram showing the functional configuration of the digital camera 実施例1における画像処理部の構成を示すブロック図Block diagram showing the configuration of the image processing unit in the first embodiment 実施例1における全体の動作を示すフローチャートFlowchart showing the overall operation in the first embodiment 画像極座標変換処理を説明する模式図Schematic diagram for explaining image polar coordinate conversion processing 画像を対数極座標変換した例を説明する模式図Schematic diagram explaining an example of logarithmic polar transformation of an image 主被写体位置情報を基に画像を対数極座標変換した例を説明する模式図A schematic diagram for explaining an example of log polar coordinate conversion of an image based on main subject position information 主被写体のベクトル検出を目的とした電子補正処理を説明する模式図Schematic diagram explaining electronic correction processing for the purpose of vector detection of the main subject 背景のベクトル検出を目的とした電子補正処理を説明する模式図Schematic diagram explaining electronic correction processing for the purpose of vector detection of the background 実施例2における画像処理部の構成を示すブロック図Block diagram showing the configuration of the image processing unit in the second embodiment 実施例2における全体の動作を示すフローチャートFlowchart showing the overall operation in the second embodiment 実施例2における背景画像位置・領域の選択方法を説明する模式図Schematic diagram illustrating a background image position / region selection method according to the second embodiment.

以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する実施形態は、画像処理の一例としてのデジタルカメラに、本発明を適用した例を説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the embodiment described below, an example in which the present invention is applied to a digital camera as an example of image processing will be described.

(第一の実施例)
図1は、本発明の実施形態に係るデジタルカメラの機能構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a functional configuration of a digital camera according to an embodiment of the present invention.

制御部101は、例えばCPUであり、デジタルカメラ100が備える各ブロックの動作プログラムをROM102より読み出し、RAM103に展開して実行することによりデジタルカメラ100が備える各ブロックの動作を制御する。   The control unit 101 is, for example, a CPU, reads out an operation program of each block included in the digital camera 100 from the ROM 102, expands it in the RAM 103, and executes it to control the operation of each block included in the digital camera 100.

ROM102は、書き換え可能な不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。   The ROM 102 is a rewritable non-volatile memory, and stores parameters and the like necessary for the operation of each block in addition to the operation program of each block included in the digital camera 100.

RAM103は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。   The RAM 103 is a rewritable volatile memory, and is used as a temporary storage area of data output in the operation of each block included in the digital camera 100.

光学系104はレンズ等で構成された光学系であり、フォーカスレンズ、ズームレンズとそれらの駆動系を含んでいる。撮像部105はCMOSセンサ等の撮像素子であり、光学系104により撮像素子に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。   The optical system 104 is an optical system composed of lenses and the like, and includes a focus lens, a zoom lens, and their drive systems. The imaging unit 105 is an imaging device such as a CMOS sensor, photoelectrically converts an optical image formed on the imaging device by the optical system 104, and outputs an obtained analog image signal to the A / D conversion unit 106.

A/D変換部106は、入力されたアナログ画像信号にA/D変換処理を適用し、得られたデジタル画像データをRAM103に出力して記憶させる。また記憶された画像データに対応するタイミングでのズームレンズの駆動位置から得られる光学倍率情報は、RAM103に出力して記憶させる。   The A / D conversion unit 106 applies A / D conversion processing to the input analog image signal, and outputs the obtained digital image data to the RAM 103 for storage. The optical magnification information obtained from the drive position of the zoom lens at the timing corresponding to the stored image data is output to the RAM 103 and stored.

合焦処理部107は、コントラスト方式や位相差方式など従来から用いられている方式の合焦処理を行う機能を備え、制御部101を介して、光学系104に含まれるフォーカスレンズの駆動系が被写体に対して、自動で合焦するように制御を行う。合焦を行う対象の主被写体位置、あるいは領域の指定方法は、自動で検出する方式と、ユーザーが指定する方式が選択可能である。   The focusing processing unit 107 has a function of performing focusing processing of a conventionally used method such as a contrast method or a phase difference method, and a drive system of a focus lens included in the optical system 104 is a control unit 101. Control is performed so that the subject is automatically focused. As a method of specifying the main subject position or area to be focused, a method of automatically detecting and a method of specifying by the user can be selected.

自動で検出する方式は、画像の輝度や色の変化を用いる手法(特開平11−190816号公報参照)、距離情報を用いる手法(特開2007−96437号公報参照)、顕著性と呼ばれる輝度勾配変化を用いる方法(特開2000−207564号公報)、また顔認識などに代表されるような、事前にニューラルネットワークやディープラーニング、多分木等の識別器に撮像装置のユーザーもしくは撮像装置の製造者が主被写体候補のオブジェクトの像から抽出した多次元特徴量を事前に学習させることで、主被写体領域の像の主被写体らしさの尤度を算出させることで、撮像機器製造者やユーザーが主被写体と考える任意の被写体を柔軟に主被写体として認識する方法等、さまざまな方法が既に提案されている。   Automatic detection methods include a method using changes in luminance and color of an image (refer to JP-A-11-190816), a method using distance information (refer to JP-A-2007-96437), and a luminance gradient called saliency The method of using the change (Japanese Patent Laid-Open No. 2000-207564), the user of the imaging apparatus or the manufacturer of the imaging apparatus using a classifier such as neural networks, deep learning, and trees in advance as represented by face recognition etc. The imaging device manufacturer or user can obtain the main subject by calculating the likelihood of the main subject likeness of the image of the main subject region by learning in advance the multidimensional feature quantities extracted from the image of the main subject candidate object. Various methods have already been proposed, such as a method of flexibly recognizing an arbitrary subject considered as a main subject.

画像内の主被写体の有無、位置、領域を検出できる手法ならば任意の手法を用いてよい。合焦処理部107は、画像内の主被写体の検出を行い、その主被写体の位置、領域の情報をRAM103に出力して記憶させる。   Any method may be used as long as it can detect the presence or absence, the position, and the area of the main subject in the image. The focusing processing unit 107 detects the main subject in the image, and outputs the information on the position and area of the main subject to the RAM 103 for storage.

姿勢変化取得部108は、例えばジャイロや加速度センサ、電子コンパス等の位置姿勢センサにより構成され、撮像装置の位置姿勢変化を計測する。姿勢センサは、光学系の光軸に直交する任意の軸に取り付けられる。姿勢センサが回転センサの場合、撮像装置のヨー方向、ピッチ方向、ロール方向の各軸に取り付けられ、各軸周りの回転による姿勢変化を計測し、姿勢変化量のデータをRAM103に出力して記憶させる。また、姿勢変化取得部108は、内部に積分処理部を持ち、姿勢変化情報センサであるジャイロのサンプリングタイミング(例えば、1KHz)といったレートだけでなく、撮影画像のフレームレートである60fpsや120fpsといったサンプリングタイミングに合わせた、異なるレートの姿勢変化情報を同時に出力してもよい。   The posture change acquisition unit 108 includes a position and posture sensor such as a gyro, an acceleration sensor, and an electronic compass, and measures the position and posture change of the imaging apparatus. The attitude sensor is attached to an arbitrary axis orthogonal to the optical axis of the optical system. When the attitude sensor is a rotation sensor, it is attached to each axis of the imaging device in the yaw direction, pitch direction, and roll direction, measures attitude change due to rotation around each axis, outputs attitude change data to the RAM 103, and stores Let The posture change acquisition unit 108 has an integral processing unit and not only rates such as sampling timing (for example, 1 KHz) of a gyro that is a posture change information sensor but also samplings such as 60 fps and 120 fps that are frame rates of photographed images. At the same time, posture change information at different rates may be output at the same time.

画像処理部109は、RAM103に蓄えられている撮影画像を用いて、画像の倍率変動、回転変動量の算出、画像の倍率、回転成分の変動量に対する電子補正、補正した画像を用いた動きベクトルの検出処理を行う。   The image processing unit 109 uses the captured image stored in the RAM 103 to calculate the image magnification variation, the rotation variation amount, the image magnification, the electronic correction for the rotation component variation amount, and the motion vector using the corrected image. The detection process is performed.

記録媒体110は着脱可能なメモリカード等であり、RAM103に記憶されているA/D変換部106でA/D変換された画像や画像処理部109で処理された画像が記録画像として記録される。   The recording medium 110 is a detachable memory card or the like, and an image A / D converted by the A / D converter 106 stored in the RAM 103 or an image processed by the image processor 109 is recorded as a recorded image. .

図2は図1の画像処理部109の構成を説明するための図である。   FIG. 2 is a diagram for explaining the configuration of the image processing unit 109 shown in FIG.

画像処理部109は、画像入力部201と、主被写体情報取得部202と、画像極座標変換処理部203と、ベクトル検出処理部204と、主被写体画像スケール・回転情報取得部205と、スケール・回転画像補正処理部206と、撮像装置スケール・回転情報取得部207からなる。   The image processing unit 109 includes an image input unit 201, a main subject information acquisition unit 202, an image polar coordinate conversion processing unit 203, a vector detection processing unit 204, a main subject image scale / rotation information acquisition unit 205, and a scale / rotation. It comprises an image correction processing unit 206 and an imaging device scale / rotation information acquisition unit 207.

画像入力部201には、RAM103に保存されている撮影画像のうち、ベクトル検出に用いる画像が入力され、その撮影画像を一時的に記憶保持する。   Of the captured images stored in the RAM 103, an image used for vector detection is input to the image input unit 201, and the captured image is temporarily stored and held.

主被写体情報取得部202は、画像入力部201に入力された撮影画像の撮影時に対応する合焦処理部107で出力した主被写体位置・領域情報を取得する。   The main subject information acquisition unit 202 acquires main subject position / region information output by the focusing processing unit 107 corresponding to the time when the captured image input to the image input unit 201 is captured.

画像極座標変換処理部203は、画像入力部201に入力された撮影画像を、主被写体情報取得部202で取得した主被写体位置・領域情報に基づいて極座標変換処理を行う。極座標変換処理が施された撮影画像は一時的に記憶保持される。   The image polar coordinate conversion processing unit 203 performs polar coordinate conversion processing on the photographed image input to the image input unit 201 based on the main subject position / area information acquired by the main object information acquisition unit 202. The captured image that has been subjected to polar coordinate conversion processing is temporarily stored and held.

ベクトル検出処理部204は、画像極座標変換処理部203、もしくはスケール・回転画像補正処理部から入力される画像を用いて、ベクトル検出処理を行う。検出されたベクトル情報は、RAM103に保存される。   The vector detection processing unit 204 performs vector detection processing using an image input from the image polar coordinate conversion processing unit 203 or the scale / rotational image correction processing unit. The detected vector information is stored in the RAM 103.

主被写体画像スケール・回転情報取得部205は、画像極座標変換処理部203から入力した画像を用いてベクトル検出処理部204で検出したベクトル情報を用いて、主被写体画像のスケール・回転情報を取得する。   The main subject image scale / rotation information acquisition unit 205 acquires the scale / rotation information of the main subject image using the vector information detected by the vector detection processing unit 204 using the image input from the image polar coordinate conversion processing unit 203. .

スケール・回転画像補正処理部206は、主被写体画像スケール・回転情報取得部205、もしくは撮像装置スケール・回転情報取得部207から取得したスケール・回転情報を用いて、画像入力部201から入力された画像に対して画像補正を行う。補正した画像は、ベクトル検出処理部204に出力される。   The scale / rotation image correction processing unit 206 is input from the image input unit 201 using the scale / rotation information acquired from the main subject image scale / rotation information acquisition unit 205 or the imaging device scale / rotation information acquisition unit 207. Image correction is performed on the image. The corrected image is output to the vector detection processing unit 204.

撮像装置スケール・回転情報取得部207は、姿勢変化取得部108で取得された撮像装置の姿勢変化情報と光学系104で取得された光学倍率情報を用いて、背景画像のスケール・回転情報を取得する。   The imaging device scale / rotation information acquisition unit 207 acquires the scale / rotation information of the background image using the posture change information of the imaging device acquired by the posture change acquisition unit 108 and the optical magnification information acquired by the optical system 104. To do.

以上のように構成された画像処理部109の制御について、図3に示すフローチャートを用いて詳細に説明する。   The control of the image processing unit 109 configured as described above will be described in detail using the flowchart shown in FIG.

ステップ301において、撮影された画像が、画像入力部201を介し画像処理部へ入力し、一時的に記憶される。   In step 301, the captured image is input to the image processing unit via the image input unit 201 and temporarily stored.

ステップ302において、主被写体を対象にしたベクトル検出を行うかどうかによって制御シーケンスは分岐される。主被写体を対象にする場合はステップ303に進み、そうでない、つまり背景を対象にしたベクトル検出を行う場合は、ステップ307に進む。本実施例では、はじめにステップ303〜306のフローを先に説明する。   In step 302, the control sequence is branched depending on whether or not vector detection is performed on the main subject. If the main subject is to be processed, the process proceeds to step 303. If not, that is, if vector detection is performed on the background, the process proceeds to step 307. In this embodiment, the flow of steps 303 to 306 will be described first.

ステップ303において、主被写体情報取得部202は合焦処理部107で出力した主被写体位置・領域情報を取得する。   In step S 303, the main subject information acquisition unit 202 acquires main subject position / area information output by the focusing processing unit 107.

ステップ304において、画像極座標変換処理部203はステップ303で取得した主被写体位置・領域情報に基づいてステップ301で記憶した撮影画像に対して極座標変換処理を行う。   In step 304, the image polar coordinate conversion processing unit 203 performs polar coordinate conversion processing on the captured image stored in step 301 based on the main subject position / region information acquired in step 303.

本実施例では、主被写体位置・領域情報に基づいて撮影画像を対数極座標空間に写像を行う。画像極座標変換処理の方法については、図4を用いて詳細に説明する。   In this embodiment, the captured image is mapped to the logarithmic polar coordinate space based on the main subject position / region information. The method of image polar coordinate conversion processing will be described in detail with reference to FIG.

図4は、画像を極座標空間に写像する方法を説明する模式図である。図4(a)の図は写像前の画像のX−Y平面座標を表す模式図であり、図4(b)の図は極座標に写像した後の画像を表す模式図である。図4(b)の極座標に写像した画像は水平方向に動径ρ、垂直方向に偏角φであらわされたピクセル画像である。図4(b)のグレーで塗り潰されたピクセルの画素値は、その極座標値に対応する、上の矢印で示した図4(a)のX−Y平面座標上の位置の画素値を用いて逆補間して求められる。ここでは、逆補完で説明しているが、順補間した後にフィルタなどを用いて値が入っていない画素を補間する方法もありうる。本実施例では対数極座標空間で写像し、その変換式は以下で表される。   FIG. 4 is a schematic view illustrating a method of mapping an image into a polar coordinate space. FIG. 4A is a schematic view showing XY plane coordinates of an image before mapping, and FIG. 4B is a schematic view showing an image after mapping to polar coordinates. The image mapped to the polar coordinates in FIG. 4B is a pixel image represented by a radial radius 、 in the horizontal direction and a deflection angle φ in the vertical direction. The pixel value of the pixel filled in gray in FIG. 4B is obtained by using the pixel value at the position on the XY plane coordinate in FIG. 4A shown by the upper arrow corresponding to the polar coordinate value. It is obtained by inverse interpolation. Here, reverse interpolation is used, but there may be a method of interpolating pixels that do not contain values using a filter or the like after forward interpolation. In the present embodiment, mapping is performed in a logarithmic polar coordinate space, and the conversion equation is expressed by the following.

式1のx、yはそれぞれ写像前の画像のxy座標値であり、xcentor、ycentorは、写像前座標の設定された変換中心座標値である。動径ρは、式2のように、式1のxy座標を対数極座標変換に係数Mを乗じることで算出される。また偏角φは式3のようにxy座標Iの角度(0〜360°)に係数Kを乗じることで算出される。係数Mは式4で表され、wは写像前画像の水平サイズ、Rは設定された最大の動径である。また係数Kは式5で表され、hは写像前画像の垂直サイズである。xcentor、ycentorは、ステップ303で取得した主被写体の写像前画像上でのxy座標位置によって設定される。またRは、写像前画像の対角から求められる最大の動径の任意のn倍で設定する、もしくはステップ303で取得した主被写体領域情報から算出される主被写体の大きさから求められる最大の動径の任意のn倍を設定してもよい。これは対数極座標変換は、変換中心部の解像度が高く、周辺部は低い特性を持つため、主被写体中心の解像度が高くなるようにするためである。変換された画像は一時的に保存される。 In Equation 1, x and y are xy coordinate values of the image before mapping, and x centor and y centor are set transformation center coordinate values of the pre-mapping coordinates. As shown in Equation 2, the moving radius ρ is calculated by multiplying the xy coordinate of Equation 1 by logarithmic polar coordinate conversion by a coefficient M. The declination φ is calculated by multiplying the angle (0 to 360 °) of the xy coordinate I by a coefficient K as shown in Equation 3. The coefficient M is expressed by Equation 4, w is the horizontal size of the pre-mapping image, and R is the set maximum moving radius. The coefficient K is expressed by Equation 5, and h is the vertical size of the pre-mapping image. x center and y center are set according to the xy coordinate position on the pre-mapping image of the main subject acquired in step 303. R is set to an arbitrary n times the maximum moving radius obtained from the diagonal of the pre-mapping image, or R is the maximum obtained from the size of the main subject calculated from the main subject area information acquired in step 303. Arbitrary n times the moving radius may be set. This is to make the resolution of the main subject center to be high because the resolution of the conversion central portion is high and the peripheral portion has low characteristics in the logarithmic polar coordinate conversion. The converted image is temporarily stored.

ここで図5を用いて、画像を対数極座標変換した例について説明する。図5(a)と(c)は写像前の画像であり、図5(b)は図5(a)を対数極座標変換した画像であり、図5(d)は図5(c)を対数極座標変換した画像である。またこの例では式1の変換中心座標を画像の中央の座標を用いて対数極座標変換を行っている。そのため図5(b)、と(d)はともに、写像前の画像中央座標近傍を変換した画素領域が最も解像度が高くなっており、変換した画素領域が画像中央座標から離れるほど解像度が低くなっている。   Here, with reference to FIG. 5, an example of log polar coordinate conversion of an image will be described. 5 (a) and 5 (c) are images before mapping, FIG. 5 (b) is an image obtained by logarithmic polar transformation of FIG. 5 (a), and FIG. 5 (d) is a logarithm of FIG. 5 (c). It is the image which carried out polar coordinate conversion. Further, in this example, logarithmic polar coordinate conversion is performed using the central coordinates of the image at the conversion center coordinates of Expression 1. Therefore, in both FIGS. 5B and 5D, the pixel area obtained by converting the vicinity of the image center coordinates before mapping has the highest resolution, and the resolution decreases as the converted pixel area moves away from the image center coordinates. ing.

ステップ305において、ステップ304で取得された対数極座標変換された画像同士を用いてベクトル検出処理部204は、テンプレートマッチング処理を行う。ここでテンプレートマッチングは一般的な手法を用いる。本実施例では、画像を分割して分割した複数のテンプレート画像を用いてマッチング処理を行い、各マッチング結果のベクトル値をヒストグラムなどの統計値によって処理することでサブピクセル単位の並進ベクトル値(V、V)を算出する。 In step 305, the vector detection processing unit 204 performs a template matching process using the images obtained by the logarithmic polar transformation obtained in step 304. Here, a general method is used for template matching. In the present embodiment, matching processing is performed using a plurality of template images obtained by dividing an image, and a vector value of each matching result is processed by a statistical value such as a histogram to thereby translate a translation vector value (V Calculate x , V y ).

ここで、図5を用いて、対数極座標変換された画像同士のテンプレートマッチングについて説明する。図5(c)の画像は、図5(a)の画像全体に対して、画像中央座標を中心にして紙面上時計回りの方向に回転かつ拡大した画像である。図5(b)と図5(d)の写像後の画像同士を比較すると、図5(d)の画像は図5(b)の画像に対して紙面右下方向にシフトしていることがわかる。これは図5(c)の写像前の画像が回転した変化量が紙面下方向に、拡大したスケールの変化量が紙面右方向に写像後の画像がシフト成分の変化として表れているためである。このように、対数極座標変換後の画像をテンプレートマッチングによってベクトル並進成分を検出することによって、写像前の画像の回転、スケール成分を換算して求めることができる。   Here, template matching between log polar transformed images will be described with reference to FIG. The image in FIG. 5C is an image that is rotated and enlarged in the clockwise direction on the sheet surface with the image center coordinates as the center with respect to the entire image in FIG. When the images after the mapping of FIG. 5B and FIG. 5D are compared, it is found that the image of FIG. 5D is shifted in the lower right direction with respect to the image of FIG. 5B. Recognize. This is because the amount of change when the image before mapping in FIG. 5C is rotated appears downward in the drawing, and the amount of change in the scaled scale appears in the right of the drawing as the change in the shift component. . As described above, by detecting the vector translation component of the image after log-polar coordinate conversion by template matching, it is possible to convert the rotation and scale components of the image before mapping and obtain it.

ステップ306において、ステップ305で算出されたベクトル値を用いて、主被写体画像スケール・回転情報取得部205は、主被写体画像のスケール、回転変動成分を検出する。ベクトル値(V、V)のスケール変動成分r、回転変動成分θ(°)への変換式は以下で表される。
In step 306, using the vector value calculated in step 305, the main subject image scale / rotation information acquisition unit 205 detects the scale of the main subject image and the rotational fluctuation component. A conversion formula of the vector values (V x , V y ) into the scale fluctuation component r and the rotation fluctuation component θ (°) is expressed as follows.

ここで図6を用いて式1の変換中心座標の位置によって対数極座標変換後の画像がどのように変化するかについて説明する。図6(a)と(d)は写像前の画像であり、点線の枠は、主被写体情報取得部202で取得された主被写体の位置を表している。図6(a)と(d)の画像を比較すると、背景は撮影装置に対して動いておらず、主被写体のみが動いており、図6の(d)の画像の方は、図6の(a)に対して、主被写体が紙面上時計回りの方向に回転かつ拡大している。図6(b)と(e)は、それぞれ図6(a)と(d)の画像に対して、画像中央座標を変換中心座標として用いて対数極座標変換を行った画像である。図6(c)と(f)は、それぞれ図6(a)と(d)の画像に対して、点線枠中心の主被写体の中心座標を変換中心座標として用いて対数極座標変換を行った画像である。図6(b)と(e)の変換後の画像同士を比較すると、画像全体として回転、スケール変動によるシフトが見られていない。それに対して、図6(c)と(f)の変換後の画像同士を比較すると図6(f)の画像は図6(c)の画像に対して紙面右下方向にシフトしていることがわかる。これは極座標変換後の画像は、変換中心座標近傍領域の解像度が高く、周辺部は低い特性を持つため、極座標変換中心座標が主被写体の中心座標である場合に、主被写体の回転、スケール変動成分を検出可能となっていることがわかる。   Here, how the image after logarithmic polar coordinate conversion changes according to the position of the conversion center coordinate of Expression 1 will be described using FIG. FIGS. 6A and 6D are images before mapping, and a dotted frame represents the position of the main subject acquired by the main subject information acquisition unit 202. When the images in FIGS. 6A and 6D are compared, the background is not moved with respect to the photographing device, and only the main subject is moving, and the image of FIG. In contrast to (a), the main subject is rotated and enlarged in the clockwise direction on the paper. FIGS. 6 (b) and 6 (e) are images obtained by subjecting the images in FIGS. 6 (a) and 6 (d) to log polar coordinate conversion using the image center coordinates as conversion center coordinates. FIGS. 6C and 6F are images obtained by performing log-polar conversion on the images in FIGS. 6A and 6D, respectively, using the central coordinates of the main subject at the center of the dotted line frame as the conversion central coordinates. It is. When the converted images in FIG. 6 (b) and (e) are compared, no shift due to rotation or scale change is observed as the entire image. On the other hand, comparing the images after conversion of FIGS. 6C and 6F with each other, the image of FIG. 6F is shifted in the lower right direction with respect to the image of FIG. 6C. I understand. This is because the image after polar coordinate conversion has a high resolution in the area near the conversion center coordinates and low characteristics in the peripheral area, so when the polar conversion center coordinates are the center coordinates of the main subject, the rotation and scale change of the main subject It can be seen that the component is detectable.

次に、ステップ307〜308のフローを説明する。   Next, the flow of steps 307 to 308 will be described.

ステップ307では、撮像装置スケール・回転情報取得部207は光学系104で出力した光学倍率情報と姿勢変化取得部108で出力した姿勢変化情報を用いて、ベクトル検出を行う画像間のスケール変動成分r、回転変動成分θ(°)を算出する。ここではベクトル検出のフレームレートで変動成分を取得する。   In step 307, the imaging apparatus scale / rotation information acquisition unit 207 uses the optical magnification information output from the optical system 104 and the posture change information output from the posture change acquisition unit 108 to perform scale fluctuation components r between images for which vector detection is performed. The rotation fluctuation component θ (°) is calculated. Here, the fluctuation component is acquired at the frame rate of vector detection.

次にステップ302で分岐した二つのフローが合流するステップ308について説明する。   Next, step 308 in which the two flows branched in step 302 merge will be described.

ステップ308では、ステップ306またはステップ307で取得したベクトル検出を行う画像間のスケール変動成分r、回転変動成分θ(°)を用いて、ステップ302で取得したベクトル検出に用いる画像に対して電子補正処理を行う。電子補正処理を行うのは、テンプレートマッチングを行うテンプレート画像間のスケール、回転成分が揃えれば良いため、画像同士のどちらかに対して処理されればよい。ここで行う電子補正処理は、一般的な画像変換処理を用いてよく、たとえばヘルマート変形などによって、スケール変動成分rと面内回転変動成分θ(°)が揃うように拡大縮小処理と面内回転処理を施す。   In step 308, electronic correction is performed on the image used for vector detection acquired in step 302, using the scale fluctuation component r between images for performing vector detection acquired in step 306 or step 307 and the rotational fluctuation component θ (°). Process. The electronic correction process may be performed on either of the images because the scale and rotation components between the template images to be subjected to template matching need only be aligned. The electronic correction process performed here may use a general image conversion process. For example, the scaling process and the in-plane rotation are performed so that the scale fluctuation component r and the in-plane rotation fluctuation component θ (°) are aligned by Helmart deformation or the like. Apply processing.

ステップ309では、ステップ308で電子補正処理を行った画像を用いてテンプレートマッチング処理を行う。ここでテンプレートマッチングはステップ305と同様に画像を分割して分割した複数のテンプレート画像を用いてマッチング処理を行う。テンプレートの分割は、画像全体を均一してもよい。他には、ステップ303〜306のフローの処理時のように主被写体のベクトル検出を目的とする場合には、主被写体の画像位置のテンプレート数を多く配置し、ステップ307〜308のフローの処理時のように背景のベクトルを目的とする場合には、背景の画像位置にテンプレートを多く配置してもよい。   In step 309, template matching processing is performed using the image subjected to the electronic correction processing in step 308. Here, in template matching, matching processing is performed using a plurality of divided template images as in step 305. The division of the template may make the entire image uniform. In addition, when aiming at vector detection of the main subject as in the process of the flow of steps 303 to 306, a large number of templates of the image position of the main subject are arranged, and the process of the flow of steps 307 to 308 When aiming at a background vector as in the case of time, many templates may be arranged at the image position of the background.

ここで図7を用いて主被写体ベクトルを検出するときの電子補正処理について説明する。図7(a)と(b)の画像はテンプレートマッチングを行う電子補正処理前の画像である。図7(b)の画像は、図7(a)の画像に対して主被写体のみがスケールの変動が生じている。図8(c)の画像は、図7(a)の画像に対して主被写体のスケール変動を図7(b)の画像に揃えるように電子補正した画像である。このように図7(b)と図7(c)の画像は、主被写体の拡大率が揃っていることがわかる。そのために、図7(b)と図7(c)の画像同士を用いてテンプレートマッチングを行うことで、主被写体のベクトル検出精度を向上することが可能となる。   Here, the electronic correction processing when detecting the main subject vector will be described with reference to FIG. The images in FIG. 7A and FIG. 7B are images before electronic correction processing in which template matching is performed. In the image of FIG. 7B, the scale of the main subject only varies with respect to the image of FIG. The image in FIG. 8C is an image obtained by electronically correcting the scale variation of the main subject so as to align with the image in FIG. 7B with respect to the image in FIG. Thus, it can be seen that the images of FIG. 7B and FIG. 7C have the same magnification of the main subject. Therefore, it is possible to improve the vector detection accuracy of the main subject by performing template matching using the images of FIGS. 7B and 7C.

次に図8を用いて背景ベクトルを検出するときの電子補正処理について説明する。図8(a)と(b)の画像はテンプレートマッチングを行う電子補正処理前の画像である。図8(b)の画像は、図8(a)の画像に対して背景に回転変動が生じている。図8(c)の画像は、図8(a)の画像に対して背景の回転変動を図8(b)の画像に揃えるように電子補正した画像である。このように図8(b)と図8(c)の画像は、背景の傾きが揃っていることがわかる。そのために、図8(b)と図8(c)の画像同士を用いてテンプレートマッチングを行うことで、背景のベクトル検出精度を向上することが可能となる。   Next, electronic correction processing when detecting a background vector will be described with reference to FIG. The images in FIGS. 8A and 8B are images before electronic correction processing for template matching. In the image of FIG. 8 (b), rotational fluctuation occurs in the background with respect to the image of FIG. 8 (a). The image of FIG. 8C is an image obtained by electronically correcting the background rotation variation with respect to the image of FIG. 8B with respect to the image of FIG. Thus, it can be seen that the images in FIGS. 8B and 8C have the same background inclination. Therefore, by performing template matching using the images of FIG. 8B and FIG. 8C, it is possible to improve the background vector detection accuracy.

ステップ310では、ステップ309で検出したベクトルのエラー処理を行う。図7の例を持って説明すると、図7(b)と(c)の画像を比較すると主被写体のスケールはあっているが、背景のスケールは大きくずれている。このような場合主被写体のベクトルを検出するフローでは背景のベクトル成分は正しく検出されない可能性が高い。そこでこのようなベクトルをエラーとして排除する処理を行う。例えばステップ303で主被写体の位置・領域情報を用いて、ベクトルの取得を目的としない領域の検出ベクトルをエラーとする処理を行ってもよい。もしくは、検出したベクトルのヒストグラム処理を行い、ヒストグラムのピークよりある閾値以上に外れた値を持つベクトルをエラーとしてもよい。または、テンプレートマッチングの類似度がある閾値以下の場合にエラーベクトルとしてもよい。   In step 310, error processing of the vector detected in step 309 is performed. To explain with the example of FIG. 7, when comparing the images of FIG. 7B and FIG. 7C, the scale of the main subject is the same, but the scale of the background is largely shifted. In such a case, in the flow of detecting the vector of the main subject, the vector component of the background is likely not to be detected correctly. Therefore, processing for eliminating such vectors as errors is performed. For example, processing may be performed in which a detected vector of a region not intended to obtain a vector is regarded as an error using the position / region information of the main subject in step 303. Alternatively, histogram processing may be performed on the detected vector, and a vector having a value that is not smaller than a certain threshold from the peak of the histogram may be regarded as an error. Alternatively, an error vector may be used if the template matching similarity is below a certain threshold.

以上によって、画像処理部109の制御に関して図3に示したフローチャートを用いて詳細に説明した。ここまで、本提案の動作について述べた。以上の処理を行うことにより被写体が動くことによって画像の倍率や回転成分の変動があっても、主被写体、背景のそれぞれの良好な動きベクトルを検出することが可能である。   As described above, the control of the image processing unit 109 has been described in detail using the flowchart shown in FIG. Up to this point, the operation of the present proposal has been described. By performing the above processing, even if there is a change in magnification or rotation component of the image due to movement of the subject, it is possible to detect good motion vectors of the main subject and the background.

(第二の実施例)
第1実施形態に係る画像表示装置は、主被写体のスケール、回転変動成分を画像の極座標変換画像のテンプレートマッチングを用いた画像処理手法によって取得し、背景のスケール、回転変動成分は、撮像装置の光学系の制御情報と、位置姿勢センサ情報を用いて取得して、それらを用いてテンプレートマッチング検出画像の電子補正処理を行うことで良好な動きベクトル検出を実施している。第2の実施形態に係る画像表示装置は、背景のスケール・回転変動成分も、撮像装置から取得する上記情報を用いずに、主被写体の場合と同様に画像の極座標変換画像のテンプレートマッチングを用いた画像処理手法を用いて取得する例について説明する。
Second Embodiment
The image display device according to the first embodiment acquires the scale and rotation variation component of the main subject by an image processing method using template matching of the polar coordinate conversion image of the image, and the background scale and rotation variation component are obtained from the imaging device. Good motion vector detection is implemented by performing electronic correction processing of a template matching detection image using information obtained by using optical system control information and position and orientation sensor information. The image display apparatus according to the second embodiment uses the template matching of the polar-transformed image of the image as in the case of the main subject without using the above-described information acquired from the imaging apparatus for the background scale / rotation fluctuation component. An example of acquisition using a conventional image processing method will be described.

図9は第2実施形態に係る画像表示装置における図1の画像処理部109の構成を説明するための図である。画像処理部109は、画像入力部201と、主被写体情報取得部202と、画像極座標変換処理部203と、ベクトル検出処理部204と、主被写体画像スケール・回転情報取得部205と、スケール・回転画像補正処理部206と、背景画像スケール・回転情報取得部907と、背景領域選択処理部908からなる。
画像入力部201と主被写体情報取得部202は、図2の説明と同様であるため説明は割愛する。
FIG. 9 is a view for explaining the configuration of the image processing unit 109 of FIG. 1 in the image display device according to the second embodiment. The image processing unit 109 includes an image input unit 201, a main subject information acquisition unit 202, an image polar coordinate conversion processing unit 203, a vector detection processing unit 204, a main subject image scale / rotation information acquisition unit 205, and a scale / rotation. It comprises an image correction processing unit 206, a background image scale / rotation information acquisition unit 907, and a background area selection processing unit 908.
The image input unit 201 and the main subject information acquisition unit 202 are the same as the description of FIG.

背景領域選択処理部908は、主被写体情報取得部202で取得した主被写体位置・領域情報を用いて、背景画像のスケール・回転検出に用いる位置・領域情報を選択する。
画像極座標変換処理部203は、画像入力部201に入力された撮影画像を、主被写体情報取得部202で取得した主被写体位置・領域情報、または背景領域選択処理部908で選択した背景領域の位置・領域に基づいて極座標変換処理を行う。極座標変換処理が施された撮影画像は一時的に記憶保持される。
The background area selection processing unit 908 uses the main subject position / area information acquired by the main subject information acquisition unit 202 to select position / area information used for scale / rotation detection of the background image.
The image polar coordinate conversion processing unit 203 uses the captured image input to the image input unit 201 as the main subject position / region information acquired by the main subject information acquisition unit 202 or the position of the background region selected by the background region selection processing unit 908. -Polar coordinate conversion processing is performed based on the region. The photographed image subjected to the polar coordinate conversion process is temporarily stored and held.

ベクトル検出処理部204と、主被写体画像スケール・回転情報取得部205と、スケール・回転画像補正処理部206は、図2の説明と同様であるため説明は割愛する。   The vector detection processing unit 204, the main subject image scale / rotation information acquisition unit 205, and the scale / rotation image correction processing unit 206 are the same as those described with reference to FIG.

背景画像スケール・回転情報取得部907は、画像極座標変換処理部203から入力した画像を用いてベクトル検出処理部204で検出したベクトル情報を用いて、背景画像のスケール・回転情報を取得する。   The background image scale / rotation information acquisition unit 907 acquires the scale / rotation information of the background image using the vector information detected by the vector detection processing unit 204 using the image input from the image polar coordinate conversion processing unit 203.

以上のように構成された画像処理部109の制御について、図10に示すフローチャートを用いて詳細に説明する。   Control of the image processing unit 109 configured as described above will be described in detail using the flowchart shown in FIG.

ステップ301は、図3の説明と同様であるため説明は割愛する。   Step 301 is the same as that described with reference to FIG.

ステップ1002において、主被写体情報取得部202は合焦処理部107で出力した主被写体位置・領域情報を取得する。   In step 1002, the main subject information acquisition unit 202 acquires the main subject position / area information output by the focusing processing unit 107.

ステップ1003において、主被写体を対象にしたベクトル検出を行うかどうかによって制御シーケンスは分岐される。主被写体を対象にする場合はステップ304に進み、そうでない、つまり背景を対象にしたベクトル検出を行う場合は、ステップ1004に進む。ステップ304〜306のフローは、図3の説明と同様であるため説明は割愛する。   At step 1003, the control sequence is branched depending on whether or not vector detection is performed on the main subject. If the main subject is to be processed, the process proceeds to step 304. If not, that is, if vector detection is performed on the background, the process proceeds to step 1004. The flow of steps 304 to 306 is the same as the explanation of FIG.

ステップ1004において、背景領域選択処理部908は、ステップ1002で取得した主被写体位置・領域情報を用いて背景画像のスケール・回転検出に用いる位置・領域を選択する。ここで図11を用いて背景画像位置・領域の選択方法を説明する。図11は、取得した画像の模式図であり、点線1100で囲まれた領域は主被写体位置・領域である。この例では、点線1100の主被写体位置・領域を除く領域のうち、できるだけ背景のテクスチャを多く含む画像領域として点線1101で囲まれた領域を背景画像のスケール・回転検出に用いる位置・領域として選択している。選択する画像位置・領域は、主被写体位置・領域を除く画像領域かつ、できるだけ背景のテクスチャを多く含む画像領域であることが好ましく、そうすることで後述の背景画像のスケール・回転検出のために精度よくテンプレートマッチングを行うことができる。具体的に、背景位置・領域選択方法は、取得した画像に対して主被写体位置・領域を除く領域において、微分フィルタを用いて輝度の変化量大きい画素が比較的多く分布する位置・領域を選択する。本実施例では微分フィルタを用いているが、他にも一般的な特徴点検出方法を用いて、特徴量の大きい画素が比較的多く分布する位置・領域を選択してもよい。   In step 1004, the background area selection processing unit 908 selects a position / area used for scale / rotation detection of the background image using the main subject position / area information acquired in step 1002. Here, a background image position / region selection method will be described with reference to FIG. FIG. 11 is a schematic view of the acquired image, and the area surrounded by the dotted line 1100 is the main subject position / area. In this example, the area surrounded by dotted line 1101 is selected as the image area including the background texture as much as possible among the areas excluding the main subject position / area of dotted line 1100 as the position / area used for the scale / rotation detection of the background image. doing. The image position / area to be selected is preferably an image area excluding the main subject position / area and an image area including as much of the background texture as possible, and by doing so for scale / rotation detection of the background image described later. Template matching can be performed accurately. Specifically, in the background position / region selection method, a differential filter is used to select a position / region having a relatively large distribution of pixels with a large amount of change in luminance in the acquired image, excluding the main subject position / region. To do. Although a differential filter is used in the present embodiment, other general feature point detection methods may be used to select positions / regions in which a relatively large number of pixels with large feature amounts are distributed.

ステップ1005において、画像極座標変換処理部203はステップ1004で取得した背景画像の位置・領域に基づいてステップ301で記憶した撮影画像に対して極座標変換処理を行う。ここでの処理は、図10のステップ304における主被写体位置・領域情報を背景画像の位置・領域に置き換えたのみで、その他の処理は同様であるため詳細の説明は割愛する。   In step 1005, the image polar coordinate conversion processing unit 203 performs polar coordinate conversion processing on the captured image stored in step 301 based on the position / region of the background image acquired in step 1004. The process here is the same as the process of step 304 in FIG. 10 except that the main subject position / area information is replaced with the position / area of the background image, and the other processes are the same.

ステップ1006において、ステップ1005で取得した対数極座標変換された画像同士を用いてベクトル検出処理部204は、テンプレートマッチング処理を行う。ここでの処理は図10のステップ305と同様であるため詳細の説明は割愛する。   In step 1006, the vector detection processing unit 204 performs template matching processing using the log-polar coordinate transformed images acquired in step 1005. Since the process here is the same as that of step 305 of FIG. 10, the detailed description is omitted.

ステップ1007において、ステップ1006で算出されたベクトル値を用いて、背景画像スケール・回転情報取得部907は、主被写体画像のスケール、回転変動成分を検出する。ここでの処理は図10のステップ306と同様であるため詳細の説明は割愛する。   In step 1007, using the vector value calculated in step 1006, the background image scale / rotation information acquisition unit 907 detects the scale and rotation variation component of the main subject image. Since the process here is the same as that of step 306 of FIG. 10, the detailed description is omitted.

ステップ308〜310のフローは、図3の説明と同様であるため説明は割愛する。   The flow of steps 308 to 310 is the same as the explanation of FIG.

以上によって、画像処理部109の制御に関して図10に示したフローチャートを用いて詳細に説明した。ここまで、本提案の動作について述べた。以上の処理を行うことにより、撮像装置の光学系の制御情報や、位置姿勢センサ情報を用いない場合でも、被写体が動くことによって画像の倍率や回転成分の変動があっても、主被写体、背景のそれぞれの良好な動きベクトルを検出することが可能である。   As described above, the control of the image processing unit 109 has been described in detail using the flowchart shown in FIG. Up to this point, the operation of the present proposal has been described. By performing the above processing, even when control information of the optical system of the imaging apparatus or position and orientation sensor information is not used, the main subject, the background, and the variation of the image magnification or rotation component due to the movement of the subject It is possible to detect each good motion vector.

(その他の実施形態)
第1実施形態に係る画像表示装置は、背景のスケール、回転変動成分は、撮像装置の光学系の制御情報と、位置姿勢センサ情報を用いる場合の例を、第2の実施形態に係る画像表示装置は、背景のスケール・回転変動成分も、撮像装置から取得する上記情報を用いない場合の例について説明した。上記実施例の他にも、撮像装置の光学系の制御情報、もしくは位置姿勢センサ情報のうちどちらか片方のみの情報を用いて背景のスケール、もしくは回転変動成分を取得してもよい。また第2の実施形態のように画像処理によって、取得した背景のスケール、回転変動成分と、撮像装置の光学系の制御情報と位置姿勢センサ情報の双方、もしくはどちらか片方のみの取得情報を用いて、それらから取得したスケール、回転変動成分を重み付け加算によって算出することで背景のスケール、回転変動成分を取得してもよい。
(Other embodiments)
The image display apparatus according to the first embodiment is an image display according to the second embodiment in which the background scale and the rotational fluctuation component use control information of the optical system of the imaging apparatus and position and orientation sensor information. The apparatus has described an example in the case where the background scale / rotation fluctuation component does not use the above information acquired from the imaging apparatus. In addition to the above embodiment, the scale of the background or the rotational fluctuation component may be acquired using information of only one of control information of the optical system of the imaging apparatus or position and orientation sensor information. Further, as in the second embodiment, by using image processing, the acquired background scale and rotation fluctuation component, and both the control information of the optical system of the imaging apparatus and the position / orientation sensor information, or the acquisition information of only one of them is used. Thus, the background scale and rotation fluctuation component may be obtained by calculating the scale and rotation fluctuation component obtained from them by weighted addition.

上述では、本発明がビデオカメラなどの撮像装置に適用されるように説明したが、これはこの例に限定されない。例えば、本発明は、ビデオカメラを装着したパーソナルコンピュータに適用することもできるし、動画撮影が可能とされた携帯電話端末に適用してもよい。さらに、本発明は、撮影によりリアルタイムに出力される画像データに対する処理として適用される以外に、記録媒体に記録された画像データに対する処理としても適用可能である。また、パーソナルコンピュータのハードディスクなどに記録された画像データに対して、パーソナルコンピュータ上のソフトウェアにより本発明による処理を行ってもよい。以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されずその要旨の範囲内で種々の変形および変更が可能である。   In the above description, the present invention is described as applied to an imaging apparatus such as a video camera, but this is not limited to this example. For example, the present invention may be applied to a personal computer equipped with a video camera, or may be applied to a mobile phone terminal capable of shooting a moving image. Furthermore, the present invention can be applied as a process for image data recorded on a recording medium in addition to being applied as a process for image data output in real time by photographing. Further, the processing according to the present invention may be performed by software on a personal computer on image data recorded on a hard disk of a personal computer or the like. As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

100 デジタルカメラ、101 制御部、102 ROM、103 RAM、
104 光学系、105 撮像部、106 A/D変換部、107 合焦処理部、
108 姿勢変化取得部、109 画像処理部、110 記憶媒体、
201 画像入力部、202 主被写体情報取得部、203 画像極座標変換処理部、
204 ベクトル検出処理部、205 主被写体画像スケール・回転情報取得部、
206 スケール・回転画像補正処理部、
207 撮像装置スケール・回転情報取得部、
907 背景画像スケール・回転情報取得部、
908 背景領域選択処理部
100 digital camera, 101 control unit, 102 ROM, 103 RAM,
104 optical system, 105 imaging unit, 106 A / D conversion unit, 107 focusing processing unit,
108 posture change acquisition unit, 109 image processing unit, 110 storage medium,
201 image input unit 202 main subject information acquisition unit 203 image polar coordinate conversion processing unit
204 vector detection processing unit, 205 main subject image scale / rotation information acquisition unit,
206 scale and rotation image correction processing unit,
207 Imager scale / rotation information acquisition unit,
907 background image scale / rotation information acquisition unit,
908 Background area selection processing unit

Claims (9)

画像の主被写体位置情報取得手段と、
前記主被写体位置情報を元に、主被写体位置の画像を極座標変換することで、前記画像の倍率、回転の変化量を算出する第一の倍率、回転変化量算出手段と、
前記算出した方法とは異なる方法で画像の倍率、回転の変化量を算出する第二の倍率、回転変化量算出手段と、
画像の倍率と回転補正を行う画像補正手段と、
前記補正した画像を用いて動きベクトル検出を行うベクトル検出手段と、
を有し、
前記第一の倍率、回転変化量算出手段により算出した倍率、回転の変化量に基づいて画像補正を行い、前記補正した画像を用いて第一の動きベクトル検出を行うことで主被写体の動きベクトルを検出し、
前記第二の倍率、回転変化量算出手段により算出した倍率、回転の変化量に基づいて画像補正を行い、前記補正した画像を用いて第二の動きベクトル検出を行うことで背景の被写体の動きベクトルを検出することを特徴とする画像処理装置。
Main subject position information acquisition means for images;
A first magnification for calculating the magnification of the image and the amount of change of the image by polar coordinate conversion of the image of the main object position based on the main object position information;
A second magnification for calculating an image magnification and a rotation change amount by a method different from the calculated method, a rotation change amount calculating means;
Image correction means for correcting image magnification and rotation;
Vector detection means for performing motion vector detection using the corrected image;
Have
An image correction is performed based on the first magnification, the magnification calculated by the rotation change amount calculation means, and the rotation change amount, and the first motion vector is detected using the corrected image, thereby moving the motion vector of the main subject. To detect
The image is corrected based on the second magnification, the magnification calculated by the rotation change amount calculation means, and the rotation change amount, and the motion of the background subject is detected by performing the second motion vector detection using the corrected image. An image processing apparatus for detecting a vector.
前記主被写体位置情報取得手段は、前記画像の合焦情報から求めた、前記画像の像面上における合焦位置、または位置と領域を取得することを特徴とする請求項1に記載の画像処理装置。 The image processing according to claim 1, wherein the main subject position information acquiring unit acquires an in-focus position, or a position and an area on an image surface of the image, which is obtained from in-focus information of the image. apparatus. 前記第一の倍率、回転変化量算出手段は、前記主被写体位置情報取得手段により取得した画像像面上の主被写体位置を極座標変換の変換中心座標値として画像の極座標変換を行い、極座標変換後の画像同士をテンプレートマッチングにより並進ベクトルを算出し、算出した並進ベクトルを極座標逆変換によって画像の倍率、回転の変化量を算出することを特徴とする請求項1に記載の画像処理装置。 The first magnification / rotational change calculation unit performs polar coordinate conversion of the image using the main object position on the image surface acquired by the main object position information acquisition unit as a conversion center coordinate value of polar coordinate conversion, and after polar coordinate conversion The image processing apparatus according to claim 1, wherein a translation vector is calculated by template matching between the two images, and a magnification and a rotation change amount of the image are calculated by inverse transformation of the calculated translation vector. 前記第二の倍率、回転変化量算出手段は、画像撮影時の光学倍率の変動量と、画像撮影時の位置姿勢センサの検出情報を用いて倍率、回転変化量を算出することを特徴とする請求項1に記載の画像処理装置。 The second magnification / rotational change calculating means is characterized by calculating the magnification / rotational change using the fluctuation of the optical magnification at the time of photographing the image and the detection information of the position and orientation sensor at the time of photographing the image. The image processing apparatus according to claim 1. 前記第二の倍率、回転変化量算出手段は、前記主被写体位置情報取得手段により取得した画像像面上の主被写体位置を除く、画像内の背景領域の画像位置を極座標変換の変換中心座標値として画像の極座標変換を行い、極座標変換後の画像同士をテンプレートマッチングにより並進ベクトルを算出し、算出した並進ベクトルを極座標逆変換によって画像の倍率、回転の変化量を算出することを特徴とする請求項1に記載の画像処理装置。 The second magnification / rotational change calculation means converts the image position of the background area in the image, except for the main subject position on the image surface acquired by the main subject position information acquisition means, into a conversion center coordinate value of polar coordinate conversion. The image is subjected to polar coordinate conversion, the translation vector is calculated by template matching between the images after polar coordinate conversion, and the calculated translation vector is subjected to polar coordinate inverse conversion to calculate the magnification and rotation change amount of the image. An image processing apparatus according to Item 1. 前記請求項5に記載の第二の倍率、回転変化量算出手段手法は、画像の輝度勾配もしくは特徴量の高い画素が多く分布する領域かつ前記主被写体位置情報取得手段により取得した画像像面上の主被写体位置を除く画像像面上の位置・領域を選択する背景画像選択手段を有することを特徴とする請求項1に記載の画像処理装置。 The second magnification and rotation change amount calculation means method according to claim 5 is an area on the image image plane acquired by the main subject position information acquisition means and a region where pixels having a high luminance gradient or high feature amount are distributed. 2. The image processing apparatus according to claim 1, further comprising background image selection means for selecting a position and an area on the image image plane excluding the main subject position. 前記第二の倍率、回転変化量算出手段は、請求項4に記載の画像撮影時の光学倍率の変動量と、画像撮影時の位置姿勢センサの検出情報を用いた倍率、回転変化量の双方もしくは片方と、請求項5に記載の第二の倍率、回転変化量算出手段によって算出した倍率、回転の変化量を重み付け加算によって算出することを特徴とする請求項1に記載の画像処理装置。   The second magnification and rotation change amount calculation means are both the fluctuation amount of the optical magnification at the time of image shooting according to claim 4 and the magnification and the rotation change amount using the detection information of the position and orientation sensor at the time of image shooting. 6. The image processing apparatus according to claim 1, wherein one of the second magnification, the magnification calculated by the rotation change amount calculation means, and the rotation change amount are calculated by weighted addition. 前記ベクトル検出手段は、前記第一の動きベクトル検出によって算出したベクトル値に対して、前記主被写体位置情報取得手段により取得した画像像面上の主被写体位置・領域を除く位置で検出したベクトル値の信頼度を低く判定するベクトル信頼度判定処理を有することを特徴とする請求項1に記載の画像処理装置。 The vector detection means is a vector value detected at a position excluding the main subject position / region on the image image plane acquired by the main subject position information acquisition means with respect to the vector value calculated by the first motion vector detection. The image processing apparatus according to claim 1, further comprising: vector reliability determination processing that determines low reliability of the image processing apparatus. 前記ベクトル検出手段は、前記第二の動きベクトル検出によって算出したベクトル値に対して、前記主被写体位置情報取得手段により取得した画像像面上の主被写体位置・領域の位置で検出したベクトル値の信頼度を低く判定するベクトル信頼度判定処理を有することを特徴とする請求項1に記載の画像処理装置。 The vector detection means is a vector value detected at the position of the main subject position / region on the image image plane acquired by the main subject position information acquisition means with respect to the vector value calculated by the second motion vector detection. The image processing apparatus according to claim 1, further comprising vector reliability determination processing that determines the reliability to be low.
JP2018011036A 2018-01-26 2018-01-26 Image processing device Pending JP2019129470A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018011036A JP2019129470A (en) 2018-01-26 2018-01-26 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018011036A JP2019129470A (en) 2018-01-26 2018-01-26 Image processing device

Publications (1)

Publication Number Publication Date
JP2019129470A true JP2019129470A (en) 2019-08-01

Family

ID=67472470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018011036A Pending JP2019129470A (en) 2018-01-26 2018-01-26 Image processing device

Country Status (1)

Country Link
JP (1) JP2019129470A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021013536A (en) * 2019-07-11 2021-02-12 株式会社大一商会 Game machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021013536A (en) * 2019-07-11 2021-02-12 株式会社大一商会 Game machine

Similar Documents

Publication Publication Date Title
US8004570B2 (en) Image processing apparatus, image-pickup apparatus, and image processing method
JP5074322B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
JP5075757B2 (en) Image processing apparatus, image processing program, image processing method, and electronic apparatus
JP6577703B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP5825172B2 (en) Image determination apparatus, image determination method, and computer program for image determination
JPWO2014069632A1 (en) Image processing apparatus, image processing method, image processing program, and recording medium
WO2012172817A1 (en) Image stabilization apparatus, image stabilization method, and document
EP3093822B1 (en) Displaying a target object imaged in a moving picture
US11575834B2 (en) Image stabilization apparatus, method of controlling same, and storage medium
JP2015148532A (en) Distance measuring device, imaging apparatus, distance measuring method, and program
US9811909B2 (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
JP7379299B2 (en) Position and orientation estimation device, position and orientation estimation method, and program
JP2012050013A (en) Imaging apparatus, image processing device, image processing method, and image processing program
JP6282133B2 (en) Imaging device, control method thereof, and control program
JP2019129470A (en) Image processing device
JP2020071627A (en) Image processing device and image processing method
CN111091513B (en) Image processing method, device, computer readable storage medium and electronic equipment
US8994846B2 (en) Image processing apparatus and image processing method for detecting displacement between images having different in-focus positions
JP5209137B2 (en) Imaging device
JP2020036249A (en) Image processing device that performs tilt correction
JP6381212B2 (en) Imaging apparatus and control method thereof
US20230065506A1 (en) Image processing apparatus, control method thereof, and image capturing apparatus
JP2010041416A (en) Image processing unit, image processing method, image processing program, and imaging apparatus
JP7154796B2 (en) Image processing device, image processing method, and program
JP2010041418A (en) Image processor, image processing program, image processing method, and electronic apparatus

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125