JP2023002445A - Image processing device, image processing method, and computer program - Google Patents

Image processing device, image processing method, and computer program Download PDF

Info

Publication number
JP2023002445A
JP2023002445A JP2022006392A JP2022006392A JP2023002445A JP 2023002445 A JP2023002445 A JP 2023002445A JP 2022006392 A JP2022006392 A JP 2022006392A JP 2022006392 A JP2022006392 A JP 2022006392A JP 2023002445 A JP2023002445 A JP 2023002445A
Authority
JP
Japan
Prior art keywords
blur
phase
phase difference
image processing
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022006392A
Other languages
Japanese (ja)
Inventor
尚佳 丸橋
Hisaka Maruhashi
直樹 丸山
Naoki Maruyama
盛也 太田
Seiya Ota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US17/842,048 priority Critical patent/US20220408022A1/en
Publication of JP2023002445A publication Critical patent/JP2023002445A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

To reduce gaps between a plurality of videos caused by remaining blurring of video signals from each camera unit.SOLUTION: An image processing device includes means for correcting blurs of each of a plurality of video signals obtained by a plurality of camera units, means for acquiring phase differences of remaining blurs after correcting the blurs of each of the plurality of video signals by the means for correcting blurs, and means for aligning phases of the remaining blurs of the plurality of video signals when the phase differences are equal to or greater than a predetermined value.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法、及びコンピュータプログラム等に関し、特に複数のカメラユニットからの映像信号を処理する画像処理装置等に関するものである。 The present invention relates to an image processing device, an image processing method, a computer program, and the like, and more particularly to an image processing device and the like that processes video signals from a plurality of camera units.

近年、多眼カメラのような1つの筐体に複数のカメラユニットが付いている撮像装置(画像処理装置)が使用されている。
この撮像装置では、各カメラユニットを手動又は自動でパンチルト駆動させることができるため、各カメラユニット同士を近づけて撮影することができる。
各カメラユニットを近づけた場合、各カメラユニットの撮影領域の重なりを少なくするために、ズーム操作をおこなって各カメラユニットが撮影する撮影画角は狭く設定することになる。
2. Description of the Related Art In recent years, an imaging device (image processing device) having a plurality of camera units in one housing, such as a multi-lens camera, has been used.
In this imaging apparatus, each camera unit can be pan-tilt driven manually or automatically, so that each camera unit can be brought close to each other for photographing.
When the camera units are brought close to each other, in order to reduce the overlapping of the photographing areas of the camera units, the photographing angle of view of each camera unit is set narrow by performing a zoom operation.

各カメラユニットの撮影画角を狭くすると少しの揺れでも目立ってしまうため、撮像装置で取得したブレ信号からブレ補正量を算出し、電子切り出し位置の変更をおこなう電子式ブレ補正機能を用いてブレを軽減させることが有効になってくる。
しかし、電子式ブレ補正では、切り出し範囲があらかじめ設定されているため、揺れ量が大きい設置場所に設置された場合、切り出し量が足りずにブレ残りが発生してしまう。
If the angle of view of each camera unit is narrowed, even the slightest shake will be noticeable. It will be effective to reduce
However, in the electronic blur correction, since the clipping range is set in advance, if the camera is installed in an installation location with a large amount of shaking, the clipping amount is insufficient, resulting in residual blurring.

ブレ補正後に各カメラユニットでブレ残りが発生している場合、各カメラユニットのブレ残り量が同じで、かつ各カメラユニットのブレ残りの位相が同じであれば、問題はあまりない。即ち、各カメラユニットの映像を隣接するように並べて表示した場合、各カメラユニットの映像間の繋ぎ目部分がずれることなく1つの繋がっている映像のように自然に見える。 When each camera unit has a residual blur after blur correction, if the residual blur amount of each camera unit is the same and the residual blur phase of each camera unit is the same, there is not much of a problem. That is, when the images of the respective camera units are displayed side by side, the joints between the images of the respective camera units appear naturally as if they were one connected image without being misaligned.

しかし、各カメラユニットを手動又は自動でパンチルト駆動することができるメカ機構になっているため、メカ的ながたつきや誤差が生じやすく、それに伴って各カメラユニット間のブレ残りの位相が異なってしまう。
各カメラユニットのブレ残り量が同じであっても、各カメラユニットのブレ残りの位相が異なってしまうと、各カメラユニットの映像を隣接するように並べて表示した場合、問題が生じる。即ち、各カメラユニットの映像間の繋ぎ目部分が、隣の映像とずれて一致せず繋がっていない不自然な映像に見えてしまう。
However, since each camera unit is a mechanical mechanism that can be manually or automatically pan-tilt driven, mechanical rattling and errors are likely to occur, and accordingly the phase of the remaining blur between each camera unit is different. end up
Even if each camera unit has the same amount of residual blurring, if the phase of the residual blurring of each camera unit differs, a problem arises when the images of the respective camera units are displayed side by side. In other words, the joints between the images of the camera units are misaligned with the adjacent images and look unnatural.

特許文献1では、第1の撮像装置で検出した手ブレ量を示す手ブレ補正量信号を第2の撮像装置に供給し、第2の撮像装置で検出した手ブレ量を示す手ブレ補正量信号を第1の撮像装置に供給する。そして、第1の撮像装置と第2の撮像装置において、自装置側で検出した手ブレ量と他装置側で検出した手ブレ量との平均となる手ブレ量に基づいて、夫々手ブレ補正を行うことで三次元酔いの少ない高品位な三次元画像を撮像可能としている。 In Patent Document 1, a camera shake correction amount signal indicating the amount of camera shake detected by a first imaging apparatus is supplied to a second imaging apparatus, and a camera shake correction amount indicating the amount of camera shake detected by the second imaging apparatus is supplied. A signal is provided to the first imaging device. Then, in the first image pickup device and the second image pickup device, each camera shake correction is performed based on the camera shake amount that is the average of the camera shake amount detected by the self apparatus side and the camera shake amount detected by the other apparatus side. By performing, it is possible to capture a high-quality three-dimensional image with less three-dimensional motion sickness.

特許文献2では、振れ信号と動き量から、背景の振れ量を算出して像ブレ補正をおこない、像ブレ補正が行われた複数の撮像画像を合成することで、背景振れが抑制された綺麗なパノラマ画像を取得可能としている。 In Japanese Patent Laid-Open No. 2004-100000, the amount of background shake is calculated from the shake signal and the amount of motion, image blur correction is performed, and a plurality of captured images subjected to the image blur correction are combined to create a beautiful image with suppressed background blur. It is possible to acquire a wide range of panoramic images.

特開2012-142837号公報JP 2012-142837 A 特開2019-125880号公報JP 2019-125880 A

しかしながら、上記の特許文献に開示された特許文献1では、第1の撮像装置と第2の撮像装置の平均のブレ量を用いて各撮像装置のブレ補正を行っていることで、各撮像装置でブレ残りが発生してしまうが、ブレ残りの位相が異なった場合を考慮していない。そのため、ブレ残りの位相が異なってしまった場合、繋がった画として見えなくなってしまう。
特許文献2に記載の技術では、像ブレ補正を行った複数の撮影画像を合成しているが、像ブレ補正後のブレ残りの位相を考慮していないため、合成したパノラマ画像の繋ぎ目が不自然になってしまう可能性がある。
However, in Patent Literature 1 disclosed in the above-mentioned Patent Literature, blur correction of each imaging device is performed using an average blur amount of the first imaging device and the second imaging device. However, the case where the phase of the remaining blur is different is not considered. Therefore, if the phases of the remaining blurring are different, the image will not be seen as a continuous image.
In the technique described in Patent Document 2, a plurality of shot images subjected to image blur correction are synthesized, but since the phase of the remaining blur after image blur correction is not considered, the joints of the synthesized panoramic images are It can become unnatural.

そこで、本発明の目的は、上記問題点を踏まえたうえで、複数のカメラユニットからの映像信号のブレ残りにより生じる複数の映像の繋ぎ目のずれを減少できる画像処理装置等を提供することにある。 In view of the above problems, an object of the present invention is to provide an image processing apparatus and the like that can reduce the displacement of the joints of a plurality of images caused by residual blurring of image signals from a plurality of camera units. be.

本発明の画像処理装置は、
複数のカメラユニットにより得られた複数の映像信号のブレ補正を夫々行うブレ補正手段と、
前記ブレ補正手段によって前記複数の映像信号のブレ補正を夫々行った後に残ったブレ残りの位相差を取得する位相差取得手段と、
前記位相差が所定値以上の場合、前記複数の映像信号の前記ブレ残りの位相を合わせる位相調整手段と、を有することを特徴とする。
The image processing device of the present invention is
blur correction means for respectively performing blur correction on a plurality of video signals obtained by a plurality of camera units;
phase difference acquisition means for acquiring a phase difference of a residual blur remaining after each of the plurality of video signals is subjected to blur correction by the blur correction means;
and phase adjusting means for adjusting the phases of the blur residue of the plurality of video signals when the phase difference is equal to or greater than a predetermined value.

本発明によれば、複数のカメラユニットからの映像信号のブレ残りにより生じる複数の映像の繋ぎ目のずれを減少することができる。 According to the present invention, it is possible to reduce the deviation of the joints of a plurality of images caused by residual blurring of image signals from a plurality of camera units.

実施例1における画像処理装置1000の構成例を示すブロック図である。1 is a block diagram showing a configuration example of an image processing apparatus 1000 according to Embodiment 1; FIG. 実施例1における処理を示すフローチャートである。4 is a flow chart showing processing in the first embodiment; 図2のステップS203の詳細を説明するフローチャートである。FIG. 3 is a flowchart illustrating details of step S203 in FIG. 2; FIG. ブレ補正量演算部の詳細な構成例を示すブロック図である。3 is a block diagram showing a detailed configuration example of a blur correction amount calculation unit; FIG. ブレ残りの波形信号例を示す図である。FIG. 10 is a diagram showing an example of a waveform signal of residual blur; 表示部217によって第1のカメラユニットと第2のカメラユニットの映像を並べて繋げて表示した図である。FIG. 10 is a diagram showing images of a first camera unit and a second camera unit connected side by side and displayed by a display unit 217; 実施例2における処理を示すフローチャートである。10 is a flowchart showing processing in Example 2. FIG. 実施例3における処理を示すフローチャートである。11 is a flow chart showing processing in Example 3. FIG. 実施例4における処理を示すフローチャートである。10 is a flow chart showing processing in Example 4. FIG. 実施例5における処理を示すフローチャートである。10 is a flow chart showing processing in Example 5. FIG. 実施例6における処理を示すフローチャートである。14 is a flow chart showing processing in Example 6. FIG. 実施例7における処理を示すフローチャートである。14 is a flow chart showing processing in Example 7. FIG.

以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。尚、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。
又、実施例においては、画像処理装置としてネットワークカメラに適用した例について説明する。しかし、画像処理装置はデジタルスチルカメラ、デジタルムービーカメラ、スマートフォン、パーソナルコンピュータ、車載カメラ、ドローンカメラ、ロボット等の電子機器を含む。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below using examples with reference to the accompanying drawings. In each drawing, the same members or elements are denoted by the same reference numerals, and overlapping descriptions are omitted or simplified.
Also, in the embodiment, an example in which the image processing apparatus is applied to a network camera will be described. However, image processing devices include electronic devices such as digital still cameras, digital movie cameras, smart phones, personal computers, vehicle-mounted cameras, drone cameras, and robots.

図1は実施例1における画像処理装置1000の構成例を示すブロック図である。
尚、図1に示される機能ブロックの一部は、画像処理装置1000に含まれる不図示の制御手段としてのコンピュータに、不図示の記憶媒体としてのメモリに記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
FIG. 1 is a block diagram showing a configuration example of an image processing apparatus 1000 according to the first embodiment.
Some of the functional blocks shown in FIG. 1 are executed by causing a computer (not shown), which is control means, included in the image processing apparatus 1000 to execute a computer program stored in a memory (not shown), which is a storage medium. Realized. However, some or all of them may be realized by hardware. As hardware, a dedicated circuit (ASIC), a processor (reconfigurable processor, DSP), or the like can be used.

図1の画像処理装置1000は第1のカメラユニット100と、第2のカメラユニット200とを有する。第1のカメラユニット100の機能ブロックである101~112と、第2のカメラユニット200の機能ブロックである201~212は夫々同じ構成なので、以下では主に第1のカメラユニットの機能ブロックについて説明する。
図1において、第1のカメラユニット100のレンズ群101は、被写体から入射した光を撮像素子103上に集光する光学系である。前記レンズ群101には、被写体に対するピント合わせを行うフォーカスレンズや、画角を調整するズームレンズ等が含まれる。
The image processing apparatus 1000 in FIG. 1 has a first camera unit 100 and a second camera unit 200 . Since the functional blocks 101 to 112 of the first camera unit 100 and the functional blocks 201 to 212 of the second camera unit 200 have the same configuration, the functional blocks of the first camera unit will be mainly described below. do.
In FIG. 1, a lens group 101 of a first camera unit 100 is an optical system that converges light incident from a subject onto an imaging device 103 . The lens group 101 includes a focus lens for focusing on a subject, a zoom lens for adjusting the angle of view, and the like.

前記レンズ群101を通してカメラ内に入ってきた被写体像は赤外線カットフィルタIRCF等の光学フィルタ102を通過し、撮像素子103に入射する。
レンズ群101を介して形成された被写体像は、撮像素子103の受光面に配置された所定のパターンのカラーフィルタを通り、撮像素子103の各画素で光電変換され、アナログの画像信号として出力される。
A subject image entering the camera through the lens group 101 passes through an optical filter 102 such as an infrared cut filter IRCF and enters an image sensor 103 .
A subject image formed through the lens group 101 passes through a color filter with a predetermined pattern arranged on the light receiving surface of the image sensor 103, is photoelectrically converted by each pixel of the image sensor 103, and is output as an analog image signal. be.

撮像素子103から出力される画像信号は、AGC(Auto Gain Control)104でゲインコントロールによりレベル調整が行われ、A/D変換部105でデジタル画像信号に変換される。
映像信号処理部106ではA/D変換部105からのデジタル画像信号に所定の処理を施し輝度信号と色信号からなる映像信号を出力すると共に、カメラ制御を行うための各種パラメータを生成する。
An AGC (Auto Gain Control) 104 adjusts the level of an image signal output from the image sensor 103 by gain control, and an A/D converter 105 converts the signal into a digital image signal.
The video signal processing unit 106 performs predetermined processing on the digital image signal from the A/D conversion unit 105, outputs a video signal composed of a luminance signal and a color signal, and generates various parameters for camera control.

尚、カメラ制御を行うための各種パラメータとしては、例えば絞りの制御や、ピント合わせの制御、色味を調整するホワイトバランス制御などに使われるパラメータが含まれる。
露出制御部207は、映像信号処理部106から出力されるパラメータとしての輝度情報から撮影画面内の輝度情報を算出し、撮影画像を所望の明るさに調整するように絞りやAGC104を制御する。
Various parameters for camera control include, for example, parameters used for aperture control, focus control, and white balance control for color adjustment.
The exposure control unit 207 calculates luminance information in the shooting screen from luminance information as a parameter output from the video signal processing unit 106, and controls the diaphragm and AGC 104 so as to adjust the shooting image to desired brightness.

光学制御部108は、ピント合わせ制御のために、映像信号処理部106で作成された映像信号から高周波成分を抜き出す。そして、前記高周波成分の値をフォーカスピント情報(フォーカス評価値)として、前記フォーカス評価値が最大となるように前記レンズ群101を制御する。又、光学制御部108はレンズ群101の焦点距離調整や、輝度レベルに応じて光学フィルタ102の挿抜制御も行う。 The optical control unit 108 extracts high frequency components from the video signal generated by the video signal processing unit 106 for focusing control. Then, the lens group 101 is controlled so that the focus evaluation value is maximized using the value of the high frequency component as focus information (focus evaluation value). The optical control unit 108 also performs focal length adjustment of the lens group 101 and insertion/removal control of the optical filter 102 according to the luminance level.

ブレ補正量演算部109は、角速度センサ215から取得したブレ信号としての角速度情報にデジタルフィルタ等の信号処理をおこなうことでブレ補正量を算出する。そして算出されたブレ補正量に応じて後述の画像メモリ409からの映像の切り出し位置(読出し領域)を変更して電子式ブレ補正を行う。即ち、ブレ補正量演算部109は、複数のカメラユニットにより得られた複数の映像信号のブレ補正を映像信号毎にブレ信号を用いて夫々行うブレ補正工程を実行するためのブレ補正手段として機能している。 A blur correction amount calculation unit 109 calculates a blur correction amount by performing signal processing such as a digital filter on angular velocity information as a blur signal acquired from the angular velocity sensor 215 . Then, electronic blur correction is performed by changing the position (reading area) of the image from the image memory 409, which will be described later, in accordance with the calculated amount of blur correction. That is, the blur correction amount calculation unit 109 functions as blur correction means for executing a blur correction process for performing blur correction on each of a plurality of video signals obtained by a plurality of camera units using a blur signal for each video signal. are doing.

映像信号出力部110では電子式ブレ補正された映像を所定のフォーマットで出力し、有線又は無線で通信を行う通信部216を介して表示部217に対して送信すると共に、ブレ残り量算出部111に供給する。
ここで、角速度センサ215は、ブレを検出してブレ信号を出力するブレセンサーとして機能している。しかし、ブレセンサーとしては、例えばブレ残り量算出部111により映像信号中の平均動きベクトルの方向と、平均動きベクトルの量から算出することによってブレ信号を出力するものであっても良い。
尚、表示部217は画像処理装置1000とは別体であっても一体であっても良く、ブレ補正後の複数の映像信号の映像を並べて表示する表示手段として機能している。
The image signal output unit 110 outputs the image subjected to the electronic blur correction in a predetermined format, and transmits the image to the display unit 217 via the communication unit 216 that performs wired or wireless communication. supply to
Here, the angular velocity sensor 215 functions as a shake sensor that detects shake and outputs a shake signal. However, the blur sensor may output a blur signal by calculating, for example, the direction of the average motion vector in the video signal and the amount of the average motion vector by the residual blur amount calculator 111 .
The display unit 217 may be separate from or integrated with the image processing apparatus 1000, and functions as display means for arranging and displaying images of a plurality of image signals after blur correction.

ブレ残り量算出部111は、前記映像信号出力部110から出力された電子式ブレ補正後の映像において、どの程度ブレ残りが発生しているかを算出する。即ち、例えば画面全体の動きベクトルの平均値をブレ残り量とすることができる。
ブレ残り位相取得部112は、前記ブレ残り量算出部111で算出されたブレ残り量を所定の時間間隔でサンプリングし所定期間分記憶し、ブレ残り量の波形信号を生成する。第2のカメラユニットの機能ブロックである201~212においても、第1のカメラユニットの機能ブロックである101~112と同様の動作を行う。
The residual blur amount calculation unit 111 calculates how much residual blur occurs in the image after the electronic blur correction output from the video signal output unit 110 . That is, for example, the average value of the motion vectors of the entire screen can be used as the residual blur amount.
A residual blur phase acquisition unit 112 samples the residual blur amount calculated by the residual blur amount calculation unit 111 at predetermined time intervals, stores the samples for a predetermined period, and generates a waveform signal of the residual blur amount. The functional blocks 201 to 212 of the second camera unit also perform the same operations as the functional blocks 101 to 112 of the first camera unit.

ブレ残り位相差算出部213は、第1のカメラユニットの前記ブレ残り位相取得部112で取得したブレ残り波形信号と第2のカメラユニットのブレ残り位相取得部212で取得したブレ残り量の波形信号を比較する。それによって、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を算出する。ここで、ブレ残り位相差算出部213は、ブレ補正手段によって複数の映像信号のブレ補正を夫々行った後に残ったブレ残りの位相差を取得する位相差取得工程を実行する位相差取得手段として機能している。 The residual blur phase difference calculation unit 213 calculates the residual blur waveform signal acquired by the residual blur phase acquisition unit 112 of the first camera unit and the waveform of the residual blur amount acquired by the residual blur phase acquisition unit 212 of the second camera unit. Compare signals. Thereby, the residual phase difference between the first camera unit and the second camera unit is calculated. Here, the blur residual phase difference calculation unit 213 is a phase difference acquisition unit that executes a phase difference acquisition step of acquiring a phase difference of the residual blur remaining after the blur correction is performed on each of the plurality of video signals by the blur correction unit. It is functioning.

位相差調整部214は、前記ブレ残り位相差算出部213で算出された、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を基に、どの程度デジタルフィルタの位相を変更するかを算出する。そして、第1のカメラユニットの前記ブレ補正量演算部109で用いているデジタルフィルタ又は、第2のカメラユニットの前記ブレ補正量演算部209で用いているデジタルフィルタの少なくとも一方の位相を変更する。 The phase difference adjustment unit 214 changes the phase of the digital filter by how much, based on the phase difference between the first camera unit and the second camera unit, which is calculated by the phase difference calculation unit 213 for remaining blur. or Then, the phase of at least one of the digital filter used in the blur correction amount calculation unit 109 of the first camera unit and the digital filter used in the blur correction amount calculation unit 209 of the second camera unit is changed. .

即ち、位相差調整部214は、位相差が所定値以上の場合、複数の映像信号のブレ残りの位相を合わせる位相調整工程を実行する位相調整手段として機能している。
尚、実施例1においてはデジタルフィルタ(位相進み又は位相遅れフィルタ)の位相を変更しているが、ブレ補正信号の位相を変更するための遅延回路を設けても良い。
In other words, the phase difference adjustment unit 214 functions as a phase adjustment unit that performs a phase adjustment step of matching phases of residual blurs of a plurality of video signals when the phase difference is equal to or greater than a predetermined value.
Although the phase of the digital filter (phase lead or phase lag filter) is changed in the first embodiment, a delay circuit may be provided to change the phase of the blur correction signal.

尚、図1に示される画像処理装置の複数の機能ブロック(例えば第1のカメラユニット100、第2のカメラユニット200等)は、実施例1では画像処理装置と同じ筐体に内蔵されている。しかし、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成しても良い。
即ち、複数のカメラユニット等は別体でも良く、画像処理装置1000は、例えば複数のカメラユニットからの映像信号を処理する汎用コンピュータやサーバー等であっても良い。
1 (for example, the first camera unit 100, the second camera unit 200, etc.) of the image processing apparatus shown in FIG. . However, they do not have to be built in the same housing, and may be composed of separate devices connected to each other via signal paths.
That is, the plurality of camera units and the like may be separate units, and the image processing apparatus 1000 may be a general-purpose computer, server, or the like that processes video signals from the plurality of camera units, for example.

図2は実施例1における処理を示すフローチャートである。以下、図2を参照して、本発明の実施例1による、第1のカメラユニットと第2のカメラユニットのブレ残りの位相合わせについて説明する。尚、画像処理装置1000に含まれる不図示の制御手段としてのコンピュータに、不図示の記憶媒体としてのメモリに記憶されたコンピュータプログラムを実行させることによって図2のフローチャートの夫々の処理が行われる。図3、図7~図12のフローチャートについても同様である。 FIG. 2 is a flow chart showing processing in the first embodiment. Hereinafter, referring to FIG. 2, phase matching of the residual blur of the first camera unit and the second camera unit according to the first embodiment of the present invention will be described. 2 is executed by causing a computer (not shown) included in the image processing apparatus 1000 as a control means to execute a computer program stored in a memory (not shown) as a storage medium. The same applies to the flow charts of FIGS. 3 and 7-12.

先ず図2のステップS201において、第1のカメラユニットと第2のカメラユニットのブレ残り量を取得する。即ち、電子式ブレ補正後の映像において、どの程度ブレ残りが発生しているかを、例えば動きベクトル量を用いて算出する。
尚、実施例1では動きベクトル量を用いてブレ残り量を算出しているが、ジャイロ信号を併用してブレ残り量を算出しても良い。
First, in step S201 in FIG. 2, the residual blur amounts of the first camera unit and the second camera unit are acquired. That is, how much residual blur occurs in the image after electronic blur correction is calculated using, for example, the amount of motion vector.
In the first embodiment, the amount of motion vector is used to calculate the amount of residual blur, but the amount of residual blur may be calculated using a gyro signal in combination.

ステップS202において、ステップS201で算出したブレ残り量が所定値以上であるかを判定する。判定した結果、ブレ残り量が所定値以上ではない場合(NO)、第1のカメラユニットと第2のカメラユニットの位相を合わせることをせず図2のフローを終了する。
これは、ブレ残り量が微小である場合には第1のカメラユニットと第2のカメラユニットの位相が異なっていても、各カメラユニットの映像を並べて繋げて表示した時に、繋ぎ目部分のずれが微小であり、目立つことがなく不自然にはならないためである。
In step S202, it is determined whether or not the residual blur amount calculated in step S201 is equal to or greater than a predetermined value. As a result of the determination, if the residual blur amount is not equal to or greater than the predetermined value (NO), the flow of FIG. 2 is terminated without matching the phases of the first camera unit and the second camera unit.
This is because when the remaining amount of blurring is very small, even if the phases of the first camera unit and the second camera unit are different, when the images of the respective camera units are displayed side by side and connected, the joint portion will not be shifted. This is because it is minute and does not stand out and does not look unnatural.

ステップS202で判定した結果、ブレ残り量が所定値以上である場合は(YES)、ステップS201で算出した第1のカメラユニットと第2のカメラユニットのブレ残りの位相差が所定値以上であるかを判定する(ステップS203)。
ステップS203で判定した結果、ブレ残りの位相差が所定値より小さい場合(NO)、第1のカメラユニットと第2のカメラユニットの位相を合わせることをせず図2のフローを終了する。
If the result of determination in step S202 is that the residual blur amount is equal to or greater than the predetermined value (YES), the residual blur phase difference between the first camera unit and the second camera unit calculated in step S201 is equal to or greater than the predetermined value. (step S203).
As a result of the determination in step S203, if the phase difference of the remaining blur is smaller than the predetermined value (NO), the flow of FIG. 2 ends without matching the phases of the first camera unit and the second camera unit.

これは、位相差が微小である場合には、各カメラユニットの映像を並べて繋げて表示した時に、繋ぎ目部分のずれが微小であり、目立つことがなく不自然にはならないためである。
ステップS203で判定した結果、ブレ残りの位相差が所定値以上である場合は(YES)、第1のカメラユニットと第2のカメラユニットのブレ残りの位相を合わせる(ステップS204)。このように、本実施例では位相調整手段は、複数の映像信号のブレ残り量が所定値以上の場合であって位相差が所定値以上の場合に、複数の映像信号のブレ残りの位相を合わせている。しかし、複数の映像信号のブレ残り量が所定値以上でなくても、位相差が所定値以上の場合に、複数の映像信号のブレ残りの位相を合わせても良い。
This is because when the phase difference is minute, when the images of the respective camera units are displayed side by side in a connected manner, the gaps at the seams are minute and do not stand out and do not look unnatural.
As a result of determination in step S203, if the residual blur phase difference is equal to or greater than the predetermined value (YES), the residual blur phases of the first camera unit and the second camera unit are matched (step S204). As described above, in this embodiment, the phase adjusting means adjusts the phases of the remaining blurring of the plurality of video signals when the remaining blurring amounts of the plurality of video signals are equal to or greater than a predetermined value and the phase difference is equal to or greater than a predetermined value. Matching. However, even if the residual blur amounts of the plurality of video signals are not equal to or greater than the predetermined value, the residual blur phases of the plurality of video signals may be matched when the phase difference is equal to or greater than the predetermined value.

図3は図2のステップS203の詳細を説明するフローチャートである。
以下、図3を参照して、ブレ残りの位相を合わせる詳細フローについて説明する。
先ず、図3のS301において、第1のカメラユニットと第2のカメラユニットのブレ残りの波形信号を取得する。
各カメラユニットのブレ残り量を所定の時間間隔でサンプリングし所定期間分記憶しておくことで、ブレ残りの波形信号を生成する。所定の時間間隔や所定期間は、撮像時間やシステム周波数やブレの周波数に応じて適宜変更する。
FIG. 3 is a flow chart explaining the details of step S203 in FIG.
Hereinafter, a detailed flow for aligning the phase of the residual blur will be described with reference to FIG. 3 .
First, in S301 of FIG. 3, the residual waveform signals of the first camera unit and the second camera unit are acquired.
By sampling the amount of residual blur of each camera unit at predetermined time intervals and storing it for a predetermined period of time, a waveform signal of the residual blur is generated. The predetermined time interval and the predetermined period are appropriately changed according to the imaging time, system frequency, and blur frequency.

ステップS302において、ステップS301で取得した第1のカメラユニットのブレ残りの波形信号と第2のカメラユニットのブレ残りの波形信号を比較し、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を算出する。
ステップS303において、ステップS302で算出した位相差が所定値以上であるかを判定する。ステップS303で判定した結果、ブレ残りの位相差が所定値以上でない場合(NO)、第1のカメラユニットと第2のカメラユニットの位相を合わせることをせず図3のフローを終了する。
In step S302, the waveform signal of the residual blur of the first camera unit and the waveform signal of the residual blur of the second camera unit acquired in step S301 are compared, and the waveform signal of the residual blur of the first camera unit and the residual blur of the second camera unit are compared. Calculate the phase difference of
In step S303, it is determined whether the phase difference calculated in step S302 is equal to or greater than a predetermined value. As a result of determination in step S303, if the residual blur phase difference is not equal to or greater than the predetermined value (NO), the flow of FIG. 3 ends without matching the phases of the first camera unit and the second camera unit.

ステップS303で判定した結果、ブレ残りの位相差が所定値以上である場合は(YES)、第1のカメラユニットのブレ補正量演算部109のブレ補正信号の位相を変更する(ステップS304)。 As a result of determination in step S303, if the residual blur phase difference is equal to or greater than the predetermined value (YES), the phase of the blur correction signal of the blur correction amount calculator 109 of the first camera unit is changed (step S304).

図4はブレ補正量演算部の詳細な構成例を示すブロック図である。
図1のブレ補正量演算部109、209は、画像処理装置に発生した揺れを、角速度センサ215から角速度信号として取得し、取得した角速度情報をA/D変換部402によってデジタル信号として出力する。
ゲイン調整部403は、A/D変換部402によって出力されたデジタル信号に所定の係数を乗算することでデジタル信号の振幅調整をおこなう。
FIG. 4 is a block diagram showing a detailed configuration example of the blur correction amount calculation unit.
The shake correction amount calculation units 109 and 209 in FIG. 1 acquire the shake generated in the image processing apparatus as an angular velocity signal from the angular velocity sensor 215, and the A/D converter 402 outputs the acquired angular velocity information as a digital signal.
The gain adjustment unit 403 adjusts the amplitude of the digital signal by multiplying the digital signal output from the A/D conversion unit 402 by a predetermined coefficient.

位相進みフィルタ404は、デジタル信号の位相を進めるためのフィルタであり、HPF405は、所定の周波数帯域でフィルタリングをおこなう。
位相遅れフィルタ406は、HPF405によりフィルタリングされた信号に対して、位相を遅らせるためのフィルタである。焦点距離演算部407は、レンズ群101の焦点距離情報を光学制御部108から取得し、焦点距離に応じたブレ補正量になるように信号の大きさを調整する。
A phase lead filter 404 is a filter for leading the phase of a digital signal, and an HPF 405 performs filtering in a predetermined frequency band.
Phase delay filter 406 is a filter for delaying the phase of the signal filtered by HPF 405 . A focal length calculation unit 407 acquires focal length information of the lens group 101 from the optical control unit 108 and adjusts the magnitude of the signal so that the blur correction amount corresponds to the focal length.

積分処理部408は、焦点距離演算部407で算出された信号に対して、LPF等を用いて積分をおこなうことで、最終的なブレ補正量を算出する。
画像メモリ409は映像信号処理部106からの映像信号を一時的に記憶するメモリである。
切り出し位置変更部410は積分処理部408から得られたブレ補正量及びブレ方向情報に基づき、画像メモリ409に記憶された画像の切り出し位置を変更することで映像中のブレを補正する。ブレの補正された映像は後段の映像信号出力部110に供給される。
An integration processing unit 408 integrates the signal calculated by the focal length calculation unit 407 using an LPF or the like to calculate a final blur correction amount.
An image memory 409 is a memory that temporarily stores the video signal from the video signal processing unit 106 .
A clipping position changing unit 410 changes the clipping position of the image stored in the image memory 409 based on the blur correction amount and blur direction information obtained from the integration processing unit 408 , thereby correcting blurring in the video. The shake-corrected image is supplied to the image signal output unit 110 in the subsequent stage.

図3のステップS304では、位相差調整部214の出力に基づき図4の位相進みフィルタ404又は位相遅れフィルタ406の少なくとも一方を変更することで第1のカメラユニットのブレ補正信号の位相を変更している。しかし、前述のようにブレ補正信号の位相を変更するための遅延回路等を別途設けても良い。このように実施例1では、複数の映像信号の少なくとも1つのブレ補正を行うためのブレ信号の位相を調整することで、複数の映像信号のブレ残りの位相を合わせている。 In step S304 of FIG. 3, the phase of the blur correction signal of the first camera unit is changed by changing at least one of the phase lead filter 404 and the phase lag filter 406 of FIG. ing. However, as described above, a delay circuit or the like for changing the phase of the blur correction signal may be provided separately. As described above, in the first embodiment, by adjusting the phase of the blur signal for performing blur correction of at least one of the plurality of video signals, the phases of the remaining blurs of the plurality of video signals are matched.

ステップS305では、第1のカメラユニットのデジタルフィルタのブレ補正信号の位相を変更した後の第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を再度算出する。算出の方法は、ステップS301とステップS302でおこなった方法と同様とする。
ステップS305で算出した各カメラユニットのブレ残りの位相差と、ステップS304で第1のカメラユニットのデジタルフィルタを変更する前に、ステップS302で算出した各カメラユニットのブレ残りの位相差と比較する。それによって、各カメラユニットの位相差が減少しているかを判定する(ステップS306)。
In step S305, the residual phase difference between the first camera unit and the second camera unit after changing the phase of the blur correction signal of the digital filter of the first camera unit is calculated again. The calculation method is the same as the method used in steps S301 and S302.
Before changing the digital filter of the first camera unit in step S304, the residual blur phase difference of each camera unit calculated in step S305 is compared with the residual blur phase difference of each camera unit calculated in step S302. . Accordingly, it is determined whether the phase difference of each camera unit has decreased (step S306).

ステップS306で判定した結果、各カメラユニットの位相差が減少している場合は(YES)、そのまま何もせず図3のフローを終了する。
ステップS306で判定した結果、各カメラユニットの位相差が減少していない場合は(NO)、ステップS307に進む。そしてステップS307において、第2のカメラユニットのブレ補正量演算部209における位相進みフィルタ、又は位相遅れフィルタの少なくとも一方を変更することでブレ補正信号の位相を変更する(ステップS307)。
As a result of determination in step S306, if the phase difference of each camera unit has decreased (YES), nothing is done and the flow of FIG. 3 ends.
If the phase difference of each camera unit has not decreased as a result of determination in step S306 (NO), the process proceeds to step S307. Then, in step S307, the phase of the blur correction signal is changed by changing at least one of the phase lead filter and the phase lag filter in the blur correction amount calculator 209 of the second camera unit (step S307).

上記では、第1のカメラユニットのブレ補正信号の位相を先に変更したが、第2のカメラユニットのブレ補正信号の位相を先に変更しても良い。
このように本実施例では、位相差が所定値以上の場合、複数の映像信号の内の1つの映像信号のブレ残りの位相を調整すると共に、調整後に前記ブレ残りが所定値以上ある場合には更に複数の映像信号の内の他の映像信号のブレ残りの位相を調整している。
In the above, the phase of the blur correction signal of the first camera unit is changed first, but the phase of the blur correction signal of the second camera unit may be changed first.
As described above, in this embodiment, when the phase difference is equal to or greater than a predetermined value, the phase of one of the plurality of video signals is adjusted. further adjusts the phase of the residual blur of the other video signal among the plurality of video signals.

図5はブレ残りの波形信号例を示す図である。
図5の点線で描かれた波形信号は、第1のカメラユニットのブレ残りの波形信号を示し、図5の実線で描かれた波形信号は、第2のカメラユニットのブレ残りの波形信号を示す。
第1のカメラユニット又は第2のカメラユニットのデジタルフィルタを変更することで、図5(A)のように各カメラユニットで位相がずれていた波形信号が、図5(B)のように位相が揃った波形信号となる。
FIG. 5 is a diagram showing an example of a waveform signal of the remaining blur.
A waveform signal drawn with a dotted line in FIG. 5 indicates a waveform signal of residual blur of the first camera unit, and a waveform signal drawn with a solid line of FIG. 5 indicates a waveform signal of residual blur of the second camera unit. show.
By changing the digital filter of the first camera unit or the second camera unit, the phase shift of the waveform signal in each camera unit as shown in FIG. becomes a uniform waveform signal.

図6は、表示部217によって第1のカメラユニットと第2のカメラユニットの映像を並べて繋げて表示した図である。図6のように、各カメラユニットのブレ残りの位相差を合わせなかった場合、図6上図の点線部分ように繋ぎ目部分がずれてしまい不自然な映像になってしまう。
一方、本実施例によれば、各カメラユニットのブレ残りの位相差を合わせることで、図6下図のように繋ぎ目部分がずれることなく自然な映像にすることができる。
FIG. 6 is a diagram in which the images of the first camera unit and the second camera unit are displayed side by side by the display unit 217 . As shown in FIG. 6, if the phase difference of the residual blur of each camera unit is not matched, the joint portion is shifted as shown by the dotted line in the upper diagram of FIG. 6, resulting in an unnatural image.
On the other hand, according to the present embodiment, by matching the phase difference of the residual blur of each camera unit, it is possible to obtain a natural image without shifting the joint portion as shown in the lower diagram of FIG.

以下、図7を参照して、本発明の実施例2について説明する。
図7は実施例2の処理フローを示すフローチャートである。ステップS701~S703、S705、S706は図3のステップS301~ステップS303、S305、S306と同じである。
先ず、図7のステップS701において、第1のカメラユニットと第2のカメラユニットのブレ残りの波形信号を取得する。ブレ残りの波形信号の取得方法は、実施例1の図3のフローチャートのステップS301における方法と同様で良い。
A second embodiment of the present invention will be described below with reference to FIG.
FIG. 7 is a flow chart showing the processing flow of the second embodiment. Steps S701 to S703, S705 and S706 are the same as steps S301 to S303, S305 and S306 in FIG.
First, in step S701 in FIG. 7, the waveform signals of the residual blur of the first camera unit and the second camera unit are acquired. A method for acquiring the waveform signal of the remaining blur may be the same as the method in step S301 of the flowchart in FIG. 3 of the first embodiment.

ステップS701で取得した各カメラユニットのブレ残りの波形信号を比較することで、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を算出する(ステップS702)。
ステップS703において、ステップS702で算出した位相差が所定値以上であるかを判定する。ステップS703で判定した結果、ブレ残りの位相差が所定値以上でない場合(NO)、第1のカメラユニットと第2のカメラユニットの位相を合わせることをせず図7のフローを終了する。
By comparing the residual blur waveform signals of the respective camera units acquired in step S701, the residual blur phase difference between the first camera unit and the second camera unit is calculated (step S702).
In step S703, it is determined whether the phase difference calculated in step S702 is equal to or greater than a predetermined value. As a result of determination in step S703, if the residual blur phase difference is not equal to or greater than the predetermined value (NO), the flow in FIG. 7 ends without matching the phases of the first camera unit and the second camera unit.

ステップS703で判定した結果、ブレ残りの位相差が所定値以上である場合は(YES)、第1のカメラユニットの撮像タイミングを変更する(ステップS704)。
ステップS705では、第1のカメラユニットの撮像タイミングを変更した後の第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を再度算出する。算出の方法は、ステップS701とステップS702でおこなった方法と同様とする。
As a result of determination in step S703, if the phase difference of the residual blur is equal to or greater than the predetermined value (YES), the imaging timing of the first camera unit is changed (step S704).
In step S705, the residual phase difference between the first camera unit and the second camera unit after changing the imaging timing of the first camera unit is calculated again. The calculation method is the same as that used in steps S701 and S702.

ステップS705で算出した各カメラユニットのブレ残りの位相差と、ステップS702で算出した各カメラユニットのブレ残りの位相差と比較することで、各カメラユニットの位相差が減少しているかを判定する(ステップS706)。
ステップS706で判定した結果、各カメラユニットの位相差が減少している場合は(YES)、そのまま何もせず終了する。
By comparing the residual blur phase difference of each camera unit calculated in step S705 with the residual blur phase difference of each camera unit calculated in step S702, it is determined whether the phase difference of each camera unit has decreased. (Step S706).
As a result of determination in step S706, if the phase difference of each camera unit has decreased (YES), nothing is done and the process ends.

ステップS706で判定した結果、各カメラユニットの位相差が減少していない場合は(NO)、第2のカメラユニットの撮像タイミングを変更する(ステップS707)。
上記では、第1のカメラユニットの撮像タイミングを先に変更したが、第2のカメラユニットの撮像タイミングを先に変更しても良い。
このように、実施例2においては、位相調整手段は、複数のカメラユニットの少なくとも1つの撮像タイミングを調整することにより複数の映像信号のブレ残りの位相を合わせている。
As a result of determination in step S706, if the phase difference of each camera unit has not decreased (NO), the imaging timing of the second camera unit is changed (step S707).
In the above description, the imaging timing of the first camera unit is changed first, but the imaging timing of the second camera unit may be changed first.
As described above, in the second embodiment, the phase adjusting means adjusts the phases of the residual blurs of the plurality of video signals by adjusting the imaging timing of at least one of the plurality of camera units.

図8は実施例3における処理を示すフローチャートである。図8において、ステップS801~S803、S805、S806は図7のステップS701~S703、S705、S706と同じであるので説明は一部省略する。
実施例3においては、各カメラユニットの位相を合わせるために角速度センサの出力であるジャイロ信号のサンプリングタイミングを変更する。
FIG. 8 is a flow chart showing processing in the third embodiment. In FIG. 8, steps S801 to S803, S805, and S806 are the same as steps S701 to S703, S705, and S706 in FIG. 7, so description thereof is partially omitted.
In the third embodiment, the sampling timing of the gyro signal, which is the output of the angular velocity sensor, is changed in order to match the phases of the camera units.

即ち、図8では第1のカメラユニットと第2のカメラユニットのブレ残りの位相差をステップS803で判定した結果、ブレ残りの位相差が所定値以上である場合は(YES)、ステップS804に進む。そして、ステップS804で、第1のカメラユニットのブレ信号としてのジャイロ信号を取得するサンプリングタイミングを変更することで、各カメラユニット間の相差を合わせる(ステップS804) That is, in FIG. 8, as a result of determining the phase difference of the residual blur between the first camera unit and the second camera unit in step S803, if the phase difference of the residual blur is equal to or greater than a predetermined value (YES), the process proceeds to step S804. move on. Then, in step S804, by changing the sampling timing for acquiring the gyro signal as the shake signal of the first camera unit, the phase difference between each camera unit is adjusted (step S804).

更にステップS806で位相差が減少していない場合にはステップS807で第2のカメラユニットのジャイロ信号を取得するサンプリングタイミングを変更する。
このように、実施例3では、複数の映像信号の少なくとも1つのブレ補正を行うための前記ブレ信号としての角速度センサの出力のサンプリングタイミングを変更することで複数の映像信号のブレ残りの位相を合わせている。
Furthermore, if the phase difference has not decreased in step S806, the sampling timing for acquiring the gyro signal of the second camera unit is changed in step S807.
As described above, in the third embodiment, by changing the sampling timing of the output of the angular velocity sensor as the blurring signal for performing blur correction of at least one of the plurality of video signals, the remaining phase of the blurring of the plurality of video signals can be adjusted. Matching.

図9は実施例4における処理を示すフローチャートである。図9において、ステップS901~S903、S905、S906は図8のステップS801~S803、S805、S806と同じであるので説明は一部省略する。
実施例4においては、各カメラユニットの位相を合わせるために撮像時間を変更する。ここで撮像時間は、メカ的なシャッタのシャッタスピードを変更することによって変更しても良いし、撮像素子の蓄積時間を変更することによって変更しても良い。或いは両者を組み合わせて変更しても良い。
FIG. 9 is a flow chart showing processing in the fourth embodiment. In FIG. 9, steps S901 to S903, S905, and S906 are the same as steps S801 to S803, S805, and S806 in FIG. 8, so description thereof is partially omitted.
In Example 4, the imaging time is changed in order to match the phase of each camera unit. Here, the imaging time may be changed by changing the shutter speed of a mechanical shutter, or may be changed by changing the accumulation time of the image sensor. Alternatively, both may be combined and changed.

図9においては、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差をステップS903で判定した結果、ブレ残りの位相差が所定値以上である場合は(YES)、ステップS904に進む。そしてステップS904において、第1のカメラユニットの撮像時間を変更することで、各カメラユニット間の位相差を合わせる(ステップS904)。 In FIG. 9, as a result of determining the phase difference of the residual blur between the first camera unit and the second camera unit in step S903, if the phase difference of the residual blur is equal to or greater than a predetermined value (YES), the process proceeds to step S904. move on. Then, in step S904, by changing the imaging time of the first camera unit, the phase difference between each camera unit is matched (step S904).

更にステップS906で位相差が減少していない場合にはステップS907において、第2のカメラユニットの撮像時間を変更することで、各カメラユニット間の位相差を合わせる。
このように、実施例4においては、位相調整手段は、複数のカメラユニットの少なくとも1つの撮像時間を調整することにより複数の映像信号のブレ残りの位相を合わせている。
Furthermore, if the phase difference has not decreased in step S906, then in step S907 the imaging time of the second camera unit is changed to match the phase difference between the camera units.
As described above, in the fourth embodiment, the phase adjusting means adjusts the phases of the residual blurs of the plurality of video signals by adjusting the imaging time of at least one of the plurality of camera units.

図10は実施例5における処理を示すフローチャートである。
実施例1~4では、各カメラユニットのブレ残りの位相差を合わせるために、ブレ補正信号の位相や撮像タイミングや撮像時間のみを変更した。しかし実施例5では、ブレ残りの位相差に応じて、撮像タイミングとブレ補正信号の位相をともに変更する。
FIG. 10 is a flow chart showing processing in the fifth embodiment.
In Examples 1 to 4, only the phase of the blur correction signal, the imaging timing, and the imaging time were changed in order to match the phase difference of the residual blur of each camera unit. However, in the fifth embodiment, both the imaging timing and the phase of the blur correction signal are changed according to the phase difference of the residual blur.

先ずステップS1001において、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を算出する。そしてステップS1002において、算出された位相差が第1の閾値(Th1)以上であるかを判定する。
ステップS1002で判定した結果、位相差が第1の閾値以上ではない場合(NO)、ステップS1005に進む。
First, in step S1001, the residual phase difference between the first camera unit and the second camera unit is calculated. Then, in step S1002, it is determined whether the calculated phase difference is greater than or equal to the first threshold (Th1).
As a result of determination in step S1002, if the phase difference is not equal to or greater than the first threshold (NO), the process proceeds to step S1005.

一方、ステップS1002で判定した結果、位相差が第1の閾値以上である場合(YES)、ステップS1003において第1のカメラユニット又は第2のカメラユニットの撮像タイミングを最初に変更する。
ステップS1003で撮像タイミングを変更した後、ステップS1004において第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を再度算出し、ステップS1005に進む。
On the other hand, if the result of determination in step S1002 is that the phase difference is equal to or greater than the first threshold (YES), then in step S1003 the imaging timing of the first camera unit or the second camera unit is changed first.
After the imaging timing is changed in step S1003, the residual phase difference between the first camera unit and the second camera unit is calculated again in step S1004, and the process proceeds to step S1005.

ステップS1005ではブレ残りの位相差が第1の閾値以下かつ第2の閾値(Th2)以上かつ第1の閾値(Th1)未満になっているかを判定する(ステップS1005)。ここで、Th2<Th1とする。
ステップS1005で判定した結果、ブレ残りの位相差が第2の閾値以上かつ第1の閾値未満である場合(YES)、ステップS1006に進む。そしてステップS1006において、第1のカメラユニット又は第2のカメラユニットのブレ補正で用いるデジタルフィルタによりブレ補正信号の位相を変更する。
ステップS1005でNOの場合には、そのまま何もせず図10のフローを終了する。
In step S1005, it is determined whether the phase difference of the remaining blur is equal to or less than the first threshold, equal to or more than the second threshold (Th2), and less than the first threshold (Th1) (step S1005). Here, Th2<Th1.
If the result of determination in step S1005 is that the phase difference of the residual blur is greater than or equal to the second threshold and less than the first threshold (YES), the process proceeds to step S1006. Then, in step S1006, the phase of the blur correction signal is changed by the digital filter used in the blur correction of the first camera unit or the second camera unit.
If NO in step S1005, nothing is done and the flow of FIG. 10 ends.

図11は実施例6における処理を示すフローチャートである。
実施例1~5では、隣接表示をするためのカメラユニットの数が2つの場合を例として説明したが、実施例6では隣接表示をするためのカメラユニットの数が3つ以上の場合、どのカメラユニットを主として位相を合わせるかを決定する。
先ずステップS1101では、隣接表示を行うためのカメラユニット数を取得する。取得したカメラユニットの数が3つ以上であるかを判定し(ステップS1102)、判定した結果、カメラユニット数が3つ以上ではない場合(NO)、そのまま何も処理をせず図11のフローを終了する。
FIG. 11 is a flow chart showing processing in the sixth embodiment.
In Examples 1 to 5, the case where the number of camera units for adjacent display is two has been described as an example, but in Example 6, when the number of camera units for adjacent display is three or more, which Determines whether the camera unit is mainly used for phase matching.
First, in step S1101, the number of camera units for adjacent display is obtained. It is determined whether or not the number of acquired camera units is 3 or more (step S1102), and as a result of determination, if the number of camera units is not 3 or more (NO), no processing is performed as it is and the flow of FIG. 11 is performed. exit.

ステップS1102で判定した結果、カメラユニット数が3つ以上である場合(YES)、画像内に人物が映っているカメラユニットが存在するかを判定する(ステップS1003)。
ステップS1103で判定した結果、画像内に人物が映っているカメラユニットが存在する場合(YES)、画像内に人物が映っているカメラユニットに位相を合わせるように、他のカメラユニットの位相を調整する(ステップS1104)。
If the result of determination in step S1102 is that the number of camera units is three or more (YES), it is determined whether there is a camera unit in which a person is captured in the image (step S1003).
If the result of determination in step S1103 is that there is a camera unit in which a person is captured in the image (YES), the phases of other camera units are adjusted so as to match the phase with the camera unit in which a person is captured in the image. (step S1104).

ステップS1103で判定した結果、画像内に人物が映っているカメラユニットが存在しない場合、そのまま何も処理をせず終了する。尚、実施例6では3つ以上のカメラユニットの映像を隣接表示する場合に、人物が映っているカメラユニットに他のカメラユニットの位相を合わせるようにした。しかし、予め特定の被写体を指定した場合には、その特定の被写体が映っているカメラユニットの位相に他のカメラユニットの位相を合わせるようにしても良い。 If the result of determination in step S1103 is that there is no camera unit in which a person is captured in the image, the process ends without performing any processing. In the sixth embodiment, when the images of three or more camera units are displayed adjacently, the phases of the other camera units are adjusted to the camera unit in which the person is captured. However, when a specific subject is designated in advance, the phase of another camera unit may be matched with the phase of the camera unit in which the specific subject is captured.

更に、2つのカメラユニットの映像を隣接表示する場合においても、特定の被写体が映っているカメラユニットの位相に他のカメラユニットの位相を合わせるようにしても良い。
このように、本実施例では、位相調整手段は、位相差が所定値以上の場合、複数の映像信号の内の1つの映像信号のブレ残りの位相に合わせて他の映像信号のブレ残りの位相を調整している。しかも、複数の映像信号の内の所定の被写体が映っている映像信号のブレ残りの位相に合わせて他の映像信号のブレ残りの位相を調整している。
Furthermore, even when the images of two camera units are displayed adjacently, the phase of the other camera unit may be adjusted to the phase of the camera unit in which the specific subject is captured.
As described above, in this embodiment, when the phase difference is equal to or greater than a predetermined value, the phase adjustment means adjusts the phase of the residual blur of the other video signal in accordance with the phase of the residual blur of one of the plurality of video signals. adjusting the phase. Moreover, the residual blur phases of the other video signals are adjusted in accordance with the phase of the residual blur of the video signal in which the predetermined subject is shown among the plurality of video signals.

図12は実施例7における処理を示すフローチャートである。
実施例7では、カメラユニットに発生しているブレ(振動)の周波数をブレセンサーとしての角速度センサ215等で検出し、その周波数に応じて、位相合わせの強度を変更する。
先ずステップS1201において、カメラユニットに発生しているブレ(振動)の周波数検出をブレセンサーとしての角速度センサ215等から得られたブレ信号に基づきおこなう。ステップS1201において、検出されたブレ(振動)の周波数が所定の周波数以下かを判定する(ステップS1202)。
ステップS1202で判定した結果、検出されたブレ(振動)の周波数が所定の周波数以下である場合(YES)、ステップS1203において、位相を合わせる度合いを大きくする。即ち、より位相が合うようにする。
一方、ステップS1202で判定した結果、検出されたブレ(振動)の周波数が所定の周波数より大きい場合(NO)、ステップS1204において、位相を合わせる度合いを小さくする。
FIG. 12 is a flow chart showing processing in the seventh embodiment.
In the seventh embodiment, the frequency of shake (vibration) occurring in the camera unit is detected by the angular velocity sensor 215 or the like as a shake sensor, and the intensity of phase matching is changed according to the frequency.
First, in step S1201, frequency detection of blurring (vibration) occurring in the camera unit is performed based on a blurring signal obtained from the angular velocity sensor 215 or the like as a blurring sensor. In step S1201, it is determined whether the frequency of the shake (vibration) detected is equal to or less than a predetermined frequency (step S1202).
If the result of determination in step S1202 is that the frequency of the detected shaking (vibration) is equal to or less than the predetermined frequency (YES), the degree of phase matching is increased in step S1203. That is, the phases are made to match more.
On the other hand, if the frequency of the detected shake (vibration) is greater than the predetermined frequency as a result of determination in step S1202 (NO), the degree of phase matching is decreased in step S1204.

以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。 The present invention has been described in detail above based on its preferred embodiments, but the present invention is not limited to the above embodiments, and various modifications are possible based on the gist of the present invention. They are not excluded from the scope of the invention.

尚、本実施例における制御の一部又は全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理装置等に供給するようにしてもよい。そしてその画像処理装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。 It should be noted that a computer program that implements the functions of the above-described embodiments for part or all of the control in this embodiment may be supplied to an image processing apparatus or the like via a network or various storage media. A computer (or CPU, MPU, etc.) in the image processing apparatus or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.

1000 画像処理装置
100 第1のカメラユニット
200 第2のカメラユニット
109 ブレ補正量演算部
111 ブレ残り量算出部
112 ブレ残り位相取得部
213 ブレ残り位相差算出部
214 位相差調整部
215 角速度センサ
1000 image processing device 100 first camera unit 200 second camera unit 109 blur correction amount calculator 111 residual blur amount calculator 112 residual blur phase acquisition unit 213 residual blur phase difference calculator 214 phase difference adjuster 215 angular velocity sensor

Claims (17)

複数のカメラユニットにより得られた複数の映像信号のブレ補正を夫々行うブレ補正手段と、
前記ブレ補正手段によって前記複数の映像信号のブレ補正を夫々行った後に残ったブレ残りの位相差を取得する位相差取得手段と、
前記位相差が所定値以上の場合、前記複数の映像信号の前記ブレ残りの位相を合わせる位相調整手段と、を有することを特徴とする画像処理装置。
blur correction means for respectively performing blur correction on a plurality of video signals obtained by a plurality of camera units;
phase difference acquisition means for acquiring a phase difference of a residual blur remaining after each of the plurality of video signals is subjected to blur correction by the blur correction means;
and phase adjusting means for adjusting the phases of the blur residue of the plurality of video signals when the phase difference is equal to or greater than a predetermined value.
前記位相調整手段は、前記複数の映像信号のブレ残り量が所定値以上の場合に、前記複数の映像信号の前記ブレ残りの位相を合わせることを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said phase adjusting means adjusts the phases of said plurality of video signals for said remaining blurring amount when the remaining blurring amount of said plurality of video signals is equal to or greater than a predetermined value. . 前記位相差取得手段は、前記ブレ残りの波形信号を用いて前記ブレ残りの前記位相差を算出することを特徴とする請求項1または2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the phase difference obtaining means calculates the phase difference of the blur residue using a waveform signal of the blur residue. 更にブレを検出してブレ信号を出力するブレセンサーを有し、
前記ブレ補正手段は、前記複数の映像信号毎に前記ブレセンサーから得られた前記ブレ信号を用いてブレ補正を行うことを特徴とする請求項1~3のいずれか1項に記載の画像処理装置。
Furthermore, it has a blurring sensor that detects blurring and outputs a blurring signal,
4. The image processing according to claim 1, wherein said blur correction means performs blur correction using said blur signal obtained from said blur sensor for each of said plurality of video signals. Device.
前記位相調整手段は、前記複数の映像信号の少なくとも1つのブレ補正を行うための前記ブレ信号の位相を調整することを特徴とする請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, wherein said phase adjusting means adjusts the phase of said blur signal for performing blur correction of at least one of said plurality of video signals. 前記位相調整手段は、前記複数の映像信号の少なくとも1つのブレ補正を行うための前記ブレ信号のサンプリングタイミングを調整することを特徴とする請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, wherein said phase adjusting means adjusts sampling timing of said blur signal for performing blur correction of at least one of said plurality of video signals. 前記位相調整手段は、前記複数のカメラユニットの少なくとも1つのカメラユニットの撮像タイミングを調整することを特徴とする請求項1~6のいずれか1項に記載の画像処理装置。 7. The image processing apparatus according to any one of claims 1 to 6, wherein said phase adjusting means adjusts imaging timing of at least one of said plurality of camera units. 前記位相調整手段は、前記複数のカメラユニットの少なくとも1つのカメラユニットの撮像時間を調整することを特徴とする請求項1~6のいずれか1項に記載の画像処理装置。 7. The image processing apparatus according to any one of claims 1 to 6, wherein said phase adjustment means adjusts the imaging time of at least one of said plurality of camera units. 前記位相調整手段は、前記位相差が前記所定値以上の場合、前記複数の映像信号の内の1つの映像信号の前記ブレ残りの位相を調整すると共に、調整後に前記ブレ残りが所定値以上ある場合には更に前記複数の映像信号の内の他の映像信号の前記ブレ残りの位相を調整することを特徴とする請求項1~8のいずれか1項に記載の画像処理装置。 The phase adjustment means adjusts the phase of the residual blur of one of the plurality of video signals when the phase difference is equal to or greater than the predetermined value, and the residual blur is equal to or greater than the predetermined value after adjustment. The image processing apparatus according to any one of claims 1 to 8, further comprising adjusting the phase of the remaining image signal of another image signal among the plurality of image signals in some cases. 前記位相調整手段は、前記位相差が前記所定値以上の場合、前記複数の映像信号の内の1つの映像信号の前記ブレ残りの位相に合わせて他の映像信号の前記ブレ残りの位相を調整することを特徴とする請求項1~8のいずれか1項に記載の画像処理装置。 When the phase difference is equal to or greater than the predetermined value, the phase adjustment means adjusts the phase of the residual blur of the other video signal in accordance with the phase of the residual blur of one of the plurality of video signals. 9. The image processing apparatus according to any one of claims 1 to 8, characterized in that: 前記位相調整手段は、前記位相差が前記所定値以上の場合、前記複数の映像信号の内の所定の被写体が映っている映像信号の前記ブレ残りの位相に合わせて他の映像信号の前記ブレ残りの位相を調整することを特徴とする請求項10に記載の画像処理装置。 When the phase difference is equal to or greater than the predetermined value, the phase adjustment means adjusts the phase difference of the other video signal in accordance with the phase of the remaining video signal of the video signal showing a predetermined subject among the plurality of video signals. 11. The image processing apparatus according to claim 10, wherein the remaining phases are adjusted. 更にブレを検出してブレ信号を出力するブレセンサーを有し、
前記ブレセンサーにより出力されるブレ信号の周波数に応じて、位相差を合わせる度合いを変更することを特徴とする請求項1に記載の画像処置装置。
Furthermore, it has a blurring sensor that detects blurring and outputs a blurring signal,
2. The image processing apparatus according to claim 1, wherein the degree of matching the phase difference is changed according to the frequency of the shake signal output from the shake sensor.
検出された周波数が所定の周波数以下の場合、位相差を合わせる度合いを強くすることを特徴とする請求項12に記載の画像処置装置。 13. The image processing apparatus according to claim 12, wherein when the detected frequency is equal to or lower than a predetermined frequency, the degree of matching the phase difference is increased. 検出された周波数が所定の周波数より大きい場合、位相差を合わせる度合いを弱くすることを特徴とする請求項12に記載の画像処置装置。 13. The image processing apparatus according to claim 12, wherein the degree of matching the phase difference is weakened when the detected frequency is higher than a predetermined frequency. 前記複数のカメラユニットは、同じ筐体に内蔵されていることを特徴とする請求項1~11のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 11, wherein the plurality of camera units are built in the same housing. 複数のカメラユニットにより得られた複数の映像信号のブレ補正を夫々行うブレ補正工程と、
前記ブレ補正工程によって前記複数の映像信号のブレ補正を夫々行った後に残ったブレ残りの位相差を取得する位相差取得工程と、
前記位相差が所定値以上の場合、前記複数の映像信号の前記ブレ残りの位相を合わせる位相調整工程と、を有することを特徴とする画像処理方法。
a blur correction step of performing blur correction on each of a plurality of video signals obtained by a plurality of camera units;
a phase difference acquisition step of acquiring a phase difference of a residual blur remaining after performing blur correction on each of the plurality of video signals by the blur correction step;
and a phase adjustment step of matching the phases of the blur residue of the plurality of video signals when the phase difference is equal to or greater than a predetermined value.
請求項1~15のいずれか1項に記載の画像処理装置の各手段をコンピュータにより制御するためのコンピュータプログラム。
A computer program for controlling each means of the image processing apparatus according to any one of claims 1 to 15 by a computer.
JP2022006392A 2021-06-22 2022-01-19 Image processing device, image processing method, and computer program Pending JP2023002445A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/842,048 US20220408022A1 (en) 2021-06-22 2022-06-16 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021102904 2021-06-22
JP2021102904 2021-06-22

Publications (1)

Publication Number Publication Date
JP2023002445A true JP2023002445A (en) 2023-01-10

Family

ID=84797728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022006392A Pending JP2023002445A (en) 2021-06-22 2022-01-19 Image processing device, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP2023002445A (en)

Similar Documents

Publication Publication Date Title
KR100886298B1 (en) Image processor and recording medium for storing a image processing program
CN104065868B (en) Image capture apparatus and control method thereof
JP4401949B2 (en) Moving picture imaging apparatus and moving picture imaging method
JP5226600B2 (en) Image deformation apparatus and operation control method thereof
JP6062656B2 (en) Imaging apparatus, control method, and program
JP2008129554A (en) Imaging device and automatic focusing control method
JP2009284394A (en) Imaging apparatus and imaging method
JP2008172310A (en) Electronic hand blurring correction method, device and program, and imaging apparatus
JP4125331B2 (en) Imaging apparatus and control method thereof
JP2008277896A (en) Imaging device and imaging method
JP6932531B2 (en) Image blur correction device, image pickup device, control method of image pickup device
JP2006080844A (en) Electronic camera
JP5149861B2 (en) Intermediate image generation apparatus and operation control method thereof
JP4844220B2 (en) Exposure compensation device, photographing device, exposure value setting device, exposure compensation value calculation method, and control program
JP4264554B2 (en) Imaging device
JP2015233211A (en) Imaging apparatus, control method thereof, and program
JP2005303933A (en) Imaging pickup device
JP2023002445A (en) Image processing device, image processing method, and computer program
JP2015095670A (en) Imaging apparatus, control method thereof and control program
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2022083147A (en) Imaging apparatus, imaging method, program, and recording medium
JP6762843B2 (en) Image processing equipment, image processing methods, and programs
US20220408022A1 (en) Image processing apparatus, image processing method, and storage medium
JP7214424B2 (en) Imaging device and its control method
JP2008172309A (en) Electronic hand blurring correction method, device and program and imaging apparatus