JP2023002445A - Image processing device, image processing method, and computer program - Google Patents
Image processing device, image processing method, and computer program Download PDFInfo
- Publication number
- JP2023002445A JP2023002445A JP2022006392A JP2022006392A JP2023002445A JP 2023002445 A JP2023002445 A JP 2023002445A JP 2022006392 A JP2022006392 A JP 2022006392A JP 2022006392 A JP2022006392 A JP 2022006392A JP 2023002445 A JP2023002445 A JP 2023002445A
- Authority
- JP
- Japan
- Prior art keywords
- blur
- phase
- phase difference
- image processing
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Cameras In General (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Adjustment Of Camera Lenses (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、及びコンピュータプログラム等に関し、特に複数のカメラユニットからの映像信号を処理する画像処理装置等に関するものである。 The present invention relates to an image processing device, an image processing method, a computer program, and the like, and more particularly to an image processing device and the like that processes video signals from a plurality of camera units.
近年、多眼カメラのような1つの筐体に複数のカメラユニットが付いている撮像装置(画像処理装置)が使用されている。
この撮像装置では、各カメラユニットを手動又は自動でパンチルト駆動させることができるため、各カメラユニット同士を近づけて撮影することができる。
各カメラユニットを近づけた場合、各カメラユニットの撮影領域の重なりを少なくするために、ズーム操作をおこなって各カメラユニットが撮影する撮影画角は狭く設定することになる。
2. Description of the Related Art In recent years, an imaging device (image processing device) having a plurality of camera units in one housing, such as a multi-lens camera, has been used.
In this imaging apparatus, each camera unit can be pan-tilt driven manually or automatically, so that each camera unit can be brought close to each other for photographing.
When the camera units are brought close to each other, in order to reduce the overlapping of the photographing areas of the camera units, the photographing angle of view of each camera unit is set narrow by performing a zoom operation.
各カメラユニットの撮影画角を狭くすると少しの揺れでも目立ってしまうため、撮像装置で取得したブレ信号からブレ補正量を算出し、電子切り出し位置の変更をおこなう電子式ブレ補正機能を用いてブレを軽減させることが有効になってくる。
しかし、電子式ブレ補正では、切り出し範囲があらかじめ設定されているため、揺れ量が大きい設置場所に設置された場合、切り出し量が足りずにブレ残りが発生してしまう。
If the angle of view of each camera unit is narrowed, even the slightest shake will be noticeable. It will be effective to reduce
However, in the electronic blur correction, since the clipping range is set in advance, if the camera is installed in an installation location with a large amount of shaking, the clipping amount is insufficient, resulting in residual blurring.
ブレ補正後に各カメラユニットでブレ残りが発生している場合、各カメラユニットのブレ残り量が同じで、かつ各カメラユニットのブレ残りの位相が同じであれば、問題はあまりない。即ち、各カメラユニットの映像を隣接するように並べて表示した場合、各カメラユニットの映像間の繋ぎ目部分がずれることなく1つの繋がっている映像のように自然に見える。 When each camera unit has a residual blur after blur correction, if the residual blur amount of each camera unit is the same and the residual blur phase of each camera unit is the same, there is not much of a problem. That is, when the images of the respective camera units are displayed side by side, the joints between the images of the respective camera units appear naturally as if they were one connected image without being misaligned.
しかし、各カメラユニットを手動又は自動でパンチルト駆動することができるメカ機構になっているため、メカ的ながたつきや誤差が生じやすく、それに伴って各カメラユニット間のブレ残りの位相が異なってしまう。
各カメラユニットのブレ残り量が同じであっても、各カメラユニットのブレ残りの位相が異なってしまうと、各カメラユニットの映像を隣接するように並べて表示した場合、問題が生じる。即ち、各カメラユニットの映像間の繋ぎ目部分が、隣の映像とずれて一致せず繋がっていない不自然な映像に見えてしまう。
However, since each camera unit is a mechanical mechanism that can be manually or automatically pan-tilt driven, mechanical rattling and errors are likely to occur, and accordingly the phase of the remaining blur between each camera unit is different. end up
Even if each camera unit has the same amount of residual blurring, if the phase of the residual blurring of each camera unit differs, a problem arises when the images of the respective camera units are displayed side by side. In other words, the joints between the images of the camera units are misaligned with the adjacent images and look unnatural.
特許文献1では、第1の撮像装置で検出した手ブレ量を示す手ブレ補正量信号を第2の撮像装置に供給し、第2の撮像装置で検出した手ブレ量を示す手ブレ補正量信号を第1の撮像装置に供給する。そして、第1の撮像装置と第2の撮像装置において、自装置側で検出した手ブレ量と他装置側で検出した手ブレ量との平均となる手ブレ量に基づいて、夫々手ブレ補正を行うことで三次元酔いの少ない高品位な三次元画像を撮像可能としている。 In Patent Document 1, a camera shake correction amount signal indicating the amount of camera shake detected by a first imaging apparatus is supplied to a second imaging apparatus, and a camera shake correction amount indicating the amount of camera shake detected by the second imaging apparatus is supplied. A signal is provided to the first imaging device. Then, in the first image pickup device and the second image pickup device, each camera shake correction is performed based on the camera shake amount that is the average of the camera shake amount detected by the self apparatus side and the camera shake amount detected by the other apparatus side. By performing, it is possible to capture a high-quality three-dimensional image with less three-dimensional motion sickness.
特許文献2では、振れ信号と動き量から、背景の振れ量を算出して像ブレ補正をおこない、像ブレ補正が行われた複数の撮像画像を合成することで、背景振れが抑制された綺麗なパノラマ画像を取得可能としている。 In Japanese Patent Laid-Open No. 2004-100000, the amount of background shake is calculated from the shake signal and the amount of motion, image blur correction is performed, and a plurality of captured images subjected to the image blur correction are combined to create a beautiful image with suppressed background blur. It is possible to acquire a wide range of panoramic images.
しかしながら、上記の特許文献に開示された特許文献1では、第1の撮像装置と第2の撮像装置の平均のブレ量を用いて各撮像装置のブレ補正を行っていることで、各撮像装置でブレ残りが発生してしまうが、ブレ残りの位相が異なった場合を考慮していない。そのため、ブレ残りの位相が異なってしまった場合、繋がった画として見えなくなってしまう。
特許文献2に記載の技術では、像ブレ補正を行った複数の撮影画像を合成しているが、像ブレ補正後のブレ残りの位相を考慮していないため、合成したパノラマ画像の繋ぎ目が不自然になってしまう可能性がある。
However, in Patent Literature 1 disclosed in the above-mentioned Patent Literature, blur correction of each imaging device is performed using an average blur amount of the first imaging device and the second imaging device. However, the case where the phase of the remaining blur is different is not considered. Therefore, if the phases of the remaining blurring are different, the image will not be seen as a continuous image.
In the technique described in Patent Document 2, a plurality of shot images subjected to image blur correction are synthesized, but since the phase of the remaining blur after image blur correction is not considered, the joints of the synthesized panoramic images are It can become unnatural.
そこで、本発明の目的は、上記問題点を踏まえたうえで、複数のカメラユニットからの映像信号のブレ残りにより生じる複数の映像の繋ぎ目のずれを減少できる画像処理装置等を提供することにある。 In view of the above problems, an object of the present invention is to provide an image processing apparatus and the like that can reduce the displacement of the joints of a plurality of images caused by residual blurring of image signals from a plurality of camera units. be.
本発明の画像処理装置は、
複数のカメラユニットにより得られた複数の映像信号のブレ補正を夫々行うブレ補正手段と、
前記ブレ補正手段によって前記複数の映像信号のブレ補正を夫々行った後に残ったブレ残りの位相差を取得する位相差取得手段と、
前記位相差が所定値以上の場合、前記複数の映像信号の前記ブレ残りの位相を合わせる位相調整手段と、を有することを特徴とする。
The image processing device of the present invention is
blur correction means for respectively performing blur correction on a plurality of video signals obtained by a plurality of camera units;
phase difference acquisition means for acquiring a phase difference of a residual blur remaining after each of the plurality of video signals is subjected to blur correction by the blur correction means;
and phase adjusting means for adjusting the phases of the blur residue of the plurality of video signals when the phase difference is equal to or greater than a predetermined value.
本発明によれば、複数のカメラユニットからの映像信号のブレ残りにより生じる複数の映像の繋ぎ目のずれを減少することができる。 According to the present invention, it is possible to reduce the deviation of the joints of a plurality of images caused by residual blurring of image signals from a plurality of camera units.
以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。尚、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。
又、実施例においては、画像処理装置としてネットワークカメラに適用した例について説明する。しかし、画像処理装置はデジタルスチルカメラ、デジタルムービーカメラ、スマートフォン、パーソナルコンピュータ、車載カメラ、ドローンカメラ、ロボット等の電子機器を含む。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below using examples with reference to the accompanying drawings. In each drawing, the same members or elements are denoted by the same reference numerals, and overlapping descriptions are omitted or simplified.
Also, in the embodiment, an example in which the image processing apparatus is applied to a network camera will be described. However, image processing devices include electronic devices such as digital still cameras, digital movie cameras, smart phones, personal computers, vehicle-mounted cameras, drone cameras, and robots.
図1は実施例1における画像処理装置1000の構成例を示すブロック図である。
尚、図1に示される機能ブロックの一部は、画像処理装置1000に含まれる不図示の制御手段としてのコンピュータに、不図示の記憶媒体としてのメモリに記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
FIG. 1 is a block diagram showing a configuration example of an
Some of the functional blocks shown in FIG. 1 are executed by causing a computer (not shown), which is control means, included in the
図1の画像処理装置1000は第1のカメラユニット100と、第2のカメラユニット200とを有する。第1のカメラユニット100の機能ブロックである101~112と、第2のカメラユニット200の機能ブロックである201~212は夫々同じ構成なので、以下では主に第1のカメラユニットの機能ブロックについて説明する。
図1において、第1のカメラユニット100のレンズ群101は、被写体から入射した光を撮像素子103上に集光する光学系である。前記レンズ群101には、被写体に対するピント合わせを行うフォーカスレンズや、画角を調整するズームレンズ等が含まれる。
The
In FIG. 1, a
前記レンズ群101を通してカメラ内に入ってきた被写体像は赤外線カットフィルタIRCF等の光学フィルタ102を通過し、撮像素子103に入射する。
レンズ群101を介して形成された被写体像は、撮像素子103の受光面に配置された所定のパターンのカラーフィルタを通り、撮像素子103の各画素で光電変換され、アナログの画像信号として出力される。
A subject image entering the camera through the
A subject image formed through the
撮像素子103から出力される画像信号は、AGC(Auto Gain Control)104でゲインコントロールによりレベル調整が行われ、A/D変換部105でデジタル画像信号に変換される。
映像信号処理部106ではA/D変換部105からのデジタル画像信号に所定の処理を施し輝度信号と色信号からなる映像信号を出力すると共に、カメラ制御を行うための各種パラメータを生成する。
An AGC (Auto Gain Control) 104 adjusts the level of an image signal output from the
The video
尚、カメラ制御を行うための各種パラメータとしては、例えば絞りの制御や、ピント合わせの制御、色味を調整するホワイトバランス制御などに使われるパラメータが含まれる。
露出制御部207は、映像信号処理部106から出力されるパラメータとしての輝度情報から撮影画面内の輝度情報を算出し、撮影画像を所望の明るさに調整するように絞りやAGC104を制御する。
Various parameters for camera control include, for example, parameters used for aperture control, focus control, and white balance control for color adjustment.
The
光学制御部108は、ピント合わせ制御のために、映像信号処理部106で作成された映像信号から高周波成分を抜き出す。そして、前記高周波成分の値をフォーカスピント情報(フォーカス評価値)として、前記フォーカス評価値が最大となるように前記レンズ群101を制御する。又、光学制御部108はレンズ群101の焦点距離調整や、輝度レベルに応じて光学フィルタ102の挿抜制御も行う。
The
ブレ補正量演算部109は、角速度センサ215から取得したブレ信号としての角速度情報にデジタルフィルタ等の信号処理をおこなうことでブレ補正量を算出する。そして算出されたブレ補正量に応じて後述の画像メモリ409からの映像の切り出し位置(読出し領域)を変更して電子式ブレ補正を行う。即ち、ブレ補正量演算部109は、複数のカメラユニットにより得られた複数の映像信号のブレ補正を映像信号毎にブレ信号を用いて夫々行うブレ補正工程を実行するためのブレ補正手段として機能している。
A blur correction
映像信号出力部110では電子式ブレ補正された映像を所定のフォーマットで出力し、有線又は無線で通信を行う通信部216を介して表示部217に対して送信すると共に、ブレ残り量算出部111に供給する。
ここで、角速度センサ215は、ブレを検出してブレ信号を出力するブレセンサーとして機能している。しかし、ブレセンサーとしては、例えばブレ残り量算出部111により映像信号中の平均動きベクトルの方向と、平均動きベクトルの量から算出することによってブレ信号を出力するものであっても良い。
尚、表示部217は画像処理装置1000とは別体であっても一体であっても良く、ブレ補正後の複数の映像信号の映像を並べて表示する表示手段として機能している。
The image
Here, the
The
ブレ残り量算出部111は、前記映像信号出力部110から出力された電子式ブレ補正後の映像において、どの程度ブレ残りが発生しているかを算出する。即ち、例えば画面全体の動きベクトルの平均値をブレ残り量とすることができる。
ブレ残り位相取得部112は、前記ブレ残り量算出部111で算出されたブレ残り量を所定の時間間隔でサンプリングし所定期間分記憶し、ブレ残り量の波形信号を生成する。第2のカメラユニットの機能ブロックである201~212においても、第1のカメラユニットの機能ブロックである101~112と同様の動作を行う。
The residual blur
A residual blur
ブレ残り位相差算出部213は、第1のカメラユニットの前記ブレ残り位相取得部112で取得したブレ残り波形信号と第2のカメラユニットのブレ残り位相取得部212で取得したブレ残り量の波形信号を比較する。それによって、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を算出する。ここで、ブレ残り位相差算出部213は、ブレ補正手段によって複数の映像信号のブレ補正を夫々行った後に残ったブレ残りの位相差を取得する位相差取得工程を実行する位相差取得手段として機能している。
The residual blur phase
位相差調整部214は、前記ブレ残り位相差算出部213で算出された、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を基に、どの程度デジタルフィルタの位相を変更するかを算出する。そして、第1のカメラユニットの前記ブレ補正量演算部109で用いているデジタルフィルタ又は、第2のカメラユニットの前記ブレ補正量演算部209で用いているデジタルフィルタの少なくとも一方の位相を変更する。
The phase
即ち、位相差調整部214は、位相差が所定値以上の場合、複数の映像信号のブレ残りの位相を合わせる位相調整工程を実行する位相調整手段として機能している。
尚、実施例1においてはデジタルフィルタ(位相進み又は位相遅れフィルタ)の位相を変更しているが、ブレ補正信号の位相を変更するための遅延回路を設けても良い。
In other words, the phase
Although the phase of the digital filter (phase lead or phase lag filter) is changed in the first embodiment, a delay circuit may be provided to change the phase of the blur correction signal.
尚、図1に示される画像処理装置の複数の機能ブロック(例えば第1のカメラユニット100、第2のカメラユニット200等)は、実施例1では画像処理装置と同じ筐体に内蔵されている。しかし、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成しても良い。
即ち、複数のカメラユニット等は別体でも良く、画像処理装置1000は、例えば複数のカメラユニットからの映像信号を処理する汎用コンピュータやサーバー等であっても良い。
1 (for example, the
That is, the plurality of camera units and the like may be separate units, and the
図2は実施例1における処理を示すフローチャートである。以下、図2を参照して、本発明の実施例1による、第1のカメラユニットと第2のカメラユニットのブレ残りの位相合わせについて説明する。尚、画像処理装置1000に含まれる不図示の制御手段としてのコンピュータに、不図示の記憶媒体としてのメモリに記憶されたコンピュータプログラムを実行させることによって図2のフローチャートの夫々の処理が行われる。図3、図7~図12のフローチャートについても同様である。
FIG. 2 is a flow chart showing processing in the first embodiment. Hereinafter, referring to FIG. 2, phase matching of the residual blur of the first camera unit and the second camera unit according to the first embodiment of the present invention will be described. 2 is executed by causing a computer (not shown) included in the
先ず図2のステップS201において、第1のカメラユニットと第2のカメラユニットのブレ残り量を取得する。即ち、電子式ブレ補正後の映像において、どの程度ブレ残りが発生しているかを、例えば動きベクトル量を用いて算出する。
尚、実施例1では動きベクトル量を用いてブレ残り量を算出しているが、ジャイロ信号を併用してブレ残り量を算出しても良い。
First, in step S201 in FIG. 2, the residual blur amounts of the first camera unit and the second camera unit are acquired. That is, how much residual blur occurs in the image after electronic blur correction is calculated using, for example, the amount of motion vector.
In the first embodiment, the amount of motion vector is used to calculate the amount of residual blur, but the amount of residual blur may be calculated using a gyro signal in combination.
ステップS202において、ステップS201で算出したブレ残り量が所定値以上であるかを判定する。判定した結果、ブレ残り量が所定値以上ではない場合(NO)、第1のカメラユニットと第2のカメラユニットの位相を合わせることをせず図2のフローを終了する。
これは、ブレ残り量が微小である場合には第1のカメラユニットと第2のカメラユニットの位相が異なっていても、各カメラユニットの映像を並べて繋げて表示した時に、繋ぎ目部分のずれが微小であり、目立つことがなく不自然にはならないためである。
In step S202, it is determined whether or not the residual blur amount calculated in step S201 is equal to or greater than a predetermined value. As a result of the determination, if the residual blur amount is not equal to or greater than the predetermined value (NO), the flow of FIG. 2 is terminated without matching the phases of the first camera unit and the second camera unit.
This is because when the remaining amount of blurring is very small, even if the phases of the first camera unit and the second camera unit are different, when the images of the respective camera units are displayed side by side and connected, the joint portion will not be shifted. This is because it is minute and does not stand out and does not look unnatural.
ステップS202で判定した結果、ブレ残り量が所定値以上である場合は(YES)、ステップS201で算出した第1のカメラユニットと第2のカメラユニットのブレ残りの位相差が所定値以上であるかを判定する(ステップS203)。
ステップS203で判定した結果、ブレ残りの位相差が所定値より小さい場合(NO)、第1のカメラユニットと第2のカメラユニットの位相を合わせることをせず図2のフローを終了する。
If the result of determination in step S202 is that the residual blur amount is equal to or greater than the predetermined value (YES), the residual blur phase difference between the first camera unit and the second camera unit calculated in step S201 is equal to or greater than the predetermined value. (step S203).
As a result of the determination in step S203, if the phase difference of the remaining blur is smaller than the predetermined value (NO), the flow of FIG. 2 ends without matching the phases of the first camera unit and the second camera unit.
これは、位相差が微小である場合には、各カメラユニットの映像を並べて繋げて表示した時に、繋ぎ目部分のずれが微小であり、目立つことがなく不自然にはならないためである。
ステップS203で判定した結果、ブレ残りの位相差が所定値以上である場合は(YES)、第1のカメラユニットと第2のカメラユニットのブレ残りの位相を合わせる(ステップS204)。このように、本実施例では位相調整手段は、複数の映像信号のブレ残り量が所定値以上の場合であって位相差が所定値以上の場合に、複数の映像信号のブレ残りの位相を合わせている。しかし、複数の映像信号のブレ残り量が所定値以上でなくても、位相差が所定値以上の場合に、複数の映像信号のブレ残りの位相を合わせても良い。
This is because when the phase difference is minute, when the images of the respective camera units are displayed side by side in a connected manner, the gaps at the seams are minute and do not stand out and do not look unnatural.
As a result of determination in step S203, if the residual blur phase difference is equal to or greater than the predetermined value (YES), the residual blur phases of the first camera unit and the second camera unit are matched (step S204). As described above, in this embodiment, the phase adjusting means adjusts the phases of the remaining blurring of the plurality of video signals when the remaining blurring amounts of the plurality of video signals are equal to or greater than a predetermined value and the phase difference is equal to or greater than a predetermined value. Matching. However, even if the residual blur amounts of the plurality of video signals are not equal to or greater than the predetermined value, the residual blur phases of the plurality of video signals may be matched when the phase difference is equal to or greater than the predetermined value.
図3は図2のステップS203の詳細を説明するフローチャートである。
以下、図3を参照して、ブレ残りの位相を合わせる詳細フローについて説明する。
先ず、図3のS301において、第1のカメラユニットと第2のカメラユニットのブレ残りの波形信号を取得する。
各カメラユニットのブレ残り量を所定の時間間隔でサンプリングし所定期間分記憶しておくことで、ブレ残りの波形信号を生成する。所定の時間間隔や所定期間は、撮像時間やシステム周波数やブレの周波数に応じて適宜変更する。
FIG. 3 is a flow chart explaining the details of step S203 in FIG.
Hereinafter, a detailed flow for aligning the phase of the residual blur will be described with reference to FIG. 3 .
First, in S301 of FIG. 3, the residual waveform signals of the first camera unit and the second camera unit are acquired.
By sampling the amount of residual blur of each camera unit at predetermined time intervals and storing it for a predetermined period of time, a waveform signal of the residual blur is generated. The predetermined time interval and the predetermined period are appropriately changed according to the imaging time, system frequency, and blur frequency.
ステップS302において、ステップS301で取得した第1のカメラユニットのブレ残りの波形信号と第2のカメラユニットのブレ残りの波形信号を比較し、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を算出する。
ステップS303において、ステップS302で算出した位相差が所定値以上であるかを判定する。ステップS303で判定した結果、ブレ残りの位相差が所定値以上でない場合(NO)、第1のカメラユニットと第2のカメラユニットの位相を合わせることをせず図3のフローを終了する。
In step S302, the waveform signal of the residual blur of the first camera unit and the waveform signal of the residual blur of the second camera unit acquired in step S301 are compared, and the waveform signal of the residual blur of the first camera unit and the residual blur of the second camera unit are compared. Calculate the phase difference of
In step S303, it is determined whether the phase difference calculated in step S302 is equal to or greater than a predetermined value. As a result of determination in step S303, if the residual blur phase difference is not equal to or greater than the predetermined value (NO), the flow of FIG. 3 ends without matching the phases of the first camera unit and the second camera unit.
ステップS303で判定した結果、ブレ残りの位相差が所定値以上である場合は(YES)、第1のカメラユニットのブレ補正量演算部109のブレ補正信号の位相を変更する(ステップS304)。
As a result of determination in step S303, if the residual blur phase difference is equal to or greater than the predetermined value (YES), the phase of the blur correction signal of the blur
図4はブレ補正量演算部の詳細な構成例を示すブロック図である。
図1のブレ補正量演算部109、209は、画像処理装置に発生した揺れを、角速度センサ215から角速度信号として取得し、取得した角速度情報をA/D変換部402によってデジタル信号として出力する。
ゲイン調整部403は、A/D変換部402によって出力されたデジタル信号に所定の係数を乗算することでデジタル信号の振幅調整をおこなう。
FIG. 4 is a block diagram showing a detailed configuration example of the blur correction amount calculation unit.
The shake correction
The
位相進みフィルタ404は、デジタル信号の位相を進めるためのフィルタであり、HPF405は、所定の周波数帯域でフィルタリングをおこなう。
位相遅れフィルタ406は、HPF405によりフィルタリングされた信号に対して、位相を遅らせるためのフィルタである。焦点距離演算部407は、レンズ群101の焦点距離情報を光学制御部108から取得し、焦点距離に応じたブレ補正量になるように信号の大きさを調整する。
A
積分処理部408は、焦点距離演算部407で算出された信号に対して、LPF等を用いて積分をおこなうことで、最終的なブレ補正量を算出する。
画像メモリ409は映像信号処理部106からの映像信号を一時的に記憶するメモリである。
切り出し位置変更部410は積分処理部408から得られたブレ補正量及びブレ方向情報に基づき、画像メモリ409に記憶された画像の切り出し位置を変更することで映像中のブレを補正する。ブレの補正された映像は後段の映像信号出力部110に供給される。
An
An
A clipping
図3のステップS304では、位相差調整部214の出力に基づき図4の位相進みフィルタ404又は位相遅れフィルタ406の少なくとも一方を変更することで第1のカメラユニットのブレ補正信号の位相を変更している。しかし、前述のようにブレ補正信号の位相を変更するための遅延回路等を別途設けても良い。このように実施例1では、複数の映像信号の少なくとも1つのブレ補正を行うためのブレ信号の位相を調整することで、複数の映像信号のブレ残りの位相を合わせている。
In step S304 of FIG. 3, the phase of the blur correction signal of the first camera unit is changed by changing at least one of the
ステップS305では、第1のカメラユニットのデジタルフィルタのブレ補正信号の位相を変更した後の第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を再度算出する。算出の方法は、ステップS301とステップS302でおこなった方法と同様とする。
ステップS305で算出した各カメラユニットのブレ残りの位相差と、ステップS304で第1のカメラユニットのデジタルフィルタを変更する前に、ステップS302で算出した各カメラユニットのブレ残りの位相差と比較する。それによって、各カメラユニットの位相差が減少しているかを判定する(ステップS306)。
In step S305, the residual phase difference between the first camera unit and the second camera unit after changing the phase of the blur correction signal of the digital filter of the first camera unit is calculated again. The calculation method is the same as the method used in steps S301 and S302.
Before changing the digital filter of the first camera unit in step S304, the residual blur phase difference of each camera unit calculated in step S305 is compared with the residual blur phase difference of each camera unit calculated in step S302. . Accordingly, it is determined whether the phase difference of each camera unit has decreased (step S306).
ステップS306で判定した結果、各カメラユニットの位相差が減少している場合は(YES)、そのまま何もせず図3のフローを終了する。
ステップS306で判定した結果、各カメラユニットの位相差が減少していない場合は(NO)、ステップS307に進む。そしてステップS307において、第2のカメラユニットのブレ補正量演算部209における位相進みフィルタ、又は位相遅れフィルタの少なくとも一方を変更することでブレ補正信号の位相を変更する(ステップS307)。
As a result of determination in step S306, if the phase difference of each camera unit has decreased (YES), nothing is done and the flow of FIG. 3 ends.
If the phase difference of each camera unit has not decreased as a result of determination in step S306 (NO), the process proceeds to step S307. Then, in step S307, the phase of the blur correction signal is changed by changing at least one of the phase lead filter and the phase lag filter in the blur
上記では、第1のカメラユニットのブレ補正信号の位相を先に変更したが、第2のカメラユニットのブレ補正信号の位相を先に変更しても良い。
このように本実施例では、位相差が所定値以上の場合、複数の映像信号の内の1つの映像信号のブレ残りの位相を調整すると共に、調整後に前記ブレ残りが所定値以上ある場合には更に複数の映像信号の内の他の映像信号のブレ残りの位相を調整している。
In the above, the phase of the blur correction signal of the first camera unit is changed first, but the phase of the blur correction signal of the second camera unit may be changed first.
As described above, in this embodiment, when the phase difference is equal to or greater than a predetermined value, the phase of one of the plurality of video signals is adjusted. further adjusts the phase of the residual blur of the other video signal among the plurality of video signals.
図5はブレ残りの波形信号例を示す図である。
図5の点線で描かれた波形信号は、第1のカメラユニットのブレ残りの波形信号を示し、図5の実線で描かれた波形信号は、第2のカメラユニットのブレ残りの波形信号を示す。
第1のカメラユニット又は第2のカメラユニットのデジタルフィルタを変更することで、図5(A)のように各カメラユニットで位相がずれていた波形信号が、図5(B)のように位相が揃った波形信号となる。
FIG. 5 is a diagram showing an example of a waveform signal of the remaining blur.
A waveform signal drawn with a dotted line in FIG. 5 indicates a waveform signal of residual blur of the first camera unit, and a waveform signal drawn with a solid line of FIG. 5 indicates a waveform signal of residual blur of the second camera unit. show.
By changing the digital filter of the first camera unit or the second camera unit, the phase shift of the waveform signal in each camera unit as shown in FIG. becomes a uniform waveform signal.
図6は、表示部217によって第1のカメラユニットと第2のカメラユニットの映像を並べて繋げて表示した図である。図6のように、各カメラユニットのブレ残りの位相差を合わせなかった場合、図6上図の点線部分ように繋ぎ目部分がずれてしまい不自然な映像になってしまう。
一方、本実施例によれば、各カメラユニットのブレ残りの位相差を合わせることで、図6下図のように繋ぎ目部分がずれることなく自然な映像にすることができる。
FIG. 6 is a diagram in which the images of the first camera unit and the second camera unit are displayed side by side by the
On the other hand, according to the present embodiment, by matching the phase difference of the residual blur of each camera unit, it is possible to obtain a natural image without shifting the joint portion as shown in the lower diagram of FIG.
以下、図7を参照して、本発明の実施例2について説明する。
図7は実施例2の処理フローを示すフローチャートである。ステップS701~S703、S705、S706は図3のステップS301~ステップS303、S305、S306と同じである。
先ず、図7のステップS701において、第1のカメラユニットと第2のカメラユニットのブレ残りの波形信号を取得する。ブレ残りの波形信号の取得方法は、実施例1の図3のフローチャートのステップS301における方法と同様で良い。
A second embodiment of the present invention will be described below with reference to FIG.
FIG. 7 is a flow chart showing the processing flow of the second embodiment. Steps S701 to S703, S705 and S706 are the same as steps S301 to S303, S305 and S306 in FIG.
First, in step S701 in FIG. 7, the waveform signals of the residual blur of the first camera unit and the second camera unit are acquired. A method for acquiring the waveform signal of the remaining blur may be the same as the method in step S301 of the flowchart in FIG. 3 of the first embodiment.
ステップS701で取得した各カメラユニットのブレ残りの波形信号を比較することで、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を算出する(ステップS702)。
ステップS703において、ステップS702で算出した位相差が所定値以上であるかを判定する。ステップS703で判定した結果、ブレ残りの位相差が所定値以上でない場合(NO)、第1のカメラユニットと第2のカメラユニットの位相を合わせることをせず図7のフローを終了する。
By comparing the residual blur waveform signals of the respective camera units acquired in step S701, the residual blur phase difference between the first camera unit and the second camera unit is calculated (step S702).
In step S703, it is determined whether the phase difference calculated in step S702 is equal to or greater than a predetermined value. As a result of determination in step S703, if the residual blur phase difference is not equal to or greater than the predetermined value (NO), the flow in FIG. 7 ends without matching the phases of the first camera unit and the second camera unit.
ステップS703で判定した結果、ブレ残りの位相差が所定値以上である場合は(YES)、第1のカメラユニットの撮像タイミングを変更する(ステップS704)。
ステップS705では、第1のカメラユニットの撮像タイミングを変更した後の第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を再度算出する。算出の方法は、ステップS701とステップS702でおこなった方法と同様とする。
As a result of determination in step S703, if the phase difference of the residual blur is equal to or greater than the predetermined value (YES), the imaging timing of the first camera unit is changed (step S704).
In step S705, the residual phase difference between the first camera unit and the second camera unit after changing the imaging timing of the first camera unit is calculated again. The calculation method is the same as that used in steps S701 and S702.
ステップS705で算出した各カメラユニットのブレ残りの位相差と、ステップS702で算出した各カメラユニットのブレ残りの位相差と比較することで、各カメラユニットの位相差が減少しているかを判定する(ステップS706)。
ステップS706で判定した結果、各カメラユニットの位相差が減少している場合は(YES)、そのまま何もせず終了する。
By comparing the residual blur phase difference of each camera unit calculated in step S705 with the residual blur phase difference of each camera unit calculated in step S702, it is determined whether the phase difference of each camera unit has decreased. (Step S706).
As a result of determination in step S706, if the phase difference of each camera unit has decreased (YES), nothing is done and the process ends.
ステップS706で判定した結果、各カメラユニットの位相差が減少していない場合は(NO)、第2のカメラユニットの撮像タイミングを変更する(ステップS707)。
上記では、第1のカメラユニットの撮像タイミングを先に変更したが、第2のカメラユニットの撮像タイミングを先に変更しても良い。
このように、実施例2においては、位相調整手段は、複数のカメラユニットの少なくとも1つの撮像タイミングを調整することにより複数の映像信号のブレ残りの位相を合わせている。
As a result of determination in step S706, if the phase difference of each camera unit has not decreased (NO), the imaging timing of the second camera unit is changed (step S707).
In the above description, the imaging timing of the first camera unit is changed first, but the imaging timing of the second camera unit may be changed first.
As described above, in the second embodiment, the phase adjusting means adjusts the phases of the residual blurs of the plurality of video signals by adjusting the imaging timing of at least one of the plurality of camera units.
図8は実施例3における処理を示すフローチャートである。図8において、ステップS801~S803、S805、S806は図7のステップS701~S703、S705、S706と同じであるので説明は一部省略する。
実施例3においては、各カメラユニットの位相を合わせるために角速度センサの出力であるジャイロ信号のサンプリングタイミングを変更する。
FIG. 8 is a flow chart showing processing in the third embodiment. In FIG. 8, steps S801 to S803, S805, and S806 are the same as steps S701 to S703, S705, and S706 in FIG. 7, so description thereof is partially omitted.
In the third embodiment, the sampling timing of the gyro signal, which is the output of the angular velocity sensor, is changed in order to match the phases of the camera units.
即ち、図8では第1のカメラユニットと第2のカメラユニットのブレ残りの位相差をステップS803で判定した結果、ブレ残りの位相差が所定値以上である場合は(YES)、ステップS804に進む。そして、ステップS804で、第1のカメラユニットのブレ信号としてのジャイロ信号を取得するサンプリングタイミングを変更することで、各カメラユニット間の相差を合わせる(ステップS804) That is, in FIG. 8, as a result of determining the phase difference of the residual blur between the first camera unit and the second camera unit in step S803, if the phase difference of the residual blur is equal to or greater than a predetermined value (YES), the process proceeds to step S804. move on. Then, in step S804, by changing the sampling timing for acquiring the gyro signal as the shake signal of the first camera unit, the phase difference between each camera unit is adjusted (step S804).
更にステップS806で位相差が減少していない場合にはステップS807で第2のカメラユニットのジャイロ信号を取得するサンプリングタイミングを変更する。
このように、実施例3では、複数の映像信号の少なくとも1つのブレ補正を行うための前記ブレ信号としての角速度センサの出力のサンプリングタイミングを変更することで複数の映像信号のブレ残りの位相を合わせている。
Furthermore, if the phase difference has not decreased in step S806, the sampling timing for acquiring the gyro signal of the second camera unit is changed in step S807.
As described above, in the third embodiment, by changing the sampling timing of the output of the angular velocity sensor as the blurring signal for performing blur correction of at least one of the plurality of video signals, the remaining phase of the blurring of the plurality of video signals can be adjusted. Matching.
図9は実施例4における処理を示すフローチャートである。図9において、ステップS901~S903、S905、S906は図8のステップS801~S803、S805、S806と同じであるので説明は一部省略する。
実施例4においては、各カメラユニットの位相を合わせるために撮像時間を変更する。ここで撮像時間は、メカ的なシャッタのシャッタスピードを変更することによって変更しても良いし、撮像素子の蓄積時間を変更することによって変更しても良い。或いは両者を組み合わせて変更しても良い。
FIG. 9 is a flow chart showing processing in the fourth embodiment. In FIG. 9, steps S901 to S903, S905, and S906 are the same as steps S801 to S803, S805, and S806 in FIG. 8, so description thereof is partially omitted.
In Example 4, the imaging time is changed in order to match the phase of each camera unit. Here, the imaging time may be changed by changing the shutter speed of a mechanical shutter, or may be changed by changing the accumulation time of the image sensor. Alternatively, both may be combined and changed.
図9においては、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差をステップS903で判定した結果、ブレ残りの位相差が所定値以上である場合は(YES)、ステップS904に進む。そしてステップS904において、第1のカメラユニットの撮像時間を変更することで、各カメラユニット間の位相差を合わせる(ステップS904)。 In FIG. 9, as a result of determining the phase difference of the residual blur between the first camera unit and the second camera unit in step S903, if the phase difference of the residual blur is equal to or greater than a predetermined value (YES), the process proceeds to step S904. move on. Then, in step S904, by changing the imaging time of the first camera unit, the phase difference between each camera unit is matched (step S904).
更にステップS906で位相差が減少していない場合にはステップS907において、第2のカメラユニットの撮像時間を変更することで、各カメラユニット間の位相差を合わせる。
このように、実施例4においては、位相調整手段は、複数のカメラユニットの少なくとも1つの撮像時間を調整することにより複数の映像信号のブレ残りの位相を合わせている。
Furthermore, if the phase difference has not decreased in step S906, then in step S907 the imaging time of the second camera unit is changed to match the phase difference between the camera units.
As described above, in the fourth embodiment, the phase adjusting means adjusts the phases of the residual blurs of the plurality of video signals by adjusting the imaging time of at least one of the plurality of camera units.
図10は実施例5における処理を示すフローチャートである。
実施例1~4では、各カメラユニットのブレ残りの位相差を合わせるために、ブレ補正信号の位相や撮像タイミングや撮像時間のみを変更した。しかし実施例5では、ブレ残りの位相差に応じて、撮像タイミングとブレ補正信号の位相をともに変更する。
FIG. 10 is a flow chart showing processing in the fifth embodiment.
In Examples 1 to 4, only the phase of the blur correction signal, the imaging timing, and the imaging time were changed in order to match the phase difference of the residual blur of each camera unit. However, in the fifth embodiment, both the imaging timing and the phase of the blur correction signal are changed according to the phase difference of the residual blur.
先ずステップS1001において、第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を算出する。そしてステップS1002において、算出された位相差が第1の閾値(Th1)以上であるかを判定する。
ステップS1002で判定した結果、位相差が第1の閾値以上ではない場合(NO)、ステップS1005に進む。
First, in step S1001, the residual phase difference between the first camera unit and the second camera unit is calculated. Then, in step S1002, it is determined whether the calculated phase difference is greater than or equal to the first threshold (Th1).
As a result of determination in step S1002, if the phase difference is not equal to or greater than the first threshold (NO), the process proceeds to step S1005.
一方、ステップS1002で判定した結果、位相差が第1の閾値以上である場合(YES)、ステップS1003において第1のカメラユニット又は第2のカメラユニットの撮像タイミングを最初に変更する。
ステップS1003で撮像タイミングを変更した後、ステップS1004において第1のカメラユニットと第2のカメラユニットのブレ残りの位相差を再度算出し、ステップS1005に進む。
On the other hand, if the result of determination in step S1002 is that the phase difference is equal to or greater than the first threshold (YES), then in step S1003 the imaging timing of the first camera unit or the second camera unit is changed first.
After the imaging timing is changed in step S1003, the residual phase difference between the first camera unit and the second camera unit is calculated again in step S1004, and the process proceeds to step S1005.
ステップS1005ではブレ残りの位相差が第1の閾値以下かつ第2の閾値(Th2)以上かつ第1の閾値(Th1)未満になっているかを判定する(ステップS1005)。ここで、Th2<Th1とする。
ステップS1005で判定した結果、ブレ残りの位相差が第2の閾値以上かつ第1の閾値未満である場合(YES)、ステップS1006に進む。そしてステップS1006において、第1のカメラユニット又は第2のカメラユニットのブレ補正で用いるデジタルフィルタによりブレ補正信号の位相を変更する。
ステップS1005でNOの場合には、そのまま何もせず図10のフローを終了する。
In step S1005, it is determined whether the phase difference of the remaining blur is equal to or less than the first threshold, equal to or more than the second threshold (Th2), and less than the first threshold (Th1) (step S1005). Here, Th2<Th1.
If the result of determination in step S1005 is that the phase difference of the residual blur is greater than or equal to the second threshold and less than the first threshold (YES), the process proceeds to step S1006. Then, in step S1006, the phase of the blur correction signal is changed by the digital filter used in the blur correction of the first camera unit or the second camera unit.
If NO in step S1005, nothing is done and the flow of FIG. 10 ends.
図11は実施例6における処理を示すフローチャートである。
実施例1~5では、隣接表示をするためのカメラユニットの数が2つの場合を例として説明したが、実施例6では隣接表示をするためのカメラユニットの数が3つ以上の場合、どのカメラユニットを主として位相を合わせるかを決定する。
先ずステップS1101では、隣接表示を行うためのカメラユニット数を取得する。取得したカメラユニットの数が3つ以上であるかを判定し(ステップS1102)、判定した結果、カメラユニット数が3つ以上ではない場合(NO)、そのまま何も処理をせず図11のフローを終了する。
FIG. 11 is a flow chart showing processing in the sixth embodiment.
In Examples 1 to 5, the case where the number of camera units for adjacent display is two has been described as an example, but in Example 6, when the number of camera units for adjacent display is three or more, which Determines whether the camera unit is mainly used for phase matching.
First, in step S1101, the number of camera units for adjacent display is obtained. It is determined whether or not the number of acquired camera units is 3 or more (step S1102), and as a result of determination, if the number of camera units is not 3 or more (NO), no processing is performed as it is and the flow of FIG. 11 is performed. exit.
ステップS1102で判定した結果、カメラユニット数が3つ以上である場合(YES)、画像内に人物が映っているカメラユニットが存在するかを判定する(ステップS1003)。
ステップS1103で判定した結果、画像内に人物が映っているカメラユニットが存在する場合(YES)、画像内に人物が映っているカメラユニットに位相を合わせるように、他のカメラユニットの位相を調整する(ステップS1104)。
If the result of determination in step S1102 is that the number of camera units is three or more (YES), it is determined whether there is a camera unit in which a person is captured in the image (step S1003).
If the result of determination in step S1103 is that there is a camera unit in which a person is captured in the image (YES), the phases of other camera units are adjusted so as to match the phase with the camera unit in which a person is captured in the image. (step S1104).
ステップS1103で判定した結果、画像内に人物が映っているカメラユニットが存在しない場合、そのまま何も処理をせず終了する。尚、実施例6では3つ以上のカメラユニットの映像を隣接表示する場合に、人物が映っているカメラユニットに他のカメラユニットの位相を合わせるようにした。しかし、予め特定の被写体を指定した場合には、その特定の被写体が映っているカメラユニットの位相に他のカメラユニットの位相を合わせるようにしても良い。 If the result of determination in step S1103 is that there is no camera unit in which a person is captured in the image, the process ends without performing any processing. In the sixth embodiment, when the images of three or more camera units are displayed adjacently, the phases of the other camera units are adjusted to the camera unit in which the person is captured. However, when a specific subject is designated in advance, the phase of another camera unit may be matched with the phase of the camera unit in which the specific subject is captured.
更に、2つのカメラユニットの映像を隣接表示する場合においても、特定の被写体が映っているカメラユニットの位相に他のカメラユニットの位相を合わせるようにしても良い。
このように、本実施例では、位相調整手段は、位相差が所定値以上の場合、複数の映像信号の内の1つの映像信号のブレ残りの位相に合わせて他の映像信号のブレ残りの位相を調整している。しかも、複数の映像信号の内の所定の被写体が映っている映像信号のブレ残りの位相に合わせて他の映像信号のブレ残りの位相を調整している。
Furthermore, even when the images of two camera units are displayed adjacently, the phase of the other camera unit may be adjusted to the phase of the camera unit in which the specific subject is captured.
As described above, in this embodiment, when the phase difference is equal to or greater than a predetermined value, the phase adjustment means adjusts the phase of the residual blur of the other video signal in accordance with the phase of the residual blur of one of the plurality of video signals. adjusting the phase. Moreover, the residual blur phases of the other video signals are adjusted in accordance with the phase of the residual blur of the video signal in which the predetermined subject is shown among the plurality of video signals.
図12は実施例7における処理を示すフローチャートである。
実施例7では、カメラユニットに発生しているブレ(振動)の周波数をブレセンサーとしての角速度センサ215等で検出し、その周波数に応じて、位相合わせの強度を変更する。
先ずステップS1201において、カメラユニットに発生しているブレ(振動)の周波数検出をブレセンサーとしての角速度センサ215等から得られたブレ信号に基づきおこなう。ステップS1201において、検出されたブレ(振動)の周波数が所定の周波数以下かを判定する(ステップS1202)。
ステップS1202で判定した結果、検出されたブレ(振動)の周波数が所定の周波数以下である場合(YES)、ステップS1203において、位相を合わせる度合いを大きくする。即ち、より位相が合うようにする。
一方、ステップS1202で判定した結果、検出されたブレ(振動)の周波数が所定の周波数より大きい場合(NO)、ステップS1204において、位相を合わせる度合いを小さくする。
FIG. 12 is a flow chart showing processing in the seventh embodiment.
In the seventh embodiment, the frequency of shake (vibration) occurring in the camera unit is detected by the
First, in step S1201, frequency detection of blurring (vibration) occurring in the camera unit is performed based on a blurring signal obtained from the
If the result of determination in step S1202 is that the frequency of the detected shaking (vibration) is equal to or less than the predetermined frequency (YES), the degree of phase matching is increased in step S1203. That is, the phases are made to match more.
On the other hand, if the frequency of the detected shake (vibration) is greater than the predetermined frequency as a result of determination in step S1202 (NO), the degree of phase matching is decreased in step S1204.
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。 The present invention has been described in detail above based on its preferred embodiments, but the present invention is not limited to the above embodiments, and various modifications are possible based on the gist of the present invention. They are not excluded from the scope of the invention.
尚、本実施例における制御の一部又は全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理装置等に供給するようにしてもよい。そしてその画像処理装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。 It should be noted that a computer program that implements the functions of the above-described embodiments for part or all of the control in this embodiment may be supplied to an image processing apparatus or the like via a network or various storage media. A computer (or CPU, MPU, etc.) in the image processing apparatus or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.
1000 画像処理装置
100 第1のカメラユニット
200 第2のカメラユニット
109 ブレ補正量演算部
111 ブレ残り量算出部
112 ブレ残り位相取得部
213 ブレ残り位相差算出部
214 位相差調整部
215 角速度センサ
1000
Claims (17)
前記ブレ補正手段によって前記複数の映像信号のブレ補正を夫々行った後に残ったブレ残りの位相差を取得する位相差取得手段と、
前記位相差が所定値以上の場合、前記複数の映像信号の前記ブレ残りの位相を合わせる位相調整手段と、を有することを特徴とする画像処理装置。 blur correction means for respectively performing blur correction on a plurality of video signals obtained by a plurality of camera units;
phase difference acquisition means for acquiring a phase difference of a residual blur remaining after each of the plurality of video signals is subjected to blur correction by the blur correction means;
and phase adjusting means for adjusting the phases of the blur residue of the plurality of video signals when the phase difference is equal to or greater than a predetermined value.
前記ブレ補正手段は、前記複数の映像信号毎に前記ブレセンサーから得られた前記ブレ信号を用いてブレ補正を行うことを特徴とする請求項1~3のいずれか1項に記載の画像処理装置。 Furthermore, it has a blurring sensor that detects blurring and outputs a blurring signal,
4. The image processing according to claim 1, wherein said blur correction means performs blur correction using said blur signal obtained from said blur sensor for each of said plurality of video signals. Device.
前記ブレセンサーにより出力されるブレ信号の周波数に応じて、位相差を合わせる度合いを変更することを特徴とする請求項1に記載の画像処置装置。 Furthermore, it has a blurring sensor that detects blurring and outputs a blurring signal,
2. The image processing apparatus according to claim 1, wherein the degree of matching the phase difference is changed according to the frequency of the shake signal output from the shake sensor.
前記ブレ補正工程によって前記複数の映像信号のブレ補正を夫々行った後に残ったブレ残りの位相差を取得する位相差取得工程と、
前記位相差が所定値以上の場合、前記複数の映像信号の前記ブレ残りの位相を合わせる位相調整工程と、を有することを特徴とする画像処理方法。 a blur correction step of performing blur correction on each of a plurality of video signals obtained by a plurality of camera units;
a phase difference acquisition step of acquiring a phase difference of a residual blur remaining after performing blur correction on each of the plurality of video signals by the blur correction step;
and a phase adjustment step of matching the phases of the blur residue of the plurality of video signals when the phase difference is equal to or greater than a predetermined value.
A computer program for controlling each means of the image processing apparatus according to any one of claims 1 to 15 by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/842,048 US20220408022A1 (en) | 2021-06-22 | 2022-06-16 | Image processing apparatus, image processing method, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021102904 | 2021-06-22 | ||
JP2021102904 | 2021-06-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023002445A true JP2023002445A (en) | 2023-01-10 |
Family
ID=84797728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022006392A Pending JP2023002445A (en) | 2021-06-22 | 2022-01-19 | Image processing device, image processing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023002445A (en) |
-
2022
- 2022-01-19 JP JP2022006392A patent/JP2023002445A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100886298B1 (en) | Image processor and recording medium for storing a image processing program | |
CN104065868B (en) | Image capture apparatus and control method thereof | |
JP4401949B2 (en) | Moving picture imaging apparatus and moving picture imaging method | |
JP5226600B2 (en) | Image deformation apparatus and operation control method thereof | |
JP6062656B2 (en) | Imaging apparatus, control method, and program | |
JP2008129554A (en) | Imaging device and automatic focusing control method | |
JP2009284394A (en) | Imaging apparatus and imaging method | |
JP2008172310A (en) | Electronic hand blurring correction method, device and program, and imaging apparatus | |
JP4125331B2 (en) | Imaging apparatus and control method thereof | |
JP2008277896A (en) | Imaging device and imaging method | |
JP6932531B2 (en) | Image blur correction device, image pickup device, control method of image pickup device | |
JP2006080844A (en) | Electronic camera | |
JP5149861B2 (en) | Intermediate image generation apparatus and operation control method thereof | |
JP4844220B2 (en) | Exposure compensation device, photographing device, exposure value setting device, exposure compensation value calculation method, and control program | |
JP4264554B2 (en) | Imaging device | |
JP2015233211A (en) | Imaging apparatus, control method thereof, and program | |
JP2005303933A (en) | Imaging pickup device | |
JP2023002445A (en) | Image processing device, image processing method, and computer program | |
JP2015095670A (en) | Imaging apparatus, control method thereof and control program | |
JP6157274B2 (en) | Imaging apparatus, information processing method, and program | |
JP2022083147A (en) | Imaging apparatus, imaging method, program, and recording medium | |
JP6762843B2 (en) | Image processing equipment, image processing methods, and programs | |
US20220408022A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP7214424B2 (en) | Imaging device and its control method | |
JP2008172309A (en) | Electronic hand blurring correction method, device and program and imaging apparatus |