JP2001298657A - Image forming method and image forming device - Google Patents

Image forming method and image forming device

Info

Publication number
JP2001298657A
JP2001298657A JP2000114494A JP2000114494A JP2001298657A JP 2001298657 A JP2001298657 A JP 2001298657A JP 2000114494 A JP2000114494 A JP 2000114494A JP 2000114494 A JP2000114494 A JP 2000114494A JP 2001298657 A JP2001298657 A JP 2001298657A
Authority
JP
Japan
Prior art keywords
image
distance
block
difference
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000114494A
Other languages
Japanese (ja)
Inventor
Teiichi Okochi
禎一 大河内
寿男 ▲福▼井
Toshio Fukui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AICHI GAKUIN
Original Assignee
AICHI GAKUIN
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AICHI GAKUIN filed Critical AICHI GAKUIN
Priority to JP2000114494A priority Critical patent/JP2001298657A/en
Publication of JP2001298657A publication Critical patent/JP2001298657A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To photograph the objects at different distances and to form a clear image of every object. SOLUTION: The images focused on the objects P, T and M set at the short, medium and long distances are formed by the CCD 8, 9 and 10 respectively and stored in a memory. Each of these focused and photographed images of different distances is fractionated into plural blocks and a difference waveform, i.e., the difference between the luminance value and its movement mean value is formed in each block to the image of every distance. On the basis of difference waveforms, the clearest one of image blocks of every distance is decided and the clearest image blocks of every distance are connected together into the image of each object. In such a constitution, the accurate definition can be decided even with a small object that is not main and has no conspicuous outline or even when the miscellaneous beams are included in the blocks.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、映像形成方法及び
装置、特にそれぞれ異る距離にある複数の被写体を撮像
し、各被写体に対して合焦した(ピントの合った)映像
を形成する映像形成方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image forming method and apparatus, and more particularly, to an image forming a plurality of objects at different distances and forming in-focus images. The present invention relates to a forming method and an apparatus.

【0002】[0002]

【従来の技術】ビデオカメラで被写体を撮影し、テレビ
等のモニターで表示する場合当然のことながら合焦像は
撮影レンズの共役物点のみであり、それ以外の物体像は
ボケてしまう。たとえば、比較的焦点距離の長いレンズ
を用いている時、近景の被写体の人物を撮影し、それに
合焦すれば得られた遠景にある背景像はボケて写し出さ
れる。又、背景に合焦すれば近景の被写体の人物はボケ
た像になってしまう。
2. Description of the Related Art When a subject is photographed by a video camera and displayed on a monitor such as a television, the focused image is only the conjugate point of the photographing lens, and other object images are blurred. For example, when a lens having a relatively long focal length is used, a person in the foreground is photographed, and if it is focused on, the background image in the distant view obtained is blurred. In addition, if the background is focused, the person of the foreground subject becomes a blurred image.

【0003】近景および遠景の被写体全てにピントを合
せるためには、焦点距離の短い(広角の)レンズを用い
ることが考えられるが、この場合には、画角ないし倍率
が用途に適さないことがあり、あらゆる場面で利用でき
る解決方法とはいえない。また、絞り値を大きく取るこ
とも考えられるが、この場合も光量との兼ねあいで、や
はりあらゆる場面で利用できる解決方法とはいえない。
In order to focus on all the objects in the near and distant views, it is conceivable to use a lens with a short focal length (wide angle). In this case, however, the angle of view or magnification may not be suitable for the application. Yes, and not a solution that can be used in every situation. It is also conceivable to increase the aperture value. However, in this case, it cannot be said that this is a solution that can be used in all situations because of the amount of light.

【0004】[0004]

【発明が解決しようとする課題】このため、同一光学系
で焦点を遂次ずらして画像メモリに入力して、後で画像
処理して全エリアについて焦点が合うように画像合成を
行なうことが提案されている。
For this reason, it has been proposed to sequentially shift the focus by the same optical system and input the result to an image memory, and then to process the image later to perform image synthesis so that all areas are in focus. Have been.

【0005】あるいは、例えば近距離、中距離(それに
遠距離)に合焦した2つ(あるいは3つ)の独立した撮
影系を使ってそれぞれの被写体を撮影して後で近距離、
中距離(それに遠距離)にピントのあった映像を抽出し
て合成する方式も考えられている。例えば、特開平3−
80676号公報には、異なる距離にピントのあった各
映像をそれぞれ複数の領域に分割し、各分割された領域
で高周波成分が最大となる領域を各映像から抽出し、そ
れを合成することにより各距離で合焦した映像を得てい
る。
[0005] Alternatively, for example, each subject is photographed using two (or three) independent photographing systems focused on a short distance, a medium distance (and a long distance), and then a short distance,
A method of extracting and synthesizing an image focused on a medium distance (and a long distance) has also been considered. For example, JP-A-3-
Japanese Patent No. 80676 discloses that each image focused at different distances is divided into a plurality of regions, and a region where the high-frequency component is maximum in each divided region is extracted from each image and synthesized. The in-focus image is obtained at each distance.

【0006】しかしながら、このように高周波成分の多
い領域を各映像から抽出して合成する場合は、例えば分
割された領域に輪郭が際立った小さな被写体が遠距離に
あったり、あるいは雑光があると、実際には分割領域は
近距離にピントが合っているにもかかわらず、遠距離の
領域を抽出して映像が合成されてしまい、すべての距離
にわたって良好な合焦像を得ることができない。これ
は、例えば映像画面の分割数を増大することによりある
程度解決できるが、分割数を多くすると、それだけ画像
処理も増大し、また分割数を増大すると、被写体が不必
要に小さな領域に細分されてしまい、逆効果になってし
まう、という問題がある。
However, in the case of extracting and synthesizing an area having a large number of high-frequency components from each image as described above, for example, if a small subject having a conspicuous contour is located at a long distance in a divided area, or there is noise, In fact, although the divided area is in focus at a short distance, a video image is synthesized by extracting a long distance area, and a good focused image cannot be obtained over all distances. This can be solved to some extent, for example, by increasing the number of divisions of the video screen. However, if the number of divisions is increased, the image processing is also increased, and if the number of divisions is increased, the subject is subdivided into an unnecessary small area. That is, there is a problem that the effect is reversed.

【0007】従って、本発明は、このような問題点を解
決するためになされたもので、異る距離にある被写体に
合焦した複数の映像を容易にしかも正確に合成して異る
距離にある各被写体の鮮明な映像を得ることが可能な映
像形成方法及び装置を提供することをその課題とする。
Accordingly, the present invention has been made to solve such a problem, and a plurality of images focused on objects at different distances can be easily and accurately synthesized at different distances. An object of the present invention is to provide an image forming method and apparatus capable of obtaining a clear image of a certain subject.

【0008】[0008]

【課題を解決するための手段】本発明は、異る複数の距
離にある被写体をそれぞれ撮像して被写体の映像を形成
する映像形成方法及び装置において、各距離にある被写
体を合焦して撮像すること、合焦して撮像された各距離
の映像をそれぞれ複数のブロックに細分して各ブロック
ごとに輝度値とその移動平均値との差である差波形を各
距離の映像に対して形成すること、前記各距離の映像の
差波形に基づき各距離の映像ブロックのうち最も鮮明な
映像ブロックを各ブロックごとに求めること、並びに各
ブロックごとに求めた最も鮮明な映像ブロックを結合し
て被写体の映像を形成することを特徴としている。
SUMMARY OF THE INVENTION The present invention relates to an image forming method and apparatus for imaging an object at a plurality of different distances to form an image of the object. The image at each distance captured in focus is divided into a plurality of blocks, and a difference waveform that is a difference between a luminance value and a moving average value is formed for each block at each distance image. Determining the sharpest video block among the video blocks at each distance based on the difference waveform of the video at each distance, and combining the sharpest video blocks determined for each block to obtain the subject. Is formed.

【0009】このようにして得られた映像は、複数の細
分した領域の映像それぞれが異なる距離の映像のうち最
も鮮明とされた映像で構成されているので、全体として
すべての距離にある被写体が鮮明に映し出される。その
場合、各ブロックごとに輝度値とその移動平均値との差
である差波形を各距離の映像に対して形成し、その差波
形に基づき各距離の映像ブロックのうちどれが最も鮮明
であるかを判定しているので、輪郭が際立ったメインで
ない小さな被写体あるいは雑光がブロックに含まれてい
ても正確に鮮明度を判定することができる。
[0009] The image obtained in this way is composed of the images of the plurality of subdivided areas, each of which is the sharpest of the images at different distances. It is projected clearly. In that case, a difference waveform, which is a difference between the luminance value and the moving average value, is formed for each distance image for each block, and based on the difference waveform, which of the image blocks at each distance is the sharpest. Therefore, it is possible to accurately determine the sharpness even if the block includes a small subject other than the main having a distinctive contour or noise.

【0010】[0010]

【発明の実施の形態】以下、図面に示す実施の形態に基
づき、本発明を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on an embodiment shown in the drawings.

【0011】光学系により形成される合焦した(ピント
の合った)映像ないし画像が得られる位置は、被写体と
光学系との距離に従って変化する。例えば、図1に示し
たように、遠距離(約10mから∞まで)にある山M、
中距離(約5〜10m)にある木T、近距離(約1m)
にある人物Pの撮影レンズLによる合焦像は、それぞれ
撮影レンズの焦点距離およびこのレンズと被写体との距
離により与えられる特定の位置に得られ、像側に1枚
(面)のCCD受光素子面、フィルム面又はピントグラ
ス板を置くだけでは、これらの遠近にある各被写体M、
T、Pのすべての像を鮮明に見ることはできない。
The position at which a focused image or image formed by the optical system is obtained varies according to the distance between the subject and the optical system. For example, as shown in FIG. 1, a mountain M at a long distance (from about 10 m to ∞),
Tree T at medium distance (about 5-10m), short distance (about 1m)
Are obtained at specific positions given by the focal length of the photographing lens and the distance between the lens and the subject, respectively, and one (surface) CCD light receiving element is provided on the image side. By simply placing the surface, the film surface or the focus glass plate, each subject M in these distances,
Not all images of T and P can be seen clearly.

【0012】本発明は、結像位置の異なる2つの被写体
(人物、木)、3つの被写体(人物、木、山)あるいは
それ以上の被写体の像を画像処理により合成することに
よりこれらの像のすべてを1枚の平面(モニタ、フィル
ム等)上に鮮明に映し出すことができるようにしたもの
である。
According to the present invention, images of two subjects (persons, trees) and three subjects (persons, trees, mountains) or more subjects having different image formation positions are synthesized by image processing, whereby these images are combined. Everything can be clearly projected on one plane (monitor, film, etc.).

【0013】以下に、近距離(約1m)にある人物P、
中距離(約5〜10m)にある木T、及び遠距離(約1
0〜∞)にある山Mの3つの被写体についての例を図2
を用いて説明する。
The following describes a person P at a short distance (about 1 m).
Tree T at medium distance (approximately 5 to 10 m) and long distance (approximately 1
FIG. 2 shows an example of three subjects on a mountain M at 0 to ∞).
This will be described with reference to FIG.

【0014】図2において、符号1〜7は、近距離にあ
る人物の被写体P、中距離にある木T及び遠距離にある
山の被写体Mを同時に撮影する光学系で、共通の対物レ
ンズ1、リレー系2を有する。リレー系2の後部にはビ
ームスプリッター3が配置されており、これにより分割
された光像の1つは、被写体Pに合焦させるためのマス
ターレンズ4を介してCCD(あるいは他の方式の2次
元映像センサ)8に結像される。
In FIG. 2, reference numerals 1 to 7 denote an optical system for simultaneously photographing a subject P of a person at a short distance, a tree T at a medium distance, and a mountain object M at a long distance. , A relay system 2. A beam splitter 3 is disposed at the rear of the relay system 2, and one of the split light images is transmitted through a master lens 4 for focusing on a subject P via a CCD (or another type of CCD). (Dimensional image sensor) 8.

【0015】また、ビームスプリッター3により分割さ
れた光像は、ビームスプリッター5により更に分割さ
れ、その一方は、被写体Tに合焦させるためのマスター
レンズ6を介して他のCCD9(あるいは他の方式の2
次元映像センサ)に結像され、また他方は、被写体Mに
合焦させるためのマスターレンズ7を介して他のCCD
10(あるいは他の方式の2次元映像センサ)に結像さ
れる。
The light image split by the beam splitter 3 is further split by the beam splitter 5, and one of the split images is connected to another CCD 9 (or another system) via a master lens 6 for focusing on a subject T. 2
Image is formed on a three-dimensional image sensor, and the other is connected to another CCD through a master lens 7 for focusing on a subject M.
10 (or another type of two-dimensional image sensor).

【0016】CCD8、9、10の撮像は、後述するよ
うに、それぞれ近距離用、中距離用および遠距離用の画
像処理装置11、12、13を介して画像処理された後
合成回路14で合成されてモニタ装置15上に表示され
る。画像処理装置11、12、13はそれぞれ画像処理
された映像データを格納するメモリ11a、12a、1
3aを備えている。各画像処理装置11、12、13並
びに合成回路14はそれぞれ個別のマイクロプロセッサ
で構成することもできるし、あるいは全体の制御を行な
う共通のマイクロプロセッサによっても実現することが
できる。
As will be described later, the CCDs 8, 9, and 10 are image-processed by image processing devices 11, 12, and 13 for short-range, medium-range, and long-range, respectively, and then processed by a synthesis circuit 14. The images are synthesized and displayed on the monitor device 15. The image processing apparatuses 11, 12, and 13 are memories 11a, 12a, and 1 that store image-processed video data, respectively.
3a. Each of the image processing apparatuses 11, 12, 13 and the synthesizing circuit 14 can be constituted by an individual microprocessor, respectively, or can be realized by a common microprocessor for controlling the whole.

【0017】なお、図2では不図示であるが、マスター
レンズ4、6および7については、それぞれ主要被写体
P、T、Mに合焦させるための手動ないし自動の焦点調
節機構を有するものとする。
Although not shown in FIG. 2, each of the master lenses 4, 6, and 7 has a manual or automatic focusing mechanism for focusing on the main objects P, T, and M, respectively. .

【0018】自動焦点調節機構を採用する場合には、た
とえば、オートフォーカス制御によりマスターレンズ
4、6を駆動し、常時、焦点の合いにくい近距離、中距
離の主要被写体P、Tに合焦させておく。また、背景被
写体又は遠距離被写体Mに焦点を合わせた場合には、当
然焦点深度も深いので、マスターレンズ7は無限遠固定
にしておいても、ほぼピントは実用上差しつかえない。
When the automatic focus adjustment mechanism is employed, for example, the master lenses 4 and 6 are driven by auto focus control to always focus on the short-range and medium-range main subjects P and T which are difficult to focus. Keep it. Also, when the background object or the long-distance object M is focused, the depth of focus is naturally deep, so that even if the master lens 7 is fixed at infinity, almost no focus is practically impaired.

【0019】以下に、本発明による異る距離に合焦した
映像を合成してすべて被写体に合焦した映像を形成する
方法を説明する。本発明では、まず、図3に示すような
前処理が各映像に対して行なわれる。
Hereinafter, a method of synthesizing images focused at different distances and forming an image focused on an object according to the present invention will be described. In the present invention, first, the preprocessing as shown in FIG. 3 is performed on each video.

【0020】図3のフローチャートのステップS1に示
すように、CCD8、9及び10の出力する遠、中、近
距離の映像信号は、デジタル信号に変換されたあと、そ
れぞれ対応するメモリ11a、12a、13aにそれぞ
れ格納される。
As shown in step S1 of the flow chart of FIG. 3, the far, middle and short distance video signals output from the CCDs 8, 9 and 10 are converted into digital signals and then stored in the corresponding memories 11a, 12a, 13a.

【0021】ステップS2では、例えば各距離の光学系
の光軸のずれ、傾きあるいは倍率(大きさ、ひずみ)に
相違があると、各映像の中心、傾き、大きさが相違する
ことにより画像合成ができないので、各メモリに格納さ
れたデータについて中心、傾き、大きさ及び歪曲(ゆが
み)に対する機械的な誤差補正が行なわれる。これは、
使用する光学系の諸元により各ずれが分かっているの
で、各画像ピクセル(画素)の座標変換を行なうことに
より補正することができる。また、誤差のうち、歪曲に
よる誤差は、特に画面の周辺の像に現れ、レンズの特性
により発生する収差の一種で、樽型、又は糸巻き型の機
械的な誤差になる。この補正値は、べき乗曲線で近似で
きるのでべき乗の式を用いて補正する。
In step S2, for example, if there is a difference in the displacement, inclination, or magnification (magnitude, distortion) of the optical axis of the optical system at each distance, the center, inclination, and size of each image are different, and image synthesis is performed. Therefore, mechanical error correction for the center, tilt, size, and distortion (distortion) is performed on the data stored in each memory. this is,
Since each shift is known depending on the specifications of the optical system to be used, it can be corrected by performing coordinate conversion of each image pixel (pixel). Among the errors, an error due to the distortion particularly appears in an image around the screen and is a kind of aberration generated due to the characteristics of the lens, and is a barrel-type or pincushion-type mechanical error. Since this correction value can be approximated by a power curve, it is corrected using a power equation.

【0022】更に、ステップS3では、以後の輝度、色
調による中心合わせ、傾き、大きさなどの補正のため、
輝度補正、色調ログ補正などのフィルターリングを行な
う。これにより各ピクセルの強度値が補正される。
Further, in step S3, for subsequent correction of centering, inclination, size and the like based on luminance and color tone,
Performs filtering such as brightness correction and color tone log correction. Thereby, the intensity value of each pixel is corrected.

【0023】このようにして各メモリ11a、12a、
13aには、各ピクセルPn毎にその座標値(xn、y
n)および赤(R)、緑(G)、青(B)の輝度値R
(Pn)、G(Pn)、B(Pn)及びこれらの輝度平均
値L(Pn)が格納される。座標値に対しては、ステッ
プS2で機械的な誤差が補正された座標値で、また強度
値は、ステップS3でフィルタリングされた値がそれぞ
れ格納されることになる。
Thus, each of the memories 11a, 12a,
13a, the coordinates (xn, y) of each pixel Pn
n) and the luminance values R of red (R), green (G) and blue (B)
(Pn), G (Pn), B (Pn) and their average luminance value L (Pn) are stored. For the coordinate values, the coordinate values in which the mechanical error has been corrected in step S2 are stored, and for the intensity values, the values filtered in step S3 are stored.

【0024】このように既知の機械的な誤差を補正して
も、なお各映像はその中心、傾き、大きさが合っていな
い可能性がある。このような誤差が存在すると、2つあ
るいはそれ以上の画素ごとの正確な合成は困難になるの
で、本発明では、以下に示す処理により各ピクセルに対
応する被写体部分が近、中、遠距離の映像でそれぞれ一
致するように補正する。
Even if the known mechanical error is corrected in this way, the center, the inclination, and the size of each image may not match. If such an error exists, it becomes difficult to accurately combine two or more pixels. Therefore, according to the present invention, the subject portion corresponding to each pixel is close, medium, and long distance by the following processing. Correct so that they match in the video.

【0025】ステップS2の機械的な誤差の補正により
近、中(遠)距離の映像はそれぞれ近似的に一致してい
ると考えられるので、各映像の所定領域を選択して、こ
の領域を水平及び垂直走査して各ピクセルの輝度平均値
Lが最小値(最大値)から最大値(最小値)に変化する
部分、又は絶対値が最大に変化する部分、すなわち輝度
平均値の差分(微分)が最大になる部分、又は絶対値が
最大になる部分の座標値を検出する(ステップS4)。
そして、近距離映像を基準として中距離映像の座標系を
水平及び垂直方向に平行移動させて、上記検出部分が所
定の許容誤差内で一致するようにして中心合わせを行な
う(ステップS5)。
Since the images at the near and middle (far) distances are considered to be approximately the same due to the correction of the mechanical error in step S2, a predetermined area of each image is selected, and this area is set horizontally. And a portion where the average brightness L of each pixel changes from the minimum value (maximum value) to the maximum value (minimum value) or a portion where the absolute value changes to the maximum, that is, a difference (differential) of the average brightness value of each pixel by vertical scanning. The coordinate value of the part where is maximized or the part where the absolute value is maximized is detected (step S4).
Then, the coordinate system of the middle distance image is translated in the horizontal and vertical directions based on the short distance image, and centering is performed so that the detected portions match within a predetermined allowable error (step S5).

【0026】一方、映像間に傾き、大きさ(ゆがみ)の
誤差があるか否かを検出するために、上記領域内でステ
ップS4に対応する他のピクセルの座標値を検出する。
その座標値も所定の許容誤差内で一致する場合には、傾
きあるいは大きさの誤差がないと判断されるので、ステ
ップS10に移動する。
On the other hand, in order to detect whether or not there is an error in the inclination and size (distortion) between the images, the coordinate values of other pixels corresponding to step S4 are detected in the area.
If the coordinate values also match within a predetermined allowable error, it is determined that there is no error in inclination or size, and the process moves to step S10.

【0027】一方、一致しない場合には、ステップS7
において、傾き補正を行なう。これは、上記他のピクセ
ルも所定の許容誤差内で一致するように座標回転を行な
うことにより行なわれる。この座標回転によってもなお
誤差が存在する場合には、ステップS8において大きさ
(ゆがみ)補正が必要と判断され、ステップS9におい
て大きさ(ゆがみ)補正を行なう。これは例えば、一種
の倍率補正であり、一方の座標値を所定係数で乗算する
ことにより行なわれる。
On the other hand, if they do not match, step S7
In, inclination correction is performed. This is performed by performing coordinate rotation so that the other pixels also match within a predetermined tolerance. If an error still exists due to the coordinate rotation, it is determined in step S8 that size (distortion) correction is necessary, and size (distortion) correction is performed in step S9. This is, for example, a type of magnification correction, and is performed by multiplying one coordinate value by a predetermined coefficient.

【0028】ステップS5、S7及びS9で行なわれる
補正は、一括して「広義の座標変換」による補正と考え
られる。このように、座標変換を行なうことにより各ピ
クセルに対応する被写体部分は、近距離映像と中距離映
像でそれぞれ許容誤差内で一致することになる。
The corrections performed in steps S5, S7 and S9 are collectively considered to be corrections by "coordinate conversion in a broad sense". As described above, by performing the coordinate conversion, the subject portion corresponding to each pixel is matched within a permissible error in the short distance image and the medium distance image.

【0029】このように近距離映像と中距離映像が一致
したので、他の映像、すなわち遠距離映像に対しても補
正する必要が有るかがステップS10で判断される。必
要である場合には、ステップS4に戻り、遠距離映像に
対しても広義の座標変換を行なうようにする。
Since the short-range image and the medium-range image match as described above, it is determined in step S10 whether or not it is necessary to correct another image, that is, a long-range image. If necessary, the process returns to step S4 to perform a coordinate conversion in a broad sense even on a long-distance image.

【0030】以上の処理で、各映像の中心合わせ、傾き
補正、大きさ補正が終了し、各メモリ11a、12a、
13aには、各ピクセル毎に補正座標値、および各色ご
との輝度値とその平均値が格納されることになる。
With the above processing, the centering, tilt correction and size correction of each image are completed, and the memories 11a, 12a,
13a stores a corrected coordinate value for each pixel, a luminance value for each color, and an average value thereof.

【0031】次に、図4の流れを参照して、各距離映像
からピントの合った部分を抽出して鮮明な映像を合成す
る方法を説明する。
Next, a method for extracting a focused portion from each distance image and synthesizing a clear image will be described with reference to the flow of FIG.

【0032】本発明では、各映像を複数のブロックに分
割して、各ブロックごとに最も鮮明なブロックを各映像
から抽出し、それを合成することにより鮮明な映像を得
る。従って、近、中、遠距離の各映像を分割する分割数
を設定する(ステップS1)。図5(A)には、メモリ
11a(12a、13a)に格納されている近(中、
遠)映像20を複数のm個のブロックB1〜Bmに分割し
た状態が示されている。このブロックサイズは、画素n
×n(例えばn=16)の大きさに設定される。
According to the present invention, each image is divided into a plurality of blocks, and the sharpest block is extracted from each image for each block, and is synthesized to obtain a clear image. Therefore, the number of divisions for dividing the near, middle, and long distance images is set (step S1). FIG. 5A shows the near (middle, medium, and medium) stored in the memory 11a (12a, 13a).
A state in which the (far) image 20 is divided into a plurality of m blocks B 1 to B m is shown. This block size is the pixel n
× n (for example, n = 16).

【0033】続いて、変数iを1に設定し(ステップS
21)、近、中、遠距離の映像からそれぞれブロックB
1に対応する映像データを読み出す(ステップS2
2)。その場合、ピクセルPi(i=1〜nn)の読み
出す順は、図5(B)に示したように、各行(y)の終
端にきたとき次の行の最初に戻るのではなく、矢印で示
したように次の行の対応するピクセルを読み出すように
する。
Subsequently, the variable i is set to 1 (step S).
21) Block B from near, medium and long distance video
1 is read out (step S2).
2). In this case, the reading order of the pixels P i (i = 1 to nn) does not return to the beginning of the next row when the end of each row (y) is reached, as shown in FIG. The corresponding pixel in the next row is read out as indicated by.

【0034】続くステップS23では、各映像に対して
ブロックB1の差波形並びに平均差波形を形成する。差
波形とは、映像の原波形からj点移動平均波形を減算し
たものである。図6(A)に示すように、原波形(2点
鎖線で示す)は、例えば近距離の映像(以下近映像とい
う。同様に、中距離の映像を中映像、遠距離の映像を遠
映像という)のブロックB1から読み出された映像波形
で、波形値はR、G、Bの輝度値の相加平均値L((R
+G+B)/3)となっている。j点移動平均波形(点
線で示す)は、jを3、4、.....としてj個の輝
度値(L)の移動平均である。従って、近映像の差波形
(N)は実線で示したごとくになる。このように差波形
を形成することにより、ノイズと被写体の境界でのコン
トラストが大きいときの輝度変化の影響が画像鮮鋭度に
与える影響を少なくすることができる。
[0034] In step S23, to form a differential waveform as well as the mean difference waveform block B 1 for each image. The difference waveform is obtained by subtracting the j-point moving average waveform from the original waveform of the video. As shown in FIG. 6A, an original waveform (indicated by a two-dot chain line) is, for example, a short-distance image (hereinafter referred to as a near image). ) Of the image waveform read out from the block B 1 , the waveform value of which is an arithmetic mean value L ((R
+ G + B) / 3). The j-point moving average waveform (indicated by the dotted line) shows j at 3, 4,. . . . . Is a moving average of j luminance values (L). Therefore, the difference waveform (N) of the near image is as shown by the solid line. By forming the difference waveform in this manner, it is possible to reduce the influence of the luminance change when the contrast at the boundary between the noise and the subject is large on the image sharpness.

【0035】上述したのは、近映像の差波形(N)であ
ったが、同様にブロックB1に対して中映像の差波形
(M)並びに遠映像の差波形(F)を形成することがで
き、また近、中、遠の各映像の差波形の相加平均波形
(以下平均差波形(A)という)を形成することができ
る。これらの各波形が図6(B)に図示されている。
[0035] that described above is to form was the near-video difference waveform (N), similarly the difference waveform (M) of the middle picture for the block B 1 and the far image difference waveform (F) Further, an arithmetic average waveform (hereinafter, referred to as an average difference waveform (A)) of a difference waveform of each of the near, middle, and far images can be formed. Each of these waveforms is illustrated in FIG.

【0036】続いて、ステップS24で近、中、遠映像
の各B1ブロックのうち最も鮮明な映像のブロックを選
択し、これをB1のブロックの映像データとする。近、
中、遠映像の各B1ブロックのうちでどのブロックが最
も鮮明な映像であるかを判定する方法には、(1)高周
波成分を多く含むものを鮮明なものとする高周波部分検
出法、(2)各差波形の相関値から鮮明度を判定する相
関係数法、(3)高振幅法があるので、以下でそれぞれ
の方法を説明する。
[0036] Then, the near-in step S24, in, select the block of the most vivid images of each B 1 block of the far image, which the image data of the block of B 1. Soon,
Among, the method determines whether any blocks are most vivid images among each B 1 block of the far image, high frequency part detection method shall clear those rich in (1) the high frequency component, ( 2) There are a correlation coefficient method for determining sharpness from a correlation value of each difference waveform, and (3) a high amplitude method, and each method will be described below.

【0037】高周波部分検出法は、図7に示したよう
に、各映像のブロックB1の差波形(例えば、近映像の
差波形)の高速フーリエ変換(FFT)を行なってスペ
クトル成分hiを求め、そのスペクトル成分の現れる座
標をxiとして重心=Σxi*hiが最大となる映像ブロ
ックを鮮明なブロックとするものである。
The high frequency part detection method, as shown in FIG. 7, each image block B 1 of the difference waveform (e.g., the difference between the waveform of the near video) spectral components h i performed fast Fourier transform (FFT) of The image block in which the center of gravity = Σx i * h i is maximized is set as a clear block, where x i is the coordinates where the spectrum component appears and x i is the coordinate where the spectrum component appears.

【0038】一方、各差波形の相関から鮮明な映像を判
定する場合には、以下のような前準備をする。差波形に
は、図6(B)に示したように、近映像の差波形
(N)、中映像の差波形(M)、遠映像の差波形(F)
並びに平均差波形(A)があるので、各差波形間の相関
係数をRAN、RNM、.....と記述する。ここで、下
付きの符号で両差波形間を表す。例えば、RANは平均差
波形と近映像の差波形間の相関係数、RNMは近映像の差
波形と中映像の差波形間の相関係数である。
On the other hand, when judging a clear image from the correlation of each difference waveform, the following preparations are made. As shown in FIG. 6B, the difference waveform includes a difference waveform (N) for a near image, a difference waveform (M) for a middle image, and a difference waveform (F) for a far image.
Since there is an average difference waveform (A), the correlation coefficients between the difference waveforms are represented by R AN , R NM,. . . . . It is described. Here, a subscript sign indicates between the two difference waveforms. For example, R AN is the correlation coefficient between the average difference waveform and the difference waveform of the near image, and R NM is the correlation coefficient between the difference waveform of the near image and the difference waveform of the middle image.

【0039】図8には、近映像の差波形(N)と平均差
波形(A)が図示されており、各ピクセル座標xiにお
ける各差波形の輝度値ki、aiとその差値Ki(=ki
i)、並びにHi=C(一定値)−Kiが図示されてい
る。相関係数RANとしては、波形の相関、例えばH
i(ベクトル成分)、ΣHi、Kiの逆数、Σ(1/Ki
のいずれかとすることができる。他の相関係数
NM、....も同様に定義し、そのいずれかとするこ
とができる。また相関係数として、上記のような波形の
相関ではなく、周波数成分の相関、振幅波形の相関から
得られる相関係数を用いてもよい。実験では、相関係数
のうち、波形の相関ΣHiを選ぶと良好な結果が得られ
ているので、この定義による相関係数を用い、鮮明な映
像ブロックをRAN、RAM、RAFから判定する方法を説明
する。
[0039] FIG. 8 is illustrated the average difference waveform and near video difference waveform (N) (A), the luminance value k i for each waveform difference at each pixel coordinate x i, a i and their difference value K i (= k i -
a i ), and H i = C (constant value) −K i . As the correlation coefficient R AN , the correlation of the waveform, for example, H
i (vector components), ΣH i, the reciprocal of K i, Σ (1 / K i)
It can be either. Other correlation coefficients R NM,. . . . Can be similarly defined, and can be any of them. As the correlation coefficient, a correlation coefficient obtained from the correlation between the frequency components and the correlation between the amplitude waveforms may be used instead of the correlation between the waveforms as described above. In the experiment, out of the correlation coefficient, so choose the correlation .SIGMA.H i waveform good results have been obtained, using a correlation coefficient according to this definition, a clear image block R AN, R AM, from R AF The determination method will be described.

【0040】まず、ブロックの平均差波形(A)の映像
が不鮮明(ボケている)であるかを判定する。各映像の
差波形間の相関係数が小さい場合には、近、中、遠映像
の3映像の内少なくとも2つが不鮮明であると判断でき
るので、その場合には、平均差波形(A)も不鮮明とす
ることができる(通常、2つ映像が不鮮明である場合に
は、画像全体、すなわち平均差波形も不鮮明になる)。
一方、各映像の差波形間の相関係数に顕著に大きくなる
ものがある場合には、近、中、遠映像の3映像の内少な
くとも2つが鮮明であると判断できるので、この場合に
は、平均差波形(A)は鮮明であるとする。
First, it is determined whether the image of the average difference waveform (A) of the block is unclear (blurred). If the correlation coefficient between the difference waveforms of the respective images is small, it can be determined that at least two of the three images of near, medium, and far images are unclear. In this case, the average difference waveform (A) is also determined. It can be blurred (usually, when two images are blurred, the entire image, that is, the average difference waveform also becomes blurred).
On the other hand, if there is a significant correlation coefficient between the difference waveforms of the respective images, it can be determined that at least two of the three images of the near, middle, and far images are clear. In this case, It is assumed that the average difference waveform (A) is clear.

【0041】このように、平均差波形(A)が鮮明ある
いは不鮮明とわかると、平均差波形(A)が不鮮明ない
しそれに近い場合には、RAN、RAM、RAFのうち相関係
数の値が最小の映像が鮮明であり、一方平均差波形
(A)が鮮明ないしそれに近い場合には、RAN、RAM
AFのうち相関係数の値が最大の映像が鮮明であるとす
ることができる。すなわち、近、中、遠映像間の相関係
数のすべてが小さい場合には、平均差波形との相関係数
が最小となる映像が鮮明な映像であり、一方相関係数が
大きくなるものが1組でもあれば、平均差波形との相関
係数が最大となる映像が鮮明であるので、このアルゴリ
ズムにより各映像ブロックのうち鮮明なブロックを抽出
することができる。
As described above, when the average difference waveform (A) is found to be sharp or unclear, if the average difference waveform (A) is unclear or close to it, the correlation coefficient of R AN , R AM , and R AF is determined. If the image with the smallest value is sharp, while the average difference waveform (A) is sharp or close to it, R AN , R AM ,
The image having the largest correlation coefficient value in R AF can be determined to be clear. That is, when all of the correlation coefficients between the near, middle, and far images are small, the image with the smallest correlation coefficient with the average difference waveform is a clear image, while the image with the larger correlation coefficient is If there is only one set, the video having the maximum correlation coefficient with the average difference waveform is clear, and therefore, a clear block can be extracted from each video block by this algorithm.

【0042】3番目の高振幅法は、図9(A)に示すよ
うに、各映像(図では近映像)の差波形の振幅値(波高
値)を大きい順に、図9(B)に示したように、並び替
え、振幅のモーメントΣhi*aiが最大となる映像ブロ
ックを鮮明なブロックとするものである。
In the third high-amplitude method, as shown in FIG. 9A, the amplitude value (peak value) of the difference waveform of each image (near image in the figure) is shown in FIG. As described above, the image blocks in which the rearrangement and the moment of amplitude Σh i * a i are maximum are defined as clear blocks.

【0043】以上のようにして、近、中、遠映像のB1
のブロックのうち最も鮮明なブロックが抽出できたの
で、そのブロックをメモリに記録する。
As described above, the near, middle, and far images B 1
Since the sharpest block was extracted from among the blocks, the block is recorded in the memory.

【0044】続いて、ブロックが最後のブロック(ブロ
ックBm)になったかを判断し(ステップS25)、な
っていない場合は次のブロックに進んで(ステップS2
6、S27)、そのブロックのデータを読み出し、同様
な処理を繰り返す。また、最後のブロックの処理を終え
た場合は、ステップS24で記録した鮮明な各ブロック
を結合して映像データとする(ステップS27)。この
ようにして得られた映像データは、細分した領域の各映
像が近、中、遠映像のうち最も鮮明とされた映像で構成
されているので、全体としてすべての距離にある被写体
が鮮明に映し出される映像データとなる。
Subsequently, it is determined whether the block has become the last block (block B m ) (step S25). If not, the process proceeds to the next block (step S2).
6, S27), the data of the block is read, and the same processing is repeated. When the processing of the last block is completed, the clear blocks recorded in step S24 are combined into video data (step S27). Since the video data obtained in this way is composed of the sharpest video among the near, middle and distant video in each of the subdivided areas, the subjects at all distances as a whole can be clearly seen. It becomes the video data to be projected.

【0045】なお、上述の相関係数を用いて鮮明な映像
を求める場合、輝度値の相関を演算したが、輝度値の代
わりに、周波数分析を行なってスペクトル強度を求め、
各差波形のスペクトル強度の相関を求めて鮮明度を判断
するようにすることもできる。すなわち、近(中、遠)
映像の差波形から図7のようなスペクトルを求めるとと
もに、その平均スペクトルを求め、各スペクトルの差と
の相関係数から鮮明な映像を決定することもできる。
When a clear image is obtained by using the above-mentioned correlation coefficient, the correlation of the luminance value is calculated. Instead of the luminance value, frequency analysis is performed to obtain the spectrum intensity.
It is also possible to determine the sharpness by obtaining the correlation between the spectral intensities of the respective difference waveforms. That is, near (medium, far)
A spectrum as shown in FIG. 7 is obtained from the difference waveform of the image, the average spectrum is obtained, and a clear image can be determined from the correlation coefficient with the difference between the spectra.

【0046】また、ステップS24で求めた各ブロック
のデータは、個別のメモリに格納するようにしてもよい
し、メモリ11a、12a、13aの抽出された各ブロ
ックに対応するアドレスだけを記録し、合成するときそ
のアドレスを参照して対応するデータを読み出すように
してもよい。
The data of each block obtained in step S24 may be stored in an individual memory, or only the address corresponding to each extracted block in the memories 11a, 12a and 13a is recorded. When combining, the corresponding data may be read by referring to the address.

【0047】[0047]

【発明の効果】以上説明したように、本発明によれば、
複数の細分した領域の各映像が異なる距離の映像のうち
最も鮮明とされた映像で構成されているので、全体とし
てすべての距離にある被写体が鮮明に映し出される。そ
の場合、各ブロックごとに輝度値とその移動平均値との
差である差波形を各距離の映像に対して形成し、その差
波形に基づき各距離の映像ブロックのうちどれが最も鮮
明であるかを判定しているので、輪郭が際立ったメイン
でない小さな被写体あるいは雑光がブロックに含まれて
いても正確に鮮明度を判定することができる。
As described above, according to the present invention,
Since each image in the plurality of subdivided regions is formed of the sharpest image among images at different distances, subjects at all distances as a whole are clearly displayed. In that case, a difference waveform, which is a difference between the luminance value and the moving average value, is formed for each distance image for each block, and based on the difference waveform, which of the image blocks at each distance is the sharpest. Therefore, it is possible to accurately determine the sharpness even if the block includes a small subject other than the main having a distinctive contour or noise.

【図面の簡単な説明】[Brief description of the drawings]

【図1】各距離にある被写体が撮像される状態を説明し
た説明図である。
FIG. 1 is an explanatory diagram illustrating a state in which a subject at each distance is imaged.

【図2】近距離、中距離及び遠距離にある被写体の映像
から鮮明な映像を合成する構成を示した構成図である。
FIG. 2 is a configuration diagram showing a configuration for synthesizing a clear image from images of a subject at a short distance, a medium distance, and a long distance.

【図3】各映像の位置合わせを行なう流れを示したフロ
ーチャート図である。
FIG. 3 is a flowchart showing a flow for performing positioning of each image.

【図4】各映像をブロックに細分し鮮明なブロックを結
合して被写体の映像を形成する流れを示したフローチャ
ート図である。
FIG. 4 is a flowchart showing a flow of subdividing each image into blocks and combining sharp blocks to form an image of a subject.

【図5】映像をブロックに分割する状態を示した説明図
である。
FIG. 5 is an explanatory diagram showing a state in which a video is divided into blocks.

【図6】映像の差波形及び平均差波形を示した線図であ
る。
FIG. 6 is a diagram showing a difference waveform and an average difference waveform of an image.

【図7】差波形の周波数スペクトルを示す線図である。FIG. 7 is a diagram showing a frequency spectrum of a difference waveform.

【図8】映像の差波形の相関を説明する線図である。FIG. 8 is a diagram illustrating a correlation between difference waveforms of an image.

【図9】映像の差波形の振幅値から鮮明度を判定する方
法を説明する線図である。
FIG. 9 is a diagram illustrating a method of determining sharpness from an amplitude value of a difference waveform of an image.

【符号の説明】[Explanation of symbols]

8、9、10 CCD 11、12、13 画像処理装置 14 合成装置 15 モニタ装置 8, 9, 10 CCD 11, 12, 13 Image processing device 14 Synthesis device 15 Monitor device

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大河内 禎一 愛知県名古屋市中区千代田三丁目10番20号 (72)発明者 ▲福▼井 寿男 愛知県名古屋市千種区高見1丁目22番11号 Fターム(参考) 5C022 AA01 AA11 AB22 AC01 AC42 AC54 AC55 5C023 AA11 AA36 AA37 AA38 BA03 BA12 CA03 DA04 EA03 EA05 ────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Seiichi Okochi 3-10-20 Chiyoda, Naka-ku, Nagoya City, Aichi Prefecture F-term (reference) 5C022 AA01 AA11 AB22 AC01 AC42 AC54 AC55 5C023 AA11 AA36 AA37 AA38 BA03 BA12 CA03 DA04 EA03 EA05

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 異る複数の距離にある被写体をそれぞれ
撮像して被写体の映像を形成する映像形成方法におい
て、 各距離にある被写体を合焦して撮像し、 合焦して撮像された各距離の映像をそれぞれ複数のブロ
ックに細分して各ブロックごとに輝度値とその移動平均
値との差である差波形を各距離の映像に対して形成し、 前記各距離の映像の差波形に基づき各距離の映像ブロッ
クのうち最も鮮明な映像ブロックを各ブロックごとに求
め、 各ブロックごとに求めた最も鮮明な映像ブロックを結合
して被写体の映像を形成することを特徴とする映像形成
方法。
1. An image forming method for imaging a subject at a plurality of different distances to form an image of the subject, wherein the subject at each distance is focused and imaged. The distance image is subdivided into a plurality of blocks, and a difference waveform that is a difference between a luminance value and a moving average value is formed for each distance image for each block, and the difference waveform of the distance image is formed for each block. A video forming method comprising: obtaining a sharpest video block among video blocks at respective distances for each block based on each block; and combining the sharpest video blocks obtained for each block to form a video of a subject.
【請求項2】 前記各距離の映像の差波形の周波数成分
あるいは振幅値を求めて、どの距離の映像ブロックが最
も鮮明であるかを判定することを特徴とする請求項1に
記載の映像形成方法。
2. The image forming apparatus according to claim 1, wherein a frequency component or an amplitude value of a difference waveform of the image at each distance is obtained to determine which distance of the image block is the sharpest. Method.
【請求項3】 前記各距離の映像の差波形の平均値であ
る平均値差波形を求め、各差波形間の相関に基づきどの
距離の映像ブロックが最も鮮明であるかを判定すること
を特徴とする請求項1に記載の映像形成方法。
3. The method according to claim 1, wherein an average difference waveform is obtained as an average value of the difference waveforms of the images at the respective distances, and it is determined which image block at which distance is the sharpest based on the correlation between the difference waveforms. 2. The image forming method according to claim 1, wherein:
【請求項4】 異る複数の距離にある被写体をそれぞれ
撮像して被写体の映像を形成する映像形成装置におい
て、 各距離にある被写体を合焦して撮像する手段と、 合焦して撮像された各距離の映像をそれぞれ複数のブロ
ックに細分して各ブロックごとに輝度値とその移動平均
値との差である差波形を各距離の映像に対して形成する
手段と、 前記各距離の映像の差波形に基づき各距離の映像ブロッ
クのうち最も鮮明な映像ブロックを各ブロックごとに求
める手段と、 各ブロックごとに求めた最も鮮明な映像ブロックを結合
して被写体の映像を形成する手段と、 を有することを特徴とする映像形成装置。
4. An image forming apparatus for imaging an object at a plurality of different distances to form an image of the object, wherein the image forming apparatus focuses and images the object at each distance. Means for subdividing the video at each distance into a plurality of blocks, and forming a difference waveform, which is the difference between the luminance value and the moving average value, for each video at each distance, and the video at each distance. Means for obtaining the sharpest video block among the video blocks at each distance based on the difference waveform of each block, means for combining the sharpest video blocks obtained for each block to form an image of the subject, An image forming apparatus comprising:
【請求項5】 前記各距離の映像の差波形の周波数成分
あるいは振幅値を求めて、どの距離の映像ブロックが最
も鮮明であるかを判定することを特徴とする請求項4に
記載の映像形成装置。
5. The image forming apparatus according to claim 4, wherein a frequency component or an amplitude value of a difference waveform of the image at each distance is obtained to determine which distance of the image block is the sharpest. apparatus.
【請求項6】 前記各距離の映像の差波形の平均値であ
る平均値差波形を求め、各差波形間の相関に基づきどの
距離の映像ブロックが最も鮮明であるかを判定すること
を特徴とする請求項4に記載の映像形成装置。
6. An average value difference waveform which is an average value of difference waveforms of the images at respective distances is determined, and it is determined which image block at which distance is the sharpest based on a correlation between the difference waveforms. The image forming apparatus according to claim 4, wherein
JP2000114494A 2000-04-17 2000-04-17 Image forming method and image forming device Pending JP2001298657A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000114494A JP2001298657A (en) 2000-04-17 2000-04-17 Image forming method and image forming device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000114494A JP2001298657A (en) 2000-04-17 2000-04-17 Image forming method and image forming device

Publications (1)

Publication Number Publication Date
JP2001298657A true JP2001298657A (en) 2001-10-26

Family

ID=18626287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000114494A Pending JP2001298657A (en) 2000-04-17 2000-04-17 Image forming method and image forming device

Country Status (1)

Country Link
JP (1) JP2001298657A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202593A (en) * 2004-01-14 2005-07-28 Seiko Epson Corp Image processing device, program and method
JP2006279940A (en) * 2005-03-03 2006-10-12 Fuji Photo Film Co Ltd Imaging apparatus, imaging method, imaging program, imaging output system and image recording output method
JP2008271240A (en) * 2007-04-20 2008-11-06 Fujifilm Corp Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP2008271241A (en) * 2007-04-20 2008-11-06 Fujifilm Corp Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP2013115798A (en) * 2011-12-01 2013-06-10 Univ Of Electro-Communications Image processing program and image processing apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202593A (en) * 2004-01-14 2005-07-28 Seiko Epson Corp Image processing device, program and method
JP2006279940A (en) * 2005-03-03 2006-10-12 Fuji Photo Film Co Ltd Imaging apparatus, imaging method, imaging program, imaging output system and image recording output method
JP2008271240A (en) * 2007-04-20 2008-11-06 Fujifilm Corp Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP2008271241A (en) * 2007-04-20 2008-11-06 Fujifilm Corp Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP4582423B2 (en) * 2007-04-20 2010-11-17 富士フイルム株式会社 Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP4678603B2 (en) * 2007-04-20 2011-04-27 富士フイルム株式会社 Imaging apparatus and imaging method
US8023000B2 (en) 2007-04-20 2011-09-20 Fujifilm Corporation Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
JP2013115798A (en) * 2011-12-01 2013-06-10 Univ Of Electro-Communications Image processing program and image processing apparatus

Similar Documents

Publication Publication Date Title
JP5066851B2 (en) Imaging device
KR101265358B1 (en) Method of controlling an action, such as a sharpness modification, using a colour digital image
US5602584A (en) Apparatus for producing a panoramic image using a plurality of optical systems
CN102457681B (en) Image processing apparatus and image processing method
JP6838994B2 (en) Imaging device, control method and program of imaging device
JP6800797B2 (en) Image pickup device, image processing device, control method and program of image pickup device
JP4156893B2 (en) Image processing apparatus, method, and program
JP7234057B2 (en) Image processing method, image processing device, imaging device, lens device, program, storage medium, and image processing system
JP7378219B2 (en) Imaging device, image processing device, control method, and program
US20190355101A1 (en) Image refocusing
JP5348258B2 (en) Imaging device
JP6190119B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2001298657A (en) Image forming method and image forming device
JP2019016975A (en) Image processing system and image processing method, imaging apparatus, program
JPH10262176A (en) Video image forming method
JP2009047734A (en) Imaging apparatus and image processing program
JPH0721365A (en) Method and device for processing picture
CN112866554B (en) Focusing method and device, electronic equipment and computer readable storage medium
CN112866547B (en) Focusing method and device, electronic equipment and computer readable storage medium
JP7373297B2 (en) Image processing device, image processing method and program
WO2020084894A1 (en) Multi-camera system, control value calculation method and control device
JP6961423B2 (en) Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media
JP2017050662A (en) Image processing system, imaging apparatus, and image processing program
JP4271648B2 (en) Image composition apparatus, imaging means, and program
JPH08307756A (en) Video forming method