JP2001223874A - Arbitrary focused image composite device and camera for simultaneously picking up a plurality of images, which is used for the same - Google Patents

Arbitrary focused image composite device and camera for simultaneously picking up a plurality of images, which is used for the same

Info

Publication number
JP2001223874A
JP2001223874A JP2000028436A JP2000028436A JP2001223874A JP 2001223874 A JP2001223874 A JP 2001223874A JP 2000028436 A JP2000028436 A JP 2000028436A JP 2000028436 A JP2000028436 A JP 2000028436A JP 2001223874 A JP2001223874 A JP 2001223874A
Authority
JP
Japan
Prior art keywords
image
filter
focus
focused
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000028436A
Other languages
Japanese (ja)
Inventor
Kiyoharu Aizawa
清晴 相澤
Akira Kubota
彰 久保田
Yasunori Tsubaki
泰範 椿
Rianigunadei Konnie
リアニグナディ コニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2000028436A priority Critical patent/JP2001223874A/en
Priority to US09/774,646 priority patent/US20010013895A1/en
Publication of JP2001223874A publication Critical patent/JP2001223874A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device for reconstructing an arbitrary focused image being an image where the degree of the blurring of respective depths is arbitrarily suppressed and emphasized from the plurality of pictures of different focusing. SOLUTION: There are provided a first filter for converting a first image focused to a first part on the basis of a first blurring parameter inputted from the outside, a second filter for converting a second image focused to a second part on the basis of second blurring parameter inputted from the outside, a composite part for composting the output of the first filter and the output of the second filter and generating an arbitrary focused image, and a luminance correction part for correcting luminance in the block unit of the image so that the luminance of the first image and that of the second image become the same level and supplying the image after the luminance correction to the first filter and the second filter.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、複数の画像か
ら、任意に各奥行きのぼけの程度を抑制・強調した画像
である任意焦点画像を再構成するための任意焦点画像合
成装置及びこれに用いる複数画像同時撮像型カメラに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an arbitrary-focus image synthesizing apparatus for reconstructing, from a plurality of images, an arbitrary-focus image which is an image in which the degree of blur at each depth is arbitrarily suppressed / emphasized, and used in the apparatus. The present invention relates to a multiple image simultaneous imaging camera.

【0002】[0002]

【従来の技術】複数の画像から所望の画像を生成する画
像処理方法の従来例としては、例えば領域分割に基づく
画像処理方法がある。この従来の画像処理方法では、例
えば異なる焦点合わせの画像を複数枚用意し、個々の画
像において焦点の合っている領域をそれぞれ判定し、こ
の判定結果に基づいて前記複数の画像の領域分割を行
い、各領域に対し所定の視覚効果を与える一連の処理を
行うことにより、所望の画像の生成を行う。その際、上
記一連の処理を、人手を介さずに自動的に実行する場合
には、上述した領域判定、領域分割、視覚効果の処理を
順次行うための手順を記述した画像処理プログラムを用
いるのが一般的である。
2. Description of the Related Art As a conventional example of an image processing method for generating a desired image from a plurality of images, there is, for example, an image processing method based on area division. In this conventional image processing method, for example, a plurality of images with different focuses are prepared, the in-focus area in each image is determined, and the area division of the plurality of images is performed based on the determination result. A desired image is generated by performing a series of processes for giving a predetermined visual effect to each area. At this time, if the above-described series of processing is automatically executed without human intervention, an image processing program describing a procedure for sequentially performing the above-described area determination, area division, and visual effect processing is used. Is common.

【0003】複数の画像から所望の画像を生成するため
には、まず、同一の対象について複数の画像を得る必要
がある。従来のカメラを使用して、同一シーンについて
異なる焦点合わせにより撮像した複数枚の画像を取得す
るためには、焦点合わせを変化させて複数回の撮像を行
う必要がある。
In order to generate a desired image from a plurality of images, first, it is necessary to obtain a plurality of images for the same object. In order to obtain a plurality of images of the same scene captured by different focusing using a conventional camera, it is necessary to perform a plurality of imagings while changing the focusing.

【0004】すなわち、従来のカメラ装を使用して異な
る焦点合わせのn種類の画像を撮像する場合には、ズー
ムレンズを手動またはカメラ外部に設けたサーボレンズ
制御装置により制御して、まず1番目の奥行きに焦点が
合うようにズームレンズの焦点合わせを制御してから1
枚目の画像を撮像し、次に、2番目の奥行きに焦点が合
うようにズームレンズの焦点合わせを制御してから2枚
目の画像を撮像する。以下同様にしてn番目の奥行きに
焦点が合うようにズームレンズ53の焦点合わせを制御
してからn枚目の画像を撮像する。このように、n種類
の奥行きに対して焦点が合った画像を撮像したい場合に
は、n回の焦点合わせおよび撮像が必要となる。
That is, when n types of images with different focusing are captured using a conventional camera device, the zoom lens is controlled manually or by a servo lens control device provided outside the camera, and firstly, After controlling the focusing of the zoom lens so that it is focused on the depth of
The second image is captured after the second image is captured, and then the focusing of the zoom lens is controlled so as to focus on the second depth. In the same manner, the focusing of the zoom lens 53 is controlled so that the focus is on the n-th depth, and then the n-th image is captured. As described above, when it is desired to capture an image focused on n types of depths, n times of focusing and imaging are required.

【0005】[0005]

【発明が解決しようとする課題】上記従来の画像処理方
法は、「焦点が合っている領域」という判定条件を用い
ているため、撮像対象シーンの中に一様な輝度値を有す
る領域や奥行き変化のある領域が存在する場合には、そ
れら領域については領域判定の判定精度を十分に確保す
ることができない。このため、上記従来の画像処理方法
の適用範囲は、焦点の合った領域を統合することによる
画像の鮮鋭化等に限定されてしまい、領域毎に焦点ぼけ
を任意に調整したり、擬似的な視差を与えて立体画像を
生成する等の、より高次の画像処理への拡張は極めて困
難である。また、従来の画像処理方法は、任意に各奥行
きのぼけの程度を抑制・強調した画像である任意焦点画
像を得ることもできない。
Since the above-mentioned conventional image processing method uses the determination condition of "in-focus area", the area having a uniform luminance value or the depth in the scene to be imaged is used. If there are areas with changes, it is not possible to ensure sufficient area determination accuracy for those areas. For this reason, the applicable range of the above-described conventional image processing method is limited to sharpening of an image by integrating in-focus regions, and the defocus is arbitrarily adjusted for each region, or a pseudo It is extremely difficult to extend to higher-order image processing, such as generating a stereoscopic image by giving parallax. Further, the conventional image processing method cannot obtain an arbitrary focus image which is an image in which the degree of blur at each depth is arbitrarily suppressed / emphasized.

【0006】本発明は係る課題を解決するためになされ
たもので、異なる焦点合わせの複数画像から任意に各奥
行きのぼけの程度を抑制・強調した画像である任意焦点
画像を再構成するための任意焦点画像合成装置を提供す
ることを目的とする。また、本発明は、異なる焦点合わ
せの複数画像を同時に撮像可能な複数画像同時撮像型カ
メラを提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and is intended to reconstruct an arbitrary-focus image which is an image in which the degree of blur at each depth is arbitrarily suppressed and emphasized from a plurality of images having different focuses. It is an object of the present invention to provide an arbitrary focus image synthesizing apparatus. Another object of the present invention is to provide a multiple image simultaneous imaging camera capable of simultaneously capturing a plurality of images with different focusing.

【0007】[0007]

【課題を解決するための手段】この発明に係る任意焦点
画像合成装置は、外部から入力される第1のぼけパラメ
ータに基づき第1の部分に焦点が合っている第1画像を
変換する第1のフィルタと、外部から入力される第2の
ぼけパラメータに基づき第2の部分に焦点が合っている
第2画像を変換する第2のフィルタと、前記第1のフィ
ルタの出力及び前記第2のフィルタの出力を合成して任
意焦点画像を生成する合成部と、前記第1画像と前記第
2画像の輝度が同程度になるように、画像のブロック単
位で輝度補正を行い、輝度補正後の画像を前記第1のフ
ィルタと前記第2のフィルタに供給する輝度補正部とを
備えるものである。
An arbitrary focus image synthesizing apparatus according to the present invention converts a first image focused on a first portion based on a first blur parameter input from the outside. A second filter that converts a second image focused on a second portion based on a second blur parameter input from the outside, an output of the first filter, and a second filter A synthesizing unit for synthesizing the output of the filter to generate an arbitrary focus image, and performing brightness correction in image block units so that the brightness of the first image and the brightness of the second image are substantially the same. A brightness correction unit that supplies an image to the first filter and the second filter.

【0008】この発明に係る任意焦点画像合成装置は、
外部から入力される第1のぼけパラメータに基づき第1
の部分に焦点が合っている第1画像を変換する第1のフ
ィルタと、外部から入力される第2のぼけパラメータに
基づき第2の部分に焦点が合っている第2画像を変換す
る第2のフィルタと、前記第1のフィルタの出力及び前
記第2のフィルタの出力を合成して任意焦点画像を生成
する合成部と、前記第1画像と前記第2画像の位置合わ
せを、画像データを水平及び垂直方向に投影して得られ
た輝度分布に基づいて行い、位置合わせされた画像を前
記第1のフィルタと前記第2のフィルタに供給する位置
合わせ部とを備えるものである。
An arbitrary focus image synthesizing apparatus according to the present invention comprises:
A first blur parameter based on a first externally input blur parameter;
A first filter that converts a first image that is in focus on a portion, and a second filter that converts a second image that is in focus on a second portion based on an externally input second blur parameter , A synthesizing unit that synthesizes an output of the first filter and an output of the second filter to generate an arbitrary focus image, and adjusts the position of the first image and the second image by using image data. It is provided based on a luminance distribution obtained by projecting in the horizontal and vertical directions, and includes a positioning unit that supplies a registered image to the first filter and the second filter.

【0009】この発明に係る任意焦点画像合成装置は、
外部から入力される第1のぼけパラメータに基づき第1
の部分に焦点が合っている第1画像を変換する第1のフ
ィルタと、外部から入力される第2のぼけパラメータに
基づき第2の部分に焦点が合っている第2画像を変換す
る第2のフィルタと、前記第2のフィルタの出力に対し
て所定の処理を行う特殊効果フィルタと、前記第1のフ
ィルタの出力及び前記特殊効果フィルタの出力を合成し
て任意焦点画像を生成する合成部とを備えるものであ
る。
An arbitrary focus image synthesizing apparatus according to the present invention comprises:
A first blur parameter based on a first externally input blur parameter;
A first filter that converts a first image that is in focus on a portion, and a second filter that converts a second image that is in focus on a second portion based on an externally input second blur parameter , A special effect filter that performs a predetermined process on the output of the second filter, and a synthesizing unit that synthesizes the output of the first filter and the output of the special effect filter to generate an arbitrary focus image Is provided.

【0010】好ましくは、前記特殊効果フィルタの入力
側及び出力側に、それぞれ画像データの座標を直交座標
から極座標に変換する直交座標−極座標変換部と、画像
データの座標を極座標から直交座標に戻す極座標−直交
座標変換部とを備える。
Preferably, on the input side and the output side of the special effect filter, a rectangular coordinate-polar coordinate conversion unit for converting the coordinates of the image data from rectangular coordinates to polar coordinates, respectively, and the coordinates of the image data are returned from polar coordinates to rectangular coordinates. A polar coordinate-rectangular coordinate conversion unit.

【0011】この発明に係る任意焦点画像合成装置は、
外部から入力される第1乃至第Nのぼけパラメータに基
づき第1乃至第Nの部分にそれぞれ焦点が合っている第
1乃至第N画像を焦点位置の順に並べ、これら画像のひ
とつである第iの画像内の一部分に関して、前記第iの
画像を中心としてその前後の複数の画像において前記部
分の焦点が合っているかどうかを判定する判定部と、前
記判定部の判定パターンによりどの画像において前記部
分の焦点が合っているか比較する比較部と、前記比較部
の比較結果により前記第1乃至第Nの画像を合成して全
焦点画像を生成する合成部とを備えるものである。
An arbitrary focus image synthesizing apparatus according to the present invention comprises:
Based on the first to N-th blur parameters input from the outside, the first to N-th images that are respectively focused on the first to N-th parts are arranged in the order of the focus positions, and the i-th image, which is one of these images, is arranged. A determination unit that determines whether or not the part is in focus in a plurality of images before and after the i-th image with respect to a part in the image of the i-th image; And a synthesizing unit for synthesizing the first to N-th images based on the comparison result of the comparing unit to generate an all-focus image.

【0012】好ましくは、前記判定部は、パラメータを
変化させつつ前記第iの画像に対してフィルタ処理を行
うガウシアンフィルタと、前記ガウシアンフィルタの出
力と前記前後の複数の画像の差分値を求める差分処理部
と、前記差分値が極小になる値を求めることにより前記
パラメータを推定する推定部とを備える。
Preferably, the determination unit includes a Gaussian filter for performing a filtering process on the i-th image while changing a parameter, and a difference for obtaining a difference value between an output of the Gaussian filter and a plurality of images before and after the image. A processing unit; and an estimating unit that estimates the parameter by obtaining a value at which the difference value is minimized.

【0013】この発明に係る複数画像同時撮像型カメラ
は、撮像素子と、前記撮像素子から信号を受けて画像デ
ータに変換する処理部と、前記処理部で処理された画像
データを表示する表示部と、画像内の複数の対象を指定
してそれぞれ異なる焦点の複数の画像を要求する焦点指
定部と、前記焦点指定部の指定により焦点位置を設定す
る焦点調整機構と、画像データを記憶するメモリとを備
え、前記処理部は、指定された前記複数の対象について
順番にそれぞれ焦点を合わせ、それぞれ撮像し、前記メ
モリに得られた複数の画像データをそれぞれ格納する。
[0013] A multiple image simultaneous imaging camera according to the present invention includes an image sensor, a processing unit that receives a signal from the image sensor and converts the signal into image data, and a display unit that displays the image data processed by the processing unit. A focus designating unit for designating a plurality of objects in an image and requesting a plurality of images having different focuses, a focus adjusting mechanism for setting a focus position by designating the focus designating unit, and a memory for storing image data The processing unit focuses on the designated plurality of targets in order, captures the images, and stores the obtained plurality of image data in the memory.

【0014】好ましくは、1回のシャッター動作で複数
の焦点の異なる画像を撮像する。
Preferably, a plurality of images having different focal points are captured by one shutter operation.

【0015】好ましくは、外部から入力される第1のぼ
けパラメータに基づき第1の部分に焦点が合っている第
1画像を変換する第1のフィルタと、外部から入力され
る第2のぼけパラメータに基づき第2の部分に焦点が合
っている第2画像を変換する第2のフィルタと、前記第
1のフィルタの出力及び前記第2のフィルタの出力を合
成して任意焦点画像を生成する合成部と、前記第1画像
と前記第2画像の輝度が同程度になるように、画像のブ
ロック単位で輝度補正を行い、輝度補正後の画像を前記
第1のフィルタと前記第2のフィルタに供給する輝度補
正部とを含む任意焦点画像合成装置を備える。
Preferably, a first filter for converting a first image focused on a first portion based on an externally input first blur parameter, and a second externally input blur parameter A second filter for converting a second image focused on a second portion based on the second filter, and a synthesis for generating an arbitrary focus image by synthesizing an output of the first filter and an output of the second filter. Unit, and performs luminance correction on an image block basis so that the luminance of the first image and the luminance of the second image are substantially the same, and outputs the image after the luminance correction to the first filter and the second filter. And an arbitrarily focused image synthesizing device including a luminance correction unit for supplying the image.

【0016】好ましくは、外部から入力される第1のぼ
けパラメータに基づき第1の部分に焦点が合っている第
1画像を変換する第1のフィルタと、外部から入力され
る第2のぼけパラメータに基づき第2の部分に焦点が合
っている第2画像を変換する第2のフィルタと、前記第
1のフィルタの出力及び前記第2のフィルタの出力を合
成して任意焦点画像を生成する合成部と、前記第1画像
と前記第2画像の位置合わせを、画像データを水平及び
垂直方向に投影して得られた輝度分布に基づいて行い、
位置合わせされた画像を前記第1のフィルタと前記第2
のフィルタに供給する位置合わせ部とを含む任意焦点画
像合成装置を備える。
Preferably, a first filter for converting a first image focused on a first portion based on an externally input first blur parameter, and a second externally input blur parameter A second filter for converting a second image focused on a second portion based on the second filter, and a synthesis for generating an arbitrary focus image by synthesizing an output of the first filter and an output of the second filter. Part, performing the alignment of the first image and the second image based on a luminance distribution obtained by projecting image data in horizontal and vertical directions,
Aligning the aligned image with the first filter and the second
And an alignment unit that supplies the images to the filters.

【0017】好ましくは、外部から入力される第1のぼ
けパラメータに基づき第1の部分に焦点が合っている第
1画像を変換する第1のフィルタと、外部から入力され
る第2のぼけパラメータに基づき第2の部分に焦点が合
っている第2画像を変換する第2のフィルタと、前記第
2のフィルタの出力に対して所定の処理を行う特殊効果
フィルタと、前記第1のフィルタの出力及び前記特殊効
果フィルタの出力を合成して任意焦点画像を生成する合
成部とを含む任意焦点画像合成装置を備える。
Preferably, a first filter for converting a first image focused on a first portion based on an externally input first blur parameter, and a second externally input blur parameter A second filter that converts a second image focused on a second portion based on the first filter, a special effect filter that performs a predetermined process on an output of the second filter, A synthesizing unit for synthesizing an output and an output of the special effect filter to generate an arbitrary focus image.

【0018】好ましくは、前記特殊効果フィルタの入力
側及び出力側に、それぞれ画像データの座標を直交座標
から極座標に変換する直交座標−極座標変換部と、画像
データの座標を極座標から直交座標に戻す極座標−直交
座標変換部とを備える。
Preferably, on the input side and the output side of the special effect filter, a rectangular coordinate-polar coordinate conversion unit for converting the coordinates of the image data from rectangular coordinates to polar coordinates, respectively, and the coordinates of the image data are returned from polar coordinates to rectangular coordinates. A polar coordinate-rectangular coordinate conversion unit.

【0019】この発明に係る記録媒体は、コンピュータ
を、前記任意焦点画像合成装置又は複数画像同時撮像型
カメラとして機能させるためのプログラムを記録したも
のである。
A recording medium according to the present invention stores a program for causing a computer to function as the arbitrary-focus image synthesizing apparatus or the multiple image simultaneous imaging camera.

【0020】媒体には、例えば、フロッピーディスク、
ハードディスク、磁気テープ、光磁気ディスク、CD−
ROM、DVD、ROMカートリッジ、バッテリバック
アップ付きのRAMメモリカートリッジ、フラッシュメ
モリカートリッジ、不揮発性RAMカートリッジ等を含
む。
The medium includes, for example, a floppy disk,
Hard disk, magnetic tape, magneto-optical disk, CD-
Includes ROM, DVD, ROM cartridge, RAM memory cartridge with battery backup, flash memory cartridge, nonvolatile RAM cartridge, and the like.

【0021】また、電話回線等の有線通信媒体、マイク
ロ波回線等の無線通信媒体等の通信媒体を含む。インタ
ーネットもここでいう通信媒体に含まれる。
The communication medium also includes a communication medium such as a wired communication medium such as a telephone line and a wireless communication medium such as a microwave line. The Internet is also included in the communication medium mentioned here.

【0022】媒体とは、何等かの物理的手段により情報
(主にデジタルデータ、プログラム)が記録されている
ものであって、コンピュータ、専用プロセッサ等の処理
装置に所定の機能を行わせることができるものである。
要するに、何等かの手段でもってコンピュータにプログ
ラムをダウンロードし、所定の機能を実行させるもので
あればよい。
A medium is a medium on which information (mainly digital data and programs) is recorded by some physical means, and which allows a processing device such as a computer or a dedicated processor to perform a predetermined function. You can do it.
In short, any method may be used as long as the program is downloaded to the computer by some means and a predetermined function is executed.

【0023】[0023]

【発明の実施の形態】発明の実施の形態1.本発明の実
施の形態では、複数の画像から、近景及び遠景の両方に
ついて完全に焦点が合った全焦点画像や、任意に各奥行
きのぼけの程度を抑制・強調した画像である任意焦点画
像を再構成する装置/方法について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 of the Invention In the embodiment of the present invention, from a plurality of images, an all-focus image in which both the near view and the distant view are completely focused, or an arbitrary focus image which is an image in which the degree of blur at each depth is arbitrarily suppressed / emphasized. An apparatus / method for reconfiguration will be described.

【0024】近景合焦画像g1と遠景合焦画像g2から所
望の任意焦点画像fを再構成する方法について簡単に説
明する。図1はこの発明の実施の形態に係る装置の概略
ブロック図を示す。この装置は、近景画像g1と遠景画
像g2から全焦点画像と任意焦点画像の両方の画像を再
構成することができる。フィルタ10aは近景画像g1
に対して所定の処理を行い、フィルタ10bは遠景画像
g2に対して所定の処理を行う。フィルタの詳細につい
ては後述する。合成部11は、フィルタ10aの出力と
フィルタ10bの出力を合成して再構成画像fを出力す
る。フィルタ10a、10bは、それぞれパラメータR
a、Rbを外部から受ける。パラメータRaとRbはそ
れぞれ所望の画像の近景と遠景のぼけ半径である。Ra
=Rb=0のとき、再構成画像fは全焦点画像となる。
パラメータRa,Rbを調整することにより、任意焦点
画像を再構成することができる。
A method of reconstructing a desired arbitrary-focus image f from the near-field focused image g1 and the far-field focused image g2 will be briefly described. FIG. 1 shows a schematic block diagram of an apparatus according to an embodiment of the present invention. This apparatus can reconstruct both an all-focus image and an arbitrary-focus image from the foreground image g1 and the distant view image g2. The filter 10a outputs the foreground image g1.
And the filter 10b performs a predetermined process on the distant view image g2. Details of the filter will be described later. The combining unit 11 combines the output of the filter 10a and the output of the filter 10b to output a reconstructed image f. The filters 10a and 10b each have a parameter R
a and Rb are received from outside. Parameters Ra and Rb are the blur radii of the near and distant views of the desired image, respectively. Ra
When = Rb = 0, the reconstructed image f is an all-focus image.
By adjusting the parameters Ra and Rb, an arbitrary focus image can be reconstructed.

【0025】例えば、全焦点画像を生成する場合、近景
用の第1フィルタ、遠景用の第2のフィルタとも高域通
過特性を有する。第1画像、第2画像に第1、第2のフ
ィルタでバランスよく高域成分を抽出し足し合わせるこ
とで、全焦点画像を得ることができる。任意焦点画像に
おいても、フィルタ特性を工夫することで生成が可能で
ある。具体的なフィルタの特性については後述する。
For example, when generating an all-focus image, both the first filter for the near view and the second filter for the distant view have high-pass characteristics. An omnifocal image can be obtained by extracting and adding high-frequency components in a balanced manner to the first image and the second image using the first and second filters. Even an arbitrary focus image can be generated by devising filter characteristics. Specific filter characteristics will be described later.

【0026】この発明の実施の形態の装置/方法は、焦
点画像と任意焦点画像の取得モデルにおいて,一意に目
的の画像を再構成するためのフィルタが存在することに
基づく。従来の反復復元法では、目的の画像の直流成分
が、画像復元の意味でいわゆる悪条件(ill−conditio
n)となっていた.本発明の実施の形態では,再構成フ
ィルタの直流成分が存在し、全ての周波数成分を再構成
できる.
The apparatus / method according to the embodiment of the present invention is based on the fact that a filter for uniquely reconstructing a target image exists in a model for acquiring a focused image and an arbitrary focused image. In the conventional iterative restoration method, the DC component of a target image is a so-called ill-conditio
n). In the embodiment of the present invention, the DC component of the reconstruction filter exists, and all frequency components can be reconstructed.

【0027】まず、焦点画像の取得と任意焦点画像の再
構成のモデルを検討する。任意焦点画像の再構成方法で
は,取得画像の対象シーンの奥行きが段差状に変化して
いると仮定する。以下では,対象シーンが近景と遠景の
2層の奥行きをもつ場合について,各焦点画像の取得と
任意焦点画像の再構成をモデル化する。
First, a model for obtaining a focus image and reconstructing an arbitrary focus image will be examined. In the method of reconstructing an arbitrary focus image, it is assumed that the depth of the target scene of the acquired image changes in a stepped manner. In the following, the target scene is
For a case with two layers of depth, the acquisition of each focus image and the reconstruction of an arbitrary focus image are modeled.

【0028】<焦点画像の取得モデル>焦点画像の取得
モデルは画像の重ね合わせを用いておこなう。画像f1
を近景領域にのみ焦点の合った輝度値をもち,それ以外
の領域,つまり遠景領域では輝度値が0である画像と定
義する。逆に,画像f2を遠景領域にのみ焦点の合った
輝度値をもち,近景領域では輝度値が0である画像と定
義する。近景合焦画像をg1,遠景合焦画像をg2と表
す。また,画像g1の遠景領域のぼけ関数をh2,画像
g2の近景領域のぼけ関数をh1と表す。各焦点画像g1
とg2の取得モデルを図Dに示すような重ね合わせで表
す。すなわち,次式のように表す。 g1=f1+h2*f2 g2=h1*f1+f2 (6) ただし、*はたたみ込み演算を示す。
<Focal Image Acquisition Model> The focal image acquisition model is performed using superposition of images. Image f1
Is defined as an image having a luminance value focused only on the foreground region, and having a luminance value of 0 in other regions, that is, a distant region. Conversely, the image f2 is defined as an image having a luminance value focused only on a distant view area and having a luminance value of 0 in a near view area. The near-field focused image is represented by g1 and the far-field focused image is represented by g2. The blur function of the distant view area of the image g1 is represented by h2, and the blur function of the near view area of the image g2 is represented by h1. Each focus image g1
And the acquired model of g2 are represented by superposition as shown in FIG. That is, it is represented by the following equation. g1 = f1 + h2 * f2 g2 = h1 * f1 + f2 (6) where * indicates a convolution operation.

【0029】<任意焦点画像の再構成モデル>任意焦点
画像の再構成モデルも同様に,画像の重ね合わせを用い
る。所望の任意焦点画像をfと表し,近景と遠景の領域
のぼけをそれぞれぼけ関数haとhbにより与える。し
たがって,図2に示すように,任意焦点画像fの再構成
モデルを次式のように表す。 f=ha*f1+hb*f2 (7) ぼけ関数ha,hbはユーザが任意に指定する。ぼけ関
数は次式に示すガウス関数を用いる。
<Reconstruction Model of Arbitrary Focus Image> Similarly, a reconstruction model of an arbitrary focus image uses image superposition. A desired arbitrary focus image is represented by f, and blurs in the near and distant areas are given by blur functions ha and hb, respectively. Therefore, as shown in FIG. 2, the reconstruction model of the arbitrary focus image f is expressed by the following equation. f = ha * f1 + hb * f2 (7) The blur functions ha and hb are arbitrarily specified by the user. As the blur function, a Gaussian function expressed by the following equation is used.

【0030】[0030]

【数1】 (Equation 1)

【0031】Ri(i=1,2、a,b)は、ぼけ半径を
表し,ガウス関数の標準偏差の√2倍に相当する。Ra
=Rb=0とすれば、ha=hb=δ(デルタ関数)とな
るので,式(7)は全焦点画像の再構成モデルとなる。
Ri (i = 1, 2, a, b) represents the blur radius and corresponds to √2 times the standard deviation of the Gaussian function. Ra
If = Rb = 0, then ha = hb = δ (delta function), so that equation (7) is a reconstruction model of the all-focus image.

【0032】次に、フィルタによる再構成方法について
説明する。フィルタを用いて、焦点画像g1とg2から
所望の任意焦点画像fを再構成することができる。シミ
ュレーションによれば本方法が従来の反復復元法に比べ
て高精度かつ高速であることがわかった。以下、この方
法について述べる.
Next, a reconstruction method using a filter will be described. Using a filter, a desired arbitrary focus image f can be reconstructed from the focus images g1 and g2. Simulations show that this method is more accurate and faster than the conventional iterative restoration method. The method is described below.

【0033】<再構成フィルタの導出>再構成フィルタ
を式(7)のg1とg2の取得モデルと式(7)のfの再
構成モデルから導出する。はじめに、各モデルを周波数
領域に変換する。G1とG2の取得モデルは次式のよう
に、行列で表現できる。 G=HF (17) ただし、各行列は
<Derivation of Reconstruction Filter> A reconstruction filter is derived from the obtained models of g1 and g2 in equation (7) and the reconstruction model of f in equation (7). First, each model is transformed into the frequency domain. The acquisition models of G1 and G2 can be represented by a matrix as in the following equation. G = HF (17) where each matrix is

【0034】[0034]

【数2】 (Equation 2)

【0035】である。Fの再構成モデルは次式のように
なる。 F=HaF1+HbF2 (18)
Is as follows. The reconstruction model of F is as follows. F = HaF1 + HbF2 (18)

【0036】次に、式(17)と式(18)からFを求め
る。行列式|H|の値によって次の場合分けをする。な
お、|H|=1−H1H2であり、|H|は、画像f、g、ぼ
け関数hとしたとき、g=h*fであり、この両辺をフ
ーリエ変換したG=HFのHに等しい。
Next, F is obtained from equations (17) and (18). The following cases are classified according to the value of the determinant | H |. Note that | H | = 1−H1H2, and | H | is g = h * f, where f is the image and g and the blurring function is h, and is equal to H of G = HF obtained by Fourier-transforming both sides. .

【0037】(i)|H|≠0の場合 1−H1H2≠0の場合、すなわち、直流以外の周波数で
は、逆行列H−1が存在する。よって、行列Fは以下のよ
うに求まる。
(I) In the case of | H | ≠ 0 In the case of 1−H1H2 ≠ 0, that is, at frequencies other than DC, there is an inverse matrix H− 1 . Therefore, the matrix F is obtained as follows.

【0038】[0038]

【数3】 (Equation 3)

【0039】Fを式(18)に代入し、整理すると、Substituting F into equation (18) and rearranging it,

【0040】[0040]

【数4】 が求まる。(Equation 4) Is found.

【0041】(ii)|H|=0の場合 直流では(1−H1H2)=0であるから、逆行列H−1
存在しない。よって,行列Fを求めることができない。
しかし,式(20)における、G1とG2の係数の分子もHa
−HbH1=0,Hb−HaH2=0となる.そこで、これらの係
数の直流への極限値をロピタルの定理を用いて解くと
(Ii) In the case of | H | = 0 Since (1-H1H2) = 0 in direct current, there is no inverse matrix H- 1 . Therefore, the matrix F cannot be obtained.
However, the numerator of the coefficients of G1 and G2 in Equation (20) is also Ha
−HbH1 = 0 and Hb−HaH2 = 0. Therefore, solving the limiting values of these coefficients to DC using Lopital's theorem

【0042】[0042]

【数5】 (Equation 5)

【0043】が存在する。したがって、(i)と(ii)
により、
Exists. Therefore, (i) and (ii)
By

【0044】[0044]

【数6】 (Equation 6)

【0045】で表されるフィルタKaとKbによって、F
は次式のように再構成できることがわかる。 Fab=KaG1+KbG2 (25)
By the filters Ka and Kb expressed by
Can be reconstructed as follows. Fab = KaG1 + KbG2 (25)

【0046】図1に示すように,焦点画像g1とg2を
それぞれフィルタKaとKbに通した後,加算すること
で任意焦点画像fを得ることができる。RaをRbを変
えることで、近景と遠景のぼけをそれぞれ任意に設定で
きる。公知の反復復元法においては直流成分が悪条件と
なったが、フィルタ法を用いれば適切問題として解ける
ことを示している。すなわち、本方法によりfが一意に
存在し、決定できることが示された。
As shown in FIG. 1, an arbitrary focus image f can be obtained by passing the focus images g1 and g2 through filters Ka and Kb, respectively, and adding them. By changing Ra and Rb, the blur of the near view and the distant view can be arbitrarily set. In the known iterative restoration method, the DC component was in a bad condition, but it can be solved as an appropriate problem by using the filter method. That is, it was shown that f is uniquely present and can be determined by this method.

【0047】<再構成フィルタの特性>再構成フィルタ
KaとKbの周波数特性の例を図3に示す。まず、2枚
の画像において、遠景に焦点の合っている画像(g2)
では、近景のぼけ半径R1=3、近景に焦点の合っている
画像(g1)では遠景のぼけ半径R2=2とした。このと
き、任意焦点画像として、Ra=0とし、Rbを0から4まで変
化させた場合のフィルタKa、Kbの特性を図3に示し
ている。これは近景領域に焦点を合わせたまま、遠景領
域のぼけの程度を大きく変化させる処理を意味する。
<Characteristics of Reconstruction Filter> FIG. 3 shows an example of frequency characteristics of the reconstruction filters Ka and Kb. First, in two images, an image focused on a distant view (g2)
In this example, the blur radius R1 of the foreground is R3 = 3, and the blur radius R2 of the distant view is R2 = 2 for the image (g1) focused on the foreground. At this time, FIG. 3 shows the characteristics of the filters Ka and Kb when Ra = 0 and Rb are changed from 0 to 4 as an arbitrary focus image. This means a process of largely changing the degree of blur in the distant view area while keeping the focus on the near view area.

【0048】Ra=0としているので、Rb=0の場合は、全
焦点画像を再構成するフィルタの特性を示している。両
フィルタともに高域通過フィルタのような特性を示して
いる。つまり、それぞれの焦点画像の高周波成分を統合
して仝焦点画像を再構成していることがわかる。Rb=2の
場合、Kaは全域通過、Kbは全域遮断の特性となる。こ
の理由は、再構成される任意焦点画像fは焦点画像g1
と同一であるからである。Rb>2の場合、Kaは高域通過
のまま、低域強調の特性を示す。 Kbは高域遮断のま
ま、低域を負に強調した特性を示す。焦点画像で強調さ
れた低域成分を引くことによって遠景領域のぼけを強調
することがわかる。
Since Ra = 0, Rb = 0 indicates the characteristics of a filter for reconstructing an all-focus image. Both filters show characteristics like a high-pass filter. That is, it can be seen that the high-frequency components of the respective focus images are integrated to reconstruct the 仝 -focus image. In the case of Rb = 2, Ka has the characteristic of passing through all regions, and Kb has the characteristic of blocking all regions. The reason is that the reconstructed arbitrary focus image f is the focus image g1.
Is the same as When Rb> 2, Ka exhibits the characteristics of low-frequency emphasis while maintaining high-frequency pass. Kb shows characteristics that emphasize low frequencies negatively while keeping high frequencies cut off. It can be seen that the blur in the distant view area is enhanced by subtracting the low-frequency component emphasized in the focus image.

【0049】シミュレーション結果によれば、フィルタ
法を用いることにより、反復法に比べて、精度と計算時
間ともに向上していることがわかった。反復法では空間
領域でのぼけ関数の畳み込み演算に多くの時間を要す
る。また、ぼけ関数の畳み込みの回数が増えるごとに、
誤差が大きく伝搬する可能性もある。本フィルタ法で
は、フィルタを用いることにより直接所望の画像を1回
の処理で高精度に再構成できる。
According to the simulation results, both the accuracy and the calculation time are improved by using the filter method as compared with the iterative method. In the iterative method, much time is required for the convolution operation of the blur function in the spatial domain. Also, as the number of convolutions of the blur function increases,
The error may propagate greatly. In the present filter method, a desired image can be directly reconstructed with a single process with high accuracy by using a filter.

【0050】発明の実施の形態2.2枚の焦点画像をフ
ィルタ処理することにより任意焦点画像を再構成して生
成する上述の手法において、利用する複数の画像間に平
均的な輝度レベルの差があると良好な画像を再構成でき
ない場合がある。デジタルカメラ等の撮像装置は、明る
さを自動的に調整する機能(AGC)をもつので、近景画
像の輝度と遠景画像の輝度とは必ずしも一致しない。そ
のため、以下のような輝度補正を行うことが望ましい。
Embodiment 2 of the Invention In the above-mentioned method of reconstructing and generating an arbitrary focus image by filtering two focus images, the difference in average luminance level between a plurality of images to be used. In some cases, a good image cannot be reconstructed. Since an imaging device such as a digital camera has a function of automatically adjusting the brightness (AGC), the brightness of the near view image does not always match the brightness of the far view image. Therefore, it is desirable to perform the following luminance correction.

【0051】近景合焦画像g1と遠景合焦画像g2から所
望の任意焦点画像fを再構成する場合、以下のコスト関
数を最小とするパラメータAとBを最小自乗法を用いて
推定する。この際、両画像間のぼけ量の差を考慮して階
層化した画像間で以下のコスト関数を評価することが望
ましい。ここに、g1(k)とg2(k)はそれぞれガ
ウシアンビラミッドの第k層の画像を表す(詳細は後述
する)。ただし、第0層を原画像とする。
When reconstructing a desired arbitrary-focus image f from the near-field focused image g1 and the far-field focused image g2, the following parameters A and B that minimize the cost function are estimated using the least squares method. At this time, it is desirable to evaluate the following cost function between the hierarchized images in consideration of the difference in the amount of blur between the two images. Here, g1 (k) and g2 (k) each represent an image of the k-th layer of the Gaussian villa mid (details will be described later). However, the 0th layer is the original image.

【0052】[0052]

【数7】 (Equation 7)

【0053】シミュレーション結果によれば、本方法に
よりパラメータA,Bを高精度に推定できた。補正前の画
像g2を用いて生成した画像では、画面全体で輝度値が
低下し、遠景領域でエッジが強調されるアーティフアク
トが確認された。これに対して、補正後の画像を用いて
生成した画像は良好に生成できた。観測画像におけるぼ
け量よりも大きなぼけを与える任意焦点画像の生成で
は,生成のためのフィルタKaとKbの低域成分がそれ
ぞれ正負に大きくなる。このため、平均的な輝度値の差
が生成画像にこのようなアーティフアクトを生じさせる
と考えることができる。したがって、輝度補正を行うこ
とにより、ぼけを強調した生成画像にエッジ強調と輝度
の低下のアーティフアクトが生じるという問題を回避す
ることができる。
According to the simulation results, the parameters A and B could be estimated with high accuracy by this method. In the image generated using the image g2 before the correction, it was confirmed that the brightness value was reduced over the entire screen, and that the edge was emphasized in the distant view area. On the other hand, an image generated using the corrected image was successfully generated. In the generation of an arbitrary focus image that gives a larger blur than the amount of blur in the observation image, the low-frequency components of the filters Ka and Kb for the generation become positive and negative, respectively. For this reason, it can be considered that the average luminance value difference causes such an artifact in the generated image. Therefore, by performing the brightness correction, it is possible to avoid a problem that an artifact of edge enhancement and brightness reduction occurs in a generated image in which blur is enhanced.

【0054】画面の中央と端部とで焦点を変えて撮影し
たときには、画面内に輝度変動が生じる。この場合、画
面を各ブロックに分割してそれぞれのブロック毎に適切
な補正パラメータを求める必要がある。この場合、上記
の処理をブロック毎に行うことになる。また、ブロック
間での補正のばらつきを減らすためには、図4のように
ブロック毎の補正パラメータは各々のブロックの中心画
素に対して用い、それ以外の画素は双一次補間された補
正パラメータを用いる。また、補正パラメータの推定精
度を安定させるために、評価量として次式を用いること
もある。 [Σ g1(i,j)−A・Σ g2(i,j)] ただし、(i,j)∈B(ブロックB内の要素について
総和を求める)この場合、いわばブロック内の平均輝度
値の比(A)により補正を行うことになる。
When the image is taken with the focus changed between the center and the end of the screen, the brightness varies within the screen. In this case, it is necessary to divide the screen into each block and obtain an appropriate correction parameter for each block. In this case, the above processing is performed for each block. In order to reduce the variation in correction between blocks, the correction parameters for each block are used for the center pixel of each block as shown in FIG. 4, and the other pixels use the correction parameters subjected to bilinear interpolation. Used. In order to stabilize the estimation accuracy of the correction parameter, the following expression may be used as the evaluation amount. [Σg1 (i, j) −A · Σg2 (i, j)] 2 where (i, j) ∈B (to obtain the sum of elements in block B) In this case, so-called average luminance value in the block Is corrected by the ratio (A).

【0055】多数枚の画像を合成するときは、ブロック
単位で輝度補正を行っても良い。例えば、N枚の画像を
合成する場合、図4のように、N枚の撮像画像をそれぞ
れ正方形ブロックに分割する。k+1枚目の画像をk枚目
に合わせるよう順次補正を行うものとする(k=1,2,
‥‥,N−1)。ブロック毎に画像間の平均輝度値の比を
求め、そのブロックの中心画素の補正パラメータとす
る。中心画素以外に対しては双一次内挿により求める。
最後に補正パラメータを画素の輝度値に乗じることで輝
度補正を行う。なお、どちらかの画像でブロック内に輝
度飽和が生じている領域の割合が、ある大ささ以上の場
合、そのブロックの中心画素の補正パラメータは周囲の
ブロックのものの平均値として補間する。
When synthesizing a large number of images, luminance correction may be performed in block units. For example, when combining N images, each of the N captured images is divided into square blocks as shown in FIG. Correction is performed sequentially so that the k + 1st image matches the kth image (k = 1, 2,
‥‥, N−1). The ratio of the average luminance value between the images is obtained for each block, and is used as a correction parameter for the central pixel of the block. Values other than the center pixel are obtained by bilinear interpolation.
Finally, the luminance correction is performed by multiplying the luminance value of the pixel by the correction parameter. When the ratio of the area where luminance saturation occurs in a block in one of the images is equal to or larger than a certain size, the correction parameter of the central pixel of the block is interpolated as an average value of the peripheral blocks.

【0056】発明の実施の形態3.複数の焦点画像を再
構成処理に用いるには、これらの画像間の位置合わせ
(レジストレーション)が必要となる。複数枚の焦点画
像を撮像する場合,互いに正確に撮像位置が一致した画
像を得ることは困難であり,撮像画像間では位置ずれが
生じることが考えられる。また,焦点合わせの違いによ
る倍率変化も生じる。位置合わせの精度が悪ければ、再
構成画像にぶれが生じるだけでなく、再構成に必要とな
るぼけパラメータの推定の精度に影響を与える。その結
果、再構成画像の精度の低下も招く。したがって,位置
合わせは高精度な画像再構成・生成を行なうために必要
な前処理である。
Third Embodiment of the Invention In order to use a plurality of focus images in the reconstruction processing, registration (registration) between these images is required. When capturing a plurality of focal images, it is difficult to obtain images whose imaging positions match each other accurately, and it is conceivable that a positional shift may occur between the captured images. Further, a change in magnification due to a difference in focusing occurs. Poor alignment accuracy not only causes blurring of the reconstructed image, but also affects the accuracy of estimation of blur parameters required for the reconstruction. As a result, the accuracy of the reconstructed image is reduced. Therefore, positioning is a pre-process necessary for performing high-precision image reconstruction / generation.

【0057】<複数の焦点画像間の位置合わせ(その
1:階層的マッチング方法)>近景合焦画像g1と遠景
合焦画像g2から所望の任意焦点画像fを再構成するた
めには、まず、各焦点画像間で位置合わせを行う必要が
ある。以下、複数の焦点画像間の位置合わせの方法につ
いて説明する。
<Positioning among a plurality of focus images (Part 1: Hierarchical matching method)> In order to reconstruct a desired arbitrary focus image f from the near focus image g1 and the far focus image g2, first, It is necessary to perform registration between each focus image. Hereinafter, a method of positioning between a plurality of focus images will be described.

【0058】近景に焦点の合った画像Inと、遠景に焦点
の合った画像Ifが得られたとする。画像Inは例えば花壇
の前に立つ人物の画像であり、画像Ifは例えば背景の花
壇の画像である。Inを基準としてIfの回転、伸縮、並進
(順に、θ,s,ベクトルt=(u,v)と表す)の差
違を推定する。この場合、伸縮は焦点距離の関係から拡
大のみを考慮すればよい。本方法ではこの間題に対し
て、階層化マッチング法に回転と伸縮のパラメータを組
み入れて疎密に各パラメータを探索する。InとIfは互い
に合焦領域と非合焦領域が異なるために直接マッチング
を行うと誤差が生じる可能性が大きい。階層化マッチン
グ法を用いれば,画像の階層化によって,両画像間のぼ
けの差を低減してマッチングを行うことができる。その
結果,ぼけの差に対してロバストな位置合わせを行うこ
とができると考えられる。
It is assumed that an image In focused on a near view and an image If focused on a distant view are obtained. The image In is, for example, an image of a person standing in front of the flower bed, and the image If is, for example, an image of a background flower bed. Based on In, the difference in rotation, expansion, contraction, and translation (expressed as θ, s, and vector t = (u, v) in order) of If is estimated. In this case, the expansion and contraction need only consider the enlargement from the relation of the focal length. In the present method, the parameters of rotation and expansion and contraction are incorporated into the hierarchical matching method to search for each parameter sparsely and densely. Since In and If have different in-focus areas and out-of-focus areas, there is a high possibility that an error will occur if direct matching is performed. If the hierarchical matching method is used, matching can be performed by reducing the difference in blur between the two images by layering the images. As a result, it is considered that the positioning can be performed robustly with respect to the difference in blur.

【0059】本方法の処理の流れは、(1)画像の階層
化、(2)各層でのパラメータの推定となる。はじめ
に,両画像を階層化し,最も解像度の低い最上層におい
てパラメータを広い探索範囲で求める。以下、順次上層
で推定されたパラメータの周辺のみに探索範囲を限定し
ながらマッチングを最下層に至るまで行い、最終的に原
画像間でのパラメータを求める。以下では処理の流れに
沿って具体的に方法を述べる。
The processing flow of this method is (1) hierarchization of an image, and (2) estimation of parameters in each layer. First, both images are hierarchized, and parameters are obtained in a wide search range in the uppermost layer having the lowest resolution. Hereinafter, matching is performed up to the lowermost layer while limiting the search range only to the vicinity of the parameters estimated in the upper layer, and finally the parameters between the original images are obtained. Hereinafter, the method will be specifically described along the processing flow.

【0060】(1)画像の階層化 両画像の階層化は,ガウシアンビラミッドを形成するこ
とでおこなう。ガウシアンピラミッドは次のようにして
形成される。原画像を第0層とし、最も解像度の低い最
上層を第L層として、第k(=0,1,‥,L)層の焦点画像をIn
(k)及びIf(k)と表す。次式により各層の画像が順次形成
される。
(1) Hierarchization of Images Hierarchization of both images is performed by forming a Gaussian villamid. The Gaussian pyramid is formed as follows. The original image is the 0th layer, the top layer having the lowest resolution is the Lth layer, and the focus image of the kth (= 0, 1, ‥, L) layer is In.
(k) and If (k). The image of each layer is sequentially formed by the following equation.

【0061】[0061]

【数8】 (Equation 8)

【0062】ここで、wは標準偏差が1である2次元ガウ
ス関数を近似したものである。[・]↓2はダウンサン
プリングを表す。第k層の画像は1つ下の第k−1層の画
像をガウシアンフィルタに通し,ダウンサンプリングす
ることによって得られる。ガウシアンフィルタは低域通
過フィルタの働きをするので,上層ではより両画像間の
ぼけの程度の差が低減される。
Here, w is an approximation of a two-dimensional Gaussian function having a standard deviation of 1. [•] ↓ 2 indicates downsampling. The image of the k-th layer is obtained by passing the image of the (k−1) -th layer below by a Gaussian filter and down-sampling. Since the Gaussian filter acts as a low-pass filter, the difference in the degree of blur between the two images is further reduced in the upper layer.

【0063】(2)各層におけるパラメータの推定 本方法では画像If(x,y)に回転、伸縮、並進を施し
た画像If(x′,y′)とIn(x,y)との平均自乗誤差
(MSE)を最小にする各パラメータを求める。第k層に
おける各パラメータをθ(k),s(k),u(k),
v(k)とすれば,第k層において最小にすべき評価関
数J(k)は
(2) Estimation of Parameters in Each Layer In this method, the mean square of the image If (x ′, y ′) obtained by rotating, expanding, contracting, and translating the image If (x, y) and In (x, y) Find each parameter that minimizes the error (MSE). Each parameter in the k-th layer is represented by θ (k), s (k), u (k),
Assuming that v (k), the evaluation function J (k) to be minimized in the k-th layer is

【0064】[0064]

【数9】 (Equation 9)

【0065】と表すことができる。ここに,Can be expressed as follows. here,

【0066】[0066]

【数10】 (Equation 10)

【0067】である。ただし,B(k)はIn(k)
(x、y)とIf(k)(x′,y′)の重複領域,NB
(k)はその画素数である。各パラメータの探索点は階
層によって次のように設定する。
Is as follows. Where B (k) is In (k)
Overlap region of (x, y) and If (k) (x ', y'), NB
(K) is the number of pixels. The search point of each parameter is set as follows according to the hierarchy.

【0068】[0068]

【数11】 [Equation 11]

【0069】ただし、i、j、m、nは整数、△θ、△
s、△u、△vは原画像間における探索間隔、つまり各
パラメータの推定精度である。ハットθ(k+1),ハ
ットs(k+1),ハットu(k+1)、ハットv(k
+1)は上層の第k+1層で推定された各パラメータを
表す。θmax、smax、umax、vmaxは最上層において探
索範囲を限定する値で,あらかじめ設定する。ただし,
umaxとvmaxの値はそれぞれ最上層の画像各辺のサイズ
の半分とする。各層において並進のパラメータの探索間
隔△uと△vが一定であるのは,第k層での並進量は第
k+1層でのそれの2倍に相当するからである。
Where i, j, m and n are integers, {θ, △
s, △ u, △ v are search intervals between original images, that is, estimation accuracy of each parameter. Hat θ (k + 1), hat s (k + 1), hat u (k + 1), hat v (k
+1) represents each parameter estimated in the upper (k + 1) th layer. θmax, smax, umax, and vmax are values that limit the search range in the uppermost layer and are set in advance. However,
The values of umax and vmax are respectively set to half the size of each side of the image in the uppermost layer. The search intervals △ u and △ v of the translation parameter in each layer are constant because the translation amount in the k-th layer is twice as large as that in the k + 1-th layer.

【0070】本方法における推定のながれを図5に示
す。各層では,画像In(k)(x、y)と回転、伸縮、
並進の変換を行なった画像If(k)(x′、y′)とのM
SEを最小にする各パラメータを求める。最も解像度の低
い最上層(k=L)においては,あらかじめ設定した探
索範囲内で、各パラメータを広い間隔で粗く推定を行な
う。探索間隔は最下層におけるそれの2倍に相当す
る。最上層以外の層では,順次上層で推定されたパラメ
ータの周囲5点のみに探索範囲を限定しながら推定精度
を2倍にして探索を行なう。この探索を最下層に至るま
で行い,最終的に各パラメータを推定する。
FIG. 5 shows the flow of estimation in this method. In each layer, image In (k) (x, y) and rotation,
M with translation-converted image If (k) (x ', y')
Find each parameter that minimizes SE. In the uppermost layer (k = L) having the lowest resolution, each parameter is roughly estimated at wide intervals within a preset search range. The search interval corresponds to 2 L times that of the lowest layer. In layers other than the top layer, the search is performed by doubling the estimation accuracy while sequentially limiting the search range to only five points around the parameters estimated in the upper layer. This search is performed up to the lowest layer, and each parameter is finally estimated.

【0071】最後に,推定した各パラメータ,回転伸
縮,並進を施した画像If(x′,y′)とIn(x,y)
との共通領域を切り取りそれぞれの補正画像を得る。対
象シーンが3層以上の場合でも最も近景の焦点画像を基
準として,他の画像の位置合わせを行ない,共通領域を
抽出すれば補正を行なうことができる。
Finally, the images If (x ', y') and In (x, y) which have been subjected to the estimated parameters, the rotational expansion / contraction, and the translation are applied.
Is cut out to obtain respective corrected images. Even when the target scene has three or more layers, the correction can be performed by aligning the other images based on the focus image of the closest view and extracting the common area.

【0072】シミュレーションによれば、各伸縮におい
てぼけ半径が小さければすべての場合で正しい推定が行
なわれた。ぼけ半径が大きい場合においても誤差は最大
2[pixels]までに抑えられ,良好な結果が得られた。
誤差が3[pixels]以上生じることはなかった。
According to the simulation, correct estimation was performed in all cases if the blur radius was small in each expansion and contraction. The error is maximum even when the blur radius is large.
It was suppressed to 2 [pixels], and good results were obtained.
The error did not occur more than 3 [pixels].

【0073】発明の実施の形態4. <複数の焦点画像間の位置合わせ(その2:輝度投影)
>上記発明の実施の形態3の階層化マッチング方法は精
度の点で問題はないが、処理に複雑であり時間がかかる
という問題があった。そこで、簡単かつ高速処理が可能
な輝度投影方法を提案する。
Embodiment 4 of the Invention <Positioning between multiple focus images (Part 2: Luminance projection)
The hierarchical matching method according to the third embodiment of the present invention has no problem in accuracy, but has a problem that processing is complicated and takes time. Therefore, we propose a luminance projection method that can perform simple and high-speed processing.

【0074】この方法は、近景画像Inを基準としたとき
の遠景画像Ifの伸縮、並進(s,ベクトルt=(u,
v))の差違を推定することができる。図6に輝度投影
法による複数の焦点画像間の位置合わせ装置のブロック
図を示す。図7にその動作説明図を示す。各行・各列の
平均輝度値計算部20a,20bは、それぞれ入力画像
InとIfの各行および各列の平均輝度値を計算する。輝度
投影分布作成部21a,21bは、それぞれIn、Ifの輝
度投影分布を作成する。各行の平均輝度値の分布を垂直
分布、各列の平均輝度値の分布を水平分布とする。これ
らの処理により、図7(a)(b)のようなIn、Ifの輝
度分布が得られる。なお、図7(b)の点線の円は、図
7(a)の円と同じ大きさの円を示す。この様に、各画
像は水平分布と垂直分布という2つの1次元分布の組み合
わせとして表される。比較部22は、Inを基準としてこ
れら2つの分布を比較し、比較結果に基づき、拡大・並
進推定部23はIfの拡大と並進(順に、s、t=(u,
v))の差異を推定する。例えば、被写体が円形をして
いる場合、図7(a)の近景画像Inの輝度投影は、その
水平分布の中心c、直径a、その垂直分布の中心d、直
径bであるとする。図7(b)の遠景画像Ifの輝度投影
は、その水平分布の中心c‘、直径a’、その垂直分布
の中心d‘、直径b’であるとする。拡大sは、a‘/
a及びb’/bから推定できる。並進tのうち水平成分
uはc‘−cから推定でき、垂直成分vはd’−dから
推定できる。
In this method, the distant view image If is scaled and translated (s, vector t = (u,
v)) the difference can be estimated. FIG. 6 shows a block diagram of an apparatus for aligning a plurality of focus images by the luminance projection method. FIG. 7 shows an explanatory diagram of the operation. The average luminance value calculation units 20a and 20b for each row and each column respectively
Calculate the average luminance value of each row and each column of In and If. The luminance projection distribution creating units 21a and 21b create In and If luminance projection distributions, respectively. The distribution of the average luminance value in each row is a vertical distribution, and the distribution of the average luminance value in each column is a horizontal distribution. Through these processes, luminance distributions of In and If as shown in FIGS. 7A and 7B are obtained. Note that the dotted circle in FIG. 7B indicates a circle having the same size as the circle in FIG. 7A. Thus, each image is represented as a combination of two one-dimensional distributions, a horizontal distribution and a vertical distribution. The comparison unit 22 compares these two distributions with reference to In, and based on the comparison result, the enlargement / translation estimation unit 23 enlarges and translates If (in order, s, t = (u,
v) Estimate the difference. For example, when the subject has a circular shape, it is assumed that the luminance projection of the foreground image In in FIG. 7A has a center c of the horizontal distribution, a diameter a, a center d of the vertical distribution, and a diameter b. It is assumed that the luminance projection of the distant view image If in FIG. 7B is the center c ′ of the horizontal distribution, the diameter a ′, the center d ′ of the vertical distribution, and the diameter b ′. The expansion s is a '/
It can be estimated from a and b '/ b. The horizontal component u of the translation t can be estimated from c′−c, and the vertical component v can be estimated from d′−d.

【0075】輝度投影方法は、階層化マッチング方法に
比べて計算量が著しく少なくなり非常に速くなる。シミ
ュレーション結果によると、処理時間が約1/200に
なった。その代わり若干精度が落ちるが、それでも誤差
は1pixel程度までの変化に抑えられ、良好な結果が得ら
れる。
The luminance projection method requires a very small amount of calculation and is very fast as compared with the hierarchical matching method. According to the simulation result, the processing time was reduced to about 1/200. Instead, the accuracy is slightly reduced, but the error is still suppressed to a change of about 1 pixel, and a good result is obtained.

【0076】発明の実施の形態5.全焦点画像を得るた
めの装置の構成は図1に示されている。この構成は最も
基本的なものである。この構成にさらにフィルタを追加
することにより、全焦点画像に特殊な効果を施すことが
できる。
Embodiment 5 of the Invention FIG. 1 shows the configuration of an apparatus for obtaining an all-focus image. This configuration is the most basic. By adding a filter to this configuration, a special effect can be applied to the omnifocal image.

【0077】図8(a)は、その一例を示す。フィルタ
10a,10bは焦点処理のためのフィルタであり、フ
ィルタ12は別の特殊処理のためのフィルタである。遠
景画像g2側にフィルタ12が設けられている。このフ
ィルタは任意のフィルタであるが、その一例を挙げると
横(あるいは縦)方向に画素データを足し合わせるもの
が考えられる。横(あるいは縦)方向にデータd0,d1,d
2,d3,d4,・・・があるとき、d2=(d2+d1+d0)/3、d3=
(d3+d2+d1)/3、・・・である。縦(あるいは横)方
向のデータはそのままである。このフィルタを用いる
と、遠景画像g2は横方向に流れるような画像に変換さ
れ、この変換された画像が近景画像g1と合成される。
合成された画像は、いわば「流し撮り」のような画像で
ある。
FIG. 8A shows an example. The filters 10a and 10b are filters for focus processing, and the filter 12 is a filter for another special processing. The filter 12 is provided on the distant view image g2 side. This filter is an arbitrary filter. For example, a filter that adds pixel data in the horizontal (or vertical) direction can be considered. Data d0, d1, d in horizontal (or vertical) direction
When there are 2, d3, d4, ..., d2 = (d2 + d1 + d0) / 3, d3 =
(D3 + d2 + d1) / 3,. The data in the vertical (or horizontal) direction remains unchanged. When this filter is used, the distant view image g2 is converted into an image that flows in the horizontal direction, and the converted image is combined with the foreground image g1.
The synthesized image is an image like a “follow shot”.

【0078】また、図8(b)のように、フィルタの前
後に直交座標―極座標変換部13、極座標−直交座標変
換部14を備えても良い。この構成によれば、遠景画像
g2が放射状に流れるような画像に変換され、これが近
景画像g1に合成される。すなわち、極座標の原点を近
景画像の中心に一致させれば、合成画像は近景画像(例
えば人物)を中心に流れるような背景をもつ画像であ
る。上記フィルタは、対数変換のように非線形幾何変換
処理を行うものであってもよい。例えば、上記フィルタ
は、中心付近(r=0)において加算処理する範囲が小
さく、中心から離れるほど加算処理する範囲が大きくな
るものであってもよい。このフィルタによれば、近景画
像から離れるにしたがって画像は大きく流れ、スピード
感ある画像になる。
As shown in FIG. 8B, a rectangular coordinate-polar coordinate converter 13 and a polar coordinate-rectangular coordinate converter 14 may be provided before and after the filter. According to this configuration, the distant view image g2 is converted into an image that flows radially, and this is combined with the near view image g1. That is, if the origin of the polar coordinates is made to coincide with the center of the foreground image, the composite image is an image having a background flowing around the foreground image (for example, a person). The filter may perform a non-linear geometric transformation process such as a logarithmic transformation. For example, the filter may have a small addition range near the center (r = 0) and a larger addition range as the distance from the center increases. According to this filter, the image largely flows as the distance from the foreground image increases, and the image has a sense of speed.

【0079】なお、以上の説明において、遠景画像g2
に対してフィルタをかけているが、本発明はこれに限る
ものではない。近景画像g1と遠景画像g2の両方にフ
ィルタをかけてもよいし、近景画像g1に対してのみフ
ィルタをかけてもよい。
In the above description, the distant view image g2
, But the present invention is not limited to this. A filter may be applied to both the foreground image g1 and the distant view image g2, or a filter may be applied to only the foreground image g1.

【0080】発明の実施の形態6.近景画像g1と遠景
画像g2を得るには、通常のデジタルカメラを用いて焦
点を違えて撮影すればよい。しかし、通常のやり方では
カメラの位置や向きが変わったりして近景画像g1と遠
景画像g2がずれることが多い。わずかなずれであれば
前述のレジストレーションにより補正できるが、大きく
ずれていると完全な補正には時間を要する。したがっ
て、簡単な操作でずれが少ない2枚の画像を得ることが
できる装置が望まれる。
Embodiment 6 of the Invention In order to obtain the foreground image g1 and the distant view image g2, a normal digital camera may be used with different focus. However, in a normal manner, the near view image g1 and the distant view image g2 often shift due to a change in the position or orientation of the camera. If the deviation is small, it can be corrected by the above-mentioned registration, but if the deviation is large, complete correction requires time. Therefore, an apparatus that can obtain two images with a small displacement by a simple operation is desired.

【0081】この種の装置のブロック図を、図9に示
す。レンズ30を通った光はCCD31に入射され、処
理部で画像データに変換される。画像はビューワ33に
表示され利用者が見ることができる。ビューワ33に表
示される画像は、図10のように所定の領域に分割され
ている。図10の例では、合計9つの領域に分割されて
いる。利用者はビューワ33の画像を見ながら焦点指定
部34を操作し、焦点を合わせるべき領域を少なくとも
2つ指定する。例えば、近景画像g1を得るために、被
写体Tが写っている真中の領域(2,2)に焦点を指定
し、遠景画像g2を得るために、左上の領域(1,1)
に焦点を指定する。焦点指定部34からの信号を受け
て、処理部32は焦点調整機構36を駆動する。焦点調
整機構36は指定された領域に焦点を合わせて撮像す
る。撮像した画像のデータはメモリ35に蓄えられる。
次に、焦点調整機構36は次の指定された領域に焦点を
合わせて撮像し、画像データをメモリ35に蓄える。
FIG. 9 shows a block diagram of this type of apparatus. The light passing through the lens 30 is incident on the CCD 31 and is converted into image data by the processing unit. The image is displayed on the viewer 33 and can be viewed by the user. The image displayed on the viewer 33 is divided into predetermined regions as shown in FIG. In the example of FIG. 10, the area is divided into nine areas in total. The user operates the focus specifying unit 34 while viewing the image of the viewer 33, and specifies at least two areas to be focused. For example, in order to obtain the foreground image g1, the focus is designated on the middle area (2, 2) where the subject T is shown, and on the upper left area (1, 1) in order to obtain the distant image g2.
To specify the focus. Upon receiving the signal from the focus specifying unit 34, the processing unit 32 drives the focus adjustment mechanism 36. The focus adjustment mechanism 36 focuses on the designated area and captures an image. Data of the captured image is stored in the memory 35.
Next, the focus adjustment mechanism 36 focuses on the next designated area to capture an image, and stores the image data in the memory 35.

【0082】また、図11のような処理も可能である。
高速に焦点を動かし、1度のシャッターで複数画像を取
得する。焦点指定のとき、焦点合わせに必要なデータを
設定し記憶しておくことにより、高速な焦点合わせが可
能になる。
Further, the processing as shown in FIG. 11 is also possible.
The focus is moved at high speed, and a plurality of images are acquired with a single shutter. By setting and storing data necessary for focusing when the focus is designated, high-speed focusing can be performed.

【0083】この発明の実施の形態6の装置により、簡
単な操作で近景画像g1と遠景画像g2をほぼ同時に撮
影できる。したがって、回転、大きさ、位置に関してず
れの少ない2つの近景画像g1と遠景画像g2を得るこ
とができる。なお、指定する領域は2つに限らない。3
つ以上を指定すれば3枚の近景画像と遠景画像が得られ
る。
With the apparatus according to the sixth embodiment of the present invention, the near view image g1 and the far view image g2 can be photographed almost simultaneously with a simple operation. Therefore, it is possible to obtain two near-view images g1 and distant-view images g2 with small deviations in rotation, size, and position. Note that the designated area is not limited to two. Three
If one or more are specified, three near-view images and far-view images can be obtained.

【0084】発明の実施の形態7. <多数の画像に基づく全焦点画像の生成と3次元構造の
取得>上記説明において、近景と遠景の2枚の画像を用
いて全焦点画像を生成したが、これに限らず3枚以上の
画像を用いても全焦点画像を生成することができる。例
えば、微小に焦点をずらしながら撮像した多数枚の昆虫
顕微鏡画像に基づいて全焦点画像を生成できる。通常の
顕微鏡画像の鮮鋭化処理では、輝度レベルの変動フィル
タによる高域成分を利用して合焦判定が行われている。
本発明の実施の形態では、ぼかした画像を生成し連続的
に比較することで合焦領域の判定を行う。また、合焦位
置に基づいて各k画像に奥行き情報を付与することによ
り対象の3次元構造を取得することができる。
Embodiment 7 of the Invention <Generation of All-In-Focus Image Based on Many Images and Acquisition of Three-Dimensional Structure> In the above description, an all-in-focus image was generated using two images of a near view and a distant view, but the present invention is not limited to this. Can be used to generate an all-focus image. For example, an all-in-focus image can be generated based on a large number of insect microscope images captured while slightly defocusing. In a normal microscope image sharpening process, focus determination is performed using a high-frequency component of a luminance level variation filter.
In the embodiment of the present invention, a focused area is determined by generating a blurred image and continuously comparing the blurred images. Also, by adding depth information to each k-image based on the in-focus position, it is possible to acquire a three-dimensional structure of the target.

【0085】この発明の実施の形態においては、連続的
な比較による選択統合法を用いて全焦点画像を再構成す
る。従来の選択統合法では、2枚の撮像画像に対しぼけ
関数を繰り返し畳み込んだぼけ画像を作成し、他方の画
像との比較を行う。微小に焦点を変える顕微鏡画像の場
合、2枚だけでの判定は信頼度を下げる。
In the embodiment of the present invention, the omnifocal image is reconstructed by using the selective integration method by continuous comparison. In the conventional selective integration method, a blurred image is created by repeatedly convolving a blurred function with two captured images, and the blurred image is compared with the other image. In the case of a microscopic image that changes the focus slightly, the judgment using only two images lowers the reliability.

【0086】このため、対象画像の前後複数枚(例えば
前後2枚の計4枚)に対し対象画像との比較を行い、判定
パターン列を利用して最終的な判定を行う。例えば、図
12(a)のように、複数の画像gn-2、gn-1、gn、g
n+1、gn+2を合焦の順に配列する。画像gn-2は遠くに
焦点が合っており、画像gn+2は近くに焦点が合ってい
る。画像gnを注目画像とする。次に、注目画像gnのあ
る部分を基準として、焦点が合っているか(合焦)/焦
点が合っていないか(非合焦)を判定する。すなわち、
注目画像gnの第1の部分を、他の画像gn-2、gn-1、
gn+1、gn+2の対応する部分と比較して、これらが合焦
/非合焦のどちらであるか判定する。合焦/非合焦は、
例えば、ガウシアンフィルタのパラメータに基づき判定
できる。例えば、図12(a)に示すように「1,1,
0,0」のような判定パターンが生成される。ここで、
0,1は各々対象画像を比して、より合焦/非合焦を示
す。すなわち、この第1の部分は画像gn-2、gn-1につ
いては非合焦であり、画像gn+1、gn+2については合焦
である。このことから注目画像gnの第1の部分は非合
焦の可能性があり、むしろ画像gn+1、gn+2において焦
点が合っていると推測される。同様に、注目画像gnの
第2の部分について「0,0,1,1」、第3の部分に
ついて「0,0,0,0」、第4の部分について「0,
0,1,0」、第5の部分について「0,1,0,0」
の判定パターンが得られる。
For this reason, a plurality of front and rear images (for example, two front and rear images) of the target image are compared with the target image, and a final judgment is made using a judgment pattern sequence. For example, as shown in FIG. 12A, a plurality of images gn-2, gn-1, gn, g
n + 1 and gn + 2 are arranged in the order of focusing. Image gn-2 is far in focus and image gn + 2 is close in focus. Let the image gn be the image of interest. Next, with reference to a certain portion of the target image gn, it is determined whether the subject is in focus (focused) or out of focus (out of focus). That is,
The first part of the target image gn is divided into other images gn-2, gn-1,
gn + 1 and gn + 2 are compared with corresponding portions to determine whether these are in-focus or out-of-focus. Focused / unfocused
For example, the determination can be made based on the parameters of the Gaussian filter. For example, as shown in FIG.
A determination pattern such as “0,0” is generated. here,
0 and 1 indicate that the target image is more in-focus / out-of-focus. That is, the first portion is out of focus for the images gn-2 and gn-1, and is in focus for the images gn + 1 and gn + 2. From this, it is presumed that the first portion of the target image gn may be out of focus, and rather, the first image gn is in focus in the images gn + 1 and gn + 2. Similarly, “0,0,1,1” for the second part of the target image gn, “0,0,0,0” for the third part, and “0,0,0” for the fourth part.
0,1,0 ", the fifth part is" 0,1,0,0 "
Is obtained.

【0087】以上のことから明らかなように、注目画像
gnのある部分について、全ての画像において焦点が合
っていることを意味する「0,0,0,0」のパターン
が得られたとき、当該部分を採用すれば最も焦点が合っ
た画像を選択することができることがわかる。
As is clear from the above, when a pattern “0, 0, 0, 0” is obtained for a certain portion of the target image gn, which means that all the images are in focus. It can be seen that the most in-focus image can be selected by using this portion.

【0088】以上の処理を複数の画像・・・、gn-2、
gn-1、gn、gn+1、gn+2、・・・について行う。する
と、図12(b)のようなパターン列が得られる。各パ
ターンは、その上の画像を注目画像として図12(a)
の処理を行ったときに得られたパターンを意味する。1
段目(第1の部分)について着目すれば、画像gnのパ
ターンが「0,0,0,0」でもっとも焦点が合ってい
ることがわかるから、当該部分については画像gnを採
用すればよい。他の画像gn-2、gn-1、gn+1、gn+2の
パターンは、それぞれ「0,0,1,1」「0,0,
1,1」「0,1,0,0」「1,1,0,0」であ
り、焦点が合ってない可能性が高い。2段目(第2の部
分)についても同様である。3段目(第3の部分)につ
いては、画像gn-2、gn-1、gn、gn+1、gn+2のパタ
ーンは、それぞれ「0,0,1,1」「0,0,1,
0」「0,1,0,0」「1,1,0,0」「1,1,
0,0」であり、最も焦点が合っているパターンはな
い。しかし、画像gn-2、gn-1、gn、gn+1、gn+2全
体において比較すれば、相対的に画像gn-1、gnのパタ
ーンは合焦(0)が3つあるので比較的焦点が合ってい
るといえる。したがって、3段目においては画像gn-1
又はgnのいずれかを選択する。なお、この例の3段目
において画像gn-1とgnの間において焦点が合っている
と考えられる。
The above processing is performed for a plurality of images,.
gn-1, gn, gn + 1, gn + 2,... Then, a pattern sequence as shown in FIG. 12B is obtained. Each pattern is obtained by setting an image on the pattern as a target image as shown in FIG.
Means the pattern obtained when performing the processing of. 1
Paying attention to the stage (first portion), it can be seen that the pattern of the image gn is the most in focus at “0, 0, 0, 0”, so the image gn may be used for that portion. . The patterns of the other images gn-2, gn-1, gn + 1, and gn + 2 are "0, 0, 1, 1", "0, 0,
1,1, "0,1,0,0", "1,1,0,0", and there is a high possibility that the image is out of focus. The same applies to the second stage (second portion). For the third stage (third part), the patterns of the images gn-2, gn-1, gn, gn + 1, and gn + 2 are "0, 0, 1, 1", "0, 0, 1", respectively. ,
0, 0, 1, 0, 0, 1, 1, 0, 0, 1, 1,
0,0 ", and there is no pattern that is most focused. However, when comparing the entirety of the images gn-2, gn-1, gn, gn + 1, and gn + 2, the patterns of the images gn-1 and gn have relatively three in-focus (0) patterns, so that It is in focus. Therefore, in the third stage, the image gn-1
Or gn. In the third stage of this example, it is considered that the image is in focus between the images gn-1 and gn.

【0089】以上のように、図12(a)の処理を全て
の画像について行い、画像ごとに図12(b)のような
パターン列を得る。そして、上述のように比較する画素
においてパターン列を比較することにより、図12
(b)の画像gn-1又はgnが最も合焦している画像であ
ると判断する。このように、本実施の形態では全画像の
比較結果のパターン列から各画素の合焦の判定を行う。
この処理を用いることにより高い精度で判定を行うこと
ができる。このための処理はさほど複雑ではなく、比較
的短い時間で処理できる。
As described above, the processing of FIG. 12A is performed on all images, and a pattern sequence as shown in FIG. 12B is obtained for each image. Then, by comparing the pattern rows at the pixels to be compared as described above, FIG.
It is determined that the image gn-1 or gn in (b) is the most focused image. As described above, in the present embodiment, the focus of each pixel is determined from the pattern sequence of the comparison result of all the images.
By using this processing, the determination can be performed with high accuracy. The processing for this is not so complicated and can be performed in a relatively short time.

【0090】また、上述の合焦領域判定結果から、各画
素の合焦画像が焦点距離の短い方からn枚目であるとい
う情報を奥行き情報として付与することができる。例え
ば、第1の部分を画像gnから採用したのであれば、第
1の部分は画像gnの合焦位置にあると判定できる。第
3の部分については、画像gn-1とgnの中間位置にあ
ると判定できる。なお、本実施の形態において同じ対象
物に対して連続的に少しづつ焦点を移動して撮影してい
るところから、合焦位置は最初の焦点位置及び最後の焦
点位置に基づき簡単かつ比較的正確に得ることができ
る。
Further, from the result of the above-mentioned in-focus area determination, information that the in-focus image of each pixel is the n-th image from the one with the shorter focal length can be added as depth information. For example, if the first part is adopted from the image gn, it can be determined that the first part is at the in-focus position of the image gn. The third portion can be determined to be at an intermediate position between the images gn-1 and gn. In the present embodiment, since the focus is continuously moved little by little with respect to the same object, the focus position is simple and relatively accurate based on the first focus position and the last focus position. Can be obtained.

【0091】本発明の実施の形態によれば、多数枚の顕
微鏡画像を連続的に比較することにより、精度よく全焦
点画像を得ることができる。また、合焦情報に基づき対
象の3次元構造を知ることができる。
According to the embodiment of the present invention, an omnifocal image can be obtained with high accuracy by continuously comparing a large number of microscope images. Further, the three-dimensional structure of the target can be known based on the focusing information.

【0092】発明の実施の形態8.発明の実施の形態1
において、ぼけ量(R1とR2)の推定を行う必要がある。
ぼけの処理にはガウシンアンフィルタを用いるが、この
パラメータを調整することによりぼけ量を可変できる。
したがって、ガウシンアンフィルタのパラメータ(回
数)を推定することで、ぼけ量を推定することができ
る。
Embodiment 8 of the Invention Embodiment 1 of the invention
, It is necessary to estimate the amount of blur (R1 and R2).
A Gaussian Unfilter is used for blur processing, but the amount of blur can be varied by adjusting this parameter.
Therefore, the blur amount can be estimated by estimating the parameter (number of times) of the Gaussian Unfilter.

【0093】この手順を図13を用いて説明する。この
グラフは、ガウシンアンフィルタの回数と誤差の関係を
示す。縦軸は、ぼけのない画像とガウシアンフィルタを
かけた画像との自乗差分値であり、横軸は、ガウシンア
ンフィルタの回数である。このグラフからわかるよう
に、下に凸の曲線になる。この曲線は3次曲線で近似で
きる。
This procedure will be described with reference to FIG. This graph shows the relationship between the number of times of the Gaussian Unfilter and the error. The vertical axis represents the squared difference value between the image without blur and the image subjected to the Gaussian filter, and the horizontal axis represents the number of Gaussian Unfilters. As can be seen from this graph, a downwardly convex curve is obtained. This curve can be approximated by a cubic curve.

【0094】パラメータを1、2、3、4としていった
とき、2と3の間で極小値をとることがわかる。さらに
正確なパラメータを求めるため、図13のグラフに近似
する3次曲線を求める。次に、3次曲線の極小値をもと
め、そのときのパラメータを求める(図13において約
2.4)。この手順によりぼけ量を正確に推定すること
ができる。
It can be seen that when the parameters are set to 1, 2, 3, and 4, a minimum value is obtained between 2 and 3. In order to obtain more accurate parameters, a cubic curve approximating the graph of FIG. 13 is obtained. Next, the minimum value of the cubic curve is obtained, and the parameter at that time is obtained (about 2.4 in FIG. 13). By this procedure, the blur amount can be accurately estimated.

【0095】なお、実際には、パラメータ=0の近く、
例えば0.5についても差分値を求めておき、これも考
慮して近似曲線を求めるとよい。シミュレーション結果
によれば、このように設定することにより、より良い結
果が得られた。
Note that actually, near the parameter = 0,
For example, a difference value may be obtained for 0.5, and an approximate curve may be obtained in consideration of this. According to the simulation results, better results were obtained by setting in this way.

【0096】本発明は、以上の実施の形態に限定される
ことなく、特許請求の範囲に記載された発明の範囲内
で、種々の変更が可能であり、それらも本発明の範囲内
に包含されるものであることは言うまでもない。
The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the appended claims, which are also included in the scope of the present invention. Needless to say, this is done.

【0097】また、本明細書において、手段とは必ずし
も物理的手段を意味するものではなく、各手段の機能
が、ソフトウェアによって実現される場合も包含する。
さらに、一つの手段の機能が、二つ以上の物理的手段に
より実現されても、若しくは、二つ以上の手段の機能
が、一つの物理的手段により実現されてもよい。
In this specification, means does not necessarily mean physical means, but also includes a case where the function of each means is realized by software.
Further, the function of one unit may be realized by two or more physical units, or the function of two or more units may be realized by one physical unit.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施の形態1に係る全焦点画像及
び/又は任意焦点画像再構成装置の概略ブロック図を示
す。
FIG. 1 is a schematic block diagram of an all-focus image and / or arbitrary-focus image reconstructing apparatus according to Embodiment 1 of the present invention.

【図2】 発明の実施の形態1に係る任意焦点画像fの
再構成モデルである。
FIG. 2 is a reconstruction model of an arbitrary focus image f according to Embodiment 1 of the present invention.

【図3】 発明の実施の形態1に係る再構成フィルタK
aとKbの周波数特性である。
FIG. 3 is a reconstruction filter K according to the first embodiment of the present invention;
It is a frequency characteristic of a and Kb.

【図4】 発明の実施の形態2に係るブロック単位で輝
度補正の説明図である。
FIG. 4 is an explanatory diagram of luminance correction in block units according to Embodiment 2 of the present invention;

【図5】 発明の実施の形態3に係る階層的マッチング
方法による複数の焦点画像間の位置合わせ手順のフロー
チャート及び説明図である。
FIG. 5 is a flowchart and an explanatory diagram of a positioning procedure between a plurality of focus images by a hierarchical matching method according to Embodiment 3 of the present invention.

【図6】 発明の実施の形態4に係る輝度投影法による
複数の焦点画像間の位置合わせ装置のブロック図であ
る。
FIG. 6 is a block diagram of an apparatus for aligning a plurality of focus images by a luminance projection method according to Embodiment 4 of the present invention.

【図7】 発明の実施の形態4に係る輝度投影法による
複数の焦点画像間の位置合わせの説明である。
FIG. 7 is an illustration of positioning between a plurality of focus images by a luminance projection method according to Embodiment 4 of the present invention.

【図8】 発明の実施の形態5に係る特殊効果のための
フィルタを備える全焦点画像及び/又は任意焦点画像再
構成装置の概略ブロック図を示す。
FIG. 8 is a schematic block diagram of an all-focus image and / or arbitrary-focus image reconstructing apparatus including a filter for special effects according to Embodiment 5 of the present invention;

【図9】 発明の実施の形態6に係るデジタルカメラの
概略ブロック図である。
FIG. 9 is a schematic block diagram of a digital camera according to Embodiment 6 of the present invention.

【図10】 発明の実施の形態6に係るデジタルカメラ
の動作説明図である。
FIG. 10 is an operation explanatory view of a digital camera according to Embodiment 6 of the present invention.

【図11】 発明の実施の形態6に係るデジタルカメラ
の動作フローチャートである。
FIG. 11 is an operation flowchart of a digital camera according to Embodiment 6 of the present invention.

【図12】 発明の実施の形態7に係る多数の画像に基
づく全焦点画像の生成方法の説明図である。
FIG. 12 is an explanatory diagram of a method of generating an all-focus image based on a large number of images according to Embodiment 7 of the present invention.

【図13】 発明の実施の形態8に係るぼけ量推定の説
明図である。
FIG. 13 is an explanatory diagram of blur amount estimation according to Embodiment 8 of the present invention.

【符号の説明】[Explanation of symbols]

10 画像再構成のためのフィルタ 11 合成部 12 特殊効果用フィルタ 13 直交座標−極座標変換部 14 極座標−直交座標変換部 20 各行・各列の平均輝度値計算部 21 輝度投影分布作成部 22 比較部 23 拡大・並進推定部 30 レンズ 31 CCD 32 処理部 33 ビューワ 34 焦点指定部 35 メモリ 36 焦点調整機構 REFERENCE SIGNS LIST 10 Filter for image reconstruction 11 Synthesizing unit 12 Filter for special effects 13 Rectangular coordinate-polar coordinate conversion unit 14 Polar coordinate-rectangular coordinate conversion unit 20 Average luminance value calculation unit for each row / column 21 Luminance projection distribution creation unit 22 Comparison unit 23 Enlargement / Translation Estimation Unit 30 Lens 31 CCD 32 Processing Unit 33 Viewer 34 Focus Designation Unit 35 Memory 36 Focus Adjustment Mechanism

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/265 G06F 15/66 450 // H04N 101:00 15/68 400A (72)発明者 コニー リアニグナディ 東京都世田谷区上祖師谷4−24−1−B 215 Fターム(参考) 5B057 BA12 CD18 CE08 CE11 CH04 CH09 CH11 5C022 AA13 AB29 AB68 AC01 AC42 CA02 5C023 AA11 AA31 AA37 BA01 BA11 BA15 CA03 CA08 DA01 EA10 5C076 AA11 AA19 AA27 BA06 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/265 G06F 15/66 450 // H04N 101: 00 15/68 400A (72) Inventor Connie Rearignadi Tokyo 4-24-1-B 215, Kamoshidani, Setagaya-ku, Tokyo F-term (reference) 5B057 BA12 CD18 CE08 CE11 CH04 CH09 CH11 5C022 AA13 AB29 AB68 AC01 AC42 CA02 5C023 AA11 AA31 AA37 BA01 BA11 BA15 CA03 CA08 DA01 EA10 5C076 AA11 AA19 A27

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 外部から入力される第1のぼけパラメー
タに基づき第1の部分に焦点が合っている第1画像を変
換する第1のフィルタと、外部から入力される第2のぼ
けパラメータに基づき第2の部分に焦点が合っている第
2画像を変換する第2のフィルタと、前記第1のフィル
タの出力及び前記第2のフィルタの出力を合成して任意
焦点画像を生成する合成部と、前記第1画像と前記第2
画像の輝度が同程度になるように、画像のブロック単位
で輝度補正を行い、輝度補正後の画像を前記第1のフィ
ルタと前記第2のフィルタに供給する輝度補正部とを備
える任意焦点画像合成装置。
1. A first filter for converting a first image focused on a first portion based on an externally input first blur parameter, and a second externally input blur parameter. A second filter for converting a second image focused on a second part based on the second filter, and a synthesizing unit for synthesizing an output of the first filter and an output of the second filter to generate an arbitrarily focused image And the first image and the second image
An arbitrary-focus image including a luminance correction unit that performs luminance correction on a block basis of an image so that the luminance of the image is substantially the same, and supplies the luminance-corrected image to the first filter and the second filter. Synthesizer.
【請求項2】 外部から入力される第1のぼけパラメー
タに基づき第1の部分に焦点が合っている第1画像を変
換する第1のフィルタと、外部から入力される第2のぼ
けパラメータに基づき第2の部分に焦点が合っている第
2画像を変換する第2のフィルタと、前記第1のフィル
タの出力及び前記第2のフィルタの出力を合成して任意
焦点画像を生成する合成部と、前記第1画像と前記第2
画像の位置合わせを、画像データを水平及び垂直方向に
投影して得られた輝度分布に基づいて行い、位置合わせ
された画像を前記第1のフィルタと前記第2のフィルタ
に供給する位置合わせ部とを備える任意焦点画像合成装
置。
2. A first filter for transforming a first image focused on a first portion based on an externally input first blur parameter, and a second externally input blur parameter. A second filter for converting a second image focused on a second part based on the second filter, and a synthesizing unit for synthesizing an output of the first filter and an output of the second filter to generate an arbitrarily focused image And the first image and the second image
Alignment unit that performs image alignment based on a luminance distribution obtained by projecting image data in the horizontal and vertical directions, and supplies the aligned image to the first filter and the second filter. An arbitrary focus image synthesizing apparatus comprising:
【請求項3】 外部から入力される第1のぼけパラメー
タに基づき第1の部分に焦点が合っている第1画像を変
換する第1のフィルタと、外部から入力される第2のぼ
けパラメータに基づき第2の部分に焦点が合っている第
2画像を変換する第2のフィルタと、前記第2のフィル
タの出力に対して所定の処理を行う特殊効果フィルタ
と、前記第1のフィルタの出力及び前記特殊効果フィル
タの出力を合成して任意焦点画像を生成する合成部とを
備える任意焦点画像合成装置。
3. A first filter for converting a first image focused on a first portion based on an externally input first blur parameter, and a second externally input blur parameter. A second filter for converting a second image focused on a second portion based on the second filter, a special effect filter for performing a predetermined process on an output of the second filter, and an output of the first filter And an synthesizer for synthesizing an output of the special effect filter to generate an arbitrary focus image.
【請求項4】 前記特殊効果フィルタの入力側及び出力
側に、それぞれ画像データの座標を直交座標から極座標
に変換する直交座標−極座標変換部と、画像データの座
標を極座標から直交座標に戻す極座標−直交座標変換部
とを備えることを特徴とする請求項3記載の任意焦点画
像合成装置。
4. An orthogonal coordinate-polar coordinate conversion unit for converting the coordinates of the image data from rectangular coordinates to polar coordinates on the input side and the output side of the special effect filter, respectively, and polar coordinates for returning the coordinates of the image data from polar coordinates to rectangular coordinates. The arbitrary-focus image synthesizing apparatus according to claim 3, further comprising: an orthogonal coordinate conversion unit.
【請求項5】 外部から入力される第1乃至第Nのぼけ
パラメータに基づき第1乃至第Nの部分にそれぞれ焦点
が合っている第1乃至第N画像を焦点位置の順に並べ、
これら画像のひとつである第iの画像内の一部分に関し
て、前記第iの画像を中心としてその前後の複数の画像
において前記部分の焦点が合っているかどうかを判定す
る判定部と、前記判定部の判定パターンによりどの画像
において前記部分の焦点が合っているか比較する比較部
と、前記比較部の比較結果により前記第1乃至第Nの画
像を合成して全焦点画像を生成する合成部とを備える任
意焦点画像合成装置。
5. A method of arranging first to N-th images in focus on first to N-th parts based on first to N-th blur parameters input from the outside in the order of focal positions,
A determination unit that determines whether or not a part in the i-th image, which is one of these images, is in focus in a plurality of images before and after the i-th image; A comparison unit that compares which part of the image is focused in accordance with the determination pattern; and a combining unit that combines the first to Nth images based on the comparison result of the comparison unit to generate an all-focus image. Arbitrary focus image synthesizer.
【請求項6】 前記判定部は、パラメータを変化させつ
つ前記第iの画像に対してフィルタ処理を行うガウシア
ンフィルタと、前記ガウシアンフィルタの出力と前記前
後の複数の画像の差分値を求める差分処理部と、前記差
分値が極小になる値を求めることにより前記パラメータ
を推定する推定部とを備えることを特徴とする請求項5
記載の任意焦点画像合成装置。
6. A Gaussian filter for performing a filtering process on the i-th image while changing a parameter, and a difference process for obtaining a difference value between an output of the Gaussian filter and the preceding and following images. 6. An estimating unit for estimating the parameter by obtaining a value at which the difference value is minimized.
An arbitrary-focus image synthesizing apparatus as described in the above.
【請求項7】 撮像素子と、前記撮像素子から信号を受
けて画像データに変換する処理部と、前記処理部で処理
された画像データを表示する表示部と、画像内の複数の
対象を指定してそれぞれ異なる焦点の複数の画像を要求
する焦点指定部と、前記焦点指定部の指定により焦点位
置を設定する焦点調整機構と、画像データを記憶するメ
モリとを備え、 前記処理部は、指定された前記複数の対象について順番
にそれぞれ焦点を合わせ、それぞれ撮像し、前記メモリ
に得られた複数の画像データをそれぞれ格納することを
特徴とする複数画像同時撮像型カメラ。
7. An image sensor, a processing unit for receiving a signal from the image sensor and converting the image data into image data, a display unit for displaying the image data processed by the processing unit, and specifying a plurality of targets in the image A focus specification unit that requests a plurality of images having different focuses, a focus adjustment mechanism that sets a focus position according to the specification of the focus specification unit, and a memory that stores image data. A plurality of simultaneous imaging cameras, wherein the plurality of objects are sequentially focused and imaged, respectively, and the plurality of image data obtained are stored in the memory.
【請求項8】 1回のシャッター動作で複数の焦点の異
なる画像を撮像することを特徴とする請求項7記載の複
数画像同時撮像型カメラ。
8. The camera according to claim 7, wherein a plurality of images having different focal points are captured by one shutter operation.
【請求項9】 外部から入力される第1のぼけパラメー
タに基づき第1の部分に焦点が合っている第1画像を変
換する第1のフィルタと、外部から入力される第2のぼ
けパラメータに基づき第2の部分に焦点が合っている第
2画像を変換する第2のフィルタと、前記第1のフィル
タの出力及び前記第2のフィルタの出力を合成して任意
焦点画像を生成する合成部と、前記第1画像と前記第2
画像の輝度が同程度になるように、画像のブロック単位
で輝度補正を行い、輝度補正後の画像を前記第1のフィ
ルタと前記第2のフィルタに供給する輝度補正部とを含
む任意焦点画像合成装置を備えることを特徴とする請求
項7記載の複数画像同時撮像型カメラ。
9. A first filter for converting a first image focused on a first portion based on an externally input first blur parameter, and a second externally input blur parameter. A second filter for converting a second image focused on a second part based on the second filter, and a synthesizing unit for synthesizing an output of the first filter and an output of the second filter to generate an arbitrarily focused image And the first image and the second image
An arbitrary focus image including a luminance correction unit that performs luminance correction on a block basis of the image so that the luminance of the image is substantially the same, and supplies the luminance-corrected image to the first filter and the second filter. 8. The camera according to claim 7, further comprising a synthesizing device.
【請求項10】 外部から入力される第1のぼけパラメ
ータに基づき第1の部分に焦点が合っている第1画像を
変換する第1のフィルタと、外部から入力される第2の
ぼけパラメータに基づき第2の部分に焦点が合っている
第2画像を変換する第2のフィルタと、前記第1のフィ
ルタの出力及び前記第2のフィルタの出力を合成して任
意焦点画像を生成する合成部と、前記第1画像と前記第
2画像の位置合わせを、画像データを水平及び垂直方向
に投影して得られた輝度分布に基づいて行い、位置合わ
せされた画像を前記第1のフィルタと前記第2のフィル
タに供給する位置合わせ部とを含む任意焦点画像合成装
置を備えることを特徴とする請求項7記載の複数画像同
時撮像型カメラ。
10. A first filter for converting a first image focused on a first portion based on an externally input first blur parameter, and a second externally input second blur parameter. A second filter for converting a second image focused on a second part based on the second filter, and a synthesizing unit for synthesizing an output of the first filter and an output of the second filter to generate an arbitrarily focused image And performing alignment between the first image and the second image based on a luminance distribution obtained by projecting image data in horizontal and vertical directions, and aligning the aligned image with the first filter and the first filter. The multiple-image simultaneous imaging camera according to claim 7, further comprising an arbitrary-focus image synthesizing device including a positioning unit that supplies the image to the second filter.
【請求項11】 外部から入力される第1のぼけパラメ
ータに基づき第1の部分に焦点が合っている第1画像を
変換する第1のフィルタと、外部から入力される第2の
ぼけパラメータに基づき第2の部分に焦点が合っている
第2画像を変換する第2のフィルタと、前記第2のフィ
ルタの出力に対して所定の処理を行う特殊効果フィルタ
と、前記第1のフィルタの出力及び前記特殊効果フィル
タの出力を合成して任意焦点画像を生成する合成部とを
含む任意焦点画像合成装置を備えることを特徴とする請
求項7記載の複数画像同時撮像型カメラ。
11. A first filter for converting a first image focused on a first portion based on an externally input first blur parameter, and a second externally input second blur parameter. A second filter for converting a second image focused on a second portion based on the second filter, a special effect filter for performing a predetermined process on an output of the second filter, and an output of the first filter The multiple image simultaneous imaging camera according to claim 7, further comprising an arbitrary focus image synthesizing device including: a synthesizing unit that synthesizes an output of the special effect filter to generate an arbitrary focus image.
【請求項12】 前記特殊効果フィルタの入力側及び出
力側に、それぞれ画像データの座標を直交座標から極座
標に変換する直交座標−極座標変換部と、画像データの
座標を極座標から直交座標に戻す極座標−直交座標変換
部とを備えることを特徴とする請求項11記載の複数画
像同時撮像型カメラ。
12. An orthogonal coordinate-polar coordinate conversion unit for converting the coordinates of image data from rectangular coordinates to polar coordinates on an input side and an output side of the special effect filter, and polar coordinates for returning the coordinates of the image data from polar coordinates to rectangular coordinates. The multiple image simultaneous imaging type camera according to claim 11, further comprising a rectangular coordinate conversion unit.
JP2000028436A 2000-02-04 2000-02-04 Arbitrary focused image composite device and camera for simultaneously picking up a plurality of images, which is used for the same Pending JP2001223874A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000028436A JP2001223874A (en) 2000-02-04 2000-02-04 Arbitrary focused image composite device and camera for simultaneously picking up a plurality of images, which is used for the same
US09/774,646 US20010013895A1 (en) 2000-02-04 2001-02-01 Arbitrarily focused image synthesizing apparatus and multi-image simultaneous capturing camera for use therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000028436A JP2001223874A (en) 2000-02-04 2000-02-04 Arbitrary focused image composite device and camera for simultaneously picking up a plurality of images, which is used for the same

Publications (1)

Publication Number Publication Date
JP2001223874A true JP2001223874A (en) 2001-08-17

Family

ID=18553835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000028436A Pending JP2001223874A (en) 2000-02-04 2000-02-04 Arbitrary focused image composite device and camera for simultaneously picking up a plurality of images, which is used for the same

Country Status (1)

Country Link
JP (1) JP2001223874A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007201533A (en) * 2006-01-23 2007-08-09 Toshiba Corp Blur conversion apparatus and method
JP2008503795A (en) * 2004-06-25 2008-02-07 新世代株式会社 Image composition device and pixel mixer
JP2008176735A (en) * 2007-01-22 2008-07-31 Toshiba Corp Image processing apparatus and method
JP2008219878A (en) * 2007-02-09 2008-09-18 Olympus Imaging Corp Decoding method, decoding device, decoding program and electronic camera
JP2009047735A (en) * 2007-08-13 2009-03-05 Olympus Corp Imaging apparatus and image processing program
JP2009047734A (en) * 2007-08-13 2009-03-05 Olympus Corp Imaging apparatus and image processing program
JP2010087862A (en) * 2008-09-30 2010-04-15 Fujifilm Corp Image processing apparatus, image processing method, image capturing apparatus, image capturing method, and program
US8023000B2 (en) 2007-04-20 2011-09-20 Fujifilm Corporation Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
JP2013205781A (en) * 2012-03-29 2013-10-07 Fujifilm Corp Imaging apparatus
JP2013239061A (en) * 2012-05-16 2013-11-28 Canon Inc Image estimation method, program, recording medium, image estimation device, network apparatus and acquisition method of image data
WO2014002813A1 (en) * 2012-06-26 2014-01-03 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
JP2014155008A (en) * 2013-02-07 2014-08-25 Canon Inc Image pickup device, control method therefor, and program
JP2017055984A (en) * 2015-09-16 2017-03-23 キヤノン株式会社 Image processing apparatus, image processing method, and program
US9769372B2 (en) 2014-03-10 2017-09-19 Canon Kabushiki Kaisha Image estimating method including calculating a transverse cutoff frequency, non-transitory computer readable medium, and image estimating apparatus
CN113014820A (en) * 2021-03-15 2021-06-22 联想(北京)有限公司 Processing method and device and electronic equipment

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008503795A (en) * 2004-06-25 2008-02-07 新世代株式会社 Image composition device and pixel mixer
JP4714939B2 (en) * 2004-06-25 2011-07-06 新世代株式会社 Pixel mixer
US7860336B2 (en) 2006-01-23 2010-12-28 Kabushiki Kaisha Toshiba Image conversion device, image conversion method, and recording medium
JP2007201533A (en) * 2006-01-23 2007-08-09 Toshiba Corp Blur conversion apparatus and method
JP4585456B2 (en) * 2006-01-23 2010-11-24 株式会社東芝 Blur conversion device
JP2008176735A (en) * 2007-01-22 2008-07-31 Toshiba Corp Image processing apparatus and method
JP2008219878A (en) * 2007-02-09 2008-09-18 Olympus Imaging Corp Decoding method, decoding device, decoding program and electronic camera
US8023000B2 (en) 2007-04-20 2011-09-20 Fujifilm Corporation Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
JP2009047735A (en) * 2007-08-13 2009-03-05 Olympus Corp Imaging apparatus and image processing program
JP2009047734A (en) * 2007-08-13 2009-03-05 Olympus Corp Imaging apparatus and image processing program
JP2010087862A (en) * 2008-09-30 2010-04-15 Fujifilm Corp Image processing apparatus, image processing method, image capturing apparatus, image capturing method, and program
JP2013205781A (en) * 2012-03-29 2013-10-07 Fujifilm Corp Imaging apparatus
JP2013239061A (en) * 2012-05-16 2013-11-28 Canon Inc Image estimation method, program, recording medium, image estimation device, network apparatus and acquisition method of image data
WO2014002813A1 (en) * 2012-06-26 2014-01-03 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
JP5477518B1 (en) * 2012-06-26 2014-04-23 コニカミノルタ株式会社 Image processing apparatus, image processing method, and image processing program
JP2014155008A (en) * 2013-02-07 2014-08-25 Canon Inc Image pickup device, control method therefor, and program
US9769372B2 (en) 2014-03-10 2017-09-19 Canon Kabushiki Kaisha Image estimating method including calculating a transverse cutoff frequency, non-transitory computer readable medium, and image estimating apparatus
JP2017055984A (en) * 2015-09-16 2017-03-23 キヤノン株式会社 Image processing apparatus, image processing method, and program
CN113014820A (en) * 2021-03-15 2021-06-22 联想(北京)有限公司 Processing method and device and electronic equipment

Similar Documents

Publication Publication Date Title
US20010013895A1 (en) Arbitrarily focused image synthesizing apparatus and multi-image simultaneous capturing camera for use therein
JP5414752B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
KR100799088B1 (en) Fast digital pan tilt zoom video
US9412151B2 (en) Image processing apparatus and image processing method
JP6395423B2 (en) Image processing apparatus, control method, and program
JP4799428B2 (en) Image processing apparatus and method
JP2001223874A (en) Arbitrary focused image composite device and camera for simultaneously picking up a plurality of images, which is used for the same
US20170004604A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
JP4825748B2 (en) Image data processing method and imaging apparatus
JP2013531309A (en) Method and system for creating a virtual output image from data obtained by an array of image capture devices
JP2010009417A (en) Image processing apparatus, image processing method, program and recording medium
CN105791801A (en) Image Processing Apparatus, Image Pickup Apparatus, Image Processing Method
JP3907008B2 (en) Method and means for increasing the depth of field for a photograph
JP2008512767A (en) General two-dimensional spatial transformation expression system and method
EP3186788A1 (en) Method and device for editing a facial image
JP6071860B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP5925757B2 (en) Image processing apparatus, image processing method, and image processing program
JP2024024012A (en) Method for generating learning data, learning method, learning data production device, learning device, and program
Jang et al. Optimizing image focus for shape from focus through locally weighted non-parametric regression
Bando et al. Towards digital refocusing from a single photograph
JP2009111921A (en) Image processing device and image processing method
CA3210569A1 (en) Stereoscopic imaging platform with continuous autofocusing mode
JP5566199B2 (en) Image processing apparatus, control method therefor, and program
JP5541750B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JPH0721365A (en) Method and device for processing picture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080430

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080902