JP2006067521A - Image processor, image processing method, image pickup device, and image pickup method - Google Patents

Image processor, image processing method, image pickup device, and image pickup method Download PDF

Info

Publication number
JP2006067521A
JP2006067521A JP2004251020A JP2004251020A JP2006067521A JP 2006067521 A JP2006067521 A JP 2006067521A JP 2004251020 A JP2004251020 A JP 2004251020A JP 2004251020 A JP2004251020 A JP 2004251020A JP 2006067521 A JP2006067521 A JP 2006067521A
Authority
JP
Japan
Prior art keywords
distance information
distance
image
image data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004251020A
Other languages
Japanese (ja)
Inventor
Ryoyu Takanashi
稜雄 高梨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2004251020A priority Critical patent/JP2006067521A/en
Publication of JP2006067521A publication Critical patent/JP2006067521A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup device, image processor and image processing method capable of creating an image with a three-dimensional appearance from a flat image with simple operations. <P>SOLUTION: A predetermined area of a screen of picked up image data 1 is divided into multiple portions. Front-rear positional relations of objects in the portions are classified into groups. Each group is applied with a different filter with a different frequency characteristic. Thus, some image parts are highlighted by applying HPF in units of portions, while the other image parts are blurred by applying LPF. The image with the three-dimensional appearance is thereby created. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、電子カメラ装置などの画像撮像装置および画像処理装置とその方法に関する。
特に、本発明は、小型のレンズを用いた電子カメラ装置などで撮影された2次元画像を立体感のある画像として提供する画像撮像装置と、そのための処理を行う画像処理方法と装置に関する。
The present invention relates to an image capturing apparatus such as an electronic camera apparatus, an image processing apparatus, and a method thereof.
In particular, the present invention relates to an image capturing apparatus that provides a two-dimensional image captured by an electronic camera apparatus using a small lens as a stereoscopic image, and an image processing method and apparatus for performing the processing.

撮像素子としてCCD(Charge Coupled Device )を用い、画像処理手段を内蔵し、CCDで撮像した画像データを表示器に即座に表示可能な電子カメラ装置が広く使用されている。
ところで、一般に焦点深度の深いCCD等の撮像素子を用いた電子カメラ装置において、銀塩カメラ装置のように立体感をだすため、特定の距離の画像のみに焦点を合わせ、それ以外の距離の部分の画像をぼかすという処理を行うことは困難であった。
2. Description of the Related Art Electronic camera devices that use a CCD (Charge Coupled Device) as an image pickup device, incorporate image processing means, and can immediately display image data picked up by a CCD on a display device are widely used.
By the way, in general, in an electronic camera device using an image pickup device such as a CCD having a deep focal depth, in order to produce a stereoscopic effect like a silver salt camera device, only an image at a specific distance is focused, and the other distance portion It was difficult to perform the process of blurring the image.

ここで、大きな口径のレンズと広い受光面積を持つ撮像素子を使用すれば焦点深度を浅くでき、アナログ銀塩フィルムカメラのようなぼかしをもたせた画像が撮影が可能であるが、口径の大きなレンズおよび広い受光面積を持つ撮像素子を使用しなければならず、電子カメラ装置が大型になり、かつ、電子カメラ装置の価格が高価になるという問題に遭遇する。
そこで、電子カメラ装置において、電気的ないしソフトウェア処理等により任意の画像データを強調したりぼかしたりすること等の画像処理ができることが望まれている。
そのような従来技術について述べる。
Here, if a lens with a large aperture and an image sensor with a large light receiving area are used, the depth of focus can be reduced, and a blurred image like an analog silver halide film camera can be taken, but a lens with a large aperture In addition, an image pickup device having a large light receiving area must be used, and the electronic camera device becomes large and the price of the electronic camera device is high.
Therefore, it is desired that the electronic camera apparatus can perform image processing such as enhancing or blurring arbitrary image data by electrical or software processing.
Such prior art will be described.

特許文献1は、焦点距離をずらしながら順次撮影し、ピントがあった画像部分のみ順次上書きして最終的に画面領域全てにわたって合焦した画像を得る。このとき画像の各点の距離情報も取得する。その後、指定された焦点距離のみ合焦した画像を得るべく、指定焦点距離以外の画素についてぼかし処理を行う技術を開示している。   Japanese Patent Application Laid-Open No. 2004-228561 sequentially captures images while shifting the focal length, and sequentially overwrites only the focused image portion to finally obtain an in-focus image over the entire screen area. At this time, distance information of each point of the image is also acquired. Thereafter, a technique is disclosed in which a blurring process is performed on pixels other than the designated focal length so as to obtain an image in which only the designated focal length is in focus.

特許文献2は、撮影画像の各点を3時限計測データ入力部により測距し、画像各点と距離とのデータテーブルを作成し、ユーザがぼかしたい位置を指定したとき指定位置の距離をデータテーブルから求め、同じ距離の画像点を抽出し、同じ距離の画像点について全て背景ぼかし処理を行う技術を開示している。   In Patent Document 2, each point of a captured image is measured by a three-time measurement data input unit, a data table of each point of the image and a distance is created, and when the user specifies a position to be blurred, the distance of the specified position is data A technique is disclosed in which image points of the same distance are obtained from a table, and background blur processing is performed for all image points of the same distance.

特許文献3は、特許文献2に開示された技術と同様、撮影画像の各点を測距し、画像各点と距離とのデータテーブルを作成し、ユーザがぼかしたい位置を指定したとき指定位置の距離をデータテーブルから求め、同じ距離の画像点を抽出し、同じ距離の画像点について全て背景ぼかし処理を行う技術を開示している。特許文献3は、さらに、その後、ぼかした背景の画像とぼかしていない画像とを合成する技術を開示している。
特開平8−163423号公報 特開2000−207549号公報 特開2000−259823号公報
Similar to the technique disclosed in Patent Document 2, Patent Document 3 measures each point of a captured image, creates a data table of each image point and distance, and designates a specified position when a user specifies a position to be blurred. Is obtained from a data table, image points with the same distance are extracted, and background blur processing is performed for all image points with the same distance. Patent Document 3 further discloses a technique for combining a blurred background image and a non-blurred image.
JP-A-8-163423 JP 2000-207549 A JP 2000-259823 A

特許文献1に開示された技術は、焦点距離をずらしながら順次撮影するので、希望する画像を得るまでに時間がかかる。さらに各点ごとの距離情報も用いるので、多量の距離情報を格納する必要がある。   Since the technique disclosed in Patent Document 1 sequentially captures images while shifting the focal length, it takes time to obtain a desired image. Furthermore, since distance information for each point is also used, it is necessary to store a large amount of distance information.

特許文献2に開示された技術は、処理が複雑であり、処理時間がかかる。さらに、画像各点と距離とのデータテーブルを作成するので、多量のデータを格納する必要がある。   The technique disclosed in Patent Literature 2 is complicated in processing and takes a long time. Furthermore, since a data table of each point and distance of the image is created, it is necessary to store a large amount of data.

特許文献3に開示された技術も、処理が複雑であり、処理時間がかかる。さらに、画像各点と距離とのデータテーブルを作成するので、多量のデータを格納する必要がある。   The technique disclosed in Patent Document 3 is also complicated in processing and takes processing time. Furthermore, since a data table of each point and distance of the image is created, it is necessary to store a large amount of data.

本発明は上述した課題などを解決することを意図しており、本発明の目的は、簡単な処理で好ましい画像処理ができる画像撮像装置、画像処理装置および画像処理方法を提供することにある。   The present invention is intended to solve the above-described problems and the like, and an object of the present invention is to provide an image pickup apparatus, an image processing apparatus, and an image processing method capable of performing preferable image processing with simple processing.

本発明は、撮像した画像データ1画面を複数の領域に分割し、その各領域の被写体の前後関係をグループに区分し、グループに応じて周波数特性の異なるフィルタを適用させることにより、指定した範囲の距離の被写体の画像を、各領域単位で強調したり、ぼかしたりする、という構想に基づく。   The present invention divides a captured image data screen into a plurality of areas, divides the anteroposterior relationship of subjects in each area into groups, and applies filters having different frequency characteristics according to the groups, thereby specifying a specified range. This is based on the concept of emphasizing or blurring an image of a subject at a distance of each region.

このような目的を達成するために、本発明による画像処理装置は、被写体空間を仮想的に小さな空間に分割し、それら各空間内に属する被写体部分までの距離を計測して距離データとして保存し、撮像後の画像データを前記距離データを元にして撮像装置からの距離によりグループに分割し、各々のグループに対して異なる特性のフィルタを作用させる。
これにより、被写体空間の中の所望の仮想空間に属する画像データが強調したりぼかしたりが可能である他、レンズのフォーカス特性に関する制限を緩和し、どのようなレンズを使用しても好ましい画像処理ができる。
In order to achieve such an object, the image processing apparatus according to the present invention virtually divides a subject space into small spaces, measures distances to subject portions belonging to the spaces, and stores them as distance data. The image data after imaging is divided into groups based on the distance from the imaging device based on the distance data, and filters having different characteristics are applied to each group.
As a result, image data belonging to a desired virtual space in the subject space can be emphasized or blurred, restrictions on lens focus characteristics are relaxed, and image processing that is preferable regardless of which lens is used Can do.

本発明によれば、画像データ1画面を(1画面の画像データを)複数の領域に分割する画像分割手段と、被写体までの距離に応じて前記複数の領域に対し異なる空間周波数フィルタを適用するフィルタ手段と、を備える画像処理装置が提供される。   According to the present invention, image dividing means for dividing one screen of image data (image data of one screen) into a plurality of regions, and different spatial frequency filters are applied to the plurality of regions according to the distance to the subject. And an image processing apparatus including a filter unit.

また、本発明によれば、被撮像空間の像を撮像する撮像手段と、前記撮像した画像データ1画面を(1画面の画像データを)複数の領域に分割する画像分割手段と、前記分割した各領域の画像データにおける被写体までの距離を検出する距離検出手段と、被写体までの距離に応じて前記複数の領域に対し異なる空間周波数を適用するフィルタ手段と、を備える画像撮像装置が提供される。   In addition, according to the present invention, an imaging unit that captures an image of the imaged space, an image dividing unit that divides the captured image data of one screen into a plurality of regions, and the divided image data. Provided is an image pickup apparatus comprising distance detection means for detecting a distance to a subject in image data of each region and filter means for applying different spatial frequencies to the plurality of regions according to the distance to the subject. .

上記手段により、焦点深度が深いCCD等を用いた画像撮像装置においても、被写体空間(被撮像空間)における各像の前後距離を予め計測、またはその都度計測する等により、被写体空間を3次元的な領域に分割し、各々の領域に異なる周波数特性のフィルタを作用(適用)させることにより適した画像処理(例えば、任意のボケ味)の画像を作成することができる。
その結果として、撮影者が望む任意のボケ味や強調を加えた画像等を作成できる。
With the above-described means, even in an image pickup apparatus using a CCD or the like having a deep focal depth, the subject space can be three-dimensionally measured by measuring the distance in front and back of each image in the subject space (captured space) in advance or by measuring each time. It is possible to create an image with suitable image processing (for example, arbitrary blurring) by dividing the image into regions and applying (applying) filters having different frequency characteristics to each region.
As a result, it is possible to create an image with arbitrary blurring or emphasis desired by the photographer.

本発明は、従来にない画像処理装置、画像撮像装置、さらには画像処理方法を提供することができる。   The present invention can provide an image processing apparatus, an image capturing apparatus, and an image processing method which are not conventionally provided.

第1実施の形態
本発明の画像処理装置の第1実施の形態について述べる。
図1は本発明の画像処理装置の第1実施の形態である画像撮像装置1と、それを用いた撮像方式を示す説明図である。
図1において、画像撮像装置1には距離計測装置3を備える。
画像撮像装置1の構成は図2を参照して述べる。
本実施の形態における画像撮像装置1は、静止画像や動画像を撮像可能な画像撮像装置であり、たとえば、電子カメラ装置、スチルカメラ装置、ビデオカメラ装置などである。
First Embodiment A first embodiment of the image processing apparatus of the present invention will be described.
FIG. 1 is an explanatory diagram showing an image pickup apparatus 1 which is a first embodiment of an image processing apparatus of the present invention and an image pickup method using the same.
In FIG. 1, the image capturing apparatus 1 includes a distance measuring device 3.
The configuration of the image pickup apparatus 1 will be described with reference to FIG.
The image capturing apparatus 1 in the present embodiment is an image capturing apparatus capable of capturing a still image or a moving image, and is, for example, an electronic camera apparatus, a still camera apparatus, a video camera apparatus, or the like.

本実施の形態において、画像撮像装置1で撮像する被撮像(被写体)空間Sを画像撮像装置1からの距離に応じて複数のグループに分ける。本例示においては、画像撮像装置1から近距離D1、中距離D2、遠距離D3に応じて3グループに区分する。被撮像空間Sについて、図1に図解した例示では被写体までの距離を3つのグループに区分したが、被写体までの距離をさらに細かく区分することも可能であり、あるいは、逆に、2つの距離グループに区分することもできる。
画像撮像装置1から被写体までの距離を計測するために距離計測装置3を用いる。距離計測装置3は後述するように、赤外線センサ、超音波センサなど種々の装置構成をとることができるが、その反面、距離計測装置3の処理機能を画像撮像装置1内のコンピュータシステムによる信号処理で実現することもできる。したがって、赤外線センサ、超音波センサなどの距離計測装置3は必須ではないが、コンピュータシステムによる信号処理をも含めて距離計測装置3と呼ぶ、または、距離計測機能を持つ。
In the present embodiment, the imaged (subject) space S imaged by the image capturing apparatus 1 is divided into a plurality of groups according to the distance from the image capturing apparatus 1. In this example, the image pickup apparatus 1 is divided into three groups according to the short distance D1, the medium distance D2, and the long distance D3. In the example illustrated in FIG. 1, the distance to the subject is divided into three groups in the example illustrated in FIG. 1, but the distance to the subject can be further finely divided, or conversely, two distance groups It can also be divided into
A distance measuring device 3 is used to measure the distance from the image capturing device 1 to the subject. As will be described later, the distance measuring device 3 can have various device configurations such as an infrared sensor and an ultrasonic sensor. However, on the other hand, the processing function of the distance measuring device 3 is a signal processing by a computer system in the image pickup device 1. Can also be realized. Therefore, the distance measuring device 3 such as an infrared sensor or an ultrasonic sensor is not essential, but is called the distance measuring device 3 including signal processing by a computer system or has a distance measuring function.

また、赤外線センサ、超音波センサ等を用いず、2次元エリアセンサを用いたAFセンサを利用することにより、各エリア毎のAFデータから各エリア毎の被写体までの距離に相当する数値データを検出して、同等の距離グループの区分けをしてもよい。
また、画像撮像装置1の合焦位置を図示しないAFモータにより順次移動させ、至近から無限遠∞までの撮像CCD23の画像データを取得し、撮像CCD23の各エリア(領域)毎にどの合焦位置にあるのかを検出して、同等の距離グループの区分けを行ってもよい。
Also, by using an AF sensor using a two-dimensional area sensor without using an infrared sensor, an ultrasonic sensor, etc., numerical data corresponding to the distance from the AF data for each area to the subject for each area is detected. Then, it may be divided into the same distance groups.
Further, the in-focus position of the image pickup apparatus 1 is sequentially moved by an AF motor (not shown) to acquire image data of the image pickup CCD 23 from the nearest to infinity ∞, and which in-focus position for each area (region) of the image pickup CCD 23 It is also possible to detect whether the distance is within the range and classify the same distance group.

本実施の形態において、画像撮像装置1から距離D1までの被撮像空間を第1グループ空間(G1空間)、距離D1〜D2に属する被撮像空間を第2グループ空間(G2空間)、距離D2より遠方の距離D3に属する被撮像空間を第3グループ空間(G3空間)と名づける。距離D3を無限遠としてもよい。   In the present embodiment, the imaged space from the image capturing apparatus 1 to the distance D1 is the first group space (G1 space), the imaged space belonging to the distances D1 to D2 is the second group space (G2 space), and the distance D2. An imaging space belonging to the far distance D3 is named a third group space (G3 space). The distance D3 may be set to infinity.

図2は本発明の第1実施の形態の画像撮像装置1の構成図である。
画像撮像装置1は、本発明の画像処理装置の1例としてのコンピュータシステム10と、レンズ21、絞り22と、撮像素子の1例としてのCCD23と、シャッタ24と、AF機構25と、AE機構26と、距離計測装置3となどを含む。
FIG. 2 is a configuration diagram of the image pickup apparatus 1 according to the first embodiment of the present invention.
The image capturing apparatus 1 includes a computer system 10 as an example of an image processing apparatus of the present invention, a lens 21, a diaphragm 22, a CCD 23 as an example of an image sensor, a shutter 24, an AF mechanism 25, and an AE mechanism. 26, the distance measuring device 3, and the like.

レンズ21は、たとえば、ズームレンズ、フォーカスレンズを含んだレンズ鏡筒を示している。本実施の形態は銀塩カメラではなく、CCD等を用いた撮像装置であるため、言うまでもなく光学系の被写界深度は深く、従来技術では銀塩カメラのように立体感のある画像を得ることは困難である。   The lens 21 is a lens barrel including, for example, a zoom lens and a focus lens. Since this embodiment is not a silver halide camera but an imaging device using a CCD or the like, it goes without saying that the depth of field of the optical system is deep, and in the prior art, a stereoscopic image is obtained like a silver halide camera. It is difficult.

コンピュータシステム10は、プロセッサなどの演算処理ユニット(CPU)11と、画像データを保存する画像メモリ12と、CPU11の処理結果を一時的に保存するメモリ13と、CPU11で動作するプログラムを保存するプログラムメモリ14と、後述するフィルタ係数や各ブロックがどのグループに属するかを保存するテーブルメモリ15と、画像データなどを長期的に保存する外部記憶装置16と、表示器、たとえば、液晶表示器17と、CCD23から画像データを取り込んだり、距離計測装置3から距離データを取り込むためのインターフェース(I/F)18と、上述した構成要素を接続するバス19とを有する。
画像メモリ12、メモリ13、テーブルメモリ15は、たとえば、RAMで構成される。他方、メモリ13はたとえば、ROMで構成される。外部記憶装置16は、たとえば、交換可能なメモリカードなどで構成される。
The computer system 10 includes an arithmetic processing unit (CPU) 11 such as a processor, an image memory 12 that stores image data, a memory 13 that temporarily stores processing results of the CPU 11, and a program that stores a program that operates on the CPU 11. A memory 14, a table memory 15 for storing filter coefficients and groups to which each block belongs, an external storage device 16 for storing image data and the like for a long time, and a display such as a liquid crystal display 17 , An interface (I / F) 18 for taking image data from the CCD 23 or taking distance data from the distance measuring device 3, and a bus 19 for connecting the above-described components.
The image memory 12, the memory 13, and the table memory 15 are composed of, for example, a RAM. On the other hand, the memory 13 is composed of a ROM, for example. The external storage device 16 is composed of, for example, a replaceable memory card.

コンピュータシステム10のCPU11は、後述する画像信号処理、電子カメラ装置の各種制御処理を行う。そのため、CPU11は、本発明の各種の手段、たとえば、距離区分手段、画面分割手段、フィルタ処理手段、画像合成手段などの手段、または、画像撮像装置1内の他の部分と協動して、これらの手段の一部として機能する。   The CPU 11 of the computer system 10 performs image signal processing, which will be described later, and various control processes of the electronic camera device. Therefore, the CPU 11 cooperates with various means of the present invention, for example, a distance dividing means, a screen dividing means, a filter processing means, an image synthesizing means, or other parts in the image capturing apparatus 1, It functions as part of these means.

AF機構25は、CPU11の制御のもとレンズ21内のフォーカスレンズの位置を制御して焦点位置を調整する。
AE機構26は、CPU11の制御のもと、アイリス、絞り22の開度、シャッタ24の速度などを制御して、照度を調整する。
レンズ21内のズームレンズもCPU11の制御のもとで制御される。
距離計測装置3は、CPU11の撮像動作と協動して、被写体までの距離を測定する。その測定結果はI/F17を介してコンピュータシステム10に入力されて、CPU11の制御のもとで、メモリ13またはテーブルメモリ15に保存される。
The AF mechanism 25 adjusts the focal position by controlling the position of the focus lens in the lens 21 under the control of the CPU 11.
Under the control of the CPU 11, the AE mechanism 26 controls the iris, the opening degree of the diaphragm 22, the speed of the shutter 24, and the like to adjust the illuminance.
The zoom lens in the lens 21 is also controlled under the control of the CPU 11.
The distance measuring device 3 measures the distance to the subject in cooperation with the imaging operation of the CPU 11. The measurement result is input to the computer system 10 via the I / F 17 and stored in the memory 13 or the table memory 15 under the control of the CPU 11.

画像撮像装置1の通常動作の概要を述べる。
ユーザが被撮像空間Sに小型レンズ21を向けると、CPU11の制御のもとでAF機構25およびAF機構25が動作した状態でレンズ21、絞り22を通過した映像がCCD23に入力され、CCD23で電気信号に変換される。CPU11はI/F17を介してCCD23の撮像データを入力して画像メモリ12に保存するとともに液晶表示器17に表示する。これにより、ユーザは画像撮像装置1のレンズ21を向けている被撮像空間Sの像を液晶表示器17で確認できる。
ユーザがシャッタ21を押すと、そのときにCCD23で検出された撮像データが画像メモリ12に一時的に保存され、かつ、液晶表示器17に表示されるとともに、画像メモリ12に保存された画像データがCPU11により画像圧縮作業などが行われて外部記憶装置16に格納される。
距離計測装置3に関する動作は後述する。
An outline of normal operation of the image pickup apparatus 1 will be described.
When the user directs the small lens 21 to the imaged space S, the image that has passed through the lens 21 and the aperture 22 with the AF mechanism 25 and the AF mechanism 25 operating under the control of the CPU 11 is input to the CCD 23. It is converted into an electrical signal. The CPU 11 inputs imaging data of the CCD 23 via the I / F 17 and stores it in the image memory 12 and displays it on the liquid crystal display 17. As a result, the user can confirm the image of the imaged space S facing the lens 21 of the image capturing apparatus 1 on the liquid crystal display 17.
When the user presses the shutter 21, the image data detected by the CCD 23 at that time is temporarily stored in the image memory 12, displayed on the liquid crystal display 17, and image data stored in the image memory 12. The CPU 11 performs an image compression operation and the like and stores it in the external storage device 16.
The operation relating to the distance measuring device 3 will be described later.

被撮像空間S全体は、図2の画像撮像装置1で撮像した結果として、図3(A)に例示した1枚の画像データPとして得られる。
図3(A)に図解した画像は、画像撮像装置1から近距離D1に人物像M、中距離D2に家屋の像H、遠距離D3に樹木の像Tと山などの風景の像Mを例示している。
1枚の画像データPは、液晶表示器17に表示される画像、または、画像メモリ12に格納される1枚の画像データに対応している。
The entire imaged space S is obtained as a single piece of image data P illustrated in FIG. 3A as a result of imaging with the image imaging device 1 of FIG.
The image illustrated in FIG. 3A is a person image M at a short distance D1, an image H of a house at a medium distance D2, an image T of a tree and an image M of a landscape such as a mountain at a long distance D3. Illustrated.
One piece of image data P corresponds to an image displayed on the liquid crystal display 17 or one piece of image data stored in the image memory 12.

CPU11は、画像撮像装置1により得られる1枚の画像データPを、図3(A)、(B)に示すような複数の小さなブロック(小領域)に分割して処理する。
1枚の画像データPとしては、本実施の形態において、たとえば、非常に大きな12M(メガ)画素(ピクセル)とし、その1画面全体を1ブロック(小領域)=64x64画素の複数のブロックに分割する場合を考える。
1ブロックの大きさは、図3(A)、(B)に例示したように、縦横同じサイズ(画素)でもよいし、縦長、横長のブロックにすることもできる。このような1ブロックのサイズは、CCD23の画素の大きさを考慮して決定する。たとえば、CCD13のサイズが縦512画素x横512画素のとき1ブロックを64画素x64画素で分割した場合、縦8ブロックx横8ブロック=64個の小ブロックに分割される。他方、画素サイズとして非常に大きな値である12メガピクセル=4000x3000画素の場合を仮定すると、横=4000÷64=62.5ブロック、縦=3000÷64=46.8ブロックとなるから、繰り上げて、横63ブロックx縦47ブロックとなり、総数=63x47=2961ブロックとなる。
The CPU 11 processes one piece of image data P obtained by the image pickup device 1 by dividing it into a plurality of small blocks (small areas) as shown in FIGS.
In the present embodiment, for example, a very large 12M (mega) pixel (pixel) is used as one piece of image data P, and the entire screen is divided into a plurality of blocks of 1 block (small area) = 64 × 64 pixels. Consider the case.
As illustrated in FIGS. 3A and 3B, the size of one block may be the same size (pixels) in the vertical and horizontal directions, or may be in the vertical and horizontal blocks. The size of one block is determined in consideration of the pixel size of the CCD 23. For example, when the size of the CCD 13 is vertical 512 pixels × horizontal 512 pixels and one block is divided into 64 pixels × 64 pixels, it is divided into 8 vertical blocks × 8 horizontal blocks = 64 small blocks. On the other hand, assuming a very large value of 12 megapixels = 4000 × 3000 pixels as the pixel size, horizontal = 4000 ÷ 64 = 62.5 blocks and vertical = 3000 ÷ 64 = 46.8 blocks. , Horizontal 63 blocks x vertical 47 blocks, and the total number = 63 × 47 = 2961 blocks.

本実施の形態においては、1枚の画像データPの全部を複数のブロックに分割する場合について述べるが、以下に述べる画像の強調、または、ぼかしを行う対象とする、1枚の画像データPの所定範囲についてのみ、下記に述べる処理を行うこともできる。
その場合、下記の述べる画像の強調、または、ぼかしを行う対象以外の領域については、下記に述べる処理を行わない。あるいは、画像の強調、または、ぼかしを行う対象以外の領域の画像データを、仮に0にして下記の処理を行い、全ての処理終了後、画像の強調、または、ぼかしを行う対象以外の領域の元の画像データを合成させることもできる。
なお、以下の記述においては、1枚の画像データPの全部を複数のブロックに分割する場合について述べる。
In the present embodiment, a case in which one piece of image data P is divided into a plurality of blocks will be described. Only the predetermined range can be processed as described below.
In this case, the processing described below is not performed on the region other than the target of image enhancement or blurring described below. Alternatively, the image data of a region other than the target for image enhancement or blurring is temporarily set to 0 and the following processing is performed, and after all the processing is completed, the region other than the target for image enhancement or blurring is selected. The original image data can also be synthesized.
In the following description, a case where the entire image data P is divided into a plurality of blocks will be described.

これらの複数のブロック(小領域)には、被撮像空間Sにおける該当する被写体の画像データが存在する。画像撮像装置1から被写体が存在する位置までの距離を上述したように3グループに区分したから、CPU11は複数のブロックについて距離に応じたグループ区分を行う。
このように、本実施の形態においては、画像データについて画素各点の距離を扱うのではなくて、各ブロックごとグループで区分した距離で扱う。したがって、たとえば、1ブロックを64x64画素とした場合、1画素ごと距離データを対応づけた場合に比較して、距離データは1/64x64=1/4096に減少するので、後述するように、メモリの負担が少なく、処理速度も短縮できるという利点がある。
In the plurality of blocks (small regions), image data of the subject in the imaging space S exists. Since the distance from the image pickup apparatus 1 to the position where the subject exists is divided into three groups as described above, the CPU 11 performs group division according to the distance for a plurality of blocks.
As described above, in the present embodiment, the distance between pixel points is not handled for image data, but the distance divided by a group for each block is handled. Therefore, for example, when one block is 64 × 64 pixels, the distance data is reduced to 1/64 × 64 = 1/4096 compared to the case where the distance data is associated with each pixel. There are advantages that the burden is small and the processing speed can be shortened.

たとえば、距離の区分を4グループに区分する場合、1グループに2ビットを割り当てると、2961ブロックx2ビット=5922ビット=741バイトとなる。あるいは、1グループに3ビットを割り当てると、2961ブロックx3ビット=8883ビット=1111バイト(約1.12kバイト)となる。12メガピクセルの大きな画像であっても、距離をグループに区分するために必要なメモリ容量は約1.12kバイトであり、図2のテーブルメモリ15に格納するデータ量としては、全く問題とならない。   For example, when dividing the distance into four groups, if 2 bits are assigned to one group, 2961 blocks × 2 bits = 5992 bits = 741 bytes. Alternatively, if 3 bits are assigned to one group, 2961 blocks × 3 bits = 8883 bits = 1111 bytes (about 1.12 kbytes). Even for a large image of 12 megapixels, the memory capacity required to divide the distance into groups is about 1.12 kbytes, and the amount of data stored in the table memory 15 of FIG. .

また、テーブルメモリ15などに絶対距離を保存してもよい。この場合は絶対距離を6ビット(64段階)程度で表現すると仮定すると、12M(メガ)画素の撮像データについて、2961x6ビット=約2.22kバイトとなる。
近距離を精度よく表現すればよいため、ビット深さ(ビット長さ)は最大でも8ビット程度あれば十分である。その場合は、2961x8ビット=2.961kバイトとなる。この程度のメモリ容量はテーブルメモリ15に格納するデータ量としては、全く問題とならない。
Further, the absolute distance may be stored in the table memory 15 or the like. In this case, assuming that the absolute distance is expressed by about 6 bits (64 levels), the imaging data of 12M (mega) pixels is 2961 × 6 bits = about 2.22 kbytes.
Since it is only necessary to accurately represent the short distance, it is sufficient that the bit depth (bit length) is about 8 bits at the maximum. In that case, 2961 × 8 bits = 2.961 kbytes. Such a memory capacity does not pose any problem as the amount of data stored in the table memory 15.

図4(A)〜(D)は、本発明の第1実施の形態の画像処理装置1を適用した画像処理方法、特に、コンピュータシステム10のCPU11において行う画像処理方法を説明する図である。
画像撮像装置1のCCD23で得られた画像を図4(A)に図解したものとする。
図4(A)に図解した画像は、図3(A)に図解した画像と同様、人物像M、家屋の像H、樹木の像T、山などの風景の像Fを例示している。
図3(A)、(B)を参照して述べたように、画像データ1枚の画面を仮想的な小ブロック(小領域)、たとえば、64×64画素を1ブロックとする小領域に分けておき、予め各ブロック内の被写体部分までの距離をCPU11の制御のもとで距離計測装置3により測定する。距離計測装置3の測定した距離はテーブルメモリ15に保存しておく。距離計測装置3については後述する。
4A to 4D are diagrams for explaining an image processing method to which the image processing apparatus 1 according to the first embodiment of the present invention is applied, in particular, an image processing method performed by the CPU 11 of the computer system 10.
Assume that the image obtained by the CCD 23 of the image pickup apparatus 1 is illustrated in FIG.
The image illustrated in FIG. 4A illustrates a landscape image F such as a person image M, a house image H, a tree image T, and a mountain, as in the image illustrated in FIG. 3A.
As described with reference to FIGS. 3A and 3B, the screen of one image data is divided into virtual small blocks (small areas), for example, small areas having 64 × 64 pixels as one block. The distance to the subject portion in each block is previously measured by the distance measuring device 3 under the control of the CPU 11. The distance measured by the distance measuring device 3 is stored in the table memory 15. The distance measuring device 3 will be described later.

CPU11は、このような小ブロックを、予め設定した距離により複数のグループに区分し、撮像した画像データの各ブロックがどの距離グループに属するかをマークしておく。
図4(A)の例では人物像Mが被写体である距離D1グループに属する小ブロックを図4(B)に図解したもの、家屋の像Hが被写体である距離D2グループに属する小ブロックは図4(C)に図解したもの、樹木の像Tと山などの風景の像Fが被写体である距離D3グループに属する小ブロックは図4(D)に図解したものとなる。このように、本実施の形態においては、距離に応じて図4(B)、(C)、(D)のように、ブロック単位で3つの画像データ群に区分することができる。
距離D2グループの図4(C)に図解した部分と、遠距離D3グループの図4(D)に図解した部分の内部に空白があるが、これらの部分の画素値を0を挿入する。その結果、CPU11における画像処理においてデータなし(データ=0)として扱うので問題は無い。
The CPU 11 classifies such small blocks into a plurality of groups according to preset distances, and marks which distance group each block of the captured image data belongs to.
In the example of FIG. 4A, the small block belonging to the distance D1 group whose person image M is the subject is illustrated in FIG. 4B, and the small block belonging to the distance D2 group whose house image H is the subject is shown in FIG. A small block belonging to the distance D3 group illustrated in FIG. 4C and having a tree image T and a landscape image F such as a mountain as a subject is illustrated in FIG. 4D. Thus, in the present embodiment, the image data can be divided into three image data groups in units of blocks as shown in FIGS. 4B, 4C, and 4D according to the distance.
There is a space inside the portion illustrated in FIG. 4C of the distance D2 group and the portion illustrated in FIG. 4D of the long distance D3 group, and 0 is inserted into the pixel value of these portions. As a result, since there is no data (data = 0) in the image processing in the CPU 11, there is no problem.

ここで、上記実施の形態では、複数のグループに対応してそれぞれ別の画像データを作成し最後に合成する例を示したが、本発明はこれに限定されず、例えば、1画面分のあるグループに属するデータにある画像処理を施し、同じ1画面分の別のあるグループに属するデータに別の画像処理を施すような、画像データ自体は1のまま、異なる画像処理を領域毎に施す態様であってもよい。この態様であれば、画像合成の処理をすることなく所望の画像処理を施すことができる。   Here, in the above embodiment, an example in which different image data is created corresponding to a plurality of groups and combined last is shown, but the present invention is not limited to this, and there is, for example, one screen. An aspect in which image processing is performed on data belonging to a group, and different image processing is performed on data belonging to another group for the same one screen while image data itself remains 1, and different image processing is performed for each region. It may be. According to this aspect, desired image processing can be performed without performing image composition processing.

本発明の第1実施の形態においては、このように、画像データ1画面を複数のブロック(小領域)に分割し、かつ、分離可能な画像、たとえば、人物像M、家屋の像H、樹木の像Tと山などの風景の像Fとをブロック単位で切りわけて分離する。距離計測装置3はCPU11と協動して各ブロックごとの距離を測定する。そして、分離したブロック内の画像データ、たとえば、人物像Mの画像データを距離に応じたグループで区分する。このように、本実施の形態においては、画像撮像装置1から被写体までの距離に応じてグループ区分した各ブロックごとの距離を扱うので、1画素ごと距離データを対応づけた場合に比較して、距離データは非常に少なくてすむ。   In the first embodiment of the present invention, as described above, one screen of image data is divided into a plurality of blocks (small regions) and separable images, for example, a person image M, a house image H, a tree, etc. The image T and the landscape image F such as a mountain are separated into blocks and separated. The distance measuring device 3 measures the distance for each block in cooperation with the CPU 11. Then, the image data in the separated blocks, for example, the image data of the human image M is divided into groups according to the distance. Thus, in this embodiment, since the distance for each block grouped according to the distance from the image capturing device 1 to the subject is handled, compared to the case where the distance data is associated with each pixel, The distance data is very small.

なお、本実施の形態では距離に応じて3種類のグループに分けたがこれに限定されず、2グループに分けたものであってもよい(合焦グループと背景グループまたは合焦グループと前景グループなど)。
また、3種類ではなく、多数のグループに分けてもよいばかりか、距離に応じて、領域毎に異なる処理を施すものであってもよい。この場合は、処理が非常に煩雑となるが、より好ましい画像データを得ることができる。
In this embodiment, the three groups are divided according to the distance. However, the present invention is not limited to this, and the group may be divided into two groups (focus group and background group or focus group and foreground group). Such).
Further, instead of the three types, it may be divided into a large number of groups, or different processing may be performed for each region according to the distance. In this case, the processing becomes very complicated, but more preferable image data can be obtained.

第1フィルタ処理(2次元空間周波数フィルタ)処理)
図5(A)〜(C)に、コンピュータシステム10のCPU11において行うグループ区分した各グループの画像データに適用するフィルタ特性を示す。
図5(A)、(B)、(C)に図解した各々のフィルタを第1〜第3の2次元フィルタ(空間周波数フィルタ)Fl,F2,F3とする。本実施の形態においては、例示として、近距離の被写体用の2次元フィルタ、中距離の被写体用の2次元フィルタ、遠距離の被写体用の2次元フィルタとして、第1〜第3の2次元フィルタFl,F2,F3を例示しているが、さらに距離を細分化して多数の2次元フィルタを準備することもできるし、近距離の被写体用の2次元フィルタ、中距離以上の被写体用の2次元フィルタの2つの2次元フィルタのみを用いることもできる。以下、第1〜第3の2次元フィルタFl,F2,F3を用いた場合について述べる。
図5(A)、(B)、(C)において、横軸は0〜0.5で規格化した空間周波数を示し、縦軸は0〜1で規格化した画像データのレベルの減衰度を示す。フィルタは予め画像撮像装置1のコンピュータシステム10のテーブルメモリ15内部にフィルタ係数として保持しておく。
図解を容易にするため、図5(A)、(B)、(C)において、フィルタ特性は1次元で示したが、画像データは2次元的な広がりを持つから、実際のフィルタの適用では2次元の畳み込み積分や、1次元の畳み込み積分を縦横2回適用する。なお、CPU11によるフィルタ処理は実空間の畳み込み積分として実施することが簡単である。
フィルタサイズは画像撮像装置1のCCD23の画像サイズに依存するが、CCD23のサイズを12M(メガ)画素と仮定すると、フィルタサイズは9x9画素程度で実現可能である。
本実施の形態においては、これらのフィルタ特性は次のような特徴を持たせた。
First filter processing (two-dimensional spatial frequency filter) processing)
5A to 5C show filter characteristics applied to the image data of each group divided by the CPU 11 of the computer system 10.
Each of the filters illustrated in FIGS. 5A, 5B, and 5C is referred to as first to third two-dimensional filters (spatial frequency filters) Fl, F2, and F3. In this embodiment, as an example, the first to third two-dimensional filters are used as a two-dimensional filter for a short-distance subject, a two-dimensional filter for a medium-distance subject, and a two-dimensional filter for a long-distance subject. Although Fl, F2, and F3 are illustrated, a number of two-dimensional filters can be prepared by further subdividing the distance, a two-dimensional filter for a subject at a short distance, a two-dimensional filter for a subject at a medium distance or more It is also possible to use only two two-dimensional filters. Hereinafter, a case where the first to third two-dimensional filters Fl, F2, and F3 are used will be described.
5A, 5B, and 5C, the horizontal axis indicates the spatial frequency normalized by 0 to 0.5, and the vertical axis indicates the degree of attenuation of the image data level normalized by 0 to 1. Show. The filter is stored in advance as a filter coefficient in the table memory 15 of the computer system 10 of the image capturing apparatus 1.
For ease of illustration, the filter characteristics are shown in one dimension in FIGS. 5A, 5B, and 5C, but the image data has a two-dimensional spread. A two-dimensional convolution integral or a one-dimensional convolution integral is applied twice vertically and horizontally. Note that the filter processing by the CPU 11 can be easily implemented as a convolution integral in real space.
Although the filter size depends on the image size of the CCD 23 of the image pickup apparatus 1, if the size of the CCD 23 is assumed to be 12M (mega) pixels, the filter size can be realized with about 9 × 9 pixels.
In the present embodiment, these filter characteristics have the following characteristics.

図5(A)に例示した第1の2次元(空間周波数)フィルタF1は、図4(B)に図解した距離D1のグループの画像に適用するフィルタである。すなわち、画像撮像装置1から近距離に位置する被写体、たとえば、図3(A)の人物像Mに適用する場合のフィルタであり、低域では平坦な特性を持ち、中域〜高域で少し画像レベルを持ち上げて画像のエッジを強調させ、非常に高い周波数領域ではノイズを低減させるために画像レベルを少し減衰させために使用される。   The first two-dimensional (spatial frequency) filter F1 illustrated in FIG. 5A is a filter applied to the image of the group having the distance D1 illustrated in FIG. That is, it is a filter when applied to a subject located at a short distance from the image pickup device 1, for example, the person image M in FIG. 3A, and has a flat characteristic in a low range, and a little in a mid range to a high range. It is used to raise the image level to enhance the edge of the image and to attenuate the image level slightly to reduce noise in the very high frequency range.

図5(B)に例示した第2の2次元(空間周波数)フィルタF2は、図4(C)に図解した距離D2のグループの画像に適用するフィルタである。すなわち、画像撮像装置1から中距離に位置する被写体、たとえば、図3(A)の家屋の像Hに適用する場合のフィルタであり、り、低域から高域に向かってレベルをなだらかに減衰させる特性を持ち、特に、高域における画像レベルを低下させて高域における画像レベルをぼかすために使用される。
図5(B)の上に図解のように、画像データが存在しない部分の画像データは0にしてある。したがって、CPU11においてフィルタ処理を施しても関係がないし、他に影響を与えない。
The second two-dimensional (spatial frequency) filter F2 illustrated in FIG. 5B is a filter applied to the image of the group having the distance D2 illustrated in FIG. That is, it is a filter when applied to a subject located at an intermediate distance from the image pickup apparatus 1, for example, the image H of the house in FIG. 3A, and the level is gradually attenuated from the low range to the high range. In particular, it is used to reduce the image level in the high frequency range by blurring the image level in the high frequency range.
As illustrated in the upper part of FIG. 5B, the image data in a portion where no image data exists is set to zero. Therefore, even if the CPU 11 performs the filtering process, there is no relationship and no other influence is exerted.

図5(C)に例示した第3の2次元(空間周波数)フィルタF3は、図4(C)に図解した距離D3のグループの画像に適用するフィルタである。すなわち、画像撮像装置1から遠距離距離に位置する被写体、たとえば、図3(A)山などの風景の像Fに適用する場合のフィルタであり、第2フィルタF2に比べて、低域〜中域にかけて画像レベルをさらに低下させて、低域〜中域にかけて画像レベルをぼかすために使用される。
図5(C)の上に図解のように、画像データが存在しない部分の画像データは0にしてある。したがって、CPU11におけるフィルタ処理を施しても関係がないし、他に影響を与えない。
The third two-dimensional (spatial frequency) filter F3 illustrated in FIG. 5C is a filter applied to the image of the group having the distance D3 illustrated in FIG. That is, it is a filter when applied to a subject located at a long distance from the image pickup device 1, for example, a landscape image F such as a mountain in FIG. 3 (A). It is used to further reduce the image level over the range and blur the image level over the low to mid range.
As illustrated in FIG. 5C, the image data in a portion where no image data exists is set to zero. Therefore, even if the filter processing in the CPU 11 is performed, there is no relationship and no other influence is exerted.

区分した各距離グループの画像に対するフィルタ処理の適用方法の例を図6、図7を参照して述べる。
図6は分割した画像データに対するフィルタ処理を説明する図である。図7はCPU11のフィルタ処理内容を示すフローチャートである。
図2に図解したコンピュータシステム10におけるI/F18を経由してCCD23から画像メモリ12に保存された画像データは、図6に示すように、画像メモリ12内において仮想的に小ブロック(領域)に分割されている。CPU11は、これら小ブロックの距離関係も合わせて各ブロックについての距離区分グループをテーブルデータとして取込み、テーブルメモリ15に保存している。CPU11は、テーブルメモリ15に上記3種類の2次元フィルタF1〜F3のフィルタ係数も予め保存しておく。
このようなテーブルデータにより、画像メモリ12に保存された画像データの各小ブロックはどのような遠近関係のグループに属するかが符号をつけられている。
An example of a method of applying filter processing to the images of each divided distance group will be described with reference to FIGS.
FIG. 6 is a diagram for explaining the filter processing for the divided image data. FIG. 7 is a flowchart showing the contents of filter processing of the CPU 11.
Image data stored in the image memory 12 from the CCD 23 via the I / F 18 in the computer system 10 illustrated in FIG. 2 is virtually divided into small blocks (areas) in the image memory 12 as shown in FIG. It is divided. The CPU 11 takes in the distance division group for each block as table data together with the distance relationship of these small blocks, and stores them in the table memory 15. The CPU 11 also stores the filter coefficients of the three types of two-dimensional filters F1 to F3 in the table memory 15 in advance.
Based on such table data, the perspective group to which each small block of the image data stored in the image memory 12 belongs is labeled.

第1フィルタ処理(2次元空間周波数フィルタ処理)
図7を参照して仮想的に分割された個別ブロックの画像データに対してCPU11が2次元(空間周波数)フィルタを適用する処理を述べる。
第1フィルタ処理は図5(A)〜(C)に例示したフィルタ特性に基づいて距離に応じたフィルタ処理を行う。
図6に示す小ブロックを、左上を1、そして水平方向に番号を増やして番号付けを行う。
ステップ1においてCPU11はまず番号1の小ブロックを選択し、ステップ2においてCPU11はそのブロックが属するグループをテーブルメモリ15のデータにより判定する。ステップ3において、もしそのデータが、たとえば、3ならば、CPU11は第3の2次元フィルタF3の係数を選択して第3の2次元フィルタF3の係数をテーブルメモリ15から取り出し、ステップ4において、CPU11は小ブロック1の画像データに第3の2次元フィルタF3の係数を作用させる(フィルタ処理する)。具体的には、たとえば、小ブロックが32x32画素、第3の2次元フィルタF3が5x5画素分のコンポルーション(畳み込み)フィルタであれば、CPU11によりこれらの畳み込み演算によりフィルタ処理が可能である。CPU11はフィルタ処理した結果を画像メモリ12に書き込んでいく。
ステップ5において、CPU11は次に第2の小ブロックを選択する。ステップ6においてCPU11は全てのブロックについて処理したか否かを判定し、全てのブロックについて選択が終了しない場合、ステップ2〜4を参照して述べた、前と同様に当該ブロックが属するグループをテーブルメモリ15から参照し、該当する2次元フィルタの係数を取り出して該当ブロックの画像データに適用する。
CPU11はこれらを次々と演算し、全ての小ブロックの画像データに対して2次元フィルタ処理行う。
中間の処理結果は画像メモリ12に作成され、CPU11は2次元フィルタ処理された最終的結果を外部記憶装置16に保存する。
First filter processing (two-dimensional spatial frequency filter processing)
A process in which the CPU 11 applies a two-dimensional (spatial frequency) filter to image data of individual blocks virtually divided with reference to FIG.
The first filter process performs a filter process corresponding to the distance based on the filter characteristics illustrated in FIGS.
The small blocks shown in FIG. 6 are numbered by 1 at the upper left and by increasing the number in the horizontal direction.
In step 1, the CPU 11 first selects the small block number 1, and in step 2, the CPU 11 determines the group to which the block belongs based on the data in the table memory 15. In step 3, if the data is, for example, 3, the CPU 11 selects the coefficient of the third two-dimensional filter F3 and retrieves the coefficient of the third two-dimensional filter F3 from the table memory 15. In step 4, The CPU 11 applies the coefficient of the third two-dimensional filter F3 to the image data of the small block 1 (filter processing). Specifically, for example, if the small block is a 32 × 32 pixel and the third two-dimensional filter F3 is a 5 × 5 pixel (convolution) filter, the CPU 11 can perform filter processing by these convolution operations. The CPU 11 writes the filtered result in the image memory 12.
In step 5, the CPU 11 next selects the second small block. In step 6, the CPU 11 determines whether or not processing has been performed for all the blocks. If selection for all the blocks is not completed, the table to which the block belongs as described above with reference to steps 2 to 4 is displayed. With reference to the memory 15, the coefficient of the corresponding two-dimensional filter is extracted and applied to the image data of the corresponding block.
The CPU 11 calculates these one after another and performs two-dimensional filter processing on the image data of all small blocks.
The intermediate processing result is created in the image memory 12, and the CPU 11 stores the final result subjected to the two-dimensional filter processing in the external storage device 16.

図8は、第1〜第3の2次元(空間周波数)フィルタF1〜F3を作用させた(適用した)フィルタ処理結果をCPU11が再度合成して1枚の画像にする処理を示す図である。
画像合成は、CPU11が単に、該当するブロックの画像データに対応する第1〜第3の2次元フィルタF1〜F3を適用して得られた3枚の画像処理結果を加算すればよい。
図9(A)はCPU11による合成処理結果の画像を示す。
ここで、合成処理ではなく、1画像の領域毎に異なるフィルタ処理を行うことによっても、同様の画像を得られることは言うまでもない。
FIG. 8 is a diagram illustrating processing in which the CPU 11 again synthesizes the filter processing results obtained by applying (applying) the first to third two-dimensional (spatial frequency) filters F1 to F3 to form one image. .
In the image composition, the CPU 11 simply adds the three image processing results obtained by applying the first to third two-dimensional filters F1 to F3 corresponding to the image data of the corresponding block.
FIG. 9A shows an image obtained as a result of the synthesis process by the CPU 11.
Here, it is needless to say that a similar image can be obtained by performing different filter processing for each region of one image instead of the synthesis processing.

第2フィルタ処理
CPU11はさらに下記に例示する第1フィルタ処理を行う。第2のフィルタ処理は、画像強調または画像ぼかしなどための処理である。
The second filter processing CPU 11 further performs the first filter processing exemplified below. The second filter processing is processing for image enhancement or image blurring.

第2フィルタ処理(第1例)
CPU11は図9(A)の画像に対して下記の第2フィルタ処理を行う。
たとえば、近距離D1グループの画像データにハイパスフィルタ(HPF)を適用し、中距離D2,遠距離D3の画像には各々ローパスフィルタ(LPF)2、LPF3を適用する。距離D3の画像にはより強い低域通過特性を持つLPFを作用させることにより、遠近感をより強調することにある。これにより、近距離D1の人物像Mが強調されたより明確に浮かび上がるとともに、山などの風景の像Fがぼけ、よりボケ味のある画像が得られる。
図9(B)は、図9(A)に図解したの合成画像について上記の第2フィルタ処理を行い、人物像Mが撮像された距離D1のグループが一番手前で、家屋の像Hと、樹木の像Tと、山などの人物の背景に位置する風景の像Fが撮像された他の画像は、距離D1より後ろ(遠方)と判断された例である。
このように、第2フィルタ処理は、画像を強調させたり、ぼかするための処理である。
このようにして立体感のある画像が得られる。
Second filter processing (first example)
The CPU 11 performs the following second filter process on the image of FIG.
For example, a high pass filter (HPF) is applied to the image data of the short distance D1 group, and low pass filters (LPF) 2 and LPF 3 are applied to the images of the medium distance D2 and the long distance D3, respectively. The purpose is to further enhance the sense of perspective by applying an LPF having stronger low-pass characteristics to the image at the distance D3. As a result, the person image M at the short distance D1 is highlighted more clearly, and the landscape image F such as a mountain is blurred and a more blurred image is obtained.
9B performs the second filtering process on the composite image illustrated in FIG. 9A, and the group of the distance D1 in which the person image M is captured is closest to the image H of the house. The other image in which the image T of the tree and the landscape image F located in the background of a person such as a mountain are captured is an example determined to be behind (far) from the distance D1.
Thus, the second filter process is a process for enhancing or blurring an image.
In this way, a three-dimensional image is obtained.

第2フィルタ処理(第2例)
他方、図10(A)に図解した撮像結果の合成画像について、図10(B)に図解した処理結果を述べる。この例では、樹木の像Tについての距離D1グループが一番手前で、距離D1より遠方の距離D2に人物像Mが位置し、さらに遠方の距離D3に山などの人物の背景に位置する風景の像Fが位置している。ここでは、距離D2の人物像Mを強調してそれ以外をぼかすことによりボケ味をより強調する処理例を示す。
CPU11において、D2グループの画像(人物像M)にHPFを適用し、D1グループの樹木の像Tと、D3グループの山などの風景の像Fには各々LPF2、LPF3を適用する。距離が遠いグループ(D3)の山などの風景の像Fには、LPF2より強いLPF3を作用させる。これにより、遠いところを更に遠く感じさせる。また、手前の樹木の像Tもぼかすことにより、人物像Mがより強調される。
なお、樹木の像Tの距離D1グループについてさらにD3グループの画像データに適用したLPF3より低域特性が強いLPF4を適用することができる。その結果、近距離画像(家屋の像H)が一層ぼけて、人物像Mの被写体が浮かびあがる。
このようにして立体感のある画像が得られる。
Second filter processing (second example)
On the other hand, the processing result illustrated in FIG. 10B will be described for the composite image of the imaging result illustrated in FIG. In this example, a landscape in which the distance D1 group for the tree image T is the forefront, the person image M is located at a distance D2 farther than the distance D1, and is located in the background of a person such as a mountain at a further distance D3. The image F is located. Here, a processing example is shown in which the blur is enhanced more by emphasizing the person image M at the distance D2 and blurring the others.
In the CPU 11, HPF is applied to the image (person image M) of the D2 group, and LPF2 and LPF3 are applied to the image T of the tree of the D1 group and the landscape image F such as a mountain of the D3 group, respectively. The LPF 3 stronger than the LPF 2 is applied to the landscape image F such as a mountain of the group (D3) with a long distance. This makes you feel farther away. Further, the person image M is further emphasized by blurring the tree image T in front.
For the distance D1 group of the tree image T, LPF4 having a lower frequency characteristic than LPF3 applied to the image data of the D3 group can be applied. As a result, the near-field image (house image H) is further blurred, and the subject of the person image M appears.
In this way, a three-dimensional image is obtained.

第2フィルタ処理(第3例)
以上述べた例では、画像処理装置内の距離計測装置により小ブロック毎に距離が区分された場合の画像撮像装置1(CPU11)の処理について述べた。
図11(A)、(B)に示す方法により画像に簡単にボケ味を出す方法を述べる。
図11(A)、(B)は、第2フィルタ処理の第3例として画像撮像装置1の操作者(ユーザ)が、撮像画面で大まかに領域を指定し、そして、その領域内と外側でフィルタを変更する方法を示す図である。
図11(A)に示すように、たとえば、液晶表示器17に表示されている画像について、たとえば、撮像者(ユーザ)が図示しないマニュプレータを操作して簡易的に視野内に矩形領域(ブロック)Aを表示し、撮像者がマニュプレータを操作してがその位置を移動して被写体を囲むように操作する。そして、画像撮像装置1のCPU11は、指定された領域(ブロック)とそれ以外とでフィルタ特性が異なる2種類の2次元フィルタを作用させて、ボケ味を出す。
この方法では奥行き(距離)の判別は、指定された領域とそれ以外との2つのグループのみであるが、人物像Mを領域として指定した場合、人物像Mを強調し、指定しない領域の画像データをぼけさせたボケ処理操作が可能である。
このようにして立体感のある画像が得られる。
図11(A)に示す方法では、空間を小ブロックに分割して各ブロックの距離を距離計測装置3を用いて計測することが不要であり、任意に撮像した1枚の画像データから指定された領域とそれ以外の領域とに2つに分離してボケ処理を適用できるため、画像撮像装置1が非常に簡単になるという特徴をもつ。
Second filter processing (third example)
In the example described above, the processing of the image capturing device 1 (CPU 11) when the distance is divided for each small block by the distance measuring device in the image processing device has been described.
A method for easily blurring an image by the method shown in FIGS. 11A and 11B will be described.
FIGS. 11A and 11B show a third example of the second filter processing in which an operator (user) of the image capturing apparatus 1 roughly specifies a region on the image capturing screen, and within and outside that region. It is a figure which shows the method of changing a filter.
As shown in FIG. 11A, for example, with respect to an image displayed on the liquid crystal display 17, for example, a photographer (user) operates a manipulator (not shown) to easily form a rectangular area (block) in the field of view. A is displayed, and the photographer operates the manipulator to move the position so as to surround the subject. Then, the CPU 11 of the image capturing apparatus 1 causes two types of two-dimensional filters having different filter characteristics to act on the designated area (block) and other areas, thereby producing blur.
In this method, the depth (distance) is discriminated only in the two groups of the designated area and the other areas. However, when the person image M is designated as the area, the person image M is emphasized and the image in the area not designated is designated. A blur processing operation with blurred data is possible.
In this way, a three-dimensional image is obtained.
In the method shown in FIG. 11A, it is not necessary to divide the space into small blocks and measure the distance of each block using the distance measuring device 3, and it is specified from one piece of image data that is arbitrarily captured. Since the blur processing can be applied to the two regions separately from the other regions, the image capturing apparatus 1 is very simple.

第2フィルタ処理(第4例)
図11(A)、(B)に図解した方法と同様、第2フィルタ処理(第4例)として図12(A)、(B)に示す方法により、画像に簡単にボケ味を出す方法を述べる。
図12(A)、(B)は、第2フィルタ処理(第4例)として、画像撮像装置1の撮像者(ユーザ)が、撮像画面で大まかに領域を指定し、その領域内と外側でフィルタを変更する方法を示す図である。
図12(A)は、撮像した画像を、たとえば、液晶表示器17において図示しないマニュプレータを用いて、破線で示したように、ブロック分割し、CPU11が色ヒストグラムをもとに指定した領域Bの辺縁の領域関係をより詳細に判断する例を示す。
図12(A)において、撮像者(ユーザ)が液晶表示器17においてマニュプレータを操作して、人物像Mを囲んだ領域Bも含めて画像全体を小ブロックに分割する。CPU11は、各々の小ブロックごとに第1色差Cbおよび第2色差Crのヒストグラムを計算し、隣接する小ブロックと比較する。CPU11は、ヒストグラムの分布が似ている場合、そのブロックも人物像Mの画像データの領域の一部と判断することにより、辺縁部をより詳細に決める。
Second filter processing (fourth example)
Similar to the method illustrated in FIGS. 11A and 11B, a method for easily blurring an image by the method shown in FIGS. 12A and 12B as the second filter processing (fourth example). State.
FIGS. 12A and 12B show, as the second filter processing (fourth example), the person (user) of the image capturing apparatus 1 roughly designates an area on the imaging screen, and within and outside the area. It is a figure which shows the method of changing a filter.
In FIG. 12A, the captured image is divided into blocks as indicated by broken lines using a manipulator (not shown) in the liquid crystal display 17, and the area B designated by the CPU 11 based on the color histogram is displayed. An example will be shown in which the edge area relationship is determined in more detail.
In FIG. 12A, the photographer (user) operates the manipulator on the liquid crystal display 17 to divide the entire image including the region B surrounding the person image M into small blocks. The CPU 11 calculates a histogram of the first color difference Cb and the second color difference Cr for each small block, and compares it with adjacent small blocks. When the distribution of the histogram is similar, the CPU 11 determines the edge in more detail by determining that the block is also a part of the image data area of the human image M.

その方法の処理例を図13に示す。図13では第1色差Cbおよび第2色差Crの色差ヒストグラムをH1,H2とし、CPU11は、各々H1,H2のグラフでのピーク値を求めておく。
CPU11は、第1および第2色差ヒストグラムH1,H2でのピーク位置がお互いに近接した値であれば小ブロックH1,H2は同じ画像データを含むと判断する。このとき、画像撮像装置1のCPU11において、必ずしも画像メモリ12に保存された画像全体を走査する必要はなく、ユーザによって指定された領域を含んでその外側を大きく含む領域だけを小ブロックに分けてヒストグラムを計算してもよい。
A processing example of the method is shown in FIG. In FIG. 13, the color difference histograms of the first color difference Cb and the second color difference Cr are H1 and H2, and the CPU 11 obtains peak values in the graphs of H1 and H2, respectively.
If the peak positions in the first and second color difference histograms H1 and H2 are values close to each other, the CPU 11 determines that the small blocks H1 and H2 include the same image data. At this time, it is not always necessary for the CPU 11 of the image pickup apparatus 1 to scan the entire image stored in the image memory 12, and only the area including the area designated by the user and including the outside is divided into small blocks. A histogram may be calculated.

図12、図13に示す方法でも、図11に示した方法と同様、画像データ1画面を小ブロックに分割して各ブロックの距離を計測する機構、たとえば、距離計測装置3が不要であり、任意に撮像した1枚の画像データからユーザが指定した領域とそれ以外の領域との2つの領域に分離してボケ処理を適用できるため、画像撮像装置1の処理と構成が非常に簡単になるという利点を示す。   12 and 13, similarly to the method shown in FIG. 11, a mechanism for dividing the image data 1 screen into small blocks and measuring the distance of each block, for example, the distance measuring device 3 is unnecessary. Since blur processing can be applied to a single region of image data that is arbitrarily captured and separated into two regions, a region designated by the user and other regions, the processing and configuration of the image capturing device 1 become very simple. The advantage is shown.

第2実施の形態
本発明の画像撮像装置の第2実施の形態として、距離計測装置3を用いる場合について述べる。
Second Embodiment A case where a distance measuring device 3 is used will be described as a second embodiment of the image pickup apparatus of the present invention.

第2実施の形態(第1例)
図14は本発明の第2実施の形態の第1例の処理内容を示す図であり、画像撮像装置1の距離計測装置3に赤外線(IR)送受信機を用いた例である。受信機は小型のCCDラインセンサを用いることができる。IR送信機は小型で高速でスキャン可能である。
本例では、IR送信機とその赤外線を検出するセンサにより被撮像空間Sの距離Dを高速で測り、CPU11がブロック毎に距離に応じたグループ分けをする。
画像撮像装置1から各ブロックまでの距離Dは三角測量の方法により図14に示した式で、CPU11において計算する。
Second embodiment (first example)
FIG. 14 is a diagram showing the processing contents of the first example of the second embodiment of the present invention, in which an infrared (IR) transceiver is used for the distance measuring device 3 of the image pickup device 1. The receiver can use a small CCD line sensor. The IR transmitter is small and can be scanned at high speed.
In this example, the distance D of the imaged space S is measured at high speed by an IR transmitter and a sensor that detects infrared rays, and the CPU 11 performs grouping according to the distance for each block.
The distance D from the image capturing apparatus 1 to each block is calculated by the CPU 11 using the formula shown in FIG. 14 by the triangulation method.

たとえば、IR送信機の走査周波数は10kHz程度で動作すればよい。10kHz(1ブロック当たり、100μs)で走査すると仮定すると、被撮像空間Sの画像全体を走査する時間は、12M(メガ)画素の場合でも、2961ブロックx100μs=0.1秒であり、実用上、距離測定による時間遅延は特に問題にならない。
このように距離計測装置3を用いて被撮像空間Sの各被写体までの距離を高速に計測することができる。距離測定結果はCPU11によりテーブルメモリ15に保存されて、上述した処理に使用される。なお、上述したように、距離計測装置3による距離データは各ブロックごとであるので、テーブルメモリ15のメモリ容量は少なくてよい。
For example, the IR transmitter may be operated at a scanning frequency of about 10 kHz. Assuming that scanning is performed at 10 kHz (100 μs per block), the time for scanning the entire image of the imaged space S is 2961 blocks × 100 μs = 0.1 seconds even in the case of 12 M (mega) pixels. Time delay due to distance measurement is not a problem.
In this way, the distance to the subject in the imaging space S can be measured at high speed using the distance measuring device 3. The distance measurement result is stored in the table memory 15 by the CPU 11 and used for the above-described processing. As described above, since the distance data by the distance measuring device 3 is for each block, the memory capacity of the table memory 15 may be small.

第2実施の形態(第2例)
本発明の画像撮像装置の第2実施の形態の第2例として図15を参照して述べる。
図15はIRの他の走査方法を示す。この方法では、距離計測装置3として垂直の棒状(線状)のIRを図1に図解した被写体空間Sに放射し、それを撮像したデータを用いてCPU11が図15に示すような、各ブロックごとの距離Dの計算を行う。
この方法では水平方向の走査が1回で済むためより距離測定時間が高速である。この方式ではセンサは小型の面センサを使用すればよい。
なお、面センサを使用せず、撮像に用いるCCD23を使用してもよいが、その場合は距離計測時のみIRフィルタを使用しないように移動する機構(図示せず)を使用する。
Second embodiment (second example)
A second example of the second embodiment of the image pickup apparatus of the present invention will be described with reference to FIG.
FIG. 15 shows another IR scanning method. In this method, as a distance measuring device 3, a vertical bar-like (linear) IR is radiated to the subject space S illustrated in FIG. 1, and each block as shown in FIG. Each distance D is calculated.
In this method, the distance measurement time is faster because only one horizontal scan is required. In this method, a small surface sensor may be used as the sensor.
Note that the CCD 23 used for imaging may be used without using the surface sensor, but in this case, a mechanism (not shown) that moves so as not to use the IR filter only during distance measurement is used.

第2実施の形態(第3例)
本発明の画像撮像装置の第2実施の形態の第3例として図16を参照して述べる。
図16は距離計測装置3として超音波送受信機を使用した例を示す図である。超音波送信機は超音波パルスを送り出す。この例示においては距離を測るため大きな出力は不要となり、送信機は小型化可能のため高速でスキャン可能である。
第2実施の形態の第3例においては、超音波パルス送受信機により高速で被撮像空間Sの距離Dを測り、ブロック毎に距離のグループ分けをする。
音速が約330m/秒であることから、走査周波数は数10Hz程度となる。 音速を330m/秒、画像撮像装置1から被撮像空間Sの撮像対象の物体までのパルス伝播時間(往復)をdtと仮定すると、画像撮像装置1から被撮像空間Sの被写体までの距離Dは次のように求めることができる。単位時間1msでの伝播距離deltaと、画像撮像装置1から被写体までの距離Dは次のようになる。
Second embodiment (third example)
A third example of the second embodiment of the image pickup apparatus of the present invention will be described with reference to FIG.
FIG. 16 is a diagram illustrating an example in which an ultrasonic transceiver is used as the distance measuring device 3. The ultrasonic transmitter sends out an ultrasonic pulse. In this example, since the distance is measured, a large output is not necessary, and the transmitter can be downsized and can be scanned at high speed.
In the third example of the second embodiment, the distance D of the imaging space S is measured at high speed by an ultrasonic pulse transceiver, and the distances are grouped for each block.
Since the sound speed is about 330 m / second, the scanning frequency is about several tens of Hz. Assuming that the sound velocity is 330 m / second and the pulse propagation time (reciprocation) from the image capturing device 1 to the object to be imaged in the image capturing space S is dt, the distance D from the image image capturing device 1 to the subject in the image capturing space S is It can be obtained as follows. The propagation distance delta per unit time 1 ms and the distance D from the image capturing apparatus 1 to the subject are as follows.

delta=330m/1000(ms)=33cm/1ms
D=330mx(dt/2)
delta = 330 m / 1000 (ms) = 33 cm / 1 ms
D = 330 mx (dt / 2)

たとえば、dt=10msの場合、計測された時間は往復時間であるから、片道伝搬時間はdt/2=5msである。5msで音波が進む距離は次のようになる。   For example, when dt = 10 ms, the measured time is a round trip time, so the one-way propagation time is dt / 2 = 5 ms. The distance traveled by the sound wave in 5 ms is as follows.

D=(330m/s)x5ms
=330mx(5/1000)sec
=1.65m
D = (330 m / s) × 5 ms
= 330mx (5/1000) sec
= 1.65m

被写体の有効距離(最大計測距離)Dの最大をどの程度にとるかにより1ブロックのあたりに必要な計測時間で決まるが、最大計測距離Dを最大5m程度にとれば上記値で十分である。最大計測距離がそれ以上の場合、ぼかし効果は必要ではなくなるであろうと考えられる。
最大計測距離Dを5mとすれば、音波伝播時間は5m/330m=15msとなる。撮影する前の余裕時間を1秒と仮定して、1秒÷0.015秒=66ブロックに分割可能であり、十分な精度を持つ。
超音波は、赤外線に比較して拡散すると、この場合、1画面全体を分ける小ブロックの画素数を、赤外線を用いて距離を測定する場合に比べて大きく設定すればよい。
Depending on how much the effective distance (maximum measurement distance) D of the subject is to be maximized, it is determined by the measurement time required per block. However, if the maximum measurement distance D is about 5 m at maximum, the above value is sufficient. It is considered that the blur effect will not be necessary if the maximum measurement distance is longer.
If the maximum measurement distance D is 5 m, the sound wave propagation time is 5 m / 330 m = 15 ms. Assuming an extra time before photographing of 1 second, it can be divided into 1 second ÷ 0.015 seconds = 66 blocks, and has sufficient accuracy.
When the ultrasonic wave is diffused as compared with the infrared ray, in this case, the number of pixels of the small block that divides the entire screen may be set larger than that when the distance is measured using the infrared ray.

第3実施の形態
距離計測装置3を用いず、1回の撮影だけではなく、撮像位置をわずかに変えて2回撮像した画像を用いて、CPU11による演算を行えば、距離情報が得られる。
この場合は、撮像条件を異ならせて2回撮像し、2枚の画像データを得る。
その具体的な方法としては、たとえば、ユーザが第1のモードを設定してレンズ21を第1の向きで撮像し、ユーザが第2のモードを設定してレンズ21の向きを変えて撮像する。あるいは、ユーザが第1のモードを設定したとき、CPU11がレンズ21を第1のズーム比率で撮像し、ユーザが第2のモードを設定したとき、CPU11がレンズ21を第2のズーム比率で撮像する。
CPU11は、このようにして得られた2枚の画像データを用いて距離情報を算出する。
また、2回ではなく焦点距離に応じて適宜回数撮影することにより、より細かい距離情報を取得することができ、距離に応じて画像を複数のグループに区分けすることも可能である。
本実施の形態は距離計測装置3を設ける必要がないという利点がある。
Third Embodiment The distance information can be obtained by performing the calculation by the CPU 11 using not only the single shooting but also the image picked up twice by slightly changing the shooting position without using the distance measuring device 3.
In this case, imaging is performed twice with different imaging conditions to obtain two pieces of image data.
As a specific method, for example, the user sets the first mode and images the lens 21 in the first direction, and the user sets the second mode and changes the direction of the lens 21 to perform imaging. . Alternatively, when the user sets the first mode, the CPU 11 images the lens 21 at the first zoom ratio, and when the user sets the second mode, the CPU 11 captures the lens 21 at the second zoom ratio. To do.
The CPU 11 calculates distance information using the two pieces of image data obtained in this way.
Further, by capturing an appropriate number of times according to the focal length instead of twice, finer distance information can be acquired, and images can be divided into a plurality of groups according to the distance.
This embodiment has an advantage that it is not necessary to provide the distance measuring device 3.

第4実施の形態
本発明の第4実施の形態として、図17〜21を参照して、バンドパスフィルタを使用したオートフォーカス(AF)装置で被撮像空間Sの3次元情報を得てぼかしフィルタ機能を作用させる方法を述べる。
図17にCCD23等の撮像素子から得られる画像空間データの例を示す。被撮像空間Sを撮像したCCD23からの撮像データの大きさを横2400画素、縦1600画素とし、この1画面を仮想的に、図18に示すように、1ブロック=縦16画素x横16画素の複数のブロックに分ける。
この小領域(ブロック)の画素データに対して図19に示す水平方向(空間周波数方向)において、図2に図解したCPU11は第1周波数f1と第2周波数f2との間に大きな減衰度を持つバンドパスフィルタを作用させる(適用する)。このバンドパスフィルタの特性は、たとえば、テーブルメモリ15に格納されている。
CPU11は前記バンドパスフィルタを適用させた結果を加算していく。そうすると、当該小ブロック内部の画像に対して焦点が合って来ると、画像の空間周波数の高周波成分が増加していくため、加算結果は図20に示すように焦点が合う位置に近づくにつれて増加し、丁度焦点が合った位置で振幅が最大になる。他方、焦点位置が再びずれていくと出力(振幅)は減少する。
Fourth Embodiment As a fourth embodiment of the present invention, referring to FIGS. 17 to 21, a three-dimensional information of the imaged space S is obtained by an autofocus (AF) device using a bandpass filter, and a blur filter is obtained. Describes how to make the function work.
FIG. 17 shows an example of image space data obtained from an image sensor such as the CCD 23. The size of the imaging data from the CCD 23 that has imaged the imaging space S is 2400 pixels horizontally and 1600 pixels vertically, and this one screen is virtually shown in FIG. 18, 1 block = 16 pixels vertically × 16 pixels horizontally. Divide into multiple blocks.
The CPU 11 illustrated in FIG. 2 has a large attenuation between the first frequency f1 and the second frequency f2 in the horizontal direction (spatial frequency direction) shown in FIG. 19 with respect to the pixel data of this small region (block). Apply (apply) a bandpass filter. The characteristics of this band pass filter are stored in the table memory 15, for example.
The CPU 11 adds the results of applying the bandpass filter. Then, when the image in the small block comes into focus, the high frequency component of the spatial frequency of the image increases. Therefore, the addition result increases as the focus position is approached as shown in FIG. The amplitude is maximized at the position just in focus. On the other hand, when the focal position shifts again, the output (amplitude) decreases.

画像データ1画面を図17に示すように小ブロックに仮想的に分割して左上から右下にかけて番号を付けておく。図17の場合、240個の仮想的な小ブロックが出来る。
図21を参照して、CPU11が空間の各小ブロックをどのようにグループ分けするかを説明する。この例では画像撮像装置1からの距離Rを大きく3つにグループ分けする場合を考える。
ステップ11において、CPU11はレンズ21の位置を一番遠距離の焦点位置に設定する。ステップ12において、CPU11は1画面の小ブロック全部に対してAF機構25からのオートフォーカス出力データを計算し、240個の値をメモリ13に保存する。オートフォーカス出力データは被写体までの距離を示している。この値を第1距離R1でのAFデータとする。
As shown in FIG. 17, one screen of image data is virtually divided into small blocks and numbered from the upper left to the lower right. In the case of FIG. 17, 240 virtual small blocks are formed.
With reference to FIG. 21, how the CPU 11 groups each small block in the space will be described. In this example, consider a case where the distance R from the image capturing apparatus 1 is roughly divided into three groups.
In step 11, the CPU 11 sets the position of the lens 21 to the farthest focal position. In step 12, the CPU 11 calculates autofocus output data from the AF mechanism 25 for all small blocks of one screen, and stores 240 values in the memory 13. The autofocus output data indicates the distance to the subject. This value is AF data at the first distance R1.

ステップ13において、CPU11はレンズ21の位置を焦点距離R2に移動する。そしてその位置で再び画面の小ブロック全部に対してAF機構25からのオートフォーカス出力データを計算し、240個の値をメモリ13に保存する。この値を第2距離R2でのAFデータとする。   In step 13, the CPU 11 moves the position of the lens 21 to the focal length R2. At that position, autofocus output data from the AF mechanism 25 is calculated again for all small blocks on the screen, and 240 values are stored in the memory 13. This value is AF data at the second distance R2.

ステップ14において、CPU11は距離R3まで上述した処理を行う。すなわち、CPU11は次に、レンズ21の位置を焦点距離R3に移動する。そしてその位置で再び画面の小ブロック全部に対してAF機構25からのオートフォーカス出力データを計算し、240個の値をメモリに保存する。この値を距離R3でのAFデータとする。   In step 14, the CPU 11 performs the above-described processing up to the distance R3. That is, the CPU 11 next moves the position of the lens 21 to the focal length R3. At that position, the autofocus output data from the AF mechanism 25 is calculated again for all small blocks on the screen, and 240 values are stored in the memory. This value is AF data at the distance R3.

ステップ15において、CPU11は距離R=R1〜R3に対して計算を完了したあと、各小ブロック毎に距離R1〜R3の大小関係を計算し、各々のブロックを一番大きな値を与えるグループに区分する。たとえば、小ブロック1についてRl>R2>R3ならば、CPU11は小ブロック1はグループ1に属するものとして区分する。又、小ブロック2がR2>Rl>R3ならば、CPU11は小ブロック2はグループ2に属するものとして区分する。
このようにして240個の小ブロック全てについて大小関係を計算することにより、CPU11は各小ブロックをグループ1〜3に区分する。
もちろん、R1〜R3をもっと細かくしてRl〜R5にすれば、CPU11は、より細かい距離の分類が可能である。
In step 15, after completing the calculation for the distances R = R1 to R3, the CPU 11 calculates the magnitude relation of the distances R1 to R3 for each small block, and divides each block into a group that gives the largest value. To do. For example, if Rl>R2> R3 for the small block 1, the CPU 11 classifies the small block 1 as belonging to the group 1. If the small block 2 is R2>Rl> R3, the CPU 11 classifies the small block 2 as belonging to the group 2.
Thus, by calculating the magnitude relationship for all 240 small blocks, the CPU 11 divides each small block into groups 1 to 3.
Of course, if R1 to R3 are further refined to R1 to R5, the CPU 11 can classify the distances more finely.

一方、このような小ブロックのAF計算は画像撮像装置1、たとえば、電子カメラ装置の操作者(ユーザ)には直接には見せる(認識させる)必要は無く、ユーザはファインダの中または液晶表示器17の中に図17に示すようなユーザが使用するAFウィンドウ(200)が表示される。ユーザはこのウィンドウを被写体の一番焦点を合わせたいところに持っていく。画像撮像装置1、たとえば、電子カメラ装置のCPU11中ではこのようなAFウィンドウより更に細かいウィンドウを使用して距離計算を行っているため、ユーザが使用するAFウィンドウのデータは別に計算する必要はなく、CPU11はAFウィンドウ(200)に属する前記小ブロックのAF値を加算することにより当該ウィンドウのAF値を求めることができる。
ただし、合焦点位置をもっと細かく求めるため、CPU11は前記小ブロックのAF計算で得られたAFウィンドウ(200)付近でのR1〜R3の概略位置データを元に合焦点位置を少し細かく得るようにレンズ位置を調整すればよい。
On the other hand, such small block AF calculation does not need to be directly shown (recognized) by the operator (user) of the image pickup apparatus 1, for example, an electronic camera device. 17, an AF window (200) used by the user as shown in FIG. The user brings this window to the place where the subject is most focused. In the image pickup device 1, for example, the CPU 11 of the electronic camera device, distance calculation is performed using a window that is finer than such an AF window. Therefore, it is not necessary to separately calculate AF window data used by the user. The CPU 11 can obtain the AF value of the small block by adding the AF values of the small blocks belonging to the AF window (200).
However, in order to obtain the in-focus position more finely, the CPU 11 obtains the in-focus position a little more finely based on the approximate position data of R1 to R3 in the vicinity of the AF window (200) obtained by the AF calculation of the small block. What is necessary is just to adjust a lens position.

ここで、第1〜第4の実施の形態では、複数のグループに画像データを区分けした後、個別に画像処理を施した後、これらを合成することで所望する画像を得るものであるが、本発明はこれに限定されず、画像データのグループ毎に同時または順次画像処理を行い、合成することなく所望する画像を得るようにしてもよい。
また、静止画のみではなく動画にも適用可能であることはいうまでもない。
また、本実施の形態では距離に応じて3種類のグループに分けたがこれに限定されず、2グループに分けたものであってもよい(合焦グループと背景グループまたは合焦グループと前景グループなど)。
また、3種類ではなく、多数のグループに分けてもよいばかりか、距離に応じて、領域毎に異なる処理を施すものであってもよい。この場合は、処理が非常に煩雑となるが、より好ましい画像データを得ることができる。
Here, in the first to fourth embodiments, the image data is divided into a plurality of groups, and after image processing is individually performed, a desired image is obtained by combining them. The present invention is not limited to this, and image processing may be performed simultaneously or sequentially for each group of image data to obtain a desired image without being combined.
Needless to say, it is applicable not only to still images but also to moving images.
In the present embodiment, the three groups are divided according to the distance. However, the present invention is not limited to this, and the group may be divided into two groups (focus group and background group or focus group and foreground group). Such).
Further, instead of the three types, it may be divided into a large number of groups, or different processing may be performed for each region according to the distance. In this case, the processing becomes very complicated, but more preferable image data can be obtained.

本発明の実施に際しては上述した種々の実施の形態を適宜組み合わせることができる。   In carrying out the present invention, the various embodiments described above can be combined as appropriate.

以上説明したように、本実施の形態によれば、焦点深度が深くボケ味をだしずらいレンズを用いた撮像装置においても、被写体空間における被写体各部の前後距離を予め計測しておくことにより、被写体空間を3次元的な領域に分割し、各々の領域に異なる周波数特性のフィルタを作用させることにより任意のボケ味の画像を作成することができる。   As described above, according to the present embodiment, even in an imaging apparatus using a lens with a large depth of focus and difficult to blur, by measuring the front-rear distance of each part of the subject in the subject space, By dividing the subject space into three-dimensional regions and applying filters having different frequency characteristics to each region, an image with an arbitrary blur can be created.

また、本実施の形態によれば、たとえば、高画素のCCDを用いた画像撮像装置において、得られた画像に立体感が乏しい場合でも、立体感のある画像を提供することができる。   Further, according to the present embodiment, for example, in an image pickup apparatus using a high-pixel CCD, an image with a stereoscopic effect can be provided even when the obtained image has a poor stereoscopic effect.

以上のように、本発明によれば、従来にない画像処理装置、画像撮像装置、さらには画像処理方法を提供することができる。   As described above, according to the present invention, it is possible to provide an unprecedented image processing apparatus, image capturing apparatus, and image processing method.

図1は本発明の画像処理装置の第1実施の形態である画像撮像装置とそれを用いた撮像方式を示す説明図である。FIG. 1 is an explanatory diagram showing an image pickup apparatus which is a first embodiment of an image processing apparatus of the present invention and an image pickup method using the image pickup apparatus. 図2は本発明の第1実施の形態の画像撮像装置1の構成図である。FIG. 2 is a configuration diagram of the image pickup apparatus 1 according to the first embodiment of the present invention. 図3(A)、(B)は本実施の形態の画像撮像装置によって撮像した画像データの1例と、画面を複数のブロックに分割することを示す図である。FIGS. 3A and 3B are diagrams illustrating an example of image data captured by the image capturing apparatus according to the present embodiment and the screen being divided into a plurality of blocks. 図4(A)〜(D)は、本発明の第1実施の形態の画像処理装置1を適用した画像処理方法、特に、図2に図解したコンピュータシステムのCPUにおいて行う画像処理方法を説明する図である。4A to 4D illustrate an image processing method to which the image processing apparatus 1 according to the first embodiment of the present invention is applied, particularly an image processing method performed by the CPU of the computer system illustrated in FIG. FIG. 図5(A)〜(C)は、図2に図解したコンピュータシステムのCPUにおいて行うフィルタ処理の各距離のグループに適用するフィルタ特性を示す図である。FIGS. 5A to 5C are diagrams showing filter characteristics applied to each distance group of filter processing performed in the CPU of the computer system illustrated in FIG. 図6は図5において分割した画像データに対するフィルタ処理を説明する図である。FIG. 6 is a diagram for explaining the filter processing for the image data divided in FIG. 図7は図6に図解したCPUの処理内容を示すフローチャートである。FIG. 7 is a flowchart showing the processing contents of the CPU illustrated in FIG. 図8は、第1実施の形態において第1〜第3フィルタF1〜F3を作用させた(適用した)フィルタ処理結果をCPU11が再度合成して1枚の画像にする処理を示す図である。FIG. 8 is a diagram illustrating processing in which the CPU 11 again combines the filter processing results obtained by applying (applying) the first to third filters F1 to F3 in the first embodiment to form one image. 図9(A)はCPUによる合成処理結果の画像を示す図であり、図9(B)は図9(A)に図解したの合成画像について第2フィルタ処理の第1例を行った例を示す図である。FIG. 9A is a diagram showing an image of the result of the synthesis process by the CPU, and FIG. 9B is an example in which the first example of the second filter process is performed on the synthesized image illustrated in FIG. 9A. FIG. 図10(A)、(B)は第2フィルタ処理の第2例を行った例を示す図である。10A and 10B are diagrams illustrating an example in which the second example of the second filter processing is performed. 図11(A)、(B)は第2フィルタ処理の第3例を行った例を示す図である。FIGS. 11A and 11B are diagrams illustrating an example in which a third example of the second filter processing is performed. 図12(A)、(B)は第2フィルタ処理の第3例を行った例を示す図である。12A and 12B are diagrams illustrating an example in which a third example of the second filter processing is performed. 図13は第2フィルタ処理の第3例の処理を示すフローチャートである。FIG. 13 is a flowchart showing a third example of the second filter process. 図14は本発明の第2実施の形態の第1例の処理内容を示す図であり、画像撮像装置の距離計測装置に赤外線(IR)送受信機を用いた例である。FIG. 14 is a diagram showing the processing contents of the first example of the second embodiment of the present invention, which is an example in which an infrared (IR) transceiver is used for the distance measuring device of the image pickup apparatus. 図15は距離計測装置として垂直の棒状のIRを図1に図解した被写体空間Sに放射する例を示す図である。FIG. 15 is a diagram showing an example in which a vertical bar-shaped IR as a distance measuring device is emitted to the subject space S illustrated in FIG. 図16は距離計測装置3として超音波送受信機を使用した例を示す図である。FIG. 16 is a diagram illustrating an example in which an ultrasonic transceiver is used as the distance measuring device 3. 図17は本発明の第4実施の形態としてバンドパスフィルタを使用したオートフォーカス(AF)装置で空間の3次元情報を得てぼかしフィルタ機能を作用させる場合の、撮像素子から得られる画像空間データの例を示す図である。FIG. 17 shows image space data obtained from an image sensor when a blur filter function is activated by obtaining spatial three-dimensional information with an autofocus (AF) apparatus using a bandpass filter as a fourth embodiment of the present invention. It is a figure which shows the example of. 図18は図17に図解した画像データについてAFウィンドウ処理を施すことを説明する図である。FIG. 18 is a diagram for explaining that AF window processing is performed on the image data illustrated in FIG. 図19はAFバンドパスフィルタの特性図である。FIG. 19 is a characteristic diagram of the AF bandpass filter. 図20はレンズの移動とAF処理結果の関係を示す図である。FIG. 20 is a diagram illustrating the relationship between lens movement and AF processing results. 図21は本発明の第4実施の形態の処理を示すフローチャートである。FIG. 21 is a flowchart showing the process of the fourth embodiment of the present invention.

符号の説明Explanation of symbols

1…画像撮像装置
10…コンピュータシステム
11…CPU、12…画像メモリ、13…メモリ
14…プログラムメモリ、15…テーブルメモリ
16…外部記憶装置、17…液晶表示器、18…I/F
19…バス
21…レンズ、22…絞り、23…CCD、24…シャッタ
25…AF機構、26…AE機構
3…距離計測装置
DESCRIPTION OF SYMBOLS 1 ... Image pick-up device 10 ... Computer system
11 ... CPU, 12 ... image memory, 13 ... memory
14 ... Program memory, 15 ... Table memory
16 ... External storage device, 17 ... Liquid crystal display, 18 ... I / F
DESCRIPTION OF SYMBOLS 19 ... Bus 21 ... Lens, 22 ... Aperture, 23 ... CCD, 24 ... Shutter 25 ... AF mechanism, 26 ... AE mechanism 3 ... Distance measuring device

Claims (16)

画像データ1画面を(1画面の画像データを)複数の領域に分割する画像分割手段と、
被写体までの距離に応じて前記複数の領域に対し異なる空間周波数フィルタを適用するフィルタ手段と、
を備える画像処理装置。
Image dividing means for dividing one screen of image data into a plurality of areas (image data of one screen);
Filter means for applying different spatial frequency filters to the plurality of regions according to the distance to the subject;
An image processing apparatus comprising:
被撮像空間の像を撮像する撮像手段と、
前記撮像した画像データ1画面を(1画面の画像データを)複数の領域に分割する画像分割手段と、
前記分割した各領域の画像データにおける被写体までの距離を検出する距離検出手段と、
被写体までの距離に応じて前記複数の領域に対し異なる空間周波数を適用するフィルタ手段と、
を備える画像撮像装置。
Imaging means for capturing an image of the imaged space;
Image dividing means for dividing the captured image data of one screen into a plurality of regions (image data of one screen);
Distance detecting means for detecting the distance to the subject in the image data of each divided area;
Filter means for applying different spatial frequencies to the plurality of regions according to the distance to the subject;
An image pickup apparatus comprising:
画像データ1画面を複数の領域に分割する画像分割手段と、
前記分割した複数の領域を少なくとも3つの距離グループに区分する距離区分手段と、
画像データのエッジを強調する第1の2次元空間周波数フィルタと、
画像データの高域を低下させる第2の2次元空間周波数フィルタと、
該第2の空間周波数フィルタの特性よりさらに画像データの高域を低下させる第3の2次元空間周波数フィルタと、
前記区分した第1距離グループの各領域の画像データに前記第1の2次元空間周波数フィルタを適用し、前記区分した第2距離グループの各領域の画像データに前記第2の2次元空間周波数フィルタを適用し、前記区分した第距離3グループの各領域に前記第3の2次元空間周波数を適用するフィルタ処理手段と、
を有することを特徴とする画像処理装置。
Image dividing means for dividing one screen of image data into a plurality of areas;
Distance dividing means for dividing the plurality of divided areas into at least three distance groups;
A first two-dimensional spatial frequency filter that emphasizes edges of image data;
A second two-dimensional spatial frequency filter for reducing the high frequency of the image data;
A third two-dimensional spatial frequency filter that further reduces the high frequency of the image data from the characteristics of the second spatial frequency filter;
The first two-dimensional spatial frequency filter is applied to the image data of each region of the divided first distance group, and the second two-dimensional spatial frequency filter is applied to the image data of each region of the divided second distance group. Filter processing means for applying the third two-dimensional spatial frequency to each region of the divided third group of distances,
An image processing apparatus comprising:
光学系を通過した被写体を撮像する撮像手段と、
前記撮像手段で得られた画像データ1画面を複数の領域に分割する画像分割手段と、
前記分割した複数の領域を少なくとも2つの距離グループに区分する距離区分手段と、
画像データのエッジを強調する第1の2次元空間周波数フィルタと、
画像データの高域を低下させる第2の2次元空間周波数フィルタと、
前記区分した第1グループの各領域の画像データに前記第1の2次元空間周波数フィルタを適用し、前記区分した第2グループの各領域の画像データに前記第2の2次元空間周波数フィルタを適用するフィルタ処理手段と、
を有することを特徴とする、画像撮像装置。
Imaging means for imaging a subject that has passed through the optical system;
Image dividing means for dividing one screen of image data obtained by the imaging means into a plurality of regions;
Distance dividing means for dividing the plurality of divided areas into at least two distance groups;
A first two-dimensional spatial frequency filter that emphasizes edges of image data;
A second two-dimensional spatial frequency filter for reducing the high frequency of the image data;
The first two-dimensional spatial frequency filter is applied to the image data of each area of the divided first group, and the second two-dimensional spatial frequency filter is applied to the image data of each area of the divided second group. Filtering means for
An image pickup apparatus comprising:
前記第2の空間周波数の特性よりさらに画像データの高域を低下させる第3の空間周波数フィルタを備え、
前記距離区分手段は、前記分割した複数の領域を3つの距離グループに区分し、
前記フィルタ処理手段は、前記区分した第1距離グループの各領域の画像データに前記第1の2次元空間周波数フィルタを適用し、前記区分した第2距離グループの各領域の画像データに前記第2の2次元空間周波数フィルタを適用し、前記区分した第3距離グループの各領域に前記第3の2次元空間周波数を適用する、
ことを特徴とする、請求項4に記載の画像撮像装置。
A third spatial frequency filter for further reducing the high frequency of the image data from the characteristics of the second spatial frequency,
The distance dividing means divides the plurality of divided areas into three distance groups,
The filter processing means applies the first two-dimensional spatial frequency filter to the image data of each area of the divided first distance group, and applies the second to the image data of each area of the divided second distance group. Applying the second two-dimensional spatial frequency filter and applying the third two-dimensional spatial frequency to each region of the divided third distance group.
The image imaging device according to claim 4, wherein
光学系を通過した被写体を撮像する撮像手段と、
前記撮像手段で得られた画像データ1画面を複数の領域に分割する画像分割手段と、
前記分割した複数の領域を少なくとも2つの距離グループに区分する距離区分手段と、
画像データのエッジを強調する第1の2次元空間周波数フィルタと、
画像データの高域を低下させる第2の2次元空間周波数フィルタと、
前記区分した第1グループの各領域の画像データに前記第2の2次元空間周波数フィルタを適用し、前記区分した第2グループの各領域の画像データに前記第1の2次元空間周波数フィルタを適用、前記区分した第距離3グループの各領域に前記第2の2次元空間周波数を適用離するフィルタ処理手段と、
を備えたことを特徴とする、画像撮像装置。
Imaging means for imaging a subject that has passed through the optical system;
Image dividing means for dividing one screen of image data obtained by the imaging means into a plurality of regions;
Distance dividing means for dividing the plurality of divided areas into at least two distance groups;
A first two-dimensional spatial frequency filter that emphasizes edges of image data;
A second two-dimensional spatial frequency filter for reducing the high frequency of the image data;
The second two-dimensional spatial frequency filter is applied to the image data of each area of the divided first group, and the first two-dimensional spatial frequency filter is applied to the image data of each area of the divided second group. Filter processing means for applying and separating the second two-dimensional spatial frequency to each region of the divided third group of distances;
An image pickup apparatus comprising:
前記第2の空間周波数フィルタの特性よりさらに高域を低下させる第3の2次元空間周波数フィルタをさらに備え、
前記フィルタ処理手段は、前記区分した第1グループの各領域の画像データに前記第3の2次元空間周波数フィルタに適用し、前記区分した第2グループの各領域の画像データに前記第1の2次元空間周波数フィルタを適用する、
ことを特徴とする、
請求項6に記載の画像撮像装置。
A third two-dimensional spatial frequency filter that further lowers a high frequency than the characteristics of the second spatial frequency filter;
The filter processing means applies the third two-dimensional spatial frequency filter to the image data of each area of the divided first group, and applies the first 2 to the image data of each area of the divided second group. Apply a dimensional spatial frequency filter,
It is characterized by
The image pickup device according to claim 6.
前記複数の領域のぞれぞれの焦点距離に相当する距離情報を生成する距離情報生成手段をさらに備え、
前記距離区分手段は、
前記距離情報生成手段により生成される距離情報を基に、近接した被写体の画像データの領域を第1グループに区分し、
中間の被写体の画像データの領域を第2グループに区分し、
遠方の被写体の画像データの領域を第3グループに区分する、
ことを特徴とする、
請求項4乃至7のいずれかに記載の画像撮像装置。
Further comprising distance information generating means for generating distance information corresponding to the focal length of each of the plurality of regions;
The distance classification means includes
Based on the distance information generated by the distance information generating means, the image data area of the close subject is divided into a first group,
The area of the image data of the intermediate subject is divided into the second group,
Divide the image data area of the distant subject into a third group,
It is characterized by
The image capturing device according to claim 4.
前記1画面を分割した複数の領域のそれぞれの焦点距離に相当する距離情報を生成する距離情報生成手段と、
前記複数の領域の内少なくとも1の領域を指示する指示手段と、
前記指示手段で指示された前記領域の距離情報を合焦距離情報として前記距離情報生成手段から得る合焦距離情報取得手段と
をさらに備え、
前記距離区分手段は、前記合焦距離情報取得手段により取得された合焦距離情報と略一致する距離情報を有する画像データの領域又は該合焦距離情報を含む所定の距離範囲内の距離情報を有する画像データの領域を近距離の被写体の画像データの領域または中間の距離の被写体の画像データの領域として区分する、
ことを特徴とする、
請求項7に記載の画像撮像装置。
Distance information generating means for generating distance information corresponding to the focal length of each of the plurality of regions obtained by dividing the one screen;
Indicating means for indicating at least one of the plurality of areas;
In-focus distance information obtaining means for obtaining distance information of the area instructed by the instructing means as in-focus distance information from the distance information generating means, and
The distance classifying unit includes an area of image data having distance information substantially matching the in-focus distance information acquired by the in-focus distance information acquiring unit, or distance information within a predetermined distance range including the in-focus distance information. The image data area is classified as a short-distance subject image data area or an intermediate-distance subject image data area.
It is characterized by
The image capturing device according to claim 7.
前記1画面を分割した複数の領域のそれぞれの焦点距離に相当する距離情報を生成する距離情報生成手段と、
前記複数の領域の内少なくとも1の領域を指示する指示手段と、
前記指示手段で指示された前記領域の距離情報を合焦距離情報として前記距離情報生成手段から得る合焦距離情報取得手段と
をさらに備え、
前記距離区分手段は、
前記合焦距離情報取得手段により取得された合焦距離情報と略一致する距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲内の距離情報を有する領域を第1グループに区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より所定遠方範囲内にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より所定遠方範囲内にある距離情報を有する領域を第2グループとして区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より前記所定遠方範囲外にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より前記所定遠方範囲外にある距離情報を有する領域を第3グループとして区分する、
ことを特徴とする、
請求項4乃至7のいずれかに記載の画像撮像装置。
Distance information generating means for generating distance information corresponding to the focal length of each of the plurality of regions obtained by dividing the one screen;
Indicating means for indicating at least one of the plurality of areas;
In-focus distance information obtaining means for obtaining distance information of the area instructed by the instructing means as in-focus distance information from the distance information generating means, and
The distance classification means includes
An area having distance information substantially coincident with the in-focus distance information acquired by the in-focus distance information acquisition means or an area having distance information within a predetermined distance range including the in-focus distance information is classified into a first group. ,
An area having distance information within a predetermined distance range from the focusing distance information acquired by the focusing distance information acquisition means, or distance information within a predetermined distance range from a predetermined distance range including the focusing distance information. Divide the area as a second group,
An area having distance information outside the predetermined distance range from the focusing distance information acquired by the focusing distance information acquisition means, or distance information outside the predetermined distance range from a predetermined distance range including the focusing distance information Divide the region having
It is characterized by
The image capturing device according to claim 4.
前記1画面を分割した複数の領域のそれぞれの焦点距離に相当する距離情報を生成する距離情報生成手段と、
前記複数の領域の内少なくとも1の領域を指示する指示手段と、
前記指示手段で指示された前記領域の距離情報を合焦距離情報として前記距離情報生成手段から得る合焦距離情報取得手段と
をさらに備え、
前記距離区分手段は、
前記合焦距離情報取得手段により取得された合焦距離情報と略一致する距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲内の距離情報を有する領域を第2グループに区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より近接した距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より近接した距離情報を有する領域を第1グループとして区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より遠方にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より遠方にある距離情報を有する領域を第3グループとして区分する、
ことを特徴とする、
請求項4乃至7のいずれかに記載の画像撮像装置。
Distance information generating means for generating distance information corresponding to the focal length of each of the plurality of regions obtained by dividing the one screen;
Indicating means for indicating at least one of the plurality of areas;
In-focus distance information obtaining means for obtaining distance information of the area instructed by the instructing means as in-focus distance information from the distance information generating means, and
The distance classification means includes
An area having distance information substantially coincident with the in-focus distance information acquired by the in-focus distance information acquisition means or an area having distance information within a predetermined distance range including the in-focus distance information is classified into a second group. ,
A region having distance information closer to the focus distance information acquired by the focus distance information acquisition means or a region having distance information closer to a predetermined distance range including the focus distance information is classified as a first group. ,
A region having distance information farther than the focus distance information acquired by the focus distance information acquisition means or a region having distance information farther than a predetermined distance range including the focus distance information is defined as a third group. Divide,
It is characterized by
The image capturing device according to claim 4.
前記1画面を分割した複数の領域のぞれぞれの焦点距離に相当する距離情報を生成する距離情報生成手段と、
前記複数の領域の内少なくとも1の領域を指示する指示手段と、
前記指示手段で指示された前記領域の距離情報を合焦距離情報として前記距離情報生成手段から得る合焦距離情報取得手段と、
第1の撮影モードと第2の撮影モードとを設定するモード設定手段と
をさらに備え、
前記モード設定手段により前記第1モードが設定された場合、前記距離区分手段は、
前記合焦距離情報取得手段により取得された合焦距離情報と略一致する距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲内の距離情報を有する領域を第1グループに区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より所定遠方範囲内にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より所定遠方範囲内にある距離情報を有する領域を第2グループとして区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より前記所定遠方範囲外にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より前記所定遠方範囲外にある距離情報を有する領域を第3グループとして区分し、 前記モード設定手段により前記第2モードが設定された場合、前記割当手段は、
前記合焦距離情報取得手段により取得された合焦距離情報と略一致する距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲内の距離情報を有する領域を第2グループに区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より近接した距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より近接した距離情報を有する領域を第1グループとして区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より遠方にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より遠方にある距離情報を有する領域を第3グループとして区分する、
ことを特徴とする、
請求項4乃至7のいずれかに記載の画像撮像装置。
Distance information generating means for generating distance information corresponding to the focal length of each of the plurality of areas obtained by dividing the one screen;
Indicating means for indicating at least one of the plurality of areas;
In-focus distance information acquisition means for obtaining distance information of the area instructed by the instruction means from the distance information generation means as in-focus distance information;
Mode setting means for setting the first shooting mode and the second shooting mode;
When the first mode is set by the mode setting means, the distance classification means is
An area having distance information substantially coincident with the in-focus distance information acquired by the in-focus distance information acquisition means or an area having distance information within a predetermined distance range including the in-focus distance information is classified into a first group. ,
An area having distance information within a predetermined distance range from the focusing distance information acquired by the focusing distance information acquisition means, or distance information within a predetermined distance range from a predetermined distance range including the focusing distance information. Divide the area as a second group,
An area having distance information outside the predetermined distance range from the focusing distance information acquired by the focusing distance information acquisition means, or distance information outside the predetermined distance range from a predetermined distance range including the focusing distance information When the second mode is set by the mode setting unit, the allocating unit includes:
An area having distance information substantially coincident with the in-focus distance information acquired by the in-focus distance information acquisition means or an area having distance information within a predetermined distance range including the in-focus distance information is classified into a second group. ,
A region having distance information closer to the focus distance information acquired by the focus distance information acquisition means or a region having distance information closer to a predetermined distance range including the focus distance information is classified as a first group. ,
A region having distance information farther than the focus distance information acquired by the focus distance information acquisition means or a region having distance information farther than a predetermined distance range including the focus distance information is defined as a third group. Divide,
It is characterized by
The image capturing device according to claim 4.
前記指示手段で指示された前記1の領域の主たる色成分と同一色成分を有した画素を前記1の領域の隣接領域から抽出する画素抽出手段をさらに備え、
前記距離区分手段は、前記画素抽出手段で抽出された画素に関しては前記1の領域と同一のフィルタに区分する、
ことを特徴とする、
請求項9乃至12のいずれかに記載の画像撮像装置。
Pixel extraction means for extracting a pixel having the same color component as the main color component of the one area instructed by the instruction means from an adjacent area of the one area;
The distance classifying unit classifies the pixels extracted by the pixel extracting unit into the same filter as the first region.
It is characterized by
The image imaging device according to claim 9.
前記距離情報生成手段は、距離測定センサにより前記複数の領域のそれぞれの焦点距離に相当する距離情報を生成する、または、前記撮像手段を用いて焦点を変えて複数の被写体像を撮影し該複数の被写体像の画像データより前記複数の領域のそれぞれの焦点距離に相当する距離情報を生成する
請求項8及至13のいずれかに記載の画像撮像装置。
The distance information generation means generates distance information corresponding to the focal length of each of the plurality of regions by a distance measurement sensor, or changes the focal point using the imaging means to shoot a plurality of subject images. The image imaging device according to any one of claims 8 to 13, wherein distance information corresponding to a focal length of each of the plurality of regions is generated from image data of the subject image.
画像データ1画面を複数の領域に分割する画像分割ステップと、
前記複数の領域における被写体までの距離を少なくとも3つの距離グループに区分する距離区分ステップと、
第1距離グループの各領域の画像データにエッジ強調の第1の空間周波数フィルタを適用し、第2距離グループの各領域の画像データに高域低下の第2の空間周波数フィルタを適用し、第3距離グループの各領域の画像データに前記第2の空間周波数フィルタの特性よりさらに高域低下の第3の空間周波数フィルタを適用するフィルタ処理ステップと、
を備えたことを特徴とする、画像処理方法。
An image dividing step for dividing one screen of image data into a plurality of areas;
A distance dividing step of dividing the distance to the subject in the plurality of regions into at least three distance groups;
Applying a first spatial frequency filter for edge enhancement to image data of each region of the first distance group, applying a second spatial frequency filter for lowering high frequency to image data of each region of the second distance group; A filter processing step of applying a third spatial frequency filter having a higher frequency drop than the characteristics of the second spatial frequency filter to the image data of each region of the three-distance group;
An image processing method comprising:
光学系を通過した被写体の像を撮像する撮像ステップと、
前記撮像した画像データ1画面を複数の領域に分割する画像分割ステップと、
前記複数の領域における被写体までの距離を少なくとも3つの距離グループに区分する距離区分ステップと、
第1距離グループの各領域の画像データにエッジ強調の第1の2次元空間周波数フィルタ又は高域低下の第2の2次元空間周波数のフィルタを適用し、第2距離グループの各領域の画像データに高域低下の第2の2次元空間周波数フィルタ又はエッジ強調の第1の空間周波数フィルタを適用し、第3距離グループの各領域画像データに高域低下の第2の2次元空間周波数フィルタを適用するフィルタ処理ステップと、
を備えたことを特徴とする、画像撮像方法。
An imaging step of capturing an image of a subject that has passed through the optical system;
An image dividing step of dividing the captured image data one screen into a plurality of regions;
A distance dividing step of dividing the distance to the subject in the plurality of regions into at least three distance groups;
The image data of each region of the second distance group is applied to the image data of each region of the first distance group by applying the first two-dimensional spatial frequency filter for edge enhancement or the second two-dimensional spatial frequency filter for lowering the high frequency. 2nd spatial frequency filter of 2nd spatial frequency reduction or the 1st spatial frequency filter of edge emphasis is applied to each area image data of the 3rd distance group, The filtering step to apply,
An image capturing method comprising:
JP2004251020A 2004-08-30 2004-08-30 Image processor, image processing method, image pickup device, and image pickup method Pending JP2006067521A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004251020A JP2006067521A (en) 2004-08-30 2004-08-30 Image processor, image processing method, image pickup device, and image pickup method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004251020A JP2006067521A (en) 2004-08-30 2004-08-30 Image processor, image processing method, image pickup device, and image pickup method

Publications (1)

Publication Number Publication Date
JP2006067521A true JP2006067521A (en) 2006-03-09

Family

ID=36113550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004251020A Pending JP2006067521A (en) 2004-08-30 2004-08-30 Image processor, image processing method, image pickup device, and image pickup method

Country Status (1)

Country Link
JP (1) JP2006067521A (en)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008244831A (en) * 2007-03-27 2008-10-09 Casio Comput Co Ltd Device for generating printing data and program
JP2008250674A (en) * 2007-03-30 2008-10-16 Hitachi Kokusai Electric Inc Image processor
JP2008294785A (en) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd Image processor, imaging apparatus, image file, and image processing method
JP2009110137A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Image processor, image processing method, and image processing program
JP2009251839A (en) * 2008-04-04 2009-10-29 Hitachi Ltd Image signal processing circuit, image display apparatus, and image signal processing method
JP2010281968A (en) * 2009-06-03 2010-12-16 Canon Inc Lens device and control method thereof
JP2011003124A (en) * 2009-06-22 2011-01-06 Sony Corp Image processor and image processing program
EP2390841A1 (en) 2010-05-26 2011-11-30 Canon Kabushiki Kaisha Image processing apparatus and image processing method
WO2012073575A1 (en) * 2010-12-03 2012-06-07 シャープ株式会社 Image processing apparatus, image processing method, and image processing program
JP2012248001A (en) * 2011-05-27 2012-12-13 Canon Inc Image processing apparatus, image processing method, and program
US8335393B2 (en) 2009-01-09 2012-12-18 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2013020212A (en) * 2011-07-14 2013-01-31 Canon Inc Image processing device, imaging system, and image processing system
WO2013031096A1 (en) * 2011-08-29 2013-03-07 パナソニック株式会社 Image processing device, image processing method, program, integrated circuit
WO2013042440A1 (en) 2011-09-21 2013-03-28 富士フイルム株式会社 Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device
JP2013090118A (en) * 2011-10-18 2013-05-13 Olympus Corp Image processing device, image processing method, and image processing program
EP2605101A1 (en) * 2011-12-17 2013-06-19 Valeo Schalter und Sensoren GmbH Method for displaying images on a display device of a driver assistance device of a motor vehicle, computer program and driver assistance device carrying out the method
US8471930B2 (en) 2009-12-16 2013-06-25 Canon Kabushiki Kaisha Image capturing apparatus and image processing apparatus
JP2013232751A (en) * 2012-04-27 2013-11-14 Nikon Corp Imaging apparatus, image processing apparatus, image processing method, and program
JP2013236207A (en) * 2012-05-08 2013-11-21 Nikon Corp Imaging apparatus, imaging method, and program
WO2014076836A1 (en) * 2012-11-19 2014-05-22 富士機械製造株式会社 Component mounting apparatus and mount inspection apparatus
JPWO2012132797A1 (en) * 2011-03-31 2014-07-28 富士フイルム株式会社 Imaging apparatus and imaging method
WO2014155782A1 (en) * 2013-03-27 2014-10-02 オリンパス株式会社 Image processing device, endoscopic device, program and image processing method
JP2015043495A (en) * 2013-08-26 2015-03-05 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP2015135623A (en) * 2014-01-17 2015-07-27 オリンパス株式会社 Display device, display method, and program
WO2015152459A1 (en) * 2014-04-03 2015-10-08 삼성전자 주식회사 Method and device for processing image data
JP2019197324A (en) * 2018-05-08 2019-11-14 キヤノン株式会社 Image processing apparatus and image processing method
JPWO2018235357A1 (en) * 2017-06-22 2019-12-26 日本電気株式会社 Arithmetic device, arithmetic method and program

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008244831A (en) * 2007-03-27 2008-10-09 Casio Comput Co Ltd Device for generating printing data and program
JP2008250674A (en) * 2007-03-30 2008-10-16 Hitachi Kokusai Electric Inc Image processor
JP2008294785A (en) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd Image processor, imaging apparatus, image file, and image processing method
JP2009110137A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Image processor, image processing method, and image processing program
JP2009251839A (en) * 2008-04-04 2009-10-29 Hitachi Ltd Image signal processing circuit, image display apparatus, and image signal processing method
US8335393B2 (en) 2009-01-09 2012-12-18 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2010281968A (en) * 2009-06-03 2010-12-16 Canon Inc Lens device and control method thereof
JP2011003124A (en) * 2009-06-22 2011-01-06 Sony Corp Image processor and image processing program
US8471930B2 (en) 2009-12-16 2013-06-25 Canon Kabushiki Kaisha Image capturing apparatus and image processing apparatus
US8717455B2 (en) 2010-05-26 2014-05-06 Canon Kabushiki Kaisha Image processing apparatus and image processing method
EP2390841A1 (en) 2010-05-26 2011-11-30 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP5473173B2 (en) * 2010-12-03 2014-04-16 シャープ株式会社 Image processing apparatus, image processing method, and image processing program
US9070223B2 (en) 2010-12-03 2015-06-30 Sharp Kabushiki Kaisha Image processing device, image processing method, and image processing program
WO2012073575A1 (en) * 2010-12-03 2012-06-07 シャープ株式会社 Image processing apparatus, image processing method, and image processing program
JP5640143B2 (en) * 2011-03-31 2014-12-10 富士フイルム株式会社 Imaging apparatus and imaging method
US8885026B2 (en) 2011-03-31 2014-11-11 Fujifilm Corporation Imaging device and imaging method
JPWO2012132797A1 (en) * 2011-03-31 2014-07-28 富士フイルム株式会社 Imaging apparatus and imaging method
JP2012248001A (en) * 2011-05-27 2012-12-13 Canon Inc Image processing apparatus, image processing method, and program
US9224193B2 (en) 2011-07-14 2015-12-29 Canon Kabushiki Kaisha Focus stacking image processing apparatus, imaging system, and image processing system
JP2013020212A (en) * 2011-07-14 2013-01-31 Canon Inc Image processing device, imaging system, and image processing system
JPWO2013031096A1 (en) * 2011-08-29 2015-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image processing apparatus, image processing method, program, integrated circuit
CN103201769A (en) * 2011-08-29 2013-07-10 松下电器产业株式会社 Image processing device, image processing method, program, integrated circuit
WO2013031096A1 (en) * 2011-08-29 2013-03-07 パナソニック株式会社 Image processing device, image processing method, program, integrated circuit
US9025872B2 (en) 2011-08-29 2015-05-05 Panasonic Intellectual Property Corporation Of America Image processing device, image processing method, program, and integrated circuit
JP5544047B2 (en) * 2011-09-21 2014-07-09 富士フイルム株式会社 Image processing apparatus, method and program, stereoscopic imaging apparatus, portable electronic device, printer, and stereoscopic image reproducing apparatus
WO2013042440A1 (en) 2011-09-21 2013-03-28 富士フイルム株式会社 Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device
JP2013090118A (en) * 2011-10-18 2013-05-13 Olympus Corp Image processing device, image processing method, and image processing program
EP2605101A1 (en) * 2011-12-17 2013-06-19 Valeo Schalter und Sensoren GmbH Method for displaying images on a display device of a driver assistance device of a motor vehicle, computer program and driver assistance device carrying out the method
JP2013232751A (en) * 2012-04-27 2013-11-14 Nikon Corp Imaging apparatus, image processing apparatus, image processing method, and program
JP2013236207A (en) * 2012-05-08 2013-11-21 Nikon Corp Imaging apparatus, imaging method, and program
WO2014076836A1 (en) * 2012-11-19 2014-05-22 富士機械製造株式会社 Component mounting apparatus and mount inspection apparatus
JPWO2014076836A1 (en) * 2012-11-19 2017-01-05 富士機械製造株式会社 Component mounting machine and mounting inspection machine
JP2014188223A (en) * 2013-03-27 2014-10-06 Olympus Corp Image processor, endoscope device, program and image processing method
CN105072968A (en) * 2013-03-27 2015-11-18 奥林巴斯株式会社 Image processing device, endoscopic device, program and image processing method
WO2014155782A1 (en) * 2013-03-27 2014-10-02 オリンパス株式会社 Image processing device, endoscopic device, program and image processing method
JP2015043495A (en) * 2013-08-26 2015-03-05 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP2015135623A (en) * 2014-01-17 2015-07-27 オリンパス株式会社 Display device, display method, and program
WO2015152459A1 (en) * 2014-04-03 2015-10-08 삼성전자 주식회사 Method and device for processing image data
US10497135B2 (en) 2014-04-03 2019-12-03 Samsung Electronics Co., Ltd. Method and device for processing image data
JPWO2018235357A1 (en) * 2017-06-22 2019-12-26 日本電気株式会社 Arithmetic device, arithmetic method and program
JP7020485B2 (en) 2017-06-22 2022-02-16 日本電気株式会社 Arithmetic logic unit, arithmetic method and program
US11580193B2 (en) 2017-06-22 2023-02-14 Nec Corporation Computation device, computation method, and program
JP2019197324A (en) * 2018-05-08 2019-11-14 キヤノン株式会社 Image processing apparatus and image processing method
JP7169768B2 (en) 2018-05-08 2022-11-11 キヤノン株式会社 Image processing device, image processing method

Similar Documents

Publication Publication Date Title
JP2006067521A (en) Image processor, image processing method, image pickup device, and image pickup method
US11835702B2 (en) Medical image processing apparatus, medical image processing method, and medical observation system
JP6271990B2 (en) Image processing apparatus and image processing method
JP6288952B2 (en) Imaging apparatus and control method thereof
JP5178553B2 (en) Imaging device
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
US9860510B2 (en) Depth based modification of captured images
KR20070121717A (en) Method of controlling an action, such as a sharpness modification, using a colour digital image
JP6838994B2 (en) Imaging device, control method and program of imaging device
JP5230013B2 (en) Imaging device
JPWO2007049634A1 (en) Imaging apparatus, image processing apparatus, and program
US10984550B2 (en) Image processing device, image processing method, recording medium storing image processing program and image pickup apparatus
JP2013005091A (en) Imaging apparatus and distance information acquisition method
JP6739064B1 (en) Imaging device
TWI399972B (en) Image generating apparatus and program
JP2018174502A (en) Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program
JP5144724B2 (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP2015005925A (en) Image processing apparatus and image processing method
CN101557469B (en) Image processing device and image processing method
US9094581B2 (en) Imaging device and distance information detecting method
JP2013175821A (en) Image processing device, image processing method, and program
JP6486453B2 (en) Image processing apparatus, image processing method, and program
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
CN115086558B (en) Focusing method, image pickup apparatus, terminal apparatus, and storage medium
JP2021069004A (en) Image processing device, image processing method, and program