JP2006067521A - Image processor, image processing method, image pickup device, and image pickup method - Google Patents
Image processor, image processing method, image pickup device, and image pickup method Download PDFInfo
- Publication number
- JP2006067521A JP2006067521A JP2004251020A JP2004251020A JP2006067521A JP 2006067521 A JP2006067521 A JP 2006067521A JP 2004251020 A JP2004251020 A JP 2004251020A JP 2004251020 A JP2004251020 A JP 2004251020A JP 2006067521 A JP2006067521 A JP 2006067521A
- Authority
- JP
- Japan
- Prior art keywords
- distance information
- distance
- image
- image data
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、電子カメラ装置などの画像撮像装置および画像処理装置とその方法に関する。
特に、本発明は、小型のレンズを用いた電子カメラ装置などで撮影された2次元画像を立体感のある画像として提供する画像撮像装置と、そのための処理を行う画像処理方法と装置に関する。
The present invention relates to an image capturing apparatus such as an electronic camera apparatus, an image processing apparatus, and a method thereof.
In particular, the present invention relates to an image capturing apparatus that provides a two-dimensional image captured by an electronic camera apparatus using a small lens as a stereoscopic image, and an image processing method and apparatus for performing the processing.
撮像素子としてCCD(Charge Coupled Device )を用い、画像処理手段を内蔵し、CCDで撮像した画像データを表示器に即座に表示可能な電子カメラ装置が広く使用されている。
ところで、一般に焦点深度の深いCCD等の撮像素子を用いた電子カメラ装置において、銀塩カメラ装置のように立体感をだすため、特定の距離の画像のみに焦点を合わせ、それ以外の距離の部分の画像をぼかすという処理を行うことは困難であった。
2. Description of the Related Art Electronic camera devices that use a CCD (Charge Coupled Device) as an image pickup device, incorporate image processing means, and can immediately display image data picked up by a CCD on a display device are widely used.
By the way, in general, in an electronic camera device using an image pickup device such as a CCD having a deep focal depth, in order to produce a stereoscopic effect like a silver salt camera device, only an image at a specific distance is focused, and the other distance portion It was difficult to perform the process of blurring the image.
ここで、大きな口径のレンズと広い受光面積を持つ撮像素子を使用すれば焦点深度を浅くでき、アナログ銀塩フィルムカメラのようなぼかしをもたせた画像が撮影が可能であるが、口径の大きなレンズおよび広い受光面積を持つ撮像素子を使用しなければならず、電子カメラ装置が大型になり、かつ、電子カメラ装置の価格が高価になるという問題に遭遇する。
そこで、電子カメラ装置において、電気的ないしソフトウェア処理等により任意の画像データを強調したりぼかしたりすること等の画像処理ができることが望まれている。
そのような従来技術について述べる。
Here, if a lens with a large aperture and an image sensor with a large light receiving area are used, the depth of focus can be reduced, and a blurred image like an analog silver halide film camera can be taken, but a lens with a large aperture In addition, an image pickup device having a large light receiving area must be used, and the electronic camera device becomes large and the price of the electronic camera device is high.
Therefore, it is desired that the electronic camera apparatus can perform image processing such as enhancing or blurring arbitrary image data by electrical or software processing.
Such prior art will be described.
特許文献1は、焦点距離をずらしながら順次撮影し、ピントがあった画像部分のみ順次上書きして最終的に画面領域全てにわたって合焦した画像を得る。このとき画像の各点の距離情報も取得する。その後、指定された焦点距離のみ合焦した画像を得るべく、指定焦点距離以外の画素についてぼかし処理を行う技術を開示している。 Japanese Patent Application Laid-Open No. 2004-228561 sequentially captures images while shifting the focal length, and sequentially overwrites only the focused image portion to finally obtain an in-focus image over the entire screen area. At this time, distance information of each point of the image is also acquired. Thereafter, a technique is disclosed in which a blurring process is performed on pixels other than the designated focal length so as to obtain an image in which only the designated focal length is in focus.
特許文献2は、撮影画像の各点を3時限計測データ入力部により測距し、画像各点と距離とのデータテーブルを作成し、ユーザがぼかしたい位置を指定したとき指定位置の距離をデータテーブルから求め、同じ距離の画像点を抽出し、同じ距離の画像点について全て背景ぼかし処理を行う技術を開示している。
In
特許文献3は、特許文献2に開示された技術と同様、撮影画像の各点を測距し、画像各点と距離とのデータテーブルを作成し、ユーザがぼかしたい位置を指定したとき指定位置の距離をデータテーブルから求め、同じ距離の画像点を抽出し、同じ距離の画像点について全て背景ぼかし処理を行う技術を開示している。特許文献3は、さらに、その後、ぼかした背景の画像とぼかしていない画像とを合成する技術を開示している。
特許文献1に開示された技術は、焦点距離をずらしながら順次撮影するので、希望する画像を得るまでに時間がかかる。さらに各点ごとの距離情報も用いるので、多量の距離情報を格納する必要がある。
Since the technique disclosed in
特許文献2に開示された技術は、処理が複雑であり、処理時間がかかる。さらに、画像各点と距離とのデータテーブルを作成するので、多量のデータを格納する必要がある。
The technique disclosed in
特許文献3に開示された技術も、処理が複雑であり、処理時間がかかる。さらに、画像各点と距離とのデータテーブルを作成するので、多量のデータを格納する必要がある。
The technique disclosed in
本発明は上述した課題などを解決することを意図しており、本発明の目的は、簡単な処理で好ましい画像処理ができる画像撮像装置、画像処理装置および画像処理方法を提供することにある。 The present invention is intended to solve the above-described problems and the like, and an object of the present invention is to provide an image pickup apparatus, an image processing apparatus, and an image processing method capable of performing preferable image processing with simple processing.
本発明は、撮像した画像データ1画面を複数の領域に分割し、その各領域の被写体の前後関係をグループに区分し、グループに応じて周波数特性の異なるフィルタを適用させることにより、指定した範囲の距離の被写体の画像を、各領域単位で強調したり、ぼかしたりする、という構想に基づく。 The present invention divides a captured image data screen into a plurality of areas, divides the anteroposterior relationship of subjects in each area into groups, and applies filters having different frequency characteristics according to the groups, thereby specifying a specified range. This is based on the concept of emphasizing or blurring an image of a subject at a distance of each region.
このような目的を達成するために、本発明による画像処理装置は、被写体空間を仮想的に小さな空間に分割し、それら各空間内に属する被写体部分までの距離を計測して距離データとして保存し、撮像後の画像データを前記距離データを元にして撮像装置からの距離によりグループに分割し、各々のグループに対して異なる特性のフィルタを作用させる。
これにより、被写体空間の中の所望の仮想空間に属する画像データが強調したりぼかしたりが可能である他、レンズのフォーカス特性に関する制限を緩和し、どのようなレンズを使用しても好ましい画像処理ができる。
In order to achieve such an object, the image processing apparatus according to the present invention virtually divides a subject space into small spaces, measures distances to subject portions belonging to the spaces, and stores them as distance data. The image data after imaging is divided into groups based on the distance from the imaging device based on the distance data, and filters having different characteristics are applied to each group.
As a result, image data belonging to a desired virtual space in the subject space can be emphasized or blurred, restrictions on lens focus characteristics are relaxed, and image processing that is preferable regardless of which lens is used Can do.
本発明によれば、画像データ1画面を(1画面の画像データを)複数の領域に分割する画像分割手段と、被写体までの距離に応じて前記複数の領域に対し異なる空間周波数フィルタを適用するフィルタ手段と、を備える画像処理装置が提供される。 According to the present invention, image dividing means for dividing one screen of image data (image data of one screen) into a plurality of regions, and different spatial frequency filters are applied to the plurality of regions according to the distance to the subject. And an image processing apparatus including a filter unit.
また、本発明によれば、被撮像空間の像を撮像する撮像手段と、前記撮像した画像データ1画面を(1画面の画像データを)複数の領域に分割する画像分割手段と、前記分割した各領域の画像データにおける被写体までの距離を検出する距離検出手段と、被写体までの距離に応じて前記複数の領域に対し異なる空間周波数を適用するフィルタ手段と、を備える画像撮像装置が提供される。 In addition, according to the present invention, an imaging unit that captures an image of the imaged space, an image dividing unit that divides the captured image data of one screen into a plurality of regions, and the divided image data. Provided is an image pickup apparatus comprising distance detection means for detecting a distance to a subject in image data of each region and filter means for applying different spatial frequencies to the plurality of regions according to the distance to the subject. .
上記手段により、焦点深度が深いCCD等を用いた画像撮像装置においても、被写体空間(被撮像空間)における各像の前後距離を予め計測、またはその都度計測する等により、被写体空間を3次元的な領域に分割し、各々の領域に異なる周波数特性のフィルタを作用(適用)させることにより適した画像処理(例えば、任意のボケ味)の画像を作成することができる。
その結果として、撮影者が望む任意のボケ味や強調を加えた画像等を作成できる。
With the above-described means, even in an image pickup apparatus using a CCD or the like having a deep focal depth, the subject space can be three-dimensionally measured by measuring the distance in front and back of each image in the subject space (captured space) in advance or by measuring each time. It is possible to create an image with suitable image processing (for example, arbitrary blurring) by dividing the image into regions and applying (applying) filters having different frequency characteristics to each region.
As a result, it is possible to create an image with arbitrary blurring or emphasis desired by the photographer.
本発明は、従来にない画像処理装置、画像撮像装置、さらには画像処理方法を提供することができる。 The present invention can provide an image processing apparatus, an image capturing apparatus, and an image processing method which are not conventionally provided.
第1実施の形態
本発明の画像処理装置の第1実施の形態について述べる。
図1は本発明の画像処理装置の第1実施の形態である画像撮像装置1と、それを用いた撮像方式を示す説明図である。
図1において、画像撮像装置1には距離計測装置3を備える。
画像撮像装置1の構成は図2を参照して述べる。
本実施の形態における画像撮像装置1は、静止画像や動画像を撮像可能な画像撮像装置であり、たとえば、電子カメラ装置、スチルカメラ装置、ビデオカメラ装置などである。
First Embodiment A first embodiment of the image processing apparatus of the present invention will be described.
FIG. 1 is an explanatory diagram showing an
In FIG. 1, the
The configuration of the
The
本実施の形態において、画像撮像装置1で撮像する被撮像(被写体)空間Sを画像撮像装置1からの距離に応じて複数のグループに分ける。本例示においては、画像撮像装置1から近距離D1、中距離D2、遠距離D3に応じて3グループに区分する。被撮像空間Sについて、図1に図解した例示では被写体までの距離を3つのグループに区分したが、被写体までの距離をさらに細かく区分することも可能であり、あるいは、逆に、2つの距離グループに区分することもできる。
画像撮像装置1から被写体までの距離を計測するために距離計測装置3を用いる。距離計測装置3は後述するように、赤外線センサ、超音波センサなど種々の装置構成をとることができるが、その反面、距離計測装置3の処理機能を画像撮像装置1内のコンピュータシステムによる信号処理で実現することもできる。したがって、赤外線センサ、超音波センサなどの距離計測装置3は必須ではないが、コンピュータシステムによる信号処理をも含めて距離計測装置3と呼ぶ、または、距離計測機能を持つ。
In the present embodiment, the imaged (subject) space S imaged by the
A
また、赤外線センサ、超音波センサ等を用いず、2次元エリアセンサを用いたAFセンサを利用することにより、各エリア毎のAFデータから各エリア毎の被写体までの距離に相当する数値データを検出して、同等の距離グループの区分けをしてもよい。
また、画像撮像装置1の合焦位置を図示しないAFモータにより順次移動させ、至近から無限遠∞までの撮像CCD23の画像データを取得し、撮像CCD23の各エリア(領域)毎にどの合焦位置にあるのかを検出して、同等の距離グループの区分けを行ってもよい。
Also, by using an AF sensor using a two-dimensional area sensor without using an infrared sensor, an ultrasonic sensor, etc., numerical data corresponding to the distance from the AF data for each area to the subject for each area is detected. Then, it may be divided into the same distance groups.
Further, the in-focus position of the
本実施の形態において、画像撮像装置1から距離D1までの被撮像空間を第1グループ空間(G1空間)、距離D1〜D2に属する被撮像空間を第2グループ空間(G2空間)、距離D2より遠方の距離D3に属する被撮像空間を第3グループ空間(G3空間)と名づける。距離D3を無限遠としてもよい。
In the present embodiment, the imaged space from the
図2は本発明の第1実施の形態の画像撮像装置1の構成図である。
画像撮像装置1は、本発明の画像処理装置の1例としてのコンピュータシステム10と、レンズ21、絞り22と、撮像素子の1例としてのCCD23と、シャッタ24と、AF機構25と、AE機構26と、距離計測装置3となどを含む。
FIG. 2 is a configuration diagram of the
The
レンズ21は、たとえば、ズームレンズ、フォーカスレンズを含んだレンズ鏡筒を示している。本実施の形態は銀塩カメラではなく、CCD等を用いた撮像装置であるため、言うまでもなく光学系の被写界深度は深く、従来技術では銀塩カメラのように立体感のある画像を得ることは困難である。
The
コンピュータシステム10は、プロセッサなどの演算処理ユニット(CPU)11と、画像データを保存する画像メモリ12と、CPU11の処理結果を一時的に保存するメモリ13と、CPU11で動作するプログラムを保存するプログラムメモリ14と、後述するフィルタ係数や各ブロックがどのグループに属するかを保存するテーブルメモリ15と、画像データなどを長期的に保存する外部記憶装置16と、表示器、たとえば、液晶表示器17と、CCD23から画像データを取り込んだり、距離計測装置3から距離データを取り込むためのインターフェース(I/F)18と、上述した構成要素を接続するバス19とを有する。
画像メモリ12、メモリ13、テーブルメモリ15は、たとえば、RAMで構成される。他方、メモリ13はたとえば、ROMで構成される。外部記憶装置16は、たとえば、交換可能なメモリカードなどで構成される。
The
The
コンピュータシステム10のCPU11は、後述する画像信号処理、電子カメラ装置の各種制御処理を行う。そのため、CPU11は、本発明の各種の手段、たとえば、距離区分手段、画面分割手段、フィルタ処理手段、画像合成手段などの手段、または、画像撮像装置1内の他の部分と協動して、これらの手段の一部として機能する。
The
AF機構25は、CPU11の制御のもとレンズ21内のフォーカスレンズの位置を制御して焦点位置を調整する。
AE機構26は、CPU11の制御のもと、アイリス、絞り22の開度、シャッタ24の速度などを制御して、照度を調整する。
レンズ21内のズームレンズもCPU11の制御のもとで制御される。
距離計測装置3は、CPU11の撮像動作と協動して、被写体までの距離を測定する。その測定結果はI/F17を介してコンピュータシステム10に入力されて、CPU11の制御のもとで、メモリ13またはテーブルメモリ15に保存される。
The AF mechanism 25 adjusts the focal position by controlling the position of the focus lens in the
Under the control of the
The zoom lens in the
The
画像撮像装置1の通常動作の概要を述べる。
ユーザが被撮像空間Sに小型レンズ21を向けると、CPU11の制御のもとでAF機構25およびAF機構25が動作した状態でレンズ21、絞り22を通過した映像がCCD23に入力され、CCD23で電気信号に変換される。CPU11はI/F17を介してCCD23の撮像データを入力して画像メモリ12に保存するとともに液晶表示器17に表示する。これにより、ユーザは画像撮像装置1のレンズ21を向けている被撮像空間Sの像を液晶表示器17で確認できる。
ユーザがシャッタ21を押すと、そのときにCCD23で検出された撮像データが画像メモリ12に一時的に保存され、かつ、液晶表示器17に表示されるとともに、画像メモリ12に保存された画像データがCPU11により画像圧縮作業などが行われて外部記憶装置16に格納される。
距離計測装置3に関する動作は後述する。
An outline of normal operation of the
When the user directs the
When the user presses the
The operation relating to the
被撮像空間S全体は、図2の画像撮像装置1で撮像した結果として、図3(A)に例示した1枚の画像データPとして得られる。
図3(A)に図解した画像は、画像撮像装置1から近距離D1に人物像M、中距離D2に家屋の像H、遠距離D3に樹木の像Tと山などの風景の像Mを例示している。
1枚の画像データPは、液晶表示器17に表示される画像、または、画像メモリ12に格納される1枚の画像データに対応している。
The entire imaged space S is obtained as a single piece of image data P illustrated in FIG. 3A as a result of imaging with the
The image illustrated in FIG. 3A is a person image M at a short distance D1, an image H of a house at a medium distance D2, an image T of a tree and an image M of a landscape such as a mountain at a long distance D3. Illustrated.
One piece of image data P corresponds to an image displayed on the liquid crystal display 17 or one piece of image data stored in the
CPU11は、画像撮像装置1により得られる1枚の画像データPを、図3(A)、(B)に示すような複数の小さなブロック(小領域)に分割して処理する。
1枚の画像データPとしては、本実施の形態において、たとえば、非常に大きな12M(メガ)画素(ピクセル)とし、その1画面全体を1ブロック(小領域)=64x64画素の複数のブロックに分割する場合を考える。
1ブロックの大きさは、図3(A)、(B)に例示したように、縦横同じサイズ(画素)でもよいし、縦長、横長のブロックにすることもできる。このような1ブロックのサイズは、CCD23の画素の大きさを考慮して決定する。たとえば、CCD13のサイズが縦512画素x横512画素のとき1ブロックを64画素x64画素で分割した場合、縦8ブロックx横8ブロック=64個の小ブロックに分割される。他方、画素サイズとして非常に大きな値である12メガピクセル=4000x3000画素の場合を仮定すると、横=4000÷64=62.5ブロック、縦=3000÷64=46.8ブロックとなるから、繰り上げて、横63ブロックx縦47ブロックとなり、総数=63x47=2961ブロックとなる。
The
In the present embodiment, for example, a very large 12M (mega) pixel (pixel) is used as one piece of image data P, and the entire screen is divided into a plurality of blocks of 1 block (small area) = 64 × 64 pixels. Consider the case.
As illustrated in FIGS. 3A and 3B, the size of one block may be the same size (pixels) in the vertical and horizontal directions, or may be in the vertical and horizontal blocks. The size of one block is determined in consideration of the pixel size of the
本実施の形態においては、1枚の画像データPの全部を複数のブロックに分割する場合について述べるが、以下に述べる画像の強調、または、ぼかしを行う対象とする、1枚の画像データPの所定範囲についてのみ、下記に述べる処理を行うこともできる。
その場合、下記の述べる画像の強調、または、ぼかしを行う対象以外の領域については、下記に述べる処理を行わない。あるいは、画像の強調、または、ぼかしを行う対象以外の領域の画像データを、仮に0にして下記の処理を行い、全ての処理終了後、画像の強調、または、ぼかしを行う対象以外の領域の元の画像データを合成させることもできる。
なお、以下の記述においては、1枚の画像データPの全部を複数のブロックに分割する場合について述べる。
In the present embodiment, a case in which one piece of image data P is divided into a plurality of blocks will be described. Only the predetermined range can be processed as described below.
In this case, the processing described below is not performed on the region other than the target of image enhancement or blurring described below. Alternatively, the image data of a region other than the target for image enhancement or blurring is temporarily set to 0 and the following processing is performed, and after all the processing is completed, the region other than the target for image enhancement or blurring is selected. The original image data can also be synthesized.
In the following description, a case where the entire image data P is divided into a plurality of blocks will be described.
これらの複数のブロック(小領域)には、被撮像空間Sにおける該当する被写体の画像データが存在する。画像撮像装置1から被写体が存在する位置までの距離を上述したように3グループに区分したから、CPU11は複数のブロックについて距離に応じたグループ区分を行う。
このように、本実施の形態においては、画像データについて画素各点の距離を扱うのではなくて、各ブロックごとグループで区分した距離で扱う。したがって、たとえば、1ブロックを64x64画素とした場合、1画素ごと距離データを対応づけた場合に比較して、距離データは1/64x64=1/4096に減少するので、後述するように、メモリの負担が少なく、処理速度も短縮できるという利点がある。
In the plurality of blocks (small regions), image data of the subject in the imaging space S exists. Since the distance from the
As described above, in the present embodiment, the distance between pixel points is not handled for image data, but the distance divided by a group for each block is handled. Therefore, for example, when one block is 64 × 64 pixels, the distance data is reduced to 1/64 × 64 = 1/4096 compared to the case where the distance data is associated with each pixel. There are advantages that the burden is small and the processing speed can be shortened.
たとえば、距離の区分を4グループに区分する場合、1グループに2ビットを割り当てると、2961ブロックx2ビット=5922ビット=741バイトとなる。あるいは、1グループに3ビットを割り当てると、2961ブロックx3ビット=8883ビット=1111バイト(約1.12kバイト)となる。12メガピクセルの大きな画像であっても、距離をグループに区分するために必要なメモリ容量は約1.12kバイトであり、図2のテーブルメモリ15に格納するデータ量としては、全く問題とならない。
For example, when dividing the distance into four groups, if 2 bits are assigned to one group, 2961 blocks × 2 bits = 5992 bits = 741 bytes. Alternatively, if 3 bits are assigned to one group, 2961 blocks × 3 bits = 8883 bits = 1111 bytes (about 1.12 kbytes). Even for a large image of 12 megapixels, the memory capacity required to divide the distance into groups is about 1.12 kbytes, and the amount of data stored in the
また、テーブルメモリ15などに絶対距離を保存してもよい。この場合は絶対距離を6ビット(64段階)程度で表現すると仮定すると、12M(メガ)画素の撮像データについて、2961x6ビット=約2.22kバイトとなる。
近距離を精度よく表現すればよいため、ビット深さ(ビット長さ)は最大でも8ビット程度あれば十分である。その場合は、2961x8ビット=2.961kバイトとなる。この程度のメモリ容量はテーブルメモリ15に格納するデータ量としては、全く問題とならない。
Further, the absolute distance may be stored in the
Since it is only necessary to accurately represent the short distance, it is sufficient that the bit depth (bit length) is about 8 bits at the maximum. In that case, 2961 × 8 bits = 2.961 kbytes. Such a memory capacity does not pose any problem as the amount of data stored in the
図4(A)〜(D)は、本発明の第1実施の形態の画像処理装置1を適用した画像処理方法、特に、コンピュータシステム10のCPU11において行う画像処理方法を説明する図である。
画像撮像装置1のCCD23で得られた画像を図4(A)に図解したものとする。
図4(A)に図解した画像は、図3(A)に図解した画像と同様、人物像M、家屋の像H、樹木の像T、山などの風景の像Fを例示している。
図3(A)、(B)を参照して述べたように、画像データ1枚の画面を仮想的な小ブロック(小領域)、たとえば、64×64画素を1ブロックとする小領域に分けておき、予め各ブロック内の被写体部分までの距離をCPU11の制御のもとで距離計測装置3により測定する。距離計測装置3の測定した距離はテーブルメモリ15に保存しておく。距離計測装置3については後述する。
4A to 4D are diagrams for explaining an image processing method to which the
Assume that the image obtained by the
The image illustrated in FIG. 4A illustrates a landscape image F such as a person image M, a house image H, a tree image T, and a mountain, as in the image illustrated in FIG. 3A.
As described with reference to FIGS. 3A and 3B, the screen of one image data is divided into virtual small blocks (small areas), for example, small areas having 64 × 64 pixels as one block. The distance to the subject portion in each block is previously measured by the
CPU11は、このような小ブロックを、予め設定した距離により複数のグループに区分し、撮像した画像データの各ブロックがどの距離グループに属するかをマークしておく。
図4(A)の例では人物像Mが被写体である距離D1グループに属する小ブロックを図4(B)に図解したもの、家屋の像Hが被写体である距離D2グループに属する小ブロックは図4(C)に図解したもの、樹木の像Tと山などの風景の像Fが被写体である距離D3グループに属する小ブロックは図4(D)に図解したものとなる。このように、本実施の形態においては、距離に応じて図4(B)、(C)、(D)のように、ブロック単位で3つの画像データ群に区分することができる。
距離D2グループの図4(C)に図解した部分と、遠距離D3グループの図4(D)に図解した部分の内部に空白があるが、これらの部分の画素値を0を挿入する。その結果、CPU11における画像処理においてデータなし(データ=0)として扱うので問題は無い。
The
In the example of FIG. 4A, the small block belonging to the distance D1 group whose person image M is the subject is illustrated in FIG. 4B, and the small block belonging to the distance D2 group whose house image H is the subject is shown in FIG. A small block belonging to the distance D3 group illustrated in FIG. 4C and having a tree image T and a landscape image F such as a mountain as a subject is illustrated in FIG. 4D. Thus, in the present embodiment, the image data can be divided into three image data groups in units of blocks as shown in FIGS. 4B, 4C, and 4D according to the distance.
There is a space inside the portion illustrated in FIG. 4C of the distance D2 group and the portion illustrated in FIG. 4D of the long distance D3 group, and 0 is inserted into the pixel value of these portions. As a result, since there is no data (data = 0) in the image processing in the
ここで、上記実施の形態では、複数のグループに対応してそれぞれ別の画像データを作成し最後に合成する例を示したが、本発明はこれに限定されず、例えば、1画面分のあるグループに属するデータにある画像処理を施し、同じ1画面分の別のあるグループに属するデータに別の画像処理を施すような、画像データ自体は1のまま、異なる画像処理を領域毎に施す態様であってもよい。この態様であれば、画像合成の処理をすることなく所望の画像処理を施すことができる。 Here, in the above embodiment, an example in which different image data is created corresponding to a plurality of groups and combined last is shown, but the present invention is not limited to this, and there is, for example, one screen. An aspect in which image processing is performed on data belonging to a group, and different image processing is performed on data belonging to another group for the same one screen while image data itself remains 1, and different image processing is performed for each region. It may be. According to this aspect, desired image processing can be performed without performing image composition processing.
本発明の第1実施の形態においては、このように、画像データ1画面を複数のブロック(小領域)に分割し、かつ、分離可能な画像、たとえば、人物像M、家屋の像H、樹木の像Tと山などの風景の像Fとをブロック単位で切りわけて分離する。距離計測装置3はCPU11と協動して各ブロックごとの距離を測定する。そして、分離したブロック内の画像データ、たとえば、人物像Mの画像データを距離に応じたグループで区分する。このように、本実施の形態においては、画像撮像装置1から被写体までの距離に応じてグループ区分した各ブロックごとの距離を扱うので、1画素ごと距離データを対応づけた場合に比較して、距離データは非常に少なくてすむ。
In the first embodiment of the present invention, as described above, one screen of image data is divided into a plurality of blocks (small regions) and separable images, for example, a person image M, a house image H, a tree, etc. The image T and the landscape image F such as a mountain are separated into blocks and separated. The
なお、本実施の形態では距離に応じて3種類のグループに分けたがこれに限定されず、2グループに分けたものであってもよい(合焦グループと背景グループまたは合焦グループと前景グループなど)。
また、3種類ではなく、多数のグループに分けてもよいばかりか、距離に応じて、領域毎に異なる処理を施すものであってもよい。この場合は、処理が非常に煩雑となるが、より好ましい画像データを得ることができる。
In this embodiment, the three groups are divided according to the distance. However, the present invention is not limited to this, and the group may be divided into two groups (focus group and background group or focus group and foreground group). Such).
Further, instead of the three types, it may be divided into a large number of groups, or different processing may be performed for each region according to the distance. In this case, the processing becomes very complicated, but more preferable image data can be obtained.
第1フィルタ処理(2次元空間周波数フィルタ)処理)
図5(A)〜(C)に、コンピュータシステム10のCPU11において行うグループ区分した各グループの画像データに適用するフィルタ特性を示す。
図5(A)、(B)、(C)に図解した各々のフィルタを第1〜第3の2次元フィルタ(空間周波数フィルタ)Fl,F2,F3とする。本実施の形態においては、例示として、近距離の被写体用の2次元フィルタ、中距離の被写体用の2次元フィルタ、遠距離の被写体用の2次元フィルタとして、第1〜第3の2次元フィルタFl,F2,F3を例示しているが、さらに距離を細分化して多数の2次元フィルタを準備することもできるし、近距離の被写体用の2次元フィルタ、中距離以上の被写体用の2次元フィルタの2つの2次元フィルタのみを用いることもできる。以下、第1〜第3の2次元フィルタFl,F2,F3を用いた場合について述べる。
図5(A)、(B)、(C)において、横軸は0〜0.5で規格化した空間周波数を示し、縦軸は0〜1で規格化した画像データのレベルの減衰度を示す。フィルタは予め画像撮像装置1のコンピュータシステム10のテーブルメモリ15内部にフィルタ係数として保持しておく。
図解を容易にするため、図5(A)、(B)、(C)において、フィルタ特性は1次元で示したが、画像データは2次元的な広がりを持つから、実際のフィルタの適用では2次元の畳み込み積分や、1次元の畳み込み積分を縦横2回適用する。なお、CPU11によるフィルタ処理は実空間の畳み込み積分として実施することが簡単である。
フィルタサイズは画像撮像装置1のCCD23の画像サイズに依存するが、CCD23のサイズを12M(メガ)画素と仮定すると、フィルタサイズは9x9画素程度で実現可能である。
本実施の形態においては、これらのフィルタ特性は次のような特徴を持たせた。
First filter processing (two-dimensional spatial frequency filter) processing)
5A to 5C show filter characteristics applied to the image data of each group divided by the
Each of the filters illustrated in FIGS. 5A, 5B, and 5C is referred to as first to third two-dimensional filters (spatial frequency filters) Fl, F2, and F3. In this embodiment, as an example, the first to third two-dimensional filters are used as a two-dimensional filter for a short-distance subject, a two-dimensional filter for a medium-distance subject, and a two-dimensional filter for a long-distance subject. Although Fl, F2, and F3 are illustrated, a number of two-dimensional filters can be prepared by further subdividing the distance, a two-dimensional filter for a subject at a short distance, a two-dimensional filter for a subject at a medium distance or more It is also possible to use only two two-dimensional filters. Hereinafter, a case where the first to third two-dimensional filters Fl, F2, and F3 are used will be described.
5A, 5B, and 5C, the horizontal axis indicates the spatial frequency normalized by 0 to 0.5, and the vertical axis indicates the degree of attenuation of the image data level normalized by 0 to 1. Show. The filter is stored in advance as a filter coefficient in the
For ease of illustration, the filter characteristics are shown in one dimension in FIGS. 5A, 5B, and 5C, but the image data has a two-dimensional spread. A two-dimensional convolution integral or a one-dimensional convolution integral is applied twice vertically and horizontally. Note that the filter processing by the
Although the filter size depends on the image size of the
In the present embodiment, these filter characteristics have the following characteristics.
図5(A)に例示した第1の2次元(空間周波数)フィルタF1は、図4(B)に図解した距離D1のグループの画像に適用するフィルタである。すなわち、画像撮像装置1から近距離に位置する被写体、たとえば、図3(A)の人物像Mに適用する場合のフィルタであり、低域では平坦な特性を持ち、中域〜高域で少し画像レベルを持ち上げて画像のエッジを強調させ、非常に高い周波数領域ではノイズを低減させるために画像レベルを少し減衰させために使用される。
The first two-dimensional (spatial frequency) filter F1 illustrated in FIG. 5A is a filter applied to the image of the group having the distance D1 illustrated in FIG. That is, it is a filter when applied to a subject located at a short distance from the
図5(B)に例示した第2の2次元(空間周波数)フィルタF2は、図4(C)に図解した距離D2のグループの画像に適用するフィルタである。すなわち、画像撮像装置1から中距離に位置する被写体、たとえば、図3(A)の家屋の像Hに適用する場合のフィルタであり、り、低域から高域に向かってレベルをなだらかに減衰させる特性を持ち、特に、高域における画像レベルを低下させて高域における画像レベルをぼかすために使用される。
図5(B)の上に図解のように、画像データが存在しない部分の画像データは0にしてある。したがって、CPU11においてフィルタ処理を施しても関係がないし、他に影響を与えない。
The second two-dimensional (spatial frequency) filter F2 illustrated in FIG. 5B is a filter applied to the image of the group having the distance D2 illustrated in FIG. That is, it is a filter when applied to a subject located at an intermediate distance from the
As illustrated in the upper part of FIG. 5B, the image data in a portion where no image data exists is set to zero. Therefore, even if the
図5(C)に例示した第3の2次元(空間周波数)フィルタF3は、図4(C)に図解した距離D3のグループの画像に適用するフィルタである。すなわち、画像撮像装置1から遠距離距離に位置する被写体、たとえば、図3(A)山などの風景の像Fに適用する場合のフィルタであり、第2フィルタF2に比べて、低域〜中域にかけて画像レベルをさらに低下させて、低域〜中域にかけて画像レベルをぼかすために使用される。
図5(C)の上に図解のように、画像データが存在しない部分の画像データは0にしてある。したがって、CPU11におけるフィルタ処理を施しても関係がないし、他に影響を与えない。
The third two-dimensional (spatial frequency) filter F3 illustrated in FIG. 5C is a filter applied to the image of the group having the distance D3 illustrated in FIG. That is, it is a filter when applied to a subject located at a long distance from the
As illustrated in FIG. 5C, the image data in a portion where no image data exists is set to zero. Therefore, even if the filter processing in the
区分した各距離グループの画像に対するフィルタ処理の適用方法の例を図6、図7を参照して述べる。
図6は分割した画像データに対するフィルタ処理を説明する図である。図7はCPU11のフィルタ処理内容を示すフローチャートである。
図2に図解したコンピュータシステム10におけるI/F18を経由してCCD23から画像メモリ12に保存された画像データは、図6に示すように、画像メモリ12内において仮想的に小ブロック(領域)に分割されている。CPU11は、これら小ブロックの距離関係も合わせて各ブロックについての距離区分グループをテーブルデータとして取込み、テーブルメモリ15に保存している。CPU11は、テーブルメモリ15に上記3種類の2次元フィルタF1〜F3のフィルタ係数も予め保存しておく。
このようなテーブルデータにより、画像メモリ12に保存された画像データの各小ブロックはどのような遠近関係のグループに属するかが符号をつけられている。
An example of a method of applying filter processing to the images of each divided distance group will be described with reference to FIGS.
FIG. 6 is a diagram for explaining the filter processing for the divided image data. FIG. 7 is a flowchart showing the contents of filter processing of the
Image data stored in the
Based on such table data, the perspective group to which each small block of the image data stored in the
第1フィルタ処理(2次元空間周波数フィルタ処理)
図7を参照して仮想的に分割された個別ブロックの画像データに対してCPU11が2次元(空間周波数)フィルタを適用する処理を述べる。
第1フィルタ処理は図5(A)〜(C)に例示したフィルタ特性に基づいて距離に応じたフィルタ処理を行う。
図6に示す小ブロックを、左上を1、そして水平方向に番号を増やして番号付けを行う。
ステップ1においてCPU11はまず番号1の小ブロックを選択し、ステップ2においてCPU11はそのブロックが属するグループをテーブルメモリ15のデータにより判定する。ステップ3において、もしそのデータが、たとえば、3ならば、CPU11は第3の2次元フィルタF3の係数を選択して第3の2次元フィルタF3の係数をテーブルメモリ15から取り出し、ステップ4において、CPU11は小ブロック1の画像データに第3の2次元フィルタF3の係数を作用させる(フィルタ処理する)。具体的には、たとえば、小ブロックが32x32画素、第3の2次元フィルタF3が5x5画素分のコンポルーション(畳み込み)フィルタであれば、CPU11によりこれらの畳み込み演算によりフィルタ処理が可能である。CPU11はフィルタ処理した結果を画像メモリ12に書き込んでいく。
ステップ5において、CPU11は次に第2の小ブロックを選択する。ステップ6においてCPU11は全てのブロックについて処理したか否かを判定し、全てのブロックについて選択が終了しない場合、ステップ2〜4を参照して述べた、前と同様に当該ブロックが属するグループをテーブルメモリ15から参照し、該当する2次元フィルタの係数を取り出して該当ブロックの画像データに適用する。
CPU11はこれらを次々と演算し、全ての小ブロックの画像データに対して2次元フィルタ処理行う。
中間の処理結果は画像メモリ12に作成され、CPU11は2次元フィルタ処理された最終的結果を外部記憶装置16に保存する。
First filter processing (two-dimensional spatial frequency filter processing)
A process in which the
The first filter process performs a filter process corresponding to the distance based on the filter characteristics illustrated in FIGS.
The small blocks shown in FIG. 6 are numbered by 1 at the upper left and by increasing the number in the horizontal direction.
In
In step 5, the
The
The intermediate processing result is created in the
図8は、第1〜第3の2次元(空間周波数)フィルタF1〜F3を作用させた(適用した)フィルタ処理結果をCPU11が再度合成して1枚の画像にする処理を示す図である。
画像合成は、CPU11が単に、該当するブロックの画像データに対応する第1〜第3の2次元フィルタF1〜F3を適用して得られた3枚の画像処理結果を加算すればよい。
図9(A)はCPU11による合成処理結果の画像を示す。
ここで、合成処理ではなく、1画像の領域毎に異なるフィルタ処理を行うことによっても、同様の画像を得られることは言うまでもない。
FIG. 8 is a diagram illustrating processing in which the
In the image composition, the
FIG. 9A shows an image obtained as a result of the synthesis process by the
Here, it is needless to say that a similar image can be obtained by performing different filter processing for each region of one image instead of the synthesis processing.
第2フィルタ処理
CPU11はさらに下記に例示する第1フィルタ処理を行う。第2のフィルタ処理は、画像強調または画像ぼかしなどための処理である。
The second
第2フィルタ処理(第1例)
CPU11は図9(A)の画像に対して下記の第2フィルタ処理を行う。
たとえば、近距離D1グループの画像データにハイパスフィルタ(HPF)を適用し、中距離D2,遠距離D3の画像には各々ローパスフィルタ(LPF)2、LPF3を適用する。距離D3の画像にはより強い低域通過特性を持つLPFを作用させることにより、遠近感をより強調することにある。これにより、近距離D1の人物像Mが強調されたより明確に浮かび上がるとともに、山などの風景の像Fがぼけ、よりボケ味のある画像が得られる。
図9(B)は、図9(A)に図解したの合成画像について上記の第2フィルタ処理を行い、人物像Mが撮像された距離D1のグループが一番手前で、家屋の像Hと、樹木の像Tと、山などの人物の背景に位置する風景の像Fが撮像された他の画像は、距離D1より後ろ(遠方)と判断された例である。
このように、第2フィルタ処理は、画像を強調させたり、ぼかするための処理である。
このようにして立体感のある画像が得られる。
Second filter processing (first example)
The
For example, a high pass filter (HPF) is applied to the image data of the short distance D1 group, and low pass filters (LPF) 2 and
9B performs the second filtering process on the composite image illustrated in FIG. 9A, and the group of the distance D1 in which the person image M is captured is closest to the image H of the house. The other image in which the image T of the tree and the landscape image F located in the background of a person such as a mountain are captured is an example determined to be behind (far) from the distance D1.
Thus, the second filter process is a process for enhancing or blurring an image.
In this way, a three-dimensional image is obtained.
第2フィルタ処理(第2例)
他方、図10(A)に図解した撮像結果の合成画像について、図10(B)に図解した処理結果を述べる。この例では、樹木の像Tについての距離D1グループが一番手前で、距離D1より遠方の距離D2に人物像Mが位置し、さらに遠方の距離D3に山などの人物の背景に位置する風景の像Fが位置している。ここでは、距離D2の人物像Mを強調してそれ以外をぼかすことによりボケ味をより強調する処理例を示す。
CPU11において、D2グループの画像(人物像M)にHPFを適用し、D1グループの樹木の像Tと、D3グループの山などの風景の像Fには各々LPF2、LPF3を適用する。距離が遠いグループ(D3)の山などの風景の像Fには、LPF2より強いLPF3を作用させる。これにより、遠いところを更に遠く感じさせる。また、手前の樹木の像Tもぼかすことにより、人物像Mがより強調される。
なお、樹木の像Tの距離D1グループについてさらにD3グループの画像データに適用したLPF3より低域特性が強いLPF4を適用することができる。その結果、近距離画像(家屋の像H)が一層ぼけて、人物像Mの被写体が浮かびあがる。
このようにして立体感のある画像が得られる。
Second filter processing (second example)
On the other hand, the processing result illustrated in FIG. 10B will be described for the composite image of the imaging result illustrated in FIG. In this example, a landscape in which the distance D1 group for the tree image T is the forefront, the person image M is located at a distance D2 farther than the distance D1, and is located in the background of a person such as a mountain at a further distance D3. The image F is located. Here, a processing example is shown in which the blur is enhanced more by emphasizing the person image M at the distance D2 and blurring the others.
In the
For the distance D1 group of the tree image T, LPF4 having a lower frequency characteristic than LPF3 applied to the image data of the D3 group can be applied. As a result, the near-field image (house image H) is further blurred, and the subject of the person image M appears.
In this way, a three-dimensional image is obtained.
第2フィルタ処理(第3例)
以上述べた例では、画像処理装置内の距離計測装置により小ブロック毎に距離が区分された場合の画像撮像装置1(CPU11)の処理について述べた。
図11(A)、(B)に示す方法により画像に簡単にボケ味を出す方法を述べる。
図11(A)、(B)は、第2フィルタ処理の第3例として画像撮像装置1の操作者(ユーザ)が、撮像画面で大まかに領域を指定し、そして、その領域内と外側でフィルタを変更する方法を示す図である。
図11(A)に示すように、たとえば、液晶表示器17に表示されている画像について、たとえば、撮像者(ユーザ)が図示しないマニュプレータを操作して簡易的に視野内に矩形領域(ブロック)Aを表示し、撮像者がマニュプレータを操作してがその位置を移動して被写体を囲むように操作する。そして、画像撮像装置1のCPU11は、指定された領域(ブロック)とそれ以外とでフィルタ特性が異なる2種類の2次元フィルタを作用させて、ボケ味を出す。
この方法では奥行き(距離)の判別は、指定された領域とそれ以外との2つのグループのみであるが、人物像Mを領域として指定した場合、人物像Mを強調し、指定しない領域の画像データをぼけさせたボケ処理操作が可能である。
このようにして立体感のある画像が得られる。
図11(A)に示す方法では、空間を小ブロックに分割して各ブロックの距離を距離計測装置3を用いて計測することが不要であり、任意に撮像した1枚の画像データから指定された領域とそれ以外の領域とに2つに分離してボケ処理を適用できるため、画像撮像装置1が非常に簡単になるという特徴をもつ。
Second filter processing (third example)
In the example described above, the processing of the image capturing device 1 (CPU 11) when the distance is divided for each small block by the distance measuring device in the image processing device has been described.
A method for easily blurring an image by the method shown in FIGS. 11A and 11B will be described.
FIGS. 11A and 11B show a third example of the second filter processing in which an operator (user) of the
As shown in FIG. 11A, for example, with respect to an image displayed on the liquid crystal display 17, for example, a photographer (user) operates a manipulator (not shown) to easily form a rectangular area (block) in the field of view. A is displayed, and the photographer operates the manipulator to move the position so as to surround the subject. Then, the
In this method, the depth (distance) is discriminated only in the two groups of the designated area and the other areas. However, when the person image M is designated as the area, the person image M is emphasized and the image in the area not designated is designated. A blur processing operation with blurred data is possible.
In this way, a three-dimensional image is obtained.
In the method shown in FIG. 11A, it is not necessary to divide the space into small blocks and measure the distance of each block using the
第2フィルタ処理(第4例)
図11(A)、(B)に図解した方法と同様、第2フィルタ処理(第4例)として図12(A)、(B)に示す方法により、画像に簡単にボケ味を出す方法を述べる。
図12(A)、(B)は、第2フィルタ処理(第4例)として、画像撮像装置1の撮像者(ユーザ)が、撮像画面で大まかに領域を指定し、その領域内と外側でフィルタを変更する方法を示す図である。
図12(A)は、撮像した画像を、たとえば、液晶表示器17において図示しないマニュプレータを用いて、破線で示したように、ブロック分割し、CPU11が色ヒストグラムをもとに指定した領域Bの辺縁の領域関係をより詳細に判断する例を示す。
図12(A)において、撮像者(ユーザ)が液晶表示器17においてマニュプレータを操作して、人物像Mを囲んだ領域Bも含めて画像全体を小ブロックに分割する。CPU11は、各々の小ブロックごとに第1色差Cbおよび第2色差Crのヒストグラムを計算し、隣接する小ブロックと比較する。CPU11は、ヒストグラムの分布が似ている場合、そのブロックも人物像Mの画像データの領域の一部と判断することにより、辺縁部をより詳細に決める。
Second filter processing (fourth example)
Similar to the method illustrated in FIGS. 11A and 11B, a method for easily blurring an image by the method shown in FIGS. 12A and 12B as the second filter processing (fourth example). State.
FIGS. 12A and 12B show, as the second filter processing (fourth example), the person (user) of the
In FIG. 12A, the captured image is divided into blocks as indicated by broken lines using a manipulator (not shown) in the liquid crystal display 17, and the area B designated by the
In FIG. 12A, the photographer (user) operates the manipulator on the liquid crystal display 17 to divide the entire image including the region B surrounding the person image M into small blocks. The
その方法の処理例を図13に示す。図13では第1色差Cbおよび第2色差Crの色差ヒストグラムをH1,H2とし、CPU11は、各々H1,H2のグラフでのピーク値を求めておく。
CPU11は、第1および第2色差ヒストグラムH1,H2でのピーク位置がお互いに近接した値であれば小ブロックH1,H2は同じ画像データを含むと判断する。このとき、画像撮像装置1のCPU11において、必ずしも画像メモリ12に保存された画像全体を走査する必要はなく、ユーザによって指定された領域を含んでその外側を大きく含む領域だけを小ブロックに分けてヒストグラムを計算してもよい。
A processing example of the method is shown in FIG. In FIG. 13, the color difference histograms of the first color difference Cb and the second color difference Cr are H1 and H2, and the
If the peak positions in the first and second color difference histograms H1 and H2 are values close to each other, the
図12、図13に示す方法でも、図11に示した方法と同様、画像データ1画面を小ブロックに分割して各ブロックの距離を計測する機構、たとえば、距離計測装置3が不要であり、任意に撮像した1枚の画像データからユーザが指定した領域とそれ以外の領域との2つの領域に分離してボケ処理を適用できるため、画像撮像装置1の処理と構成が非常に簡単になるという利点を示す。
12 and 13, similarly to the method shown in FIG. 11, a mechanism for dividing the
第2実施の形態
本発明の画像撮像装置の第2実施の形態として、距離計測装置3を用いる場合について述べる。
Second Embodiment A case where a
第2実施の形態(第1例)
図14は本発明の第2実施の形態の第1例の処理内容を示す図であり、画像撮像装置1の距離計測装置3に赤外線(IR)送受信機を用いた例である。受信機は小型のCCDラインセンサを用いることができる。IR送信機は小型で高速でスキャン可能である。
本例では、IR送信機とその赤外線を検出するセンサにより被撮像空間Sの距離Dを高速で測り、CPU11がブロック毎に距離に応じたグループ分けをする。
画像撮像装置1から各ブロックまでの距離Dは三角測量の方法により図14に示した式で、CPU11において計算する。
Second embodiment (first example)
FIG. 14 is a diagram showing the processing contents of the first example of the second embodiment of the present invention, in which an infrared (IR) transceiver is used for the
In this example, the distance D of the imaged space S is measured at high speed by an IR transmitter and a sensor that detects infrared rays, and the
The distance D from the
たとえば、IR送信機の走査周波数は10kHz程度で動作すればよい。10kHz(1ブロック当たり、100μs)で走査すると仮定すると、被撮像空間Sの画像全体を走査する時間は、12M(メガ)画素の場合でも、2961ブロックx100μs=0.1秒であり、実用上、距離測定による時間遅延は特に問題にならない。
このように距離計測装置3を用いて被撮像空間Sの各被写体までの距離を高速に計測することができる。距離測定結果はCPU11によりテーブルメモリ15に保存されて、上述した処理に使用される。なお、上述したように、距離計測装置3による距離データは各ブロックごとであるので、テーブルメモリ15のメモリ容量は少なくてよい。
For example, the IR transmitter may be operated at a scanning frequency of about 10 kHz. Assuming that scanning is performed at 10 kHz (100 μs per block), the time for scanning the entire image of the imaged space S is 2961 blocks × 100 μs = 0.1 seconds even in the case of 12 M (mega) pixels. Time delay due to distance measurement is not a problem.
In this way, the distance to the subject in the imaging space S can be measured at high speed using the
第2実施の形態(第2例)
本発明の画像撮像装置の第2実施の形態の第2例として図15を参照して述べる。
図15はIRの他の走査方法を示す。この方法では、距離計測装置3として垂直の棒状(線状)のIRを図1に図解した被写体空間Sに放射し、それを撮像したデータを用いてCPU11が図15に示すような、各ブロックごとの距離Dの計算を行う。
この方法では水平方向の走査が1回で済むためより距離測定時間が高速である。この方式ではセンサは小型の面センサを使用すればよい。
なお、面センサを使用せず、撮像に用いるCCD23を使用してもよいが、その場合は距離計測時のみIRフィルタを使用しないように移動する機構(図示せず)を使用する。
Second embodiment (second example)
A second example of the second embodiment of the image pickup apparatus of the present invention will be described with reference to FIG.
FIG. 15 shows another IR scanning method. In this method, as a
In this method, the distance measurement time is faster because only one horizontal scan is required. In this method, a small surface sensor may be used as the sensor.
Note that the
第2実施の形態(第3例)
本発明の画像撮像装置の第2実施の形態の第3例として図16を参照して述べる。
図16は距離計測装置3として超音波送受信機を使用した例を示す図である。超音波送信機は超音波パルスを送り出す。この例示においては距離を測るため大きな出力は不要となり、送信機は小型化可能のため高速でスキャン可能である。
第2実施の形態の第3例においては、超音波パルス送受信機により高速で被撮像空間Sの距離Dを測り、ブロック毎に距離のグループ分けをする。
音速が約330m/秒であることから、走査周波数は数10Hz程度となる。 音速を330m/秒、画像撮像装置1から被撮像空間Sの撮像対象の物体までのパルス伝播時間(往復)をdtと仮定すると、画像撮像装置1から被撮像空間Sの被写体までの距離Dは次のように求めることができる。単位時間1msでの伝播距離deltaと、画像撮像装置1から被写体までの距離Dは次のようになる。
Second embodiment (third example)
A third example of the second embodiment of the image pickup apparatus of the present invention will be described with reference to FIG.
FIG. 16 is a diagram illustrating an example in which an ultrasonic transceiver is used as the
In the third example of the second embodiment, the distance D of the imaging space S is measured at high speed by an ultrasonic pulse transceiver, and the distances are grouped for each block.
Since the sound speed is about 330 m / second, the scanning frequency is about several tens of Hz. Assuming that the sound velocity is 330 m / second and the pulse propagation time (reciprocation) from the
delta=330m/1000(ms)=33cm/1ms
D=330mx(dt/2)
delta = 330 m / 1000 (ms) = 33 cm / 1 ms
D = 330 mx (dt / 2)
たとえば、dt=10msの場合、計測された時間は往復時間であるから、片道伝搬時間はdt/2=5msである。5msで音波が進む距離は次のようになる。 For example, when dt = 10 ms, the measured time is a round trip time, so the one-way propagation time is dt / 2 = 5 ms. The distance traveled by the sound wave in 5 ms is as follows.
D=(330m/s)x5ms
=330mx(5/1000)sec
=1.65m
D = (330 m / s) × 5 ms
= 330mx (5/1000) sec
= 1.65m
被写体の有効距離(最大計測距離)Dの最大をどの程度にとるかにより1ブロックのあたりに必要な計測時間で決まるが、最大計測距離Dを最大5m程度にとれば上記値で十分である。最大計測距離がそれ以上の場合、ぼかし効果は必要ではなくなるであろうと考えられる。
最大計測距離Dを5mとすれば、音波伝播時間は5m/330m=15msとなる。撮影する前の余裕時間を1秒と仮定して、1秒÷0.015秒=66ブロックに分割可能であり、十分な精度を持つ。
超音波は、赤外線に比較して拡散すると、この場合、1画面全体を分ける小ブロックの画素数を、赤外線を用いて距離を測定する場合に比べて大きく設定すればよい。
Depending on how much the effective distance (maximum measurement distance) D of the subject is to be maximized, it is determined by the measurement time required per block. However, if the maximum measurement distance D is about 5 m at maximum, the above value is sufficient. It is considered that the blur effect will not be necessary if the maximum measurement distance is longer.
If the maximum measurement distance D is 5 m, the sound wave propagation time is 5 m / 330 m = 15 ms. Assuming an extra time before photographing of 1 second, it can be divided into 1 second ÷ 0.015 seconds = 66 blocks, and has sufficient accuracy.
When the ultrasonic wave is diffused as compared with the infrared ray, in this case, the number of pixels of the small block that divides the entire screen may be set larger than that when the distance is measured using the infrared ray.
第3実施の形態
距離計測装置3を用いず、1回の撮影だけではなく、撮像位置をわずかに変えて2回撮像した画像を用いて、CPU11による演算を行えば、距離情報が得られる。
この場合は、撮像条件を異ならせて2回撮像し、2枚の画像データを得る。
その具体的な方法としては、たとえば、ユーザが第1のモードを設定してレンズ21を第1の向きで撮像し、ユーザが第2のモードを設定してレンズ21の向きを変えて撮像する。あるいは、ユーザが第1のモードを設定したとき、CPU11がレンズ21を第1のズーム比率で撮像し、ユーザが第2のモードを設定したとき、CPU11がレンズ21を第2のズーム比率で撮像する。
CPU11は、このようにして得られた2枚の画像データを用いて距離情報を算出する。
また、2回ではなく焦点距離に応じて適宜回数撮影することにより、より細かい距離情報を取得することができ、距離に応じて画像を複数のグループに区分けすることも可能である。
本実施の形態は距離計測装置3を設ける必要がないという利点がある。
Third Embodiment The distance information can be obtained by performing the calculation by the
In this case, imaging is performed twice with different imaging conditions to obtain two pieces of image data.
As a specific method, for example, the user sets the first mode and images the
The
Further, by capturing an appropriate number of times according to the focal length instead of twice, finer distance information can be acquired, and images can be divided into a plurality of groups according to the distance.
This embodiment has an advantage that it is not necessary to provide the
第4実施の形態
本発明の第4実施の形態として、図17〜21を参照して、バンドパスフィルタを使用したオートフォーカス(AF)装置で被撮像空間Sの3次元情報を得てぼかしフィルタ機能を作用させる方法を述べる。
図17にCCD23等の撮像素子から得られる画像空間データの例を示す。被撮像空間Sを撮像したCCD23からの撮像データの大きさを横2400画素、縦1600画素とし、この1画面を仮想的に、図18に示すように、1ブロック=縦16画素x横16画素の複数のブロックに分ける。
この小領域(ブロック)の画素データに対して図19に示す水平方向(空間周波数方向)において、図2に図解したCPU11は第1周波数f1と第2周波数f2との間に大きな減衰度を持つバンドパスフィルタを作用させる(適用する)。このバンドパスフィルタの特性は、たとえば、テーブルメモリ15に格納されている。
CPU11は前記バンドパスフィルタを適用させた結果を加算していく。そうすると、当該小ブロック内部の画像に対して焦点が合って来ると、画像の空間周波数の高周波成分が増加していくため、加算結果は図20に示すように焦点が合う位置に近づくにつれて増加し、丁度焦点が合った位置で振幅が最大になる。他方、焦点位置が再びずれていくと出力(振幅)は減少する。
Fourth Embodiment As a fourth embodiment of the present invention, referring to FIGS. 17 to 21, a three-dimensional information of the imaged space S is obtained by an autofocus (AF) device using a bandpass filter, and a blur filter is obtained. Describes how to make the function work.
FIG. 17 shows an example of image space data obtained from an image sensor such as the
The
The
画像データ1画面を図17に示すように小ブロックに仮想的に分割して左上から右下にかけて番号を付けておく。図17の場合、240個の仮想的な小ブロックが出来る。
図21を参照して、CPU11が空間の各小ブロックをどのようにグループ分けするかを説明する。この例では画像撮像装置1からの距離Rを大きく3つにグループ分けする場合を考える。
ステップ11において、CPU11はレンズ21の位置を一番遠距離の焦点位置に設定する。ステップ12において、CPU11は1画面の小ブロック全部に対してAF機構25からのオートフォーカス出力データを計算し、240個の値をメモリ13に保存する。オートフォーカス出力データは被写体までの距離を示している。この値を第1距離R1でのAFデータとする。
As shown in FIG. 17, one screen of image data is virtually divided into small blocks and numbered from the upper left to the lower right. In the case of FIG. 17, 240 virtual small blocks are formed.
With reference to FIG. 21, how the
In
ステップ13において、CPU11はレンズ21の位置を焦点距離R2に移動する。そしてその位置で再び画面の小ブロック全部に対してAF機構25からのオートフォーカス出力データを計算し、240個の値をメモリ13に保存する。この値を第2距離R2でのAFデータとする。
In
ステップ14において、CPU11は距離R3まで上述した処理を行う。すなわち、CPU11は次に、レンズ21の位置を焦点距離R3に移動する。そしてその位置で再び画面の小ブロック全部に対してAF機構25からのオートフォーカス出力データを計算し、240個の値をメモリに保存する。この値を距離R3でのAFデータとする。
In step 14, the
ステップ15において、CPU11は距離R=R1〜R3に対して計算を完了したあと、各小ブロック毎に距離R1〜R3の大小関係を計算し、各々のブロックを一番大きな値を与えるグループに区分する。たとえば、小ブロック1についてRl>R2>R3ならば、CPU11は小ブロック1はグループ1に属するものとして区分する。又、小ブロック2がR2>Rl>R3ならば、CPU11は小ブロック2はグループ2に属するものとして区分する。
このようにして240個の小ブロック全てについて大小関係を計算することにより、CPU11は各小ブロックをグループ1〜3に区分する。
もちろん、R1〜R3をもっと細かくしてRl〜R5にすれば、CPU11は、より細かい距離の分類が可能である。
In
Thus, by calculating the magnitude relationship for all 240 small blocks, the
Of course, if R1 to R3 are further refined to R1 to R5, the
一方、このような小ブロックのAF計算は画像撮像装置1、たとえば、電子カメラ装置の操作者(ユーザ)には直接には見せる(認識させる)必要は無く、ユーザはファインダの中または液晶表示器17の中に図17に示すようなユーザが使用するAFウィンドウ(200)が表示される。ユーザはこのウィンドウを被写体の一番焦点を合わせたいところに持っていく。画像撮像装置1、たとえば、電子カメラ装置のCPU11中ではこのようなAFウィンドウより更に細かいウィンドウを使用して距離計算を行っているため、ユーザが使用するAFウィンドウのデータは別に計算する必要はなく、CPU11はAFウィンドウ(200)に属する前記小ブロックのAF値を加算することにより当該ウィンドウのAF値を求めることができる。
ただし、合焦点位置をもっと細かく求めるため、CPU11は前記小ブロックのAF計算で得られたAFウィンドウ(200)付近でのR1〜R3の概略位置データを元に合焦点位置を少し細かく得るようにレンズ位置を調整すればよい。
On the other hand, such small block AF calculation does not need to be directly shown (recognized) by the operator (user) of the
However, in order to obtain the in-focus position more finely, the
ここで、第1〜第4の実施の形態では、複数のグループに画像データを区分けした後、個別に画像処理を施した後、これらを合成することで所望する画像を得るものであるが、本発明はこれに限定されず、画像データのグループ毎に同時または順次画像処理を行い、合成することなく所望する画像を得るようにしてもよい。
また、静止画のみではなく動画にも適用可能であることはいうまでもない。
また、本実施の形態では距離に応じて3種類のグループに分けたがこれに限定されず、2グループに分けたものであってもよい(合焦グループと背景グループまたは合焦グループと前景グループなど)。
また、3種類ではなく、多数のグループに分けてもよいばかりか、距離に応じて、領域毎に異なる処理を施すものであってもよい。この場合は、処理が非常に煩雑となるが、より好ましい画像データを得ることができる。
Here, in the first to fourth embodiments, the image data is divided into a plurality of groups, and after image processing is individually performed, a desired image is obtained by combining them. The present invention is not limited to this, and image processing may be performed simultaneously or sequentially for each group of image data to obtain a desired image without being combined.
Needless to say, it is applicable not only to still images but also to moving images.
In the present embodiment, the three groups are divided according to the distance. However, the present invention is not limited to this, and the group may be divided into two groups (focus group and background group or focus group and foreground group). Such).
Further, instead of the three types, it may be divided into a large number of groups, or different processing may be performed for each region according to the distance. In this case, the processing becomes very complicated, but more preferable image data can be obtained.
本発明の実施に際しては上述した種々の実施の形態を適宜組み合わせることができる。 In carrying out the present invention, the various embodiments described above can be combined as appropriate.
以上説明したように、本実施の形態によれば、焦点深度が深くボケ味をだしずらいレンズを用いた撮像装置においても、被写体空間における被写体各部の前後距離を予め計測しておくことにより、被写体空間を3次元的な領域に分割し、各々の領域に異なる周波数特性のフィルタを作用させることにより任意のボケ味の画像を作成することができる。 As described above, according to the present embodiment, even in an imaging apparatus using a lens with a large depth of focus and difficult to blur, by measuring the front-rear distance of each part of the subject in the subject space, By dividing the subject space into three-dimensional regions and applying filters having different frequency characteristics to each region, an image with an arbitrary blur can be created.
また、本実施の形態によれば、たとえば、高画素のCCDを用いた画像撮像装置において、得られた画像に立体感が乏しい場合でも、立体感のある画像を提供することができる。 Further, according to the present embodiment, for example, in an image pickup apparatus using a high-pixel CCD, an image with a stereoscopic effect can be provided even when the obtained image has a poor stereoscopic effect.
以上のように、本発明によれば、従来にない画像処理装置、画像撮像装置、さらには画像処理方法を提供することができる。 As described above, according to the present invention, it is possible to provide an unprecedented image processing apparatus, image capturing apparatus, and image processing method.
1…画像撮像装置
10…コンピュータシステム
11…CPU、12…画像メモリ、13…メモリ
14…プログラムメモリ、15…テーブルメモリ
16…外部記憶装置、17…液晶表示器、18…I/F
19…バス
21…レンズ、22…絞り、23…CCD、24…シャッタ
25…AF機構、26…AE機構
3…距離計測装置
DESCRIPTION OF
11 ... CPU, 12 ... image memory, 13 ... memory
14 ... Program memory, 15 ... Table memory
16 ... External storage device, 17 ... Liquid crystal display, 18 ... I / F
DESCRIPTION OF
Claims (16)
被写体までの距離に応じて前記複数の領域に対し異なる空間周波数フィルタを適用するフィルタ手段と、
を備える画像処理装置。 Image dividing means for dividing one screen of image data into a plurality of areas (image data of one screen);
Filter means for applying different spatial frequency filters to the plurality of regions according to the distance to the subject;
An image processing apparatus comprising:
前記撮像した画像データ1画面を(1画面の画像データを)複数の領域に分割する画像分割手段と、
前記分割した各領域の画像データにおける被写体までの距離を検出する距離検出手段と、
被写体までの距離に応じて前記複数の領域に対し異なる空間周波数を適用するフィルタ手段と、
を備える画像撮像装置。 Imaging means for capturing an image of the imaged space;
Image dividing means for dividing the captured image data of one screen into a plurality of regions (image data of one screen);
Distance detecting means for detecting the distance to the subject in the image data of each divided area;
Filter means for applying different spatial frequencies to the plurality of regions according to the distance to the subject;
An image pickup apparatus comprising:
前記分割した複数の領域を少なくとも3つの距離グループに区分する距離区分手段と、
画像データのエッジを強調する第1の2次元空間周波数フィルタと、
画像データの高域を低下させる第2の2次元空間周波数フィルタと、
該第2の空間周波数フィルタの特性よりさらに画像データの高域を低下させる第3の2次元空間周波数フィルタと、
前記区分した第1距離グループの各領域の画像データに前記第1の2次元空間周波数フィルタを適用し、前記区分した第2距離グループの各領域の画像データに前記第2の2次元空間周波数フィルタを適用し、前記区分した第距離3グループの各領域に前記第3の2次元空間周波数を適用するフィルタ処理手段と、
を有することを特徴とする画像処理装置。 Image dividing means for dividing one screen of image data into a plurality of areas;
Distance dividing means for dividing the plurality of divided areas into at least three distance groups;
A first two-dimensional spatial frequency filter that emphasizes edges of image data;
A second two-dimensional spatial frequency filter for reducing the high frequency of the image data;
A third two-dimensional spatial frequency filter that further reduces the high frequency of the image data from the characteristics of the second spatial frequency filter;
The first two-dimensional spatial frequency filter is applied to the image data of each region of the divided first distance group, and the second two-dimensional spatial frequency filter is applied to the image data of each region of the divided second distance group. Filter processing means for applying the third two-dimensional spatial frequency to each region of the divided third group of distances,
An image processing apparatus comprising:
前記撮像手段で得られた画像データ1画面を複数の領域に分割する画像分割手段と、
前記分割した複数の領域を少なくとも2つの距離グループに区分する距離区分手段と、
画像データのエッジを強調する第1の2次元空間周波数フィルタと、
画像データの高域を低下させる第2の2次元空間周波数フィルタと、
前記区分した第1グループの各領域の画像データに前記第1の2次元空間周波数フィルタを適用し、前記区分した第2グループの各領域の画像データに前記第2の2次元空間周波数フィルタを適用するフィルタ処理手段と、
を有することを特徴とする、画像撮像装置。 Imaging means for imaging a subject that has passed through the optical system;
Image dividing means for dividing one screen of image data obtained by the imaging means into a plurality of regions;
Distance dividing means for dividing the plurality of divided areas into at least two distance groups;
A first two-dimensional spatial frequency filter that emphasizes edges of image data;
A second two-dimensional spatial frequency filter for reducing the high frequency of the image data;
The first two-dimensional spatial frequency filter is applied to the image data of each area of the divided first group, and the second two-dimensional spatial frequency filter is applied to the image data of each area of the divided second group. Filtering means for
An image pickup apparatus comprising:
前記距離区分手段は、前記分割した複数の領域を3つの距離グループに区分し、
前記フィルタ処理手段は、前記区分した第1距離グループの各領域の画像データに前記第1の2次元空間周波数フィルタを適用し、前記区分した第2距離グループの各領域の画像データに前記第2の2次元空間周波数フィルタを適用し、前記区分した第3距離グループの各領域に前記第3の2次元空間周波数を適用する、
ことを特徴とする、請求項4に記載の画像撮像装置。 A third spatial frequency filter for further reducing the high frequency of the image data from the characteristics of the second spatial frequency,
The distance dividing means divides the plurality of divided areas into three distance groups,
The filter processing means applies the first two-dimensional spatial frequency filter to the image data of each area of the divided first distance group, and applies the second to the image data of each area of the divided second distance group. Applying the second two-dimensional spatial frequency filter and applying the third two-dimensional spatial frequency to each region of the divided third distance group.
The image imaging device according to claim 4, wherein
前記撮像手段で得られた画像データ1画面を複数の領域に分割する画像分割手段と、
前記分割した複数の領域を少なくとも2つの距離グループに区分する距離区分手段と、
画像データのエッジを強調する第1の2次元空間周波数フィルタと、
画像データの高域を低下させる第2の2次元空間周波数フィルタと、
前記区分した第1グループの各領域の画像データに前記第2の2次元空間周波数フィルタを適用し、前記区分した第2グループの各領域の画像データに前記第1の2次元空間周波数フィルタを適用、前記区分した第距離3グループの各領域に前記第2の2次元空間周波数を適用離するフィルタ処理手段と、
を備えたことを特徴とする、画像撮像装置。 Imaging means for imaging a subject that has passed through the optical system;
Image dividing means for dividing one screen of image data obtained by the imaging means into a plurality of regions;
Distance dividing means for dividing the plurality of divided areas into at least two distance groups;
A first two-dimensional spatial frequency filter that emphasizes edges of image data;
A second two-dimensional spatial frequency filter for reducing the high frequency of the image data;
The second two-dimensional spatial frequency filter is applied to the image data of each area of the divided first group, and the first two-dimensional spatial frequency filter is applied to the image data of each area of the divided second group. Filter processing means for applying and separating the second two-dimensional spatial frequency to each region of the divided third group of distances;
An image pickup apparatus comprising:
前記フィルタ処理手段は、前記区分した第1グループの各領域の画像データに前記第3の2次元空間周波数フィルタに適用し、前記区分した第2グループの各領域の画像データに前記第1の2次元空間周波数フィルタを適用する、
ことを特徴とする、
請求項6に記載の画像撮像装置。 A third two-dimensional spatial frequency filter that further lowers a high frequency than the characteristics of the second spatial frequency filter;
The filter processing means applies the third two-dimensional spatial frequency filter to the image data of each area of the divided first group, and applies the first 2 to the image data of each area of the divided second group. Apply a dimensional spatial frequency filter,
It is characterized by
The image pickup device according to claim 6.
前記距離区分手段は、
前記距離情報生成手段により生成される距離情報を基に、近接した被写体の画像データの領域を第1グループに区分し、
中間の被写体の画像データの領域を第2グループに区分し、
遠方の被写体の画像データの領域を第3グループに区分する、
ことを特徴とする、
請求項4乃至7のいずれかに記載の画像撮像装置。 Further comprising distance information generating means for generating distance information corresponding to the focal length of each of the plurality of regions;
The distance classification means includes
Based on the distance information generated by the distance information generating means, the image data area of the close subject is divided into a first group,
The area of the image data of the intermediate subject is divided into the second group,
Divide the image data area of the distant subject into a third group,
It is characterized by
The image capturing device according to claim 4.
前記複数の領域の内少なくとも1の領域を指示する指示手段と、
前記指示手段で指示された前記領域の距離情報を合焦距離情報として前記距離情報生成手段から得る合焦距離情報取得手段と
をさらに備え、
前記距離区分手段は、前記合焦距離情報取得手段により取得された合焦距離情報と略一致する距離情報を有する画像データの領域又は該合焦距離情報を含む所定の距離範囲内の距離情報を有する画像データの領域を近距離の被写体の画像データの領域または中間の距離の被写体の画像データの領域として区分する、
ことを特徴とする、
請求項7に記載の画像撮像装置。 Distance information generating means for generating distance information corresponding to the focal length of each of the plurality of regions obtained by dividing the one screen;
Indicating means for indicating at least one of the plurality of areas;
In-focus distance information obtaining means for obtaining distance information of the area instructed by the instructing means as in-focus distance information from the distance information generating means, and
The distance classifying unit includes an area of image data having distance information substantially matching the in-focus distance information acquired by the in-focus distance information acquiring unit, or distance information within a predetermined distance range including the in-focus distance information. The image data area is classified as a short-distance subject image data area or an intermediate-distance subject image data area.
It is characterized by
The image capturing device according to claim 7.
前記複数の領域の内少なくとも1の領域を指示する指示手段と、
前記指示手段で指示された前記領域の距離情報を合焦距離情報として前記距離情報生成手段から得る合焦距離情報取得手段と
をさらに備え、
前記距離区分手段は、
前記合焦距離情報取得手段により取得された合焦距離情報と略一致する距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲内の距離情報を有する領域を第1グループに区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より所定遠方範囲内にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より所定遠方範囲内にある距離情報を有する領域を第2グループとして区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より前記所定遠方範囲外にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より前記所定遠方範囲外にある距離情報を有する領域を第3グループとして区分する、
ことを特徴とする、
請求項4乃至7のいずれかに記載の画像撮像装置。 Distance information generating means for generating distance information corresponding to the focal length of each of the plurality of regions obtained by dividing the one screen;
Indicating means for indicating at least one of the plurality of areas;
In-focus distance information obtaining means for obtaining distance information of the area instructed by the instructing means as in-focus distance information from the distance information generating means, and
The distance classification means includes
An area having distance information substantially coincident with the in-focus distance information acquired by the in-focus distance information acquisition means or an area having distance information within a predetermined distance range including the in-focus distance information is classified into a first group. ,
An area having distance information within a predetermined distance range from the focusing distance information acquired by the focusing distance information acquisition means, or distance information within a predetermined distance range from a predetermined distance range including the focusing distance information. Divide the area as a second group,
An area having distance information outside the predetermined distance range from the focusing distance information acquired by the focusing distance information acquisition means, or distance information outside the predetermined distance range from a predetermined distance range including the focusing distance information Divide the region having
It is characterized by
The image capturing device according to claim 4.
前記複数の領域の内少なくとも1の領域を指示する指示手段と、
前記指示手段で指示された前記領域の距離情報を合焦距離情報として前記距離情報生成手段から得る合焦距離情報取得手段と
をさらに備え、
前記距離区分手段は、
前記合焦距離情報取得手段により取得された合焦距離情報と略一致する距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲内の距離情報を有する領域を第2グループに区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より近接した距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より近接した距離情報を有する領域を第1グループとして区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より遠方にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より遠方にある距離情報を有する領域を第3グループとして区分する、
ことを特徴とする、
請求項4乃至7のいずれかに記載の画像撮像装置。 Distance information generating means for generating distance information corresponding to the focal length of each of the plurality of regions obtained by dividing the one screen;
Indicating means for indicating at least one of the plurality of areas;
In-focus distance information obtaining means for obtaining distance information of the area instructed by the instructing means as in-focus distance information from the distance information generating means, and
The distance classification means includes
An area having distance information substantially coincident with the in-focus distance information acquired by the in-focus distance information acquisition means or an area having distance information within a predetermined distance range including the in-focus distance information is classified into a second group. ,
A region having distance information closer to the focus distance information acquired by the focus distance information acquisition means or a region having distance information closer to a predetermined distance range including the focus distance information is classified as a first group. ,
A region having distance information farther than the focus distance information acquired by the focus distance information acquisition means or a region having distance information farther than a predetermined distance range including the focus distance information is defined as a third group. Divide,
It is characterized by
The image capturing device according to claim 4.
前記複数の領域の内少なくとも1の領域を指示する指示手段と、
前記指示手段で指示された前記領域の距離情報を合焦距離情報として前記距離情報生成手段から得る合焦距離情報取得手段と、
第1の撮影モードと第2の撮影モードとを設定するモード設定手段と
をさらに備え、
前記モード設定手段により前記第1モードが設定された場合、前記距離区分手段は、
前記合焦距離情報取得手段により取得された合焦距離情報と略一致する距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲内の距離情報を有する領域を第1グループに区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より所定遠方範囲内にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より所定遠方範囲内にある距離情報を有する領域を第2グループとして区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より前記所定遠方範囲外にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より前記所定遠方範囲外にある距離情報を有する領域を第3グループとして区分し、 前記モード設定手段により前記第2モードが設定された場合、前記割当手段は、
前記合焦距離情報取得手段により取得された合焦距離情報と略一致する距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲内の距離情報を有する領域を第2グループに区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より近接した距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より近接した距離情報を有する領域を第1グループとして区分し、
前記合焦距離情報取得手段により取得された合焦距離情報より遠方にある距離情報を有する領域又は該合焦距離情報を含む所定の距離範囲より遠方にある距離情報を有する領域を第3グループとして区分する、
ことを特徴とする、
請求項4乃至7のいずれかに記載の画像撮像装置。 Distance information generating means for generating distance information corresponding to the focal length of each of the plurality of areas obtained by dividing the one screen;
Indicating means for indicating at least one of the plurality of areas;
In-focus distance information acquisition means for obtaining distance information of the area instructed by the instruction means from the distance information generation means as in-focus distance information;
Mode setting means for setting the first shooting mode and the second shooting mode;
When the first mode is set by the mode setting means, the distance classification means is
An area having distance information substantially coincident with the in-focus distance information acquired by the in-focus distance information acquisition means or an area having distance information within a predetermined distance range including the in-focus distance information is classified into a first group. ,
An area having distance information within a predetermined distance range from the focusing distance information acquired by the focusing distance information acquisition means, or distance information within a predetermined distance range from a predetermined distance range including the focusing distance information. Divide the area as a second group,
An area having distance information outside the predetermined distance range from the focusing distance information acquired by the focusing distance information acquisition means, or distance information outside the predetermined distance range from a predetermined distance range including the focusing distance information When the second mode is set by the mode setting unit, the allocating unit includes:
An area having distance information substantially coincident with the in-focus distance information acquired by the in-focus distance information acquisition means or an area having distance information within a predetermined distance range including the in-focus distance information is classified into a second group. ,
A region having distance information closer to the focus distance information acquired by the focus distance information acquisition means or a region having distance information closer to a predetermined distance range including the focus distance information is classified as a first group. ,
A region having distance information farther than the focus distance information acquired by the focus distance information acquisition means or a region having distance information farther than a predetermined distance range including the focus distance information is defined as a third group. Divide,
It is characterized by
The image capturing device according to claim 4.
前記距離区分手段は、前記画素抽出手段で抽出された画素に関しては前記1の領域と同一のフィルタに区分する、
ことを特徴とする、
請求項9乃至12のいずれかに記載の画像撮像装置。 Pixel extraction means for extracting a pixel having the same color component as the main color component of the one area instructed by the instruction means from an adjacent area of the one area;
The distance classifying unit classifies the pixels extracted by the pixel extracting unit into the same filter as the first region.
It is characterized by
The image imaging device according to claim 9.
請求項8及至13のいずれかに記載の画像撮像装置。 The distance information generation means generates distance information corresponding to the focal length of each of the plurality of regions by a distance measurement sensor, or changes the focal point using the imaging means to shoot a plurality of subject images. The image imaging device according to any one of claims 8 to 13, wherein distance information corresponding to a focal length of each of the plurality of regions is generated from image data of the subject image.
前記複数の領域における被写体までの距離を少なくとも3つの距離グループに区分する距離区分ステップと、
第1距離グループの各領域の画像データにエッジ強調の第1の空間周波数フィルタを適用し、第2距離グループの各領域の画像データに高域低下の第2の空間周波数フィルタを適用し、第3距離グループの各領域の画像データに前記第2の空間周波数フィルタの特性よりさらに高域低下の第3の空間周波数フィルタを適用するフィルタ処理ステップと、
を備えたことを特徴とする、画像処理方法。 An image dividing step for dividing one screen of image data into a plurality of areas;
A distance dividing step of dividing the distance to the subject in the plurality of regions into at least three distance groups;
Applying a first spatial frequency filter for edge enhancement to image data of each region of the first distance group, applying a second spatial frequency filter for lowering high frequency to image data of each region of the second distance group; A filter processing step of applying a third spatial frequency filter having a higher frequency drop than the characteristics of the second spatial frequency filter to the image data of each region of the three-distance group;
An image processing method comprising:
前記撮像した画像データ1画面を複数の領域に分割する画像分割ステップと、
前記複数の領域における被写体までの距離を少なくとも3つの距離グループに区分する距離区分ステップと、
第1距離グループの各領域の画像データにエッジ強調の第1の2次元空間周波数フィルタ又は高域低下の第2の2次元空間周波数のフィルタを適用し、第2距離グループの各領域の画像データに高域低下の第2の2次元空間周波数フィルタ又はエッジ強調の第1の空間周波数フィルタを適用し、第3距離グループの各領域画像データに高域低下の第2の2次元空間周波数フィルタを適用するフィルタ処理ステップと、
を備えたことを特徴とする、画像撮像方法。
An imaging step of capturing an image of a subject that has passed through the optical system;
An image dividing step of dividing the captured image data one screen into a plurality of regions;
A distance dividing step of dividing the distance to the subject in the plurality of regions into at least three distance groups;
The image data of each region of the second distance group is applied to the image data of each region of the first distance group by applying the first two-dimensional spatial frequency filter for edge enhancement or the second two-dimensional spatial frequency filter for lowering the high frequency. 2nd spatial frequency filter of 2nd spatial frequency reduction or the 1st spatial frequency filter of edge emphasis is applied to each area image data of the 3rd distance group, The filtering step to apply,
An image capturing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004251020A JP2006067521A (en) | 2004-08-30 | 2004-08-30 | Image processor, image processing method, image pickup device, and image pickup method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004251020A JP2006067521A (en) | 2004-08-30 | 2004-08-30 | Image processor, image processing method, image pickup device, and image pickup method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006067521A true JP2006067521A (en) | 2006-03-09 |
Family
ID=36113550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004251020A Pending JP2006067521A (en) | 2004-08-30 | 2004-08-30 | Image processor, image processing method, image pickup device, and image pickup method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006067521A (en) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008244831A (en) * | 2007-03-27 | 2008-10-09 | Casio Comput Co Ltd | Device for generating printing data and program |
JP2008250674A (en) * | 2007-03-30 | 2008-10-16 | Hitachi Kokusai Electric Inc | Image processor |
JP2008294785A (en) * | 2007-05-25 | 2008-12-04 | Sanyo Electric Co Ltd | Image processor, imaging apparatus, image file, and image processing method |
JP2009110137A (en) * | 2007-10-29 | 2009-05-21 | Ricoh Co Ltd | Image processor, image processing method, and image processing program |
JP2009251839A (en) * | 2008-04-04 | 2009-10-29 | Hitachi Ltd | Image signal processing circuit, image display apparatus, and image signal processing method |
JP2010281968A (en) * | 2009-06-03 | 2010-12-16 | Canon Inc | Lens device and control method thereof |
JP2011003124A (en) * | 2009-06-22 | 2011-01-06 | Sony Corp | Image processor and image processing program |
EP2390841A1 (en) | 2010-05-26 | 2011-11-30 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
WO2012073575A1 (en) * | 2010-12-03 | 2012-06-07 | シャープ株式会社 | Image processing apparatus, image processing method, and image processing program |
JP2012248001A (en) * | 2011-05-27 | 2012-12-13 | Canon Inc | Image processing apparatus, image processing method, and program |
US8335393B2 (en) | 2009-01-09 | 2012-12-18 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2013020212A (en) * | 2011-07-14 | 2013-01-31 | Canon Inc | Image processing device, imaging system, and image processing system |
WO2013031096A1 (en) * | 2011-08-29 | 2013-03-07 | パナソニック株式会社 | Image processing device, image processing method, program, integrated circuit |
WO2013042440A1 (en) | 2011-09-21 | 2013-03-28 | 富士フイルム株式会社 | Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device |
JP2013090118A (en) * | 2011-10-18 | 2013-05-13 | Olympus Corp | Image processing device, image processing method, and image processing program |
EP2605101A1 (en) * | 2011-12-17 | 2013-06-19 | Valeo Schalter und Sensoren GmbH | Method for displaying images on a display device of a driver assistance device of a motor vehicle, computer program and driver assistance device carrying out the method |
US8471930B2 (en) | 2009-12-16 | 2013-06-25 | Canon Kabushiki Kaisha | Image capturing apparatus and image processing apparatus |
JP2013232751A (en) * | 2012-04-27 | 2013-11-14 | Nikon Corp | Imaging apparatus, image processing apparatus, image processing method, and program |
JP2013236207A (en) * | 2012-05-08 | 2013-11-21 | Nikon Corp | Imaging apparatus, imaging method, and program |
WO2014076836A1 (en) * | 2012-11-19 | 2014-05-22 | 富士機械製造株式会社 | Component mounting apparatus and mount inspection apparatus |
JPWO2012132797A1 (en) * | 2011-03-31 | 2014-07-28 | 富士フイルム株式会社 | Imaging apparatus and imaging method |
WO2014155782A1 (en) * | 2013-03-27 | 2014-10-02 | オリンパス株式会社 | Image processing device, endoscopic device, program and image processing method |
JP2015043495A (en) * | 2013-08-26 | 2015-03-05 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
JP2015135623A (en) * | 2014-01-17 | 2015-07-27 | オリンパス株式会社 | Display device, display method, and program |
WO2015152459A1 (en) * | 2014-04-03 | 2015-10-08 | 삼성전자 주식회사 | Method and device for processing image data |
JP2019197324A (en) * | 2018-05-08 | 2019-11-14 | キヤノン株式会社 | Image processing apparatus and image processing method |
JPWO2018235357A1 (en) * | 2017-06-22 | 2019-12-26 | 日本電気株式会社 | Arithmetic device, arithmetic method and program |
-
2004
- 2004-08-30 JP JP2004251020A patent/JP2006067521A/en active Pending
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008244831A (en) * | 2007-03-27 | 2008-10-09 | Casio Comput Co Ltd | Device for generating printing data and program |
JP2008250674A (en) * | 2007-03-30 | 2008-10-16 | Hitachi Kokusai Electric Inc | Image processor |
JP2008294785A (en) * | 2007-05-25 | 2008-12-04 | Sanyo Electric Co Ltd | Image processor, imaging apparatus, image file, and image processing method |
JP2009110137A (en) * | 2007-10-29 | 2009-05-21 | Ricoh Co Ltd | Image processor, image processing method, and image processing program |
JP2009251839A (en) * | 2008-04-04 | 2009-10-29 | Hitachi Ltd | Image signal processing circuit, image display apparatus, and image signal processing method |
US8335393B2 (en) | 2009-01-09 | 2012-12-18 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2010281968A (en) * | 2009-06-03 | 2010-12-16 | Canon Inc | Lens device and control method thereof |
JP2011003124A (en) * | 2009-06-22 | 2011-01-06 | Sony Corp | Image processor and image processing program |
US8471930B2 (en) | 2009-12-16 | 2013-06-25 | Canon Kabushiki Kaisha | Image capturing apparatus and image processing apparatus |
US8717455B2 (en) | 2010-05-26 | 2014-05-06 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
EP2390841A1 (en) | 2010-05-26 | 2011-11-30 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP5473173B2 (en) * | 2010-12-03 | 2014-04-16 | シャープ株式会社 | Image processing apparatus, image processing method, and image processing program |
US9070223B2 (en) | 2010-12-03 | 2015-06-30 | Sharp Kabushiki Kaisha | Image processing device, image processing method, and image processing program |
WO2012073575A1 (en) * | 2010-12-03 | 2012-06-07 | シャープ株式会社 | Image processing apparatus, image processing method, and image processing program |
JP5640143B2 (en) * | 2011-03-31 | 2014-12-10 | 富士フイルム株式会社 | Imaging apparatus and imaging method |
US8885026B2 (en) | 2011-03-31 | 2014-11-11 | Fujifilm Corporation | Imaging device and imaging method |
JPWO2012132797A1 (en) * | 2011-03-31 | 2014-07-28 | 富士フイルム株式会社 | Imaging apparatus and imaging method |
JP2012248001A (en) * | 2011-05-27 | 2012-12-13 | Canon Inc | Image processing apparatus, image processing method, and program |
US9224193B2 (en) | 2011-07-14 | 2015-12-29 | Canon Kabushiki Kaisha | Focus stacking image processing apparatus, imaging system, and image processing system |
JP2013020212A (en) * | 2011-07-14 | 2013-01-31 | Canon Inc | Image processing device, imaging system, and image processing system |
JPWO2013031096A1 (en) * | 2011-08-29 | 2015-03-23 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Image processing apparatus, image processing method, program, integrated circuit |
CN103201769A (en) * | 2011-08-29 | 2013-07-10 | 松下电器产业株式会社 | Image processing device, image processing method, program, integrated circuit |
WO2013031096A1 (en) * | 2011-08-29 | 2013-03-07 | パナソニック株式会社 | Image processing device, image processing method, program, integrated circuit |
US9025872B2 (en) | 2011-08-29 | 2015-05-05 | Panasonic Intellectual Property Corporation Of America | Image processing device, image processing method, program, and integrated circuit |
JP5544047B2 (en) * | 2011-09-21 | 2014-07-09 | 富士フイルム株式会社 | Image processing apparatus, method and program, stereoscopic imaging apparatus, portable electronic device, printer, and stereoscopic image reproducing apparatus |
WO2013042440A1 (en) | 2011-09-21 | 2013-03-28 | 富士フイルム株式会社 | Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device |
JP2013090118A (en) * | 2011-10-18 | 2013-05-13 | Olympus Corp | Image processing device, image processing method, and image processing program |
EP2605101A1 (en) * | 2011-12-17 | 2013-06-19 | Valeo Schalter und Sensoren GmbH | Method for displaying images on a display device of a driver assistance device of a motor vehicle, computer program and driver assistance device carrying out the method |
JP2013232751A (en) * | 2012-04-27 | 2013-11-14 | Nikon Corp | Imaging apparatus, image processing apparatus, image processing method, and program |
JP2013236207A (en) * | 2012-05-08 | 2013-11-21 | Nikon Corp | Imaging apparatus, imaging method, and program |
WO2014076836A1 (en) * | 2012-11-19 | 2014-05-22 | 富士機械製造株式会社 | Component mounting apparatus and mount inspection apparatus |
JPWO2014076836A1 (en) * | 2012-11-19 | 2017-01-05 | 富士機械製造株式会社 | Component mounting machine and mounting inspection machine |
JP2014188223A (en) * | 2013-03-27 | 2014-10-06 | Olympus Corp | Image processor, endoscope device, program and image processing method |
CN105072968A (en) * | 2013-03-27 | 2015-11-18 | 奥林巴斯株式会社 | Image processing device, endoscopic device, program and image processing method |
WO2014155782A1 (en) * | 2013-03-27 | 2014-10-02 | オリンパス株式会社 | Image processing device, endoscopic device, program and image processing method |
JP2015043495A (en) * | 2013-08-26 | 2015-03-05 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
JP2015135623A (en) * | 2014-01-17 | 2015-07-27 | オリンパス株式会社 | Display device, display method, and program |
WO2015152459A1 (en) * | 2014-04-03 | 2015-10-08 | 삼성전자 주식회사 | Method and device for processing image data |
US10497135B2 (en) | 2014-04-03 | 2019-12-03 | Samsung Electronics Co., Ltd. | Method and device for processing image data |
JPWO2018235357A1 (en) * | 2017-06-22 | 2019-12-26 | 日本電気株式会社 | Arithmetic device, arithmetic method and program |
JP7020485B2 (en) | 2017-06-22 | 2022-02-16 | 日本電気株式会社 | Arithmetic logic unit, arithmetic method and program |
US11580193B2 (en) | 2017-06-22 | 2023-02-14 | Nec Corporation | Computation device, computation method, and program |
JP2019197324A (en) * | 2018-05-08 | 2019-11-14 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP7169768B2 (en) | 2018-05-08 | 2022-11-11 | キヤノン株式会社 | Image processing device, image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006067521A (en) | Image processor, image processing method, image pickup device, and image pickup method | |
US11835702B2 (en) | Medical image processing apparatus, medical image processing method, and medical observation system | |
JP6271990B2 (en) | Image processing apparatus and image processing method | |
JP6288952B2 (en) | Imaging apparatus and control method thereof | |
JP5178553B2 (en) | Imaging device | |
JP6548367B2 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
US9860510B2 (en) | Depth based modification of captured images | |
KR20070121717A (en) | Method of controlling an action, such as a sharpness modification, using a colour digital image | |
JP6838994B2 (en) | Imaging device, control method and program of imaging device | |
JP5230013B2 (en) | Imaging device | |
JPWO2007049634A1 (en) | Imaging apparatus, image processing apparatus, and program | |
US10984550B2 (en) | Image processing device, image processing method, recording medium storing image processing program and image pickup apparatus | |
JP2013005091A (en) | Imaging apparatus and distance information acquisition method | |
JP6739064B1 (en) | Imaging device | |
TWI399972B (en) | Image generating apparatus and program | |
JP2018174502A (en) | Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program | |
JP5144724B2 (en) | Imaging apparatus, image processing apparatus, imaging method, and image processing method | |
JP2015005925A (en) | Image processing apparatus and image processing method | |
CN101557469B (en) | Image processing device and image processing method | |
US9094581B2 (en) | Imaging device and distance information detecting method | |
JP2013175821A (en) | Image processing device, image processing method, and program | |
JP6486453B2 (en) | Image processing apparatus, image processing method, and program | |
JP5744642B2 (en) | Image processing apparatus, image processing method, and program. | |
CN115086558B (en) | Focusing method, image pickup apparatus, terminal apparatus, and storage medium | |
JP2021069004A (en) | Image processing device, image processing method, and program |