JP2015228113A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2015228113A
JP2015228113A JP2014113130A JP2014113130A JP2015228113A JP 2015228113 A JP2015228113 A JP 2015228113A JP 2014113130 A JP2014113130 A JP 2014113130A JP 2014113130 A JP2014113130 A JP 2014113130A JP 2015228113 A JP2015228113 A JP 2015228113A
Authority
JP
Japan
Prior art keywords
image data
image
filter
processing
focal length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014113130A
Other languages
Japanese (ja)
Inventor
文貴 中山
Fumitaka Nakayama
文貴 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014113130A priority Critical patent/JP2015228113A/en
Publication of JP2015228113A publication Critical patent/JP2015228113A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of suppressing a change in a blurred shape of the background of segmented image data even in the case that focal distance changes during photographing.SOLUTION: The image processor includes segment means for segmenting a portion of first image data to generate second image data, and filter processing means for performing filter processing for giving blur to the second image data. The filter processing means sets a filter coefficient to be used for filter processing in accordance with a change in focal distance of an optical system used during imaging for generating first image data.

Description

本発明は、画像データの一部の領域を切り出す技術に関するものである。   The present invention relates to a technique for cutting out a partial area of image data.

撮像装置の多画素化に伴い、8K(7680×4320画素)のスーパーハイビジョン(Super Hi−Vision)などの高解像度の画像データを生成することが可能となっている。一方で、出力装置である家庭用テレビは、フルハイビジョン(Full Hi−Vision)が主流であるため、スーパーハイビジョン用の画像をフルハイビジョンの出力装置に出力するには、画像データを加工する必要がある。そのための方法として、例えば、スーパーハイビジョンの画像データの全画角をフルハイビジョンのサイズまで縮小する方法や、スーパーハイビジョン用の画像データから、フルハイビジョンと同じサイズの領域を切り出す方法が考えられる。   With the increase in the number of pixels in the imaging device, it is possible to generate high-resolution image data such as 8K (7680 × 4320 pixels) Super Hi-Vision. On the other hand, full-high-definition (Full Hi-Vision) is the mainstream of home televisions that are output devices, so it is necessary to process image data in order to output a super high-definition image to a full-high-definition output device. is there. As a method for this, for example, a method of reducing the entire angle of view of Super Hi-Vision image data to the size of Full Hi-Vision, or a method of cutting out an area having the same size as Full Hi-Vision from Super Hi-Vision image data.

例えば、特許文献1には、元画像データの中から主被写体の追尾結果に応じて切り出し領域を設定することで、主被写体が動いても主被写体を画角内に収める技術が開示されている。また、切り出し領域だけでなく、画像データに含まれる主被写体のサイズにあわせて切り出し範囲とリサイズ率を設定すれば、常に主被写体を任意のサイズとすることが可能である。この技術を利用すれば、元画像データを生成する際の撮像装置のカメラワーク(ズーム動作やパンニング動作)によらずに、常に主被写体を任意のサイズで、任意の位置に配置した部分画像データを生成することができる。   For example, Patent Document 1 discloses a technique of setting a main subject within an angle of view even if the main subject moves by setting a cutout region according to the tracking result of the main subject from the original image data. . In addition to setting the cutout area and the resizing rate in accordance with the size of the main subject included in the image data as well as the cutout area, the main subject can always be set to an arbitrary size. If this technology is used, partial image data in which the main subject is always arranged in an arbitrary size and at an arbitrary position regardless of the camera work (zoom operation or panning operation) of the imaging device when generating the original image data. Can be generated.

特開2000−261657JP 2000-261657 A

ここで、動画を撮像している最中に撮像装置の焦点距離を変化させると、切り出された部分画像データに含まれる被写体の位置やサイズは一定にすることができるが、部分画像データの背景のぼけ具合が変化してしまうという課題が生じる。   Here, if the focal length of the imaging device is changed while a moving image is being captured, the position and size of the subject included in the extracted partial image data can be made constant, but the background of the partial image data There arises a problem that the degree of blur changes.

図8は、背景のぼけ具合の変化について説明するための図であり、撮像装置の焦点距離をテレ側からワイド側へ変化させた場合を示している。   FIG. 8 is a diagram for explaining a change in the degree of background blur, and shows a case where the focal length of the imaging apparatus is changed from the tele side to the wide side.

被写体と背景の距離の差に変化はない場合には、焦点距離が長いほうが、背景が強くぼけた画像データとなる。そのため、図8に示すように、撮像装置の焦点距離をテレ側からワイド側に変化させると、背景のぼけの程度が徐々に小さくなるため、切り出した部分画像データの背景の鮮鋭度が徐々に増していくことになる。   If there is no change in the difference between the distance between the subject and the background, the longer the focal length, the more the image data is blurred. Therefore, as shown in FIG. 8, when the focal length of the imaging apparatus is changed from the tele side to the wide side, the degree of background blur gradually decreases, so that the sharpness of the background of the clipped partial image data gradually increases. Will increase.

撮像装置で生成した元画像データを表示装置に表示する場合には、テレ側からワイド側への焦点距離の変化に伴って、背景のぼけの程度だけではなく画角の変化も生じているため、観察者に違和感を与えにくい。しかしながら、被写体の位置およびサイズを一定とするために切り出した部分画像データを表示装置に表示する場合には、被写体の位置やサイズに変化が生じていないのにも関わらず、背景のぼけ具合が変化するため、観察者に違和感を与えやすくなってしまう。   When displaying the original image data generated by the imaging device on the display device, not only the degree of blurring of the background but also the change of the angle of view is caused by the change of the focal length from the tele side to the wide side. It is hard to give the observer a sense of incongruity. However, when the partial image data cut out in order to keep the position and size of the subject constant is displayed on the display device, the background blur is not affected even though the position and size of the subject have not changed. Since it changes, it becomes easy to give a strange feeling to an observer.

ゆえに、撮影中に焦点距離が変化した場合であっても、切り出した画像データの背景のぼけ具体の変化を抑制することができる画像処理装置が望まれる。   Therefore, there is a demand for an image processing apparatus that can suppress a specific change in background blur of cut out image data even when the focal length changes during shooting.

上記課題を解決するため、本発明は、第1の画像データの一部を切り出して第2の画像データを生成する切り出し手段と、第2の画像データに対してぼけを付与するためのフィルタ処理を行うフィルタ処理手段を有し、フィルタ処理手段は、第1の画像データを生成するための撮像の際に用いた光学系の焦点距離の変化に応じて、フィルタ処理に用いるフィルタ係数を設定することを特徴とする画像処理装置を提供するものである。   In order to solve the above-described problem, the present invention provides a cut-out unit that cuts out a part of first image data to generate second image data, and a filtering process for adding blur to the second image data. The filter processing means sets the filter coefficient used for the filter processing according to the change in the focal length of the optical system used at the time of imaging for generating the first image data. An image processing apparatus characterized by the above is provided.

本発明によれば、撮影中に焦点距離が変化した場合であっても、切り出した画像データの背景のぼけ具体の変化を抑制することができる画像処理装置を提供することが可能になる。   According to the present invention, it is possible to provide an image processing apparatus that can suppress a specific change in the background blur of cut out image data even when the focal length changes during shooting.

本発明の第1の実施形態に掛かる画像処理装置のシステム構成図である。1 is a system configuration diagram of an image processing apparatus according to a first embodiment of the present invention. 元画像データである第1の画像データから、出力画像データである第3の画像データを生成する処理を説明するための図である。It is a figure for demonstrating the process which produces | generates the 3rd image data which is output image data from the 1st image data which is original image data. 被写体距離と画像の鮮鋭度の関係を示す図、および、被写体距離とフィルタ処理のカットオフ周波数の関係を示す図である。It is a figure which shows the relationship between a subject distance and the sharpness of an image, and a figure which shows the relationship between a subject distance and the cutoff frequency of a filter process. 第1の実施形態にかかる画像処理装置の動作を説明するためのフローチャートである。3 is a flowchart for explaining the operation of the image processing apparatus according to the first embodiment. 本発明の第2の実施形態に掛かる画像処理装置のシステム構成図である。It is a system configuration | structure figure of the image processing apparatus concerning the 2nd Embodiment of this invention. 第2の実施形態にかかる画像処理装置の動作を説明するためのフローチャートである。10 is a flowchart for explaining the operation of the image processing apparatus according to the second embodiment. 横軸に周波数、縦軸にフィルタの振幅を表す図である。It is a figure showing a frequency on a horizontal axis and an amplitude of a filter on a vertical axis. 背景のぼけ具合の変化について説明するための図である。It is a figure for demonstrating the change of the blur condition of a background.

以下に、図面を用いて本発明の実施形態について詳細な説明を行う。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に掛かる画像処理装置のシステム構成図である。
(First embodiment)
FIG. 1 is a system configuration diagram of an image processing apparatus according to the first embodiment of the present invention.

本実施形態では、撮影時にはテレ側からワイド側への焦点距離の変動があり、撮影時の光学条件は画像と共に記録されているものとする。   In this embodiment, the focal length varies from the tele side to the wide side at the time of shooting, and the optical conditions at the time of shooting are recorded together with the image.

図1において、切り出し部101は、画素数の多い元画像データである第1の画像データに対し、一部の画像を切り出す切り出し処理、および、切り出した画像データを所定サイズ(画素数)にするためのリサイズ処理を行い、第2の画像データを生成する。この第1の画像データは、記録メディアやネットワークを介して取得しても良いし、画像処理装置が撮像ユニットを有しており、この撮像ユニットで撮影して得られた画像データを第1の画像データとして用いてもよい。   In FIG. 1, a cutout unit 101 cuts out a part of an image from first image data that is original image data having a large number of pixels, and sets the cutout image data to a predetermined size (number of pixels). Resizing processing is performed to generate second image data. The first image data may be obtained via a recording medium or a network, or the image processing apparatus has an imaging unit, and the image data obtained by photographing with the imaging unit is the first image data. It may be used as image data.

領域分割部102は、距離情報に基づいて、切り出し部101から出力された第2の画像データの領域分割を行う。この距離情報は、撮像装置から取得するものであって、第1の画像データを生成した際の画角内の複数のポイントにおける被写体までの距離情報を示す。撮像装置が位相差方式のAFセンサを備えているいか、あるいは、位相差方式のAFセンサの機能を備えた撮像素子を用いれば、このAFセンサの配置に対応する測距ポイントにおける距離情報を取得することができるため、この距離情報を用いて領域分割を行う。例えば、まず第2の画像データの画素毎に色相を求め、色相が類似し、かつ、隣接する画素をグループ化する。さらに、それぞれのグループ間で、対応する距離情報を比較し、対応する距離情報が近く、かつ、グループ間の距離が閾値以下となるグループを結合することで、被写体ごとの領域に分割することができる。   The area dividing unit 102 divides the second image data output from the cutout unit 101 based on the distance information. This distance information is acquired from the imaging apparatus, and indicates distance information to the subject at a plurality of points within the angle of view when the first image data is generated. If the imaging device is equipped with a phase difference AF sensor or an image sensor having the function of a phase difference AF sensor is used, distance information at the distance measurement point corresponding to the AF sensor arrangement is acquired. Therefore, area division is performed using this distance information. For example, a hue is first obtained for each pixel of the second image data, and adjacent pixels that are similar in hue are grouped. Furthermore, by comparing the corresponding distance information between the groups, and combining the groups in which the corresponding distance information is close and the distance between the groups is equal to or less than the threshold, it is possible to divide into regions for each subject. it can.

また、撮像装置がAFのためのスキャン動作を行う構成であるならば、コントラスト値に基づいて画角内のそれぞれの領域(画素)における被写体距離を取得することができるため、この距離情報に基づいて被写体ごとの領域に分割することができる。   Also, if the imaging device is configured to perform a scanning operation for AF, the subject distance in each region (pixel) within the angle of view can be acquired based on the contrast value. Can be divided into regions for each subject.

あるいは、合焦画像と非合焦画像のエッジ強度を比較することで被写体距離を取得することも可能である。例えば、合焦位置を変えて撮像された2つの画像データを比較すると、合焦領域のエッジ強度は急激に変化するが、非合焦領域のエッジ強度は余り変化しない。このことからエッジ強度の変化量を基に各領域の距離情報を取得することができる。ただし、距離情報を取得する手段は本発明では限定しない。   Alternatively, the subject distance can be acquired by comparing the edge strengths of the focused image and the non-focused image. For example, when comparing two image data picked up by changing the in-focus position, the edge intensity in the in-focus area changes abruptly, but the edge intensity in the non-in-focus area does not change much. Accordingly, distance information of each region can be acquired based on the amount of change in edge strength. However, the means for acquiring distance information is not limited in the present invention.

フィルタ係数設定部103は、入力画像の距離情報、および、絞り値や焦点距離などの撮影時の光学情報を用いて、領域分割部102で分割された各領域に対するフィルタ係数を決定する。   The filter coefficient setting unit 103 determines a filter coefficient for each region divided by the region dividing unit 102 using distance information of the input image and optical information at the time of photographing such as an aperture value and a focal length.

フィルタ処理部104は、領域分割部102で分割された各領域に対して、フィルタ係数部103で決定したフィルタ係数を用いて後述するフィルタ処理を行い、出力画像データである第3の画像データを生成する。   The filter processing unit 104 performs filter processing, which will be described later, on each region divided by the region dividing unit 102 using the filter coefficient determined by the filter coefficient unit 103, and outputs third image data as output image data. Generate.

メモリ110は、元画像データである第1の画像データ105、距離情報106、光学情報107、および、出力画像データである第3の画像データ108を保持し、メモリインターフェース109を介して各処理部とデータ転送を行う。このメモリ110は画像処理装置の内部に備えた内部メモリであっても良いし、メモリインターフェース109を介してアクセス可能な外部メモリであっても良い。   The memory 110 holds first image data 105 that is original image data, distance information 106, optical information 107, and third image data 108 that is output image data, and each processing unit via a memory interface 109. And data transfer. The memory 110 may be an internal memory provided in the image processing apparatus or an external memory accessible via the memory interface 109.

図2は、元画像データである第1の画像データから、出力画像データである第3の画像データを生成する処理を説明するための図である。図2において、第1の画像データ410のうち、点線で囲った領域を切り出してリサイズすることで、第2の画像データ401が生成される。   FIG. 2 is a diagram for explaining processing for generating third image data that is output image data from first image data that is original image data. In FIG. 2, the second image data 401 is generated by cutting out and resizing an area surrounded by a dotted line in the first image data 410.

第2の画像データ401は、領域分割部102により、主被写体を含む領域A、家を含む領域B、木を含む領域C、および、それ以外の領域Dに分割されたものとする。撮像装置は領域Aにピントを合わせており、領域B、領域C、領域Dの順で距離情報が長くなるものとする。   It is assumed that the second image data 401 is divided into a region A including a main subject, a region B including a house, a region C including a tree, and another region D by the region dividing unit 102. The imaging apparatus focuses on the area A, and the distance information becomes longer in the order of the area B, the area C, and the area D.

画像データ402は光学系がテレ側に設定されている場合の第2の画像データを示し、画像データ403は、画像データ402に対して領域別のフィルタ処理を行うことで生成された第3の画像データを示す。   The image data 402 represents second image data when the optical system is set to the tele side, and the image data 403 is a third image generated by subjecting the image data 402 to filtering by region. Image data is shown.

また、画像データ404は光学系がワイド側に設定されている場合の第2の画像データを示し、画像データ405は、画像データ404に対して領域別のフィルタ処理を行うことで生成された第3の画像データを示す。画像データ402を生成した際の焦点距離のほうが、画像データ404を生成した際の焦点距離よりも長いため、画像データ402のほうが領域B、領域Cおよび領域Dのぼけの程度が強い。   The image data 404 indicates second image data when the optical system is set to the wide side, and the image data 405 is generated by subjecting the image data 404 to filter processing for each region. 3 shows image data. Since the focal length when the image data 402 is generated is longer than the focal length when the image data 404 is generated, the image data 402 is more blurred in the regions B, C, and D.

図3(a)は、被写体距離と画像の鮮鋭度の関係を示した図である。被写体距離が合焦面までの距離と一致すれば画像の鮮鋭度が高く(ぼけ量が小さい)、合焦面から離れるほど鮮鋭度が小さくなる(ぼけ量が大きい)ことを表している。図3(b)は、テレ側からワイド側へ焦点距離が変化する場合の被写体距離と、フィルタ処理部104で行うフィルタ処理のカットオフ周波数の関係を示した図である。   FIG. 3A is a diagram showing the relationship between the subject distance and the sharpness of the image. If the subject distance matches the distance to the in-focus surface, the sharpness of the image is high (the amount of blur is small), and the sharpness decreases (the amount of blur is large) away from the in-focus surface. FIG. 3B is a diagram illustrating the relationship between the subject distance when the focal length changes from the tele side to the wide side and the cutoff frequency of the filter processing performed by the filter processing unit 104.

焦点距離をテレ側からワイド側へ変化させると、図3(a)に示すように画像の背景領域の鮮鋭度が高くなるので、背景領域のぼけ具合を一定に保つためには、画像の鮮鋭度を下げるフィルタ特性が必要となる。そのため、図3(b)に示すように、合焦面から離れるほど、合焦領域に対するカットオフ周波数よりも低くなるようなフィルタ特性とする。言い換えれば、合焦面に近い領域はぼけ量が小さく、合焦面から離れた領域はぼけ量が大きくなるフィルタ特性である。また、ぼけ具合は被写界深度が関係するため、F値に応じて特性を変動させても良い。   When the focal length is changed from the tele side to the wide side, the sharpness of the background area of the image increases as shown in FIG. 3A. Therefore, in order to keep the blur of the background area constant, the sharpness of the image Filter characteristics that lower the degree are required. Therefore, as shown in FIG. 3B, filter characteristics are set such that the farther away from the in-focus plane, the lower the cut-off frequency for the in-focus area. In other words, the filter characteristic is such that the area near the in-focus plane has a small amount of blur and the area away from the in-focus plane has a large amount of blur. In addition, since the depth of field is related to the degree of blur, the characteristics may be changed according to the F value.

次に、本実施形態にかかる画像処理装置の動作について、図4に示すフローチャートを用いて説明する。   Next, the operation of the image processing apparatus according to the present embodiment will be described with reference to the flowchart shown in FIG.

ステップS401において、切り出し部101は、メモリインターフェース109を介して、メモリ110に記憶されている元画像データ105を第1の画像データとして読み込む。   In step S401, the cutout unit 101 reads the original image data 105 stored in the memory 110 via the memory interface 109 as first image data.

ステップS402において、切り出し部101は、入力された第1の画像データに対して切り出し処理およびリサイズ処理を行い、第2の画像データを生成する。この時、切り出し部101は、被写体のサイズが一定となるように、切り出し位置とリサイズ率でそれぞれの処理を行う。また、外部から主被写体を指定する指示を行い、指示された被写体が画角の中心となるような切り出し位置、および、この被写体が所定サイズとなるリサイズ率を設定するようにしても良い。つまり、焦点距離が変化した場合には、元画像データのサイズに対する被写体のサイズが変化するため、これを相殺するように切り出し位置とリサイズ率が変更される。   In step S402, the cutout unit 101 performs cutout processing and resizing processing on the input first image data to generate second image data. At this time, the cutout unit 101 performs each process at the cutout position and the resizing ratio so that the size of the subject is constant. Alternatively, an instruction to designate the main subject may be given from the outside, and a cutout position where the designated subject is the center of the angle of view and a resizing rate at which the subject becomes a predetermined size may be set. That is, when the focal length changes, the size of the subject with respect to the size of the original image data changes, so that the cutout position and the resizing ratio are changed so as to cancel this.

ステップS403において、領域分割部102は、元画像データ105を撮像する際に得られた距離情報106を読み出して、切り出し部101で生成された第2の画像データに対する領域分割を行う。   In step S <b> 403, the region dividing unit 102 reads the distance information 106 obtained when the original image data 105 is captured, and performs region division on the second image data generated by the clipping unit 101.

ステップS404において、フィルタ係数設定部103は、メモリ110から読み出した距離情報106と、絞りのF値の情報や焦点距離の情報を含む光学情報107を読み出して、それぞれの背景領域に対するフィルタ処理のカットオフ周波数を決定する。図3(b)に示すように、領域Aは合焦面であり、領域B、領域C、領域Dの順で被写体距離が長くなるため、領域Aのカットオフ周波数を最も高くなるようにフィルタ係数fc[A]を設定する。そして、領域B、領域C、領域Dの順でカットオフ周波数が小さくなるように、各背景領域に対するカットオフ周波数fc[B]、fc[C]、fc[D]を設定する。このカットオフ周波数が小さくなるほど、後段のフィルタ処理部104によるフィルタ処理によって、ぼけの程度が大きくなる画像処理が行われることになる。また、焦点距離の違いによる背景のぼけ具合の違いを抑制するため、焦点距離がワイド端に近くなるほど、背景領域に対するカットオフ周波数が徐々に小さくなるようにフィルタ係数H[B]、H[C]、H[D]を設定する。勿論、背景のぼけ具体に影響を与える絞りのF値が変化したのであれば、このF値の変化の影響も抑制するようにフィルタ係数を変更することが望ましい。   In step S404, the filter coefficient setting unit 103 reads the distance information 106 read from the memory 110 and the optical information 107 including the information on the F-number of the aperture and the information on the focal length, and cuts the filter process for each background region. Determine the off frequency. As shown in FIG. 3B, the area A is a focal plane, and the subject distance becomes longer in the order of the area B, the area C, and the area D. Therefore, the filter is set so that the cut-off frequency of the area A becomes the highest. The coefficient fc [A] is set. Then, the cut-off frequencies fc [B], fc [C], and fc [D] for each background region are set so that the cut-off frequencies decrease in the order of region B, region C, and region D. As the cut-off frequency becomes smaller, the image processing in which the degree of blur becomes larger is performed by the filter processing by the subsequent filter processing unit 104. Further, in order to suppress the difference in blurring of the background due to the difference in focal length, the filter coefficients H [B] and H [C are set such that the cutoff frequency with respect to the background region gradually decreases as the focal length approaches the wide end. ] And H [D] are set. Of course, if the F value of the aperture that specifically affects the background blur is changed, it is desirable to change the filter coefficient so as to suppress the influence of the change in the F value.

ステップS405において、フィルタ処理部104は、フィルタ係数設定部103で設定されたフィルタ特性に応じて、分割した各領域に対してフィルタ処理を行う。図2の画像データ402と画像データ404はともに第2の画像データであるが、画像データ404のほうが、焦点距離がワイド側にあるときに撮像されたものであるため、画像データ404のほうが画像データ402よりも、背景領域のぼけ具合が弱い。   In step S <b> 405, the filter processing unit 104 performs a filter process on each divided area according to the filter characteristics set by the filter coefficient setting unit 103. The image data 402 and the image data 404 in FIG. 2 are both the second image data. However, since the image data 404 is captured when the focal length is on the wide side, the image data 404 is the image data. The background area is less blurred than the data 402.

しかしならが、上述したように、フィルタ係数設定部103において、この焦点距離の違いによるぼけ具合を抑制するように、焦点距離に応じたフィルタ係数が設定される。よって、画像データ402に対してフィルタ処理して得られた第3の画像データである画像データ403と、画像データ404に対してフィルタ処理して得られた第3の画像データである画像データ405の背景領域のぼけ具体は、ほぼ等しくなる。   However, as described above, the filter coefficient setting unit 103 sets the filter coefficient corresponding to the focal length so as to suppress the degree of blur due to the difference in focal length. Therefore, image data 403 that is third image data obtained by filtering the image data 402 and image data 405 that is third image data obtained by filtering the image data 404. The blur of the background area is almost equal.

領域毎にフィルタ係数を完全に切り分けてしまうと、領域の境界で画質の変化が目立つ場合があるので、これを目立たなくするために、境界に対するフィルタ係数は、各領域に対するフィルタ係数を重みづけ加算したものを用いるようにしてもよい。   If the filter coefficients are completely separated for each area, the change in image quality may be noticeable at the boundary of the area. To make this inconspicuous, the filter coefficient for the boundary is weighted and added to the filter coefficient for each area. You may make it use what was done.

そして、ステップS507において、第3の画像データは、メモリインターフェース109を介して、出力画像データ108としてメモリ110に出力される。   In step S507, the third image data is output to the memory 110 as output image data 108 via the memory interface 109.

なお、本実施形態では、焦点距離をテレ側からワイド側へ変化させた場合を例にあげて説明を行ったが、当然その逆であってもよい。焦点距離がワイド側からテレ側へ変化する場合には、焦点距離の変化に応じて、背景領域の画像の鮮鋭度があがる(ぼけ具合を小さくする)フィルタ係数を設定することになる。   In the present embodiment, the case where the focal length is changed from the tele side to the wide side has been described as an example, but the reverse may naturally be applied. When the focal length changes from the wide side to the tele side, a filter coefficient is set that increases the sharpness of the image in the background area (reduces the degree of blur) according to the change in the focal length.

以上説明したように、本実施形態によれば、画像内の領域毎に、合焦面から距離と焦点距離に応じたフィルタ係数を用いてフィルタ処理を行うことで、元画像データの焦点距離が変化しても、切り出し画像データの背景領域のぼけ具合を安定させることができる。   As described above, according to the present embodiment, the focal length of the original image data is reduced by performing the filtering process using the filter coefficient corresponding to the distance and the focal length from the focal plane for each region in the image. Even if it changes, the degree of blurring of the background area of the cut-out image data can be stabilized.

(第2の実施形態)
図5は、本発明の第2の実施形態に掛かる画像処理装置のシステム構成図である。本実施形態でも、撮影時にはテレ側からワイド側への焦点距離の変動があるものとする。
(Second Embodiment)
FIG. 5 is a system configuration diagram of an image processing apparatus according to the second embodiment of the present invention. Also in this embodiment, it is assumed that the focal length varies from the tele side to the wide side during shooting.

図5の画像処理装置において、図1の画像処理装置と同一の構成要素については、同じ符号を付与している。図5の画像処理装置は、図1の画像処理装置に対して、周波数解析部511を備え、かつ、フィルタ係数設定部103の代わりにフィルタ係数設定部503を備えている点で異なる。   In the image processing apparatus of FIG. 5, the same components as those of the image processing apparatus of FIG. The image processing apparatus in FIG. 5 differs from the image processing apparatus in FIG. 1 in that it includes a frequency analysis unit 511 and a filter coefficient setting unit 503 instead of the filter coefficient setting unit 103.

周波数解析部511は、領域分割された第2の画像データを受け取り、領域ごとに周波数解析を行って周波数成分を算出する。算出された領域ごとの周波数成分はフィルタ係数設定部503に入力される。   The frequency analysis unit 511 receives the second image data divided into regions and performs frequency analysis for each region to calculate a frequency component. The calculated frequency component for each region is input to the filter coefficient setting unit 503.

次に、本実施形態にかかる画像処理装置の動作について、図6に示すフローチャートを用いて説明する。図6に記載されたステップのうち、図4に記載されたステップと同じ符号が付いているステップは、第1の実施形態と同じ処理を行うものであるため、説明を省略する。本実施形態では、図4のステップS404に代えて、ステップS601およびS602を実行するという点で、第1の実施形態と異なる。   Next, the operation of the image processing apparatus according to the present embodiment will be described with reference to the flowchart shown in FIG. Of the steps described in FIG. 6, steps denoted by the same reference numerals as the steps described in FIG. 4 perform the same processing as in the first embodiment, and thus description thereof is omitted. This embodiment is different from the first embodiment in that steps S601 and S602 are executed instead of step S404 in FIG.

ステップS601において、周波数解析部511は、まず、焦点距離がテレ側にある場合の第2の画像データに対して、分割領域ごとに周波数変換を行い、その周波数特性から各領域に最も多く含まれる帯域(ただし、DC成分を除く)を算出する。この画像処理装置が撮像ユニットを有しているならば、焦点距離をテレ側に移動させて画像データを生成するように制御を行ってから、任氏の焦点距離に変更するように構成すればよい。なお、周波数変換手段として、各領域をN×N画素のブロックに分割して、各ブロックに対して離散コサイン変換(DCT)を行い、DCT係数の絶対値総和の最も大きい周波数帯域とする手法が挙げられる。   In step S601, the frequency analysis unit 511 first performs frequency conversion for each divided region on the second image data when the focal length is on the tele side, and is most frequently included in each region based on the frequency characteristics. The band (excluding the DC component) is calculated. If this image processing apparatus has an imaging unit, the focal length is moved to the tele side and control is performed so as to generate image data. Good. As a frequency conversion means, there is a method in which each region is divided into blocks of N × N pixels, discrete cosine transform (DCT) is performed on each block, and a frequency band having the largest sum of absolute values of DCT coefficients is obtained. Can be mentioned.

ステップS602において、フィルタ係数設定部503が、各領域に最も多く含まれる周波数帯域が所定量だけ減衰するように、領域B、領域Cおよび領域Dのそれぞれに対するカットオフ周波数fc[B]、fc[C]、fc[D]を設定する。   In step S602, the filter coefficient setting unit 503 cuts off the cut-off frequencies fc [B] and fc [for each of the regions B, C, and D so that the frequency band that is contained most in each region is attenuated by a predetermined amount. C] and fc [D] are set.

図7は、横軸に周波数、縦軸にフィルタの振幅を表した図であり、それぞれの背景領域に最も多く含まれる周波数帯域と、カットオフ周波数の関係を示す図である。本実施形態では、DC成分から所定量(図7の例では、3dB)だけ減衰する周波数をカットオフ周波数としている。   FIG. 7 is a diagram in which the horizontal axis represents frequency and the vertical axis represents filter amplitude, and is a diagram illustrating the relationship between the frequency band most contained in each background region and the cutoff frequency. In the present embodiment, a frequency that attenuates by a predetermined amount (3 dB in the example of FIG. 7) from the DC component is set as a cutoff frequency.

以上説明したように、本実施形態によれば、画像の領域毎に周波数特性を求め、周波数特性に基づくフィルタ係数を用いてフィルタ処理を行うことで、元画像データの焦点距離が変化しても、切り出し画像データの背景領域のぼけ具合を安定させることができる。   As described above, according to the present embodiment, even if the focal length of the original image data changes, the frequency characteristic is obtained for each region of the image and the filter process is performed using the filter coefficient based on the frequency characteristic. In addition, it is possible to stabilize the blur condition of the background area of the cut-out image data.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 切り出し部
102 領域分割部
103、503 フィルタ係数設定部
104 フィルタ処理部
109 メモリインターフェース
110 メモリ
511 周波数解析部
DESCRIPTION OF SYMBOLS 101 Cutout part 102 Area division part 103,503 Filter coefficient setting part 104 Filter processing part 109 Memory interface 110 Memory 511 Frequency analysis part

Claims (12)

第1の画像データの一部を切り出して第2の画像データを生成する切り出し手段と、
前記第2の画像データに対してぼけを付与するためのフィルタ処理を行うフィルタ処理手段を有し、
前記フィルタ処理手段は、前記第1の画像データを生成するための撮像の際に用いた光学系の焦点距離の変化に応じて、前記フィルタ処理に用いるフィルタ係数を設定することを特徴とする画像処理装置。
Clipping means for cutting out part of the first image data and generating second image data;
Filter processing means for performing a filter process for adding blur to the second image data;
The filter processing unit sets a filter coefficient used for the filter processing according to a change in a focal length of an optical system used at the time of imaging for generating the first image data. Processing equipment.
前記第2の画像データを複数の領域に分割する領域分割手段を有し、
前記フィルタ処理手段は、分割された領域毎に、前記フィルタ係数を設定することを特徴とする請求項1に記載の画像処理装置。
Area dividing means for dividing the second image data into a plurality of areas;
The image processing apparatus according to claim 1, wherein the filter processing unit sets the filter coefficient for each divided region.
前記領域分割手段は、前記第2の画像データについて得られた被写体距離の情報に基づいて、前記第2の画像データを複数の領域に分割することを特徴とする請求項2に記載の画像処理装置。   3. The image processing according to claim 2, wherein the region dividing unit divides the second image data into a plurality of regions based on subject distance information obtained for the second image data. apparatus. 前記フィルタ処理手段は、合焦面から距離が離れた領域ほど、ぼけの程度が強くなるように前記フィルタ係数を設定することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   4. The image according to claim 1, wherein the filter processing unit sets the filter coefficient so that the degree of blur becomes stronger in a region far from the in-focus plane. 5. Processing equipment. 前記フィルタ処理手段は、前記光学系の焦点距離が短くなるに従い、ぼけの程度が強くなるように前記フィルタ係数を設定することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   5. The image according to claim 1, wherein the filter processing unit sets the filter coefficient so that a degree of blur increases as a focal length of the optical system becomes shorter. Processing equipment. 前記フィルタ処理手段は、前記光学系の絞りに応じて、前記フィルタ係数を設定することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the filter processing unit sets the filter coefficient according to a diaphragm of the optical system. 前記分割された領域毎に周波数特性を解析する周波数解析手段を有し、
前記フィルタ処理手段は、前記周波数解析手段によって解析された周波数特性に応じて、前記フィルタ係数を設定することを特徴とする請求項2または3に記載の画像処理装置。
Frequency analysis means for analyzing frequency characteristics for each of the divided areas;
The image processing apparatus according to claim 2, wherein the filter processing unit sets the filter coefficient according to a frequency characteristic analyzed by the frequency analysis unit.
前記周波数解析手段は、前記光学系が所定の焦点距離である場合に得られた画像データから生成された第2の画像データにおいて、前記分割された領域毎に周波数特性を解析することを特徴とする請求項7に記載の画像処理装置。   The frequency analysis means analyzes frequency characteristics for each of the divided areas in second image data generated from image data obtained when the optical system has a predetermined focal length. The image processing apparatus according to claim 7. 前記周波数解析手段は、前記分割された領域毎に最も多く含まれる周波数帯域を求めることを特徴とする請求項7または8に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the frequency analysis unit obtains a frequency band that is contained most in each divided area. 前記切り出し手段は、前記第1の画像データに含まれる被写体のサイズを一定にするように、切り出し処理とリサイズ処理を行って、前記第2の画像データを生成する請求項1乃至9のいずれか1項に記載の画像処理装置。   The cutout unit performs cutout processing and resizing processing so that the size of a subject included in the first image data is constant, and generates the second image data. The image processing apparatus according to item 1. 第1の画像データの一部を切り出して第2の画像データを生成する切り出し工程と、
前記第2の画像データに対してぼけを付与するためのフィルタ処理を行うフィルタ処理工程を有し、
前記フィルタ処理工程では、前記第1の画像データを生成するための撮像の際に用いた光学系の焦点距離の変化に応じて、前記フィルタ処理に用いるフィルタ係数を設定することを特徴とする画像処理方法。
A cutting-out step of cutting out part of the first image data to generate second image data;
A filtering process for performing a filtering process for providing blur to the second image data;
In the filter processing step, a filter coefficient used for the filter processing is set according to a change in a focal length of an optical system used at the time of imaging for generating the first image data. Processing method.
コンピュータを、請求項1乃至10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 10.
JP2014113130A 2014-05-30 2014-05-30 Image processor and image processing method Pending JP2015228113A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014113130A JP2015228113A (en) 2014-05-30 2014-05-30 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014113130A JP2015228113A (en) 2014-05-30 2014-05-30 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2015228113A true JP2015228113A (en) 2015-12-17

Family

ID=54885550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014113130A Pending JP2015228113A (en) 2014-05-30 2014-05-30 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2015228113A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107452002A (en) * 2016-05-31 2017-12-08 百度在线网络技术(北京)有限公司 A kind of image partition method and device
JP2020009074A (en) * 2018-07-05 2020-01-16 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2021236296A1 (en) * 2020-05-20 2021-11-25 Qualcomm Incorporated Maintaining fixed sizes for target objects in frames
WO2022176416A1 (en) * 2021-02-19 2022-08-25 富士フイルム株式会社 Focus control device, lens device, and imaging device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107452002A (en) * 2016-05-31 2017-12-08 百度在线网络技术(北京)有限公司 A kind of image partition method and device
JP2020009074A (en) * 2018-07-05 2020-01-16 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7199169B2 (en) 2018-07-05 2023-01-05 キヤノン株式会社 Image processing device, image processing method, and program
WO2021236296A1 (en) * 2020-05-20 2021-11-25 Qualcomm Incorporated Maintaining fixed sizes for target objects in frames
US11809998B2 (en) 2020-05-20 2023-11-07 Qualcomm Incorporated Maintaining fixed sizes for target objects in frames
WO2022176416A1 (en) * 2021-02-19 2022-08-25 富士フイルム株式会社 Focus control device, lens device, and imaging device

Similar Documents

Publication Publication Date Title
US9898803B2 (en) Image processing apparatus, image processing method, and recording medium storing image processing program
US9591237B2 (en) Automated generation of panning shots
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP2015035658A (en) Image processing apparatus, image processing method, and imaging apparatus
JP2009193421A (en) Image processing device, camera device, image processing method, and program
JP2009251839A (en) Image signal processing circuit, image display apparatus, and image signal processing method
WO2014146605A1 (en) Video frame processing method
US10726524B2 (en) Low-resolution tile processing for real-time bokeh
JP2011166588A (en) Imaging apparatus and imaging method, and image processing method for the imaging apparatus
JP2014115790A (en) Image processor, information processing method and program
JP2011188481A (en) Imaging device
JP2015043495A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2015228113A (en) Image processor and image processing method
KR102003460B1 (en) Device and Method for dewobbling
JP2011035514A (en) Image processing device and method, and program
US10235742B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and non-transitory computer-readable storage medium for adjustment of intensity of edge signal
JP2013250946A (en) Image processing apparatus, and image processing method and program
US10861194B2 (en) Image processing apparatus, image processing method, and storage medium
JP6682184B2 (en) Image processing method, image processing program, image processing device, and imaging device
JP5900273B2 (en) Focus evaluation value generation device, focus evaluation value generation method, and focus evaluation value generation program
US10084950B2 (en) Image capturing apparatus
JP6016546B2 (en) Imaging device, control method thereof, and control program
JP2016213781A (en) Imaging apparatus, control method thereof, and control program
JP6491445B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program