JP2015228113A - Image processor and image processing method - Google Patents
Image processor and image processing method Download PDFInfo
- Publication number
- JP2015228113A JP2015228113A JP2014113130A JP2014113130A JP2015228113A JP 2015228113 A JP2015228113 A JP 2015228113A JP 2014113130 A JP2014113130 A JP 2014113130A JP 2014113130 A JP2014113130 A JP 2014113130A JP 2015228113 A JP2015228113 A JP 2015228113A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- filter
- processing
- focal length
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像データの一部の領域を切り出す技術に関するものである。 The present invention relates to a technique for cutting out a partial area of image data.
撮像装置の多画素化に伴い、8K(7680×4320画素)のスーパーハイビジョン(Super Hi−Vision)などの高解像度の画像データを生成することが可能となっている。一方で、出力装置である家庭用テレビは、フルハイビジョン(Full Hi−Vision)が主流であるため、スーパーハイビジョン用の画像をフルハイビジョンの出力装置に出力するには、画像データを加工する必要がある。そのための方法として、例えば、スーパーハイビジョンの画像データの全画角をフルハイビジョンのサイズまで縮小する方法や、スーパーハイビジョン用の画像データから、フルハイビジョンと同じサイズの領域を切り出す方法が考えられる。 With the increase in the number of pixels in the imaging device, it is possible to generate high-resolution image data such as 8K (7680 × 4320 pixels) Super Hi-Vision. On the other hand, full-high-definition (Full Hi-Vision) is the mainstream of home televisions that are output devices, so it is necessary to process image data in order to output a super high-definition image to a full-high-definition output device. is there. As a method for this, for example, a method of reducing the entire angle of view of Super Hi-Vision image data to the size of Full Hi-Vision, or a method of cutting out an area having the same size as Full Hi-Vision from Super Hi-Vision image data.
例えば、特許文献1には、元画像データの中から主被写体の追尾結果に応じて切り出し領域を設定することで、主被写体が動いても主被写体を画角内に収める技術が開示されている。また、切り出し領域だけでなく、画像データに含まれる主被写体のサイズにあわせて切り出し範囲とリサイズ率を設定すれば、常に主被写体を任意のサイズとすることが可能である。この技術を利用すれば、元画像データを生成する際の撮像装置のカメラワーク(ズーム動作やパンニング動作)によらずに、常に主被写体を任意のサイズで、任意の位置に配置した部分画像データを生成することができる。 For example, Patent Document 1 discloses a technique of setting a main subject within an angle of view even if the main subject moves by setting a cutout region according to the tracking result of the main subject from the original image data. . In addition to setting the cutout area and the resizing rate in accordance with the size of the main subject included in the image data as well as the cutout area, the main subject can always be set to an arbitrary size. If this technology is used, partial image data in which the main subject is always arranged in an arbitrary size and at an arbitrary position regardless of the camera work (zoom operation or panning operation) of the imaging device when generating the original image data. Can be generated.
ここで、動画を撮像している最中に撮像装置の焦点距離を変化させると、切り出された部分画像データに含まれる被写体の位置やサイズは一定にすることができるが、部分画像データの背景のぼけ具合が変化してしまうという課題が生じる。 Here, if the focal length of the imaging device is changed while a moving image is being captured, the position and size of the subject included in the extracted partial image data can be made constant, but the background of the partial image data There arises a problem that the degree of blur changes.
図8は、背景のぼけ具合の変化について説明するための図であり、撮像装置の焦点距離をテレ側からワイド側へ変化させた場合を示している。 FIG. 8 is a diagram for explaining a change in the degree of background blur, and shows a case where the focal length of the imaging apparatus is changed from the tele side to the wide side.
被写体と背景の距離の差に変化はない場合には、焦点距離が長いほうが、背景が強くぼけた画像データとなる。そのため、図8に示すように、撮像装置の焦点距離をテレ側からワイド側に変化させると、背景のぼけの程度が徐々に小さくなるため、切り出した部分画像データの背景の鮮鋭度が徐々に増していくことになる。 If there is no change in the difference between the distance between the subject and the background, the longer the focal length, the more the image data is blurred. Therefore, as shown in FIG. 8, when the focal length of the imaging apparatus is changed from the tele side to the wide side, the degree of background blur gradually decreases, so that the sharpness of the background of the clipped partial image data gradually increases. Will increase.
撮像装置で生成した元画像データを表示装置に表示する場合には、テレ側からワイド側への焦点距離の変化に伴って、背景のぼけの程度だけではなく画角の変化も生じているため、観察者に違和感を与えにくい。しかしながら、被写体の位置およびサイズを一定とするために切り出した部分画像データを表示装置に表示する場合には、被写体の位置やサイズに変化が生じていないのにも関わらず、背景のぼけ具合が変化するため、観察者に違和感を与えやすくなってしまう。 When displaying the original image data generated by the imaging device on the display device, not only the degree of blurring of the background but also the change of the angle of view is caused by the change of the focal length from the tele side to the wide side. It is hard to give the observer a sense of incongruity. However, when the partial image data cut out in order to keep the position and size of the subject constant is displayed on the display device, the background blur is not affected even though the position and size of the subject have not changed. Since it changes, it becomes easy to give a strange feeling to an observer.
ゆえに、撮影中に焦点距離が変化した場合であっても、切り出した画像データの背景のぼけ具体の変化を抑制することができる画像処理装置が望まれる。 Therefore, there is a demand for an image processing apparatus that can suppress a specific change in background blur of cut out image data even when the focal length changes during shooting.
上記課題を解決するため、本発明は、第1の画像データの一部を切り出して第2の画像データを生成する切り出し手段と、第2の画像データに対してぼけを付与するためのフィルタ処理を行うフィルタ処理手段を有し、フィルタ処理手段は、第1の画像データを生成するための撮像の際に用いた光学系の焦点距離の変化に応じて、フィルタ処理に用いるフィルタ係数を設定することを特徴とする画像処理装置を提供するものである。 In order to solve the above-described problem, the present invention provides a cut-out unit that cuts out a part of first image data to generate second image data, and a filtering process for adding blur to the second image data. The filter processing means sets the filter coefficient used for the filter processing according to the change in the focal length of the optical system used at the time of imaging for generating the first image data. An image processing apparatus characterized by the above is provided.
本発明によれば、撮影中に焦点距離が変化した場合であっても、切り出した画像データの背景のぼけ具体の変化を抑制することができる画像処理装置を提供することが可能になる。 According to the present invention, it is possible to provide an image processing apparatus that can suppress a specific change in the background blur of cut out image data even when the focal length changes during shooting.
以下に、図面を用いて本発明の実施形態について詳細な説明を行う。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(第1の実施形態)
図1は、本発明の第1の実施形態に掛かる画像処理装置のシステム構成図である。
(First embodiment)
FIG. 1 is a system configuration diagram of an image processing apparatus according to the first embodiment of the present invention.
本実施形態では、撮影時にはテレ側からワイド側への焦点距離の変動があり、撮影時の光学条件は画像と共に記録されているものとする。 In this embodiment, the focal length varies from the tele side to the wide side at the time of shooting, and the optical conditions at the time of shooting are recorded together with the image.
図1において、切り出し部101は、画素数の多い元画像データである第1の画像データに対し、一部の画像を切り出す切り出し処理、および、切り出した画像データを所定サイズ(画素数)にするためのリサイズ処理を行い、第2の画像データを生成する。この第1の画像データは、記録メディアやネットワークを介して取得しても良いし、画像処理装置が撮像ユニットを有しており、この撮像ユニットで撮影して得られた画像データを第1の画像データとして用いてもよい。
In FIG. 1, a
領域分割部102は、距離情報に基づいて、切り出し部101から出力された第2の画像データの領域分割を行う。この距離情報は、撮像装置から取得するものであって、第1の画像データを生成した際の画角内の複数のポイントにおける被写体までの距離情報を示す。撮像装置が位相差方式のAFセンサを備えているいか、あるいは、位相差方式のAFセンサの機能を備えた撮像素子を用いれば、このAFセンサの配置に対応する測距ポイントにおける距離情報を取得することができるため、この距離情報を用いて領域分割を行う。例えば、まず第2の画像データの画素毎に色相を求め、色相が類似し、かつ、隣接する画素をグループ化する。さらに、それぞれのグループ間で、対応する距離情報を比較し、対応する距離情報が近く、かつ、グループ間の距離が閾値以下となるグループを結合することで、被写体ごとの領域に分割することができる。
The
また、撮像装置がAFのためのスキャン動作を行う構成であるならば、コントラスト値に基づいて画角内のそれぞれの領域(画素)における被写体距離を取得することができるため、この距離情報に基づいて被写体ごとの領域に分割することができる。 Also, if the imaging device is configured to perform a scanning operation for AF, the subject distance in each region (pixel) within the angle of view can be acquired based on the contrast value. Can be divided into regions for each subject.
あるいは、合焦画像と非合焦画像のエッジ強度を比較することで被写体距離を取得することも可能である。例えば、合焦位置を変えて撮像された2つの画像データを比較すると、合焦領域のエッジ強度は急激に変化するが、非合焦領域のエッジ強度は余り変化しない。このことからエッジ強度の変化量を基に各領域の距離情報を取得することができる。ただし、距離情報を取得する手段は本発明では限定しない。 Alternatively, the subject distance can be acquired by comparing the edge strengths of the focused image and the non-focused image. For example, when comparing two image data picked up by changing the in-focus position, the edge intensity in the in-focus area changes abruptly, but the edge intensity in the non-in-focus area does not change much. Accordingly, distance information of each region can be acquired based on the amount of change in edge strength. However, the means for acquiring distance information is not limited in the present invention.
フィルタ係数設定部103は、入力画像の距離情報、および、絞り値や焦点距離などの撮影時の光学情報を用いて、領域分割部102で分割された各領域に対するフィルタ係数を決定する。
The filter
フィルタ処理部104は、領域分割部102で分割された各領域に対して、フィルタ係数部103で決定したフィルタ係数を用いて後述するフィルタ処理を行い、出力画像データである第3の画像データを生成する。
The
メモリ110は、元画像データである第1の画像データ105、距離情報106、光学情報107、および、出力画像データである第3の画像データ108を保持し、メモリインターフェース109を介して各処理部とデータ転送を行う。このメモリ110は画像処理装置の内部に備えた内部メモリであっても良いし、メモリインターフェース109を介してアクセス可能な外部メモリであっても良い。
The
図2は、元画像データである第1の画像データから、出力画像データである第3の画像データを生成する処理を説明するための図である。図2において、第1の画像データ410のうち、点線で囲った領域を切り出してリサイズすることで、第2の画像データ401が生成される。
FIG. 2 is a diagram for explaining processing for generating third image data that is output image data from first image data that is original image data. In FIG. 2, the
第2の画像データ401は、領域分割部102により、主被写体を含む領域A、家を含む領域B、木を含む領域C、および、それ以外の領域Dに分割されたものとする。撮像装置は領域Aにピントを合わせており、領域B、領域C、領域Dの順で距離情報が長くなるものとする。
It is assumed that the
画像データ402は光学系がテレ側に設定されている場合の第2の画像データを示し、画像データ403は、画像データ402に対して領域別のフィルタ処理を行うことで生成された第3の画像データを示す。
The
また、画像データ404は光学系がワイド側に設定されている場合の第2の画像データを示し、画像データ405は、画像データ404に対して領域別のフィルタ処理を行うことで生成された第3の画像データを示す。画像データ402を生成した際の焦点距離のほうが、画像データ404を生成した際の焦点距離よりも長いため、画像データ402のほうが領域B、領域Cおよび領域Dのぼけの程度が強い。
The
図3(a)は、被写体距離と画像の鮮鋭度の関係を示した図である。被写体距離が合焦面までの距離と一致すれば画像の鮮鋭度が高く(ぼけ量が小さい)、合焦面から離れるほど鮮鋭度が小さくなる(ぼけ量が大きい)ことを表している。図3(b)は、テレ側からワイド側へ焦点距離が変化する場合の被写体距離と、フィルタ処理部104で行うフィルタ処理のカットオフ周波数の関係を示した図である。
FIG. 3A is a diagram showing the relationship between the subject distance and the sharpness of the image. If the subject distance matches the distance to the in-focus surface, the sharpness of the image is high (the amount of blur is small), and the sharpness decreases (the amount of blur is large) away from the in-focus surface. FIG. 3B is a diagram illustrating the relationship between the subject distance when the focal length changes from the tele side to the wide side and the cutoff frequency of the filter processing performed by the
焦点距離をテレ側からワイド側へ変化させると、図3(a)に示すように画像の背景領域の鮮鋭度が高くなるので、背景領域のぼけ具合を一定に保つためには、画像の鮮鋭度を下げるフィルタ特性が必要となる。そのため、図3(b)に示すように、合焦面から離れるほど、合焦領域に対するカットオフ周波数よりも低くなるようなフィルタ特性とする。言い換えれば、合焦面に近い領域はぼけ量が小さく、合焦面から離れた領域はぼけ量が大きくなるフィルタ特性である。また、ぼけ具合は被写界深度が関係するため、F値に応じて特性を変動させても良い。 When the focal length is changed from the tele side to the wide side, the sharpness of the background area of the image increases as shown in FIG. 3A. Therefore, in order to keep the blur of the background area constant, the sharpness of the image Filter characteristics that lower the degree are required. Therefore, as shown in FIG. 3B, filter characteristics are set such that the farther away from the in-focus plane, the lower the cut-off frequency for the in-focus area. In other words, the filter characteristic is such that the area near the in-focus plane has a small amount of blur and the area away from the in-focus plane has a large amount of blur. In addition, since the depth of field is related to the degree of blur, the characteristics may be changed according to the F value.
次に、本実施形態にかかる画像処理装置の動作について、図4に示すフローチャートを用いて説明する。 Next, the operation of the image processing apparatus according to the present embodiment will be described with reference to the flowchart shown in FIG.
ステップS401において、切り出し部101は、メモリインターフェース109を介して、メモリ110に記憶されている元画像データ105を第1の画像データとして読み込む。
In step S401, the
ステップS402において、切り出し部101は、入力された第1の画像データに対して切り出し処理およびリサイズ処理を行い、第2の画像データを生成する。この時、切り出し部101は、被写体のサイズが一定となるように、切り出し位置とリサイズ率でそれぞれの処理を行う。また、外部から主被写体を指定する指示を行い、指示された被写体が画角の中心となるような切り出し位置、および、この被写体が所定サイズとなるリサイズ率を設定するようにしても良い。つまり、焦点距離が変化した場合には、元画像データのサイズに対する被写体のサイズが変化するため、これを相殺するように切り出し位置とリサイズ率が変更される。
In step S402, the
ステップS403において、領域分割部102は、元画像データ105を撮像する際に得られた距離情報106を読み出して、切り出し部101で生成された第2の画像データに対する領域分割を行う。
In step S <b> 403, the
ステップS404において、フィルタ係数設定部103は、メモリ110から読み出した距離情報106と、絞りのF値の情報や焦点距離の情報を含む光学情報107を読み出して、それぞれの背景領域に対するフィルタ処理のカットオフ周波数を決定する。図3(b)に示すように、領域Aは合焦面であり、領域B、領域C、領域Dの順で被写体距離が長くなるため、領域Aのカットオフ周波数を最も高くなるようにフィルタ係数fc[A]を設定する。そして、領域B、領域C、領域Dの順でカットオフ周波数が小さくなるように、各背景領域に対するカットオフ周波数fc[B]、fc[C]、fc[D]を設定する。このカットオフ周波数が小さくなるほど、後段のフィルタ処理部104によるフィルタ処理によって、ぼけの程度が大きくなる画像処理が行われることになる。また、焦点距離の違いによる背景のぼけ具合の違いを抑制するため、焦点距離がワイド端に近くなるほど、背景領域に対するカットオフ周波数が徐々に小さくなるようにフィルタ係数H[B]、H[C]、H[D]を設定する。勿論、背景のぼけ具体に影響を与える絞りのF値が変化したのであれば、このF値の変化の影響も抑制するようにフィルタ係数を変更することが望ましい。
In step S404, the filter
ステップS405において、フィルタ処理部104は、フィルタ係数設定部103で設定されたフィルタ特性に応じて、分割した各領域に対してフィルタ処理を行う。図2の画像データ402と画像データ404はともに第2の画像データであるが、画像データ404のほうが、焦点距離がワイド側にあるときに撮像されたものであるため、画像データ404のほうが画像データ402よりも、背景領域のぼけ具合が弱い。
In step S <b> 405, the
しかしならが、上述したように、フィルタ係数設定部103において、この焦点距離の違いによるぼけ具合を抑制するように、焦点距離に応じたフィルタ係数が設定される。よって、画像データ402に対してフィルタ処理して得られた第3の画像データである画像データ403と、画像データ404に対してフィルタ処理して得られた第3の画像データである画像データ405の背景領域のぼけ具体は、ほぼ等しくなる。
However, as described above, the filter
領域毎にフィルタ係数を完全に切り分けてしまうと、領域の境界で画質の変化が目立つ場合があるので、これを目立たなくするために、境界に対するフィルタ係数は、各領域に対するフィルタ係数を重みづけ加算したものを用いるようにしてもよい。 If the filter coefficients are completely separated for each area, the change in image quality may be noticeable at the boundary of the area. To make this inconspicuous, the filter coefficient for the boundary is weighted and added to the filter coefficient for each area. You may make it use what was done.
そして、ステップS507において、第3の画像データは、メモリインターフェース109を介して、出力画像データ108としてメモリ110に出力される。
In step S507, the third image data is output to the
なお、本実施形態では、焦点距離をテレ側からワイド側へ変化させた場合を例にあげて説明を行ったが、当然その逆であってもよい。焦点距離がワイド側からテレ側へ変化する場合には、焦点距離の変化に応じて、背景領域の画像の鮮鋭度があがる(ぼけ具合を小さくする)フィルタ係数を設定することになる。 In the present embodiment, the case where the focal length is changed from the tele side to the wide side has been described as an example, but the reverse may naturally be applied. When the focal length changes from the wide side to the tele side, a filter coefficient is set that increases the sharpness of the image in the background area (reduces the degree of blur) according to the change in the focal length.
以上説明したように、本実施形態によれば、画像内の領域毎に、合焦面から距離と焦点距離に応じたフィルタ係数を用いてフィルタ処理を行うことで、元画像データの焦点距離が変化しても、切り出し画像データの背景領域のぼけ具合を安定させることができる。 As described above, according to the present embodiment, the focal length of the original image data is reduced by performing the filtering process using the filter coefficient corresponding to the distance and the focal length from the focal plane for each region in the image. Even if it changes, the degree of blurring of the background area of the cut-out image data can be stabilized.
(第2の実施形態)
図5は、本発明の第2の実施形態に掛かる画像処理装置のシステム構成図である。本実施形態でも、撮影時にはテレ側からワイド側への焦点距離の変動があるものとする。
(Second Embodiment)
FIG. 5 is a system configuration diagram of an image processing apparatus according to the second embodiment of the present invention. Also in this embodiment, it is assumed that the focal length varies from the tele side to the wide side during shooting.
図5の画像処理装置において、図1の画像処理装置と同一の構成要素については、同じ符号を付与している。図5の画像処理装置は、図1の画像処理装置に対して、周波数解析部511を備え、かつ、フィルタ係数設定部103の代わりにフィルタ係数設定部503を備えている点で異なる。
In the image processing apparatus of FIG. 5, the same components as those of the image processing apparatus of FIG. The image processing apparatus in FIG. 5 differs from the image processing apparatus in FIG. 1 in that it includes a
周波数解析部511は、領域分割された第2の画像データを受け取り、領域ごとに周波数解析を行って周波数成分を算出する。算出された領域ごとの周波数成分はフィルタ係数設定部503に入力される。
The
次に、本実施形態にかかる画像処理装置の動作について、図6に示すフローチャートを用いて説明する。図6に記載されたステップのうち、図4に記載されたステップと同じ符号が付いているステップは、第1の実施形態と同じ処理を行うものであるため、説明を省略する。本実施形態では、図4のステップS404に代えて、ステップS601およびS602を実行するという点で、第1の実施形態と異なる。 Next, the operation of the image processing apparatus according to the present embodiment will be described with reference to the flowchart shown in FIG. Of the steps described in FIG. 6, steps denoted by the same reference numerals as the steps described in FIG. 4 perform the same processing as in the first embodiment, and thus description thereof is omitted. This embodiment is different from the first embodiment in that steps S601 and S602 are executed instead of step S404 in FIG.
ステップS601において、周波数解析部511は、まず、焦点距離がテレ側にある場合の第2の画像データに対して、分割領域ごとに周波数変換を行い、その周波数特性から各領域に最も多く含まれる帯域(ただし、DC成分を除く)を算出する。この画像処理装置が撮像ユニットを有しているならば、焦点距離をテレ側に移動させて画像データを生成するように制御を行ってから、任氏の焦点距離に変更するように構成すればよい。なお、周波数変換手段として、各領域をN×N画素のブロックに分割して、各ブロックに対して離散コサイン変換(DCT)を行い、DCT係数の絶対値総和の最も大きい周波数帯域とする手法が挙げられる。
In step S601, the
ステップS602において、フィルタ係数設定部503が、各領域に最も多く含まれる周波数帯域が所定量だけ減衰するように、領域B、領域Cおよび領域Dのそれぞれに対するカットオフ周波数fc[B]、fc[C]、fc[D]を設定する。
In step S602, the filter
図7は、横軸に周波数、縦軸にフィルタの振幅を表した図であり、それぞれの背景領域に最も多く含まれる周波数帯域と、カットオフ周波数の関係を示す図である。本実施形態では、DC成分から所定量(図7の例では、3dB)だけ減衰する周波数をカットオフ周波数としている。 FIG. 7 is a diagram in which the horizontal axis represents frequency and the vertical axis represents filter amplitude, and is a diagram illustrating the relationship between the frequency band most contained in each background region and the cutoff frequency. In the present embodiment, a frequency that attenuates by a predetermined amount (3 dB in the example of FIG. 7) from the DC component is set as a cutoff frequency.
以上説明したように、本実施形態によれば、画像の領域毎に周波数特性を求め、周波数特性に基づくフィルタ係数を用いてフィルタ処理を行うことで、元画像データの焦点距離が変化しても、切り出し画像データの背景領域のぼけ具合を安定させることができる。 As described above, according to the present embodiment, even if the focal length of the original image data changes, the frequency characteristic is obtained for each region of the image and the filter process is performed using the filter coefficient based on the frequency characteristic. In addition, it is possible to stabilize the blur condition of the background area of the cut-out image data.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101 切り出し部
102 領域分割部
103、503 フィルタ係数設定部
104 フィルタ処理部
109 メモリインターフェース
110 メモリ
511 周波数解析部
DESCRIPTION OF
Claims (12)
前記第2の画像データに対してぼけを付与するためのフィルタ処理を行うフィルタ処理手段を有し、
前記フィルタ処理手段は、前記第1の画像データを生成するための撮像の際に用いた光学系の焦点距離の変化に応じて、前記フィルタ処理に用いるフィルタ係数を設定することを特徴とする画像処理装置。 Clipping means for cutting out part of the first image data and generating second image data;
Filter processing means for performing a filter process for adding blur to the second image data;
The filter processing unit sets a filter coefficient used for the filter processing according to a change in a focal length of an optical system used at the time of imaging for generating the first image data. Processing equipment.
前記フィルタ処理手段は、分割された領域毎に、前記フィルタ係数を設定することを特徴とする請求項1に記載の画像処理装置。 Area dividing means for dividing the second image data into a plurality of areas;
The image processing apparatus according to claim 1, wherein the filter processing unit sets the filter coefficient for each divided region.
前記フィルタ処理手段は、前記周波数解析手段によって解析された周波数特性に応じて、前記フィルタ係数を設定することを特徴とする請求項2または3に記載の画像処理装置。 Frequency analysis means for analyzing frequency characteristics for each of the divided areas;
The image processing apparatus according to claim 2, wherein the filter processing unit sets the filter coefficient according to a frequency characteristic analyzed by the frequency analysis unit.
前記第2の画像データに対してぼけを付与するためのフィルタ処理を行うフィルタ処理工程を有し、
前記フィルタ処理工程では、前記第1の画像データを生成するための撮像の際に用いた光学系の焦点距離の変化に応じて、前記フィルタ処理に用いるフィルタ係数を設定することを特徴とする画像処理方法。 A cutting-out step of cutting out part of the first image data to generate second image data;
A filtering process for performing a filtering process for providing blur to the second image data;
In the filter processing step, a filter coefficient used for the filter processing is set according to a change in a focal length of an optical system used at the time of imaging for generating the first image data. Processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014113130A JP2015228113A (en) | 2014-05-30 | 2014-05-30 | Image processor and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014113130A JP2015228113A (en) | 2014-05-30 | 2014-05-30 | Image processor and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015228113A true JP2015228113A (en) | 2015-12-17 |
Family
ID=54885550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014113130A Pending JP2015228113A (en) | 2014-05-30 | 2014-05-30 | Image processor and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015228113A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107452002A (en) * | 2016-05-31 | 2017-12-08 | 百度在线网络技术(北京)有限公司 | A kind of image partition method and device |
JP2020009074A (en) * | 2018-07-05 | 2020-01-16 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
WO2021236296A1 (en) * | 2020-05-20 | 2021-11-25 | Qualcomm Incorporated | Maintaining fixed sizes for target objects in frames |
WO2022176416A1 (en) * | 2021-02-19 | 2022-08-25 | 富士フイルム株式会社 | Focus control device, lens device, and imaging device |
-
2014
- 2014-05-30 JP JP2014113130A patent/JP2015228113A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107452002A (en) * | 2016-05-31 | 2017-12-08 | 百度在线网络技术(北京)有限公司 | A kind of image partition method and device |
JP2020009074A (en) * | 2018-07-05 | 2020-01-16 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP7199169B2 (en) | 2018-07-05 | 2023-01-05 | キヤノン株式会社 | Image processing device, image processing method, and program |
WO2021236296A1 (en) * | 2020-05-20 | 2021-11-25 | Qualcomm Incorporated | Maintaining fixed sizes for target objects in frames |
US11809998B2 (en) | 2020-05-20 | 2023-11-07 | Qualcomm Incorporated | Maintaining fixed sizes for target objects in frames |
WO2022176416A1 (en) * | 2021-02-19 | 2022-08-25 | 富士フイルム株式会社 | Focus control device, lens device, and imaging device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9898803B2 (en) | Image processing apparatus, image processing method, and recording medium storing image processing program | |
US9591237B2 (en) | Automated generation of panning shots | |
US9992478B2 (en) | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images | |
JP6548367B2 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
JP2015035658A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP2009193421A (en) | Image processing device, camera device, image processing method, and program | |
JP2009251839A (en) | Image signal processing circuit, image display apparatus, and image signal processing method | |
WO2014146605A1 (en) | Video frame processing method | |
US10726524B2 (en) | Low-resolution tile processing for real-time bokeh | |
JP2011166588A (en) | Imaging apparatus and imaging method, and image processing method for the imaging apparatus | |
JP2014115790A (en) | Image processor, information processing method and program | |
JP2011188481A (en) | Imaging device | |
JP2015043495A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2015228113A (en) | Image processor and image processing method | |
KR102003460B1 (en) | Device and Method for dewobbling | |
JP2011035514A (en) | Image processing device and method, and program | |
US10235742B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and non-transitory computer-readable storage medium for adjustment of intensity of edge signal | |
JP2013250946A (en) | Image processing apparatus, and image processing method and program | |
US10861194B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6682184B2 (en) | Image processing method, image processing program, image processing device, and imaging device | |
JP5900273B2 (en) | Focus evaluation value generation device, focus evaluation value generation method, and focus evaluation value generation program | |
US10084950B2 (en) | Image capturing apparatus | |
JP6016546B2 (en) | Imaging device, control method thereof, and control program | |
JP2016213781A (en) | Imaging apparatus, control method thereof, and control program | |
JP6491445B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program |