JP2011239267A - Imaging apparatus and image processing apparatus - Google Patents

Imaging apparatus and image processing apparatus Download PDF

Info

Publication number
JP2011239267A
JP2011239267A JP2010110070A JP2010110070A JP2011239267A JP 2011239267 A JP2011239267 A JP 2011239267A JP 2010110070 A JP2010110070 A JP 2010110070A JP 2010110070 A JP2010110070 A JP 2010110070A JP 2011239267 A JP2011239267 A JP 2011239267A
Authority
JP
Japan
Prior art keywords
filter coefficient
image
image processing
distance
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010110070A
Other languages
Japanese (ja)
Inventor
Wataru Sugawara
渉 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2010110070A priority Critical patent/JP2011239267A/en
Publication of JP2011239267A publication Critical patent/JP2011239267A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus and an image processing apparatus that produce an image depicted gently as a whole while allowing a main subject to be depicted in a strong contrast to its surroundings.SOLUTION: An imaging apparatus and an image processing apparatus comprise: region-information acquisition means acquiring region information of at least one specific region in image data; distance-information-table calculation means, for each pixel, calculating distance information from the at least one specific region based on the region information; filter-coefficient-table calculation means calculating a filter coefficient applied on each pixel based on the distance information; and filtering means filtering based on the filter coefficients. The filter-coefficient-table calculation means calculates higher LPF coefficients as the filter coefficients for pixels having longer distance from the specific region, based on the distance information. If there are multiple specific regions, the distance-information-table calculation means acquires respective distances from the multiple specific regions, from which the shortest distance is selected as the respective distance information for respective pixels.

Description

本発明は、特殊レンズを使用したかのような描写の画像が得られる撮像装置及び画像処理装置に関するものである。   The present invention relates to an imaging apparatus and an image processing apparatus that can obtain an image as if a special lens was used.

一般に、アーティスティックな写真、例えばソフトフォーカスレンズやチルトシフトレンズを用いて撮影できるような写真を撮影しようとすると、それに適した高価なレンズを用意しなければならない。
そこでデジタル処理によって、安価かつ手軽に、上記したようなレンズと似たような効果を画像データに加える技術が考えられ既に知られている。
Generally, when an artistic photograph, for example, a photograph that can be photographed using a soft focus lens or a tilt shift lens is to be photographed, an expensive lens suitable for the photograph must be prepared.
Therefore, a technique for adding an effect similar to the above-described lens to image data at low cost and easily by digital processing is already known.

例えば特許文献1には、画像処理により画像の被写界深度を変更するに際し、所望の被写界深度をユーザに指定させ、指定された被写界深度に応じて被写体のぼけを強調する構成が開示されている。   For example, in Patent Document 1, when changing the depth of field of an image by image processing, a desired depth of field is specified by the user, and blurring of the subject is emphasized according to the specified depth of field. Is disclosed.

しかしながら、特許文献1のような今までの画像処理(デジタルソフトフォーカス処理)では、画像全体に均一なぼかし効果を加えるので、全体的に滲んだ芯のない画像が撮影されるという問題があった。さらに特許文献1に記載の構成では、複数の被写体にぼけの効果を得られないという問題があった。   However, the conventional image processing (digital soft focus processing) as in Patent Document 1 has a problem that a uniform blur effect is applied to the entire image, so that an image without a blurred core is captured as a whole. . Furthermore, the configuration described in Patent Document 1 has a problem that a blur effect cannot be obtained for a plurality of subjects.

本発明は、以上の従来技術における問題に鑑みてなされたものであり、単数または複数の主要被写体には所望の程度芯を残しながらも、その周辺には比較的強い強度のぼかし効果を加えることで、全体的にやわらかな描写の画像を作成しつつ主要被写体をその周辺と比較して強調した描写を可能とする撮像装置及び画像処理装置を提供することを目的とする。   The present invention has been made in view of the above-described problems in the prior art, and while adding a desired degree of core to one or more main subjects, a relatively strong blurring effect is added to the periphery thereof. Thus, an object of the present invention is to provide an imaging apparatus and an image processing apparatus capable of creating an image with a soft depiction as a whole while enabling an image with a main subject to be emphasized by comparing it with its surroundings.

上記課題を解決するために本発明に係る撮像装置及び画像処理装置は、具体的には下記(1)〜(11)に記載の技術的特徴を有する。
(1):入力された画像データを画像処理する画像処理装置であって、前記画像データにおける単数または複数の特定領域の領域情報を取得する領域情報取得手段と、前記画素データにおける各々の画素について、前記単数または複数の特定領域から当該画素までの距離情報を、前記領域情報に基づき算出する距離情報テーブル算出手段と、前記画素データにおける各々の画素にかけるフィルタ処理に用いられるフィルタ係数を、前記距離情報に基づき算出するフィルタ係数テーブル算出手段と、前記フィルタ係数に基づくフィルタ処理を前記画素データにおける各々の画素に施すフィルタ処理手段と、を有し、前記フィルタ係数テーブル算出手段は、前記画像データにおける各々の画素に対し、前記距離情報に基づき、前記特定領域からの距離が大きい画素ほど強いローパスフィルタ係数を前記フィルタ係数として算出し、かつ、前記特定領域に含まれる画素には弱いローパスフィルタ係数ないし弱いハイパスフィルタ係数を前記フィルタ係数として算出し、前記距離情報テーブル算出手段は、前記特定領域が複数ある場合は、前記画素データにおける各々の画素について当該複数の特定領域のそれぞれからの距離を取得し、当該取得された距離の中で最も距離が近いと判断された特定領域からの距離を距離情報として選択することを特徴とする画像処理装置である。
In order to solve the above problems, an imaging apparatus and an image processing apparatus according to the present invention specifically have technical features described in the following (1) to (11).
(1): An image processing apparatus that performs image processing on input image data, and includes region information acquisition means for acquiring region information of one or more specific regions in the image data, and each pixel in the pixel data The distance information table calculating means for calculating the distance information from the single or plural specific areas to the pixel based on the area information, and the filter coefficient used for the filter processing applied to each pixel in the pixel data, A filter coefficient table calculating means for calculating based on the distance information; and a filter processing means for applying a filter process based on the filter coefficient to each pixel in the pixel data, wherein the filter coefficient table calculating means has the image data For each pixel in, based on the distance information, The distance information table calculation is performed by calculating a low-pass filter coefficient that is stronger as a pixel is larger as the filter coefficient and a weak low-pass filter coefficient or a weak high-pass filter coefficient is calculated as the filter coefficient for the pixels included in the specific region. The means acquires the distance from each of the plurality of specific areas for each pixel in the pixel data when there are a plurality of the specific areas, and is determined to be the closest among the acquired distances An image processing apparatus is characterized in that a distance from a specific area is selected as distance information.

(2):前記領域情報は、前記単数または複数の特定領域の位置、形状または大きさを含むことを特徴とする上記(1)に記載の画像処理装置である。 (2) The image processing apparatus according to (1), wherein the area information includes a position, a shape, or a size of the specific area or areas.

(3):前記単数または複数の特定領域の指定、及び、前記領域情報の制御を、ユーザにより入力可能な領域操作手段を有することを特徴とする上記(1)または(2)に記載の画像処理装置である。 (3): The image according to (1) or (2), further including an area operation unit that allows a user to input designation of the specific area or areas and control of the area information. It is a processing device.

(4):前記特定領域の形状は、円形、楕円または矩形を含むことを特徴とする上記(3)に記載の画像処理装置である。 (4) The image processing apparatus according to (3), wherein the shape of the specific region includes a circle, an ellipse, or a rectangle.

(5):前記特定領域の形状は、矩形であり、かつ、前記画像データにおけるいずれかの両端部を含むことを特徴とする上記(4)に記載の画像処理装置である。 (5) The image processing apparatus according to (4), wherein the shape of the specific area is a rectangle, and includes both ends of the image data.

(6):前記画像データにおける顔検出を行い、顔の位置及びサイズの少なくとも1つを含む顔検出情報を取得する顔検出手段を有し、前記領域情報取得手段は、前記顔検出情報を前記領域情報として取得することを特徴とする上記(1)または(2)に記載の画像処理装置である。 (6): It has face detection means for performing face detection in the image data and acquiring face detection information including at least one of the position and size of the face, and the area information acquisition means The image processing apparatus according to (1) or (2), wherein the image processing apparatus is acquired as region information.

(7):前記フィルタ係数テーブル算出手段は、前記顔検出手段により前記画像データから顔が検出されなかった場合は、当該画像データ全体に同一のローパスフィルタ係数を前記フィルタ係数として算出することを特徴とする上記(6)に記載の画像処理装置である。 (7): The filter coefficient table calculating unit calculates the same low-pass filter coefficient as the filter coefficient for the entire image data when no face is detected from the image data by the face detecting unit. The image processing apparatus according to (6).

(8):前記フィルタ係数テーブル算出手段は、前記顔検出手段により前記画像データから複数の顔が検出された場合は、検出された全ての顔について顔検出評価値に基づき優先度をつけ、前記優先度が高い方から順にローパスフィルタ係数が弱くなるように前記フィルタ係数を算出することを特徴とする上記(6)または(7)に記載の画像処理装置である。 (8): When a plurality of faces are detected from the image data by the face detection unit, the filter coefficient table calculation unit assigns priorities based on face detection evaluation values for all detected faces, and The image processing apparatus according to (6) or (7), wherein the filter coefficient is calculated so that the low-pass filter coefficient becomes weaker in descending order of priority.

(9):前記顔検出評価値は、検出された顔のAF評価値あるいはサイズ、または、顔が検出された位置を含むことを特徴とする上記(8)に記載の画像処理装置である。 (9) The image processing apparatus according to (8), wherein the face detection evaluation value includes an AF evaluation value or size of the detected face or a position where the face is detected.

(10):前記フィルタ処理手段によるフィルタ処理を適用するか否かをユーザが選択できるフィルタ処理適用選択手段を有することを特徴とする上記(1)〜(9)のいずれか1項に記載の画像処理装置である。 (10) The method according to any one of (1) to (9), further including a filter processing application selection unit that allows a user to select whether or not to apply the filter processing by the filter processing unit. An image processing apparatus.

(11):上記(1)〜(10)のいずれか1項に記載の画像処理装置を備えることを特徴とする撮像装置である。 (11): An imaging apparatus comprising the image processing apparatus according to any one of (1) to (10) above.

本発明によれば、画像データをデジタル画像処理でぼかして特殊レンズを使用したような描写の画像が得られると共に、単数または複数の主要被写体を背景から際立たせることができる撮像装置及び画像処理装置を提供することができる。   According to the present invention, an image pickup apparatus and an image processing apparatus capable of obtaining an image of a depiction using a special lens by blurring image data by digital image processing and making one or a plurality of main subjects stand out from the background. Can be provided.

本発明に係る撮像装置の一実施の形態としてのデジタルスチルカメラを示す説明図であり、(a)は正面図であり、(b)は上面図であり、(c)は背面図である。It is explanatory drawing which shows the digital still camera as one Embodiment of the imaging device which concerns on this invention, (a) is a front view, (b) is a top view, (c) is a rear view. 図1のデジタルスチルカメラのシステム構成の概要を示すブロック図である。It is a block diagram which shows the outline | summary of the system configuration | structure of the digital still camera of FIG. 本発明に係る撮像装置におけるフィルタ処理の第1の実施の形態で用いられる画像処理部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image process part used by 1st Embodiment of the filter process in the imaging device which concerns on this invention. 本発明に係る撮像装置におけるフィルタ処理の第1の実施の形態の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of 1st Embodiment of the filter process in the imaging device which concerns on this invention. 第1の実施の形態において指定された特定領域が単数の場合のフィルタ処理の一例を示す概略図である。It is the schematic which shows an example of the filter process in case the specific area designated in 1st Embodiment is single. 第1の実施の形態において指定された特定領域が複数(2つ)の場合のフィルタ処理の一例を示す概略図である。It is the schematic which shows an example of the filter process in case the specific area designated in 1st Embodiment is multiple (two). 本発明に係る撮像装置におけるフィルタ処理の第2の実施の形態で用いられる画像処理部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image process part used by 2nd Embodiment of the filter process in the imaging device which concerns on this invention. 本発明に係る撮像装置におけるフィルタ処理の第2の実施の形態の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of 2nd Embodiment of the filter process in the imaging device which concerns on this invention. 第3の実施の形態において指定された特定領域が矩形である場合のフィルタ処理の一例を示す概略図である。It is the schematic which shows an example of the filter process in case the specific area designated in 3rd Embodiment is a rectangle.

本発明に係る画像処理装置及び撮像装置は、入力された画像データを画像処理し、前記画像データにおける単数または複数の特定領域の領域情報を取得する領域情報取得手段と、前記画素データにおける各々の画素について、前記単数または複数の特定領域から当該画素までの距離情報を、前記領域情報に基づき算出する距離情報テーブル算出手段と、前記画素データにおける各々の画素にかけるフィルタ処理に用いられるフィルタ係数を、前記距離情報に基づき算出するフィルタ係数テーブル算出手段と、前記フィルタ係数に基づくフィルタ処理を前記画素データにおける各々の画素に施すフィルタ処理手段と、を有し、前記フィルタ係数テーブル算出手段は、前記画像データにおける各々の画素に対し、前記距離情報に基づき、前記特定領域からの距離が大きい画素ほど強いローパスフィルタ係数を前記フィルタ係数として算出し、かつ、前記特定領域に含まれる画素には弱いローパスフィルタ係数ないし弱いハイパスフィルタ係数を前記フィルタ係数として算出し、前記距離情報テーブル算出手段は、前記特定領域が複数ある場合は、前記画素データにおける各々の画素について当該複数の特定領域のそれぞれからの距離を取得し、当該取得された距離の中で最も距離が近いと判断された特定領域からの距離を距離情報として選択することを特徴とする。   An image processing apparatus and an imaging apparatus according to the present invention each perform image processing on input image data, acquire area information of one or more specific areas in the image data, and each of the pixel data A distance information table calculation unit that calculates distance information from the specific region or pixels to the pixel for the pixel based on the region information, and a filter coefficient used for a filter process applied to each pixel in the pixel data. Filter coefficient table calculating means for calculating based on the distance information; and filter processing means for applying filter processing based on the filter coefficient to each pixel in the pixel data, wherein the filter coefficient table calculating means For each pixel in the image data, the identification is performed based on the distance information. A pixel having a larger distance from the area calculates a stronger low-pass filter coefficient as the filter coefficient, and calculates a weak low-pass filter coefficient or a weak high-pass filter coefficient as the filter coefficient for the pixels included in the specific area, and the distance When there are a plurality of specific areas, the information table calculation means acquires the distance from each of the plurality of specific areas for each pixel in the pixel data, and the closest distance among the acquired distances The distance from the determined specific area is selected as distance information.

次に、本発明に係る画像処理装置及び撮像装置についてさらに詳細に説明する。
尚、以下に述べる実施の形態は、本発明の好適な実施の形態であるから技術的に好ましい種々の限定が付されているが、本発明の範囲は以下の説明において本発明を限定する旨の記載がない限り、これらの態様に限られるものではない。
Next, the image processing apparatus and the imaging apparatus according to the present invention will be described in more detail.
Although the embodiments described below are preferred embodiments of the present invention, various technically preferable limitations are attached thereto, but the scope of the present invention is intended to limit the present invention in the following description. Unless otherwise described, the present invention is not limited to these embodiments.

《撮像装置の一実施の形態》
先ず、本発明におけるフィルタ処理及び該フィルタ処理に付随する処理並びにこれらを実行するための構成を説明するに先立ち、本発明に係る撮像装置の一実施の形態としてのデジタルスチルカメラの構成について以下に図面を参照して詳細に説明する。
<< One Embodiment of Imaging Device >>
First, prior to describing filter processing, processing associated with the filtering processing, and configuration for executing the filtering processing in the present invention, a configuration of a digital still camera as an embodiment of an imaging apparatus according to the present invention will be described below. This will be described in detail with reference to the drawings.

<デジタルスチルカメラ>
図1は、本発明に係る撮像装置の一実施の形態としてのデジタルスチルカメラ(以下、「デジタルカメラ1」という)を示す説明図であり、(a)は正面図であり、(b)は上面図であり、(c)は背面図である。図2は、図1のデジタルカメラ1のシステム構成の概要を示すブロック図である。
<Digital still camera>
FIG. 1 is an explanatory view showing a digital still camera (hereinafter referred to as “digital camera 1”) as an embodiment of an imaging apparatus according to the present invention, (a) is a front view, and (b) is a front view. It is a top view, (c) is a rear view. FIG. 2 is a block diagram showing an outline of the system configuration of the digital camera 1 of FIG.

(デジタルカメラの外観構成)
本実施の形態のデジタルカメラ1では、図1に示すように、上面側に、レリーズボタン(シャッタボタン)2、電源ボタン3、撮影・再生切替ダイアル4が設けられ、正面(前面)側に、撮影レンズ系5を有する鏡胴ユニット6、ストロボ発光部(フラッシュ)7、光学ファインダ8が設けられている。
(Appearance structure of digital camera)
In the digital camera 1 of the present embodiment, as shown in FIG. 1, a release button (shutter button) 2, a power button 3, and a shooting / playback switching dial 4 are provided on the upper surface side, and on the front (front) side, A lens barrel unit 6 having a photographing lens system 5, a strobe light emitting unit (flash) 7, and an optical viewfinder 8 are provided.

また、デジタルカメラ1では、背面側に、液晶モニタ(LCD)9、前記光学ファインダ8の接眼レンズ部8a、広角側ズーム(W)スイッチ10、望遠側ズーム(T)スイッチ11、メニュー(MENU)ボタン12、確定ボタン(OKボタン)13等が設けられている。このデジタルカメラ1の側面内部には、撮影した画像データを保存するためのメモリカード14(図2参照)を収納するメモリカード収納部15が設けられている。なお、本発明に係る撮像装置の外観は、必ずしも本実施の形態に限定されるものではなく、他の外観を備えていてもよい。   In the digital camera 1, on the rear side, a liquid crystal monitor (LCD) 9, an eyepiece 8a of the optical viewfinder 8, a wide-angle zoom (W) switch 10, a telephoto zoom (T) switch 11, a menu (MENU) A button 12, a confirmation button (OK button) 13, and the like are provided. Inside the side surface of the digital camera 1 is provided a memory card storage unit 15 for storing a memory card 14 (see FIG. 2) for storing captured image data. Note that the appearance of the imaging device according to the present invention is not necessarily limited to the present embodiment, and may have another appearance.

(デジタルカメラのシステム構成)
デジタルカメラ1は、図2に示すように、鏡胴ユニット6の撮影レンズ系5を通して入射される被写体画像が受光面上に結像する固体撮像素子としてのCCD(charge coupled device)20、CCD20から出力される電気信号(アナログRGB画像信号)をデジタル信号に処理するアナログフロントエンド部21(以下、「AFE部21」という)、AFE部21から出力されるデジタル信号を処理する信号処理部22、データを一時的に格納するSDRAM23、制御プログラム等が記憶されたROM24、鏡胴ユニット6を駆動するモータドライバ25、後述する制御部28が適宜データを格納および読み出すことが可能とされたメモリとしてのRAM44等を備えている。
(Digital camera system configuration)
As shown in FIG. 2, the digital camera 1 includes a CCD (charge coupled device) 20 and a CCD 20 as a solid-state imaging device on which a subject image incident through a photographing lens system 5 of the lens barrel unit 6 forms an image on a light receiving surface. An analog front end unit 21 (hereinafter referred to as “AFE unit 21”) that processes the output electrical signal (analog RGB image signal) into a digital signal, a signal processing unit 22 that processes the digital signal output from the AFE unit 21, An SDRAM 23 that temporarily stores data, a ROM 24 that stores a control program, a motor driver 25 that drives the lens barrel unit 6, and a memory that can store and read data appropriately by a control unit 28 described later. A RAM 44 and the like are provided.

撮影レンズ系5は、ズームレンズやフォーカスレンズ等を有する。鏡胴ユニット6は、撮影レンズ系5、絞りユニット26、メカシャッタユニット27を有し、その撮影レンズ系5、絞りユニット26、メカシャッタユニット27の各駆動ユニットは、モータドライバ25によって駆動される。モータドライバ25は、信号処理部22の制御部(CPU)28からの駆動信号により駆動制御される。   The taking lens system 5 includes a zoom lens, a focus lens, and the like. The lens barrel unit 6 includes a photographic lens system 5, an aperture unit 26, and a mechanical shutter unit 27. The drive units of the photographic lens system 5, the aperture unit 26, and the mechanical shutter unit 27 are driven by a motor driver 25. . The motor driver 25 is driven and controlled by a drive signal from a control unit (CPU) 28 of the signal processing unit 22.

CCD20は、結像された被写体像を電気信号(画像データ、画像信号)に変換して出力する固体撮像素子である。このCCD20は、受光面全体が画素(ピクセル)と呼ばれる格子状の領域(以下、画素20aともいう)に分割されていて、デジタルデータである画素データの集合で構成される画像データを、電気信号として出力する。CCD20では、分割された各領域(画素)にベイヤー配列を構成するように色フィルタ(RGB、CYM等)が設けられており、本実施の形態では、ベイヤー配列のRGB原色フィルタ(以下、「RGBフィルタ」という)が配置されている。このため、CCD20は、各画素20aからRGB3原色に対応した電気信号(アナログRGB画像信号)を出力する。なお、CCD20は、固体撮像素子としてのCMOS型イメージセンサ等で構成することもできる。   The CCD 20 is a solid-state imaging device that converts a formed subject image into an electrical signal (image data, image signal) and outputs the electrical signal. The CCD 20 has an entire light receiving surface divided into grid-like areas called pixels (hereinafter also referred to as pixels 20a), and converts image data composed of pixel data, which is digital data, into electrical signals. Output as. In the CCD 20, color filters (RGB, CYM, etc.) are provided in each divided area (pixel) so as to form a Bayer array. In this embodiment, an RGB primary color filter (hereinafter referred to as “RGB”) having a Bayer array is provided. Filter "). Therefore, the CCD 20 outputs an electrical signal (analog RGB image signal) corresponding to the three primary colors of RGB from each pixel 20a. The CCD 20 can also be configured with a CMOS image sensor or the like as a solid-state image sensor.

AFE部21は、CCD20を駆動するTG(タイミング信号発生部)30、CCD20から出力される電気信号(アナログRGB画像信号)をサンプリングするCDS(相関2重サンプリング部)31、CDS31にてサンプリングされた信号のゲインを調整するAGC(アナログ利得制御部)32、AGC32でゲイン調整された信号をデジタル信号(以下、「RAW−RGBデータ」という)に変換するA/D変換部33を有する。   The AFE unit 21 is sampled by a TG (timing signal generating unit) 30 that drives the CCD 20, a CDS (correlated double sampling unit) 31 that samples an electrical signal (analog RGB image signal) output from the CCD 20, and the CDS 31. An AGC (analog gain control unit) 32 that adjusts the gain of the signal, and an A / D conversion unit 33 that converts the signal gain-adjusted by the AGC 32 into a digital signal (hereinafter referred to as “RAW-RGB data”).

信号処理部22は、CCDインターフェース(以下、「CCDI/F」という)34と、メモリコントローラ35と、YUV変換部36と、リサイズ処理部37と、表示出力制御部38と、データ圧縮部39と、メディアインターフェース(以下、「メディアI/F」という)40と、画像処理部42と、制御部(CPU)28と、を有する。   The signal processing unit 22 includes a CCD interface (hereinafter referred to as “CCD I / F”) 34, a memory controller 35, a YUV conversion unit 36, a resizing processing unit 37, a display output control unit 38, and a data compression unit 39. , A media interface (hereinafter referred to as “media I / F”) 40, an image processing unit 42, and a control unit (CPU) 28.

CCDI/F34は、AFE部21のTG30へ画面水平同期信号(HD)と画面垂直同期信号(VD)の出力を行い、これらの同期信号に合わせて、AFE部21のA/D変換部33から出力されるRAW−RGBデータを取り込む。メモリコントローラ35は、SDRAM23を制御する。YUV変換部36は、CCDI/F34にて取り込んだRAW−RGBデータを、表示や記録が可能なYUV形式の画像データに変換する。リサイズ処理部37は、表示や記録される画像データのサイズに合わせて画像サイズを変更する。表示出力制御部38は、画像データの表示出力を制御する。データ圧縮部39は、画像データをJPEG形式等で記録させるべくデータの変換を行う。メディアI/F40は、画像データをメモリカード14へ書き込み、またはメモリカード14に書き込まれた画像データを読み出す。画像処理部42は、CCD20にて取得された画像データ(画像信号)が、信号処理部22内を伝播する過程において、フィルタ処理及び該フィルタ処理に付随する処理を行うものである。このフィルタ処理及び該フィルタ処理に付随する処理については、後に詳述する。制御部28は、操作部41からの操作入力情報等に応じて、ROM24に記憶された制御プログラムに基づいてデジタルカメラ1全体のシステム制御等を行う。   The CCD I / F 34 outputs a screen horizontal synchronization signal (HD) and a screen vertical synchronization signal (VD) to the TG 30 of the AFE unit 21, and from the A / D conversion unit 33 of the AFE unit 21 according to these synchronization signals. The output RAW-RGB data is captured. The memory controller 35 controls the SDRAM 23. The YUV converter 36 converts the RAW-RGB data captured by the CCD I / F 34 into image data in YUV format that can be displayed and recorded. The resizing processing unit 37 changes the image size according to the size of image data to be displayed or recorded. The display output control unit 38 controls display output of image data. The data compression unit 39 converts the data so that the image data is recorded in the JPEG format or the like. The media I / F 40 writes image data to the memory card 14 or reads image data written to the memory card 14. The image processing unit 42 performs a filter process and a process associated with the filter process in a process in which the image data (image signal) acquired by the CCD 20 propagates in the signal processing unit 22. This filtering process and the process accompanying the filtering process will be described in detail later. The control unit 28 performs system control and the like of the entire digital camera 1 based on a control program stored in the ROM 24 in accordance with operation input information from the operation unit 41.

操作部41は、デジタルカメラ1の外観表面に設けられているレリーズボタン2、電源ボタン3、撮影・再生切替ダイアル4、広角側ズームスイッチ10、望遠側ズームスイッチ11、メニューボタン12、確定ボタン13等(図1参照)であり、撮影者の操作に応じた所定の動作指示信号が制御部28に入力される。   The operation unit 41 includes a release button 2, a power button 3, a shooting / playback switching dial 4, a wide-angle zoom switch 10, a telephoto zoom switch 11, a menu button 12, and a confirmation button 13 provided on the external surface of the digital camera 1. Etc. (see FIG. 1), and a predetermined operation instruction signal corresponding to the operation of the photographer is input to the control unit 28.

SDRAM23には、CCDI/F34に取り込まれたRAW−RGBデータが保存されるとともに、YUV変換部36で変換処理されたYUVデータ(YUV形式の画像データ)が保存され、加えて、データ圧縮部39で圧縮処理されたJPEG形成などの画像データが保存される。なお、このYUVデータとは、輝度データ(Y)と、輝度データと青色(B)成分データの差分である色差(U)と、輝度データと赤色(R)成分データの差分である色差(V)の情報で色を表現する形式である。   The SDRAM 23 stores RAW-RGB data captured by the CCD I / F 34 and also stores YUV data (YUV format image data) converted by the YUV conversion unit 36. In addition, the data compression unit 39 The image data such as JPEG formation that has been subjected to compression processing is saved. The YUV data is the luminance data (Y), the color difference (U) that is the difference between the luminance data and the blue (B) component data, and the color difference (V) that is the difference between the luminance data and the red (R) component data. ) Information to express color.

(デジタルカメラのモニタリング動作、静止画撮影動作)
次に、前記したデジタルカメラ1のモニタリング動作と静止画撮影動作について説明する。このデジタルカメラ1は、静止画撮影モード時には、以下に説明するようなモニタリング動作を実行しながら静止画撮影動作が行われる。
(Digital camera monitoring and still image shooting)
Next, the monitoring operation and still image shooting operation of the digital camera 1 will be described. In the still image shooting mode, the digital camera 1 performs a still image shooting operation while executing a monitoring operation as described below.

先ず、撮影者が電源ボタン3をONし、撮影・再生切替ダイアル4を撮影モードに設定することで、デジタルカメラ1が記録モードで起動する。制御部28は、電源ボタン3がONされて、撮影・再生切替ダイアル4が撮影モードに設定されたことを検知すると、モータドライバ25に制御信号を出力して、鏡胴ユニット6を撮影可能位置に移動させ、かつ、CCD20、AFE部21、信号処理部22、SDRAM23、ROM24、液晶モニタ9等を起動させる。   First, when the photographer turns on the power button 3 and sets the photographing / playback switching dial 4 to the photographing mode, the digital camera 1 is activated in the recording mode. When the control unit 28 detects that the power button 3 is turned on and the photographing / playback switching dial 4 is set to the photographing mode, the control unit 28 outputs a control signal to the motor driver 25 to allow the lens barrel unit 6 to be photographed. And the CCD 20, the AFE unit 21, the signal processing unit 22, the SDRAM 23, the ROM 24, the liquid crystal monitor 9 and the like are activated.

そして、鏡胴ユニット6の撮影レンズ系5が被写体に向けられることにより、撮影レンズ系5を通して入射される被写体画像がCCD20の各画素の受光面上に結像する。次いで、CCD20から出力される被写体画像に応じた電気信号(アナログRGB画像信号)は、CDS31、AGC32を介してA/D変換部33に入力され、A/D変換部33により12ビット(bit)のRAW−RGBデータに変換される。   Then, the photographing lens system 5 of the lens barrel unit 6 is directed toward the subject, so that the subject image incident through the photographing lens system 5 is formed on the light receiving surface of each pixel of the CCD 20. Next, an electrical signal (analog RGB image signal) corresponding to the subject image output from the CCD 20 is input to the A / D conversion unit 33 via the CDS 31 and the AGC 32, and 12 bits (bits) by the A / D conversion unit 33. To RAW-RGB data.

このRAW−RGBデータは、信号処理部22のCCDI/F34に取り込まれてメモリコントローラ35を介してSDRAM23に保存される。そして、SDRAM23から読み出されたRAW−RGBデータは、YUV変換部36でYUVデータ(YUV信号)に変換された後に、メモリコントローラ35を介してSDRAM23にYUVデータとして保存される。   This RAW-RGB data is taken into the CCD I / F 34 of the signal processing unit 22 and stored in the SDRAM 23 via the memory controller 35. The RAW-RGB data read from the SDRAM 23 is converted into YUV data (YUV signal) by the YUV conversion unit 36 and then stored as YUV data in the SDRAM 23 via the memory controller 35.

そして、SDRAM23からメモリコントローラ35を介して読み出されるYUVデータは、表示出力制御部38を介して液晶モニタ(LCD)9へ送られ、液晶モニタ(LCD)9において撮影画像が表示される。その液晶モニタ(LCD)9に撮影画像を表示しているモニタリング時においては、CCDI/F34による画素数の間引き処理により1/30秒の時間で1フレームが読み出されている。このため、AFE部21および信号処理部22は、制御部28の制御下で画像生成手段として機能する。   The YUV data read from the SDRAM 23 via the memory controller 35 is sent to the liquid crystal monitor (LCD) 9 via the display output control unit 38, and the photographed image is displayed on the liquid crystal monitor (LCD) 9. At the time of monitoring in which a captured image is displayed on the liquid crystal monitor (LCD) 9, one frame is read out in a time of 1/30 seconds by the pixel number thinning process by the CCD I / F 34. For this reason, the AFE unit 21 and the signal processing unit 22 function as an image generation unit under the control of the control unit 28.

なお、このモニタリング動作時は、電子ファインダとして機能する液晶モニタ(LCD)9に撮影画像が表示されているだけで、まだレリーズボタン2が押圧(半押も含む)操作されていない状態である。   In this monitoring operation, the photographed image is only displayed on the liquid crystal monitor (LCD) 9 functioning as an electronic viewfinder, and the release button 2 is not yet pressed (including half-pressed).

この撮影画像の液晶モニタ(LCD)9への表示によって、撮影者は、静止画を撮影するための構図の確認等を行うことができる。なお、デジタルカメラ1では、表示出力制御部38からTVビデオ信号として出力して、ビデオケーブルを介して図示しない外部のTV(テレビ)に撮影画像を表示することもできる。   By displaying the photographed image on the liquid crystal monitor (LCD) 9, the photographer can check the composition for photographing the still image. Note that the digital camera 1 can output a TV video signal from the display output control unit 38 and display a photographed image on an external TV (television) (not shown) via a video cable.

撮影はシャッタボタン2の押下によって行なわれる。撮影に先立ち画角を調整する必要があるときは、撮影者は広角側ズームスイッチ10、望遠側ズームスイッチ11を操作し、撮影レンズ系5が備えるズームレンズをズーミングさせて画角を調整する。   Shooting is performed by pressing the shutter button 2. When it is necessary to adjust the angle of view prior to shooting, the photographer operates the wide-angle zoom switch 10 and the telephoto zoom switch 11 to zoom the zoom lens included in the shooting lens system 5 and adjust the angle of view.

シャッタボタン2が半押しされると、CPU28はAE/AF処理を実施し、絞り値とシャッタスピードを決定し、これに従い絞りユニット26、メカシャッタユニット27が制御され適正な露光量が得られる。   When the shutter button 2 is half-pressed, the CPU 28 performs AE / AF processing, determines the aperture value and the shutter speed, and controls the aperture unit 26 and the mechanical shutter unit 27 according to this to obtain an appropriate exposure amount.

この後、撮影者はシャッタボタン2を押し切ると、CPU28は、撮影、記録処理を開始する。すなわち、CPU28は絞りユニット26、メカシャッタユニット27を制御してCCD20の露光時間を制御することにより、CCD20を露光する。   Thereafter, when the photographer presses down the shutter button 2, the CPU 28 starts photographing and recording processing. In other words, the CPU 28 exposes the CCD 20 by controlling the aperture unit 26 and the mechanical shutter unit 27 to control the exposure time of the CCD 20.

CCD20から出力された画像信号は、上述したモニタリング動作の際と同様の処理により、YUVデータとしてSDRAM23に格納される。(このとき、画像処理部42は、CCD20にて取得された画像データが、信号処理部22内を伝播する過程において、フィルタ処理及び該フィルタ処理に付随する処理を行う。この詳細については後述する。)   The image signal output from the CCD 20 is stored in the SDRAM 23 as YUV data by the same processing as in the monitoring operation described above. (At this time, the image processing unit 42 performs a filtering process and a process associated with the filtering process in the process in which the image data acquired by the CCD 20 propagates in the signal processing unit 22. Details thereof will be described later. .)

SDRAM23に格納されたYUVデータは、データ圧縮部39により、所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、再びSDRAM23に格納され、所定の画像記録フォーマットの画像ファイルとされたのち、メモリカード14に記録され、撮像動作を終了する。
また、以上のようにしてメモリカード14に記録された画像は、LCD9で再生表示させることができる。
The YUV data stored in the SDRAM 23 is compressed by the data compression unit 39 in accordance with a predetermined compression format (for example, JPEG format), then stored in the SDRAM 23 again to be an image file of a predetermined image recording format, and then the memory The image is recorded on the card 14 and the imaging operation is terminated.
The image recorded on the memory card 14 as described above can be reproduced and displayed on the LCD 9.

次に、本発明におけるフィルタ処理及び該フィルタ処理に付随する処理並びにこれらを実行するための構成について具体例を挙げて以下に詳述する。   Next, the filtering process, the process associated with the filtering process, and the configuration for executing the filtering process in the present invention will be described in detail below with specific examples.

《フィルタ処理の第1の実施の形態》
本発明に係る撮像装置におけるフィルタ処理の第1の実施の形態について説明する。
ここでまず、ソフトフォーカスレンズの概要及びソフトフォーカスレンズのデジタル処理(画像処理)による実現方法について説明する。
通常のレンズの場合は、被写体から来た光はレンズにより1点に集められる。
一方、ソフトフォーカスレンズの場合は、あえて光を1点に集めることを避けて光を分散させる(収差という)。こうすることで、明るい部分の光が滲んだような、霧がかかったような柔らかい描写の画像が撮影できる。
<< First Embodiment of Filter Processing >>
A first embodiment of filter processing in an imaging apparatus according to the present invention will be described.
First, an outline of the soft focus lens and a method for realizing the soft focus lens by digital processing (image processing) will be described.
In the case of a normal lens, light from the subject is collected at one point by the lens.
On the other hand, in the case of a soft focus lens, light is dispersed (aberration) while avoiding collecting light at one point. By doing this, it is possible to shoot a soft depiction of a foggy image, such as light in a bright portion.

このソフトフォーカスレンズの効果を画像処理で実現するために、ローパスフィルタをかけることで画像データを平均化してぼかすことが考えられる。ただしローパスフィルタによって画像全体にある程度強いぼかし効果を得ようとすると、芯のない写りとなってしまう。   In order to realize the effect of the soft focus lens by image processing, it is conceivable to average and blur image data by applying a low-pass filter. However, if the low-pass filter is used to obtain a certain degree of blurring effect on the entire image, the image will have no core.

そこで、通常の撮影では主要被写体(撮影したいもの)というものが存在するはずであるから、主要被写体を含む最小の領域を芯が残る程度の弱いローパスフィルタでぼかし、その周辺はより強いローパスフィルタでぼかす。
この時、特定の領域とその周辺でぼけ方を急に変えると、ぼけ方を変える境界で不自然なエッジが生成されてしまう懸念がある。その対策としては、特定の領域から離れた画素ほどローパスフィルタの係数をローパスフィルタが強くかかるようなものに設定することで、ぼけ方が自然になるようにする。
Therefore, in normal shooting, there should be a main subject (what you want to shoot), so the minimum area including the main subject is blurred with a weak low-pass filter that leaves a core, and the periphery is a stronger low-pass filter. Blur.
At this time, if the blur method is suddenly changed in a specific region and its surroundings, an unnatural edge may be generated at the boundary that changes the blur method. As a countermeasure, by setting the coefficient of the low-pass filter so that the pixel is farther away from the specific region, the blur is natural.

このように本実施の形態では、ローパスフィルタを使って画像全体をぼかし、ソフトフォーカスレンズを使って撮影したような柔らかい描写の画像を生成しつつ、主要被写体を含む局所的な領域のぼかし効果を弱くする。そうすることによって、主要被写体とその周辺でぼけ方が異なることにより主要被写体が画像中で強調され、また、主要被写体にはある程度芯を残したままの画像が撮影できる。
以上がソフトフォーカスレンズの概要及びソフトフォーカスレンズのデジタル処理(画像処理)の原理の説明である。
As described above, in the present embodiment, the entire image is blurred using the low-pass filter, and a soft depiction image as if taken using the soft focus lens is generated, while the blurring effect of the local region including the main subject is generated. Weaken. By doing so, the main subject is emphasized in the image due to the difference in blurring between the main subject and its surroundings, and an image can be taken while leaving a certain amount of core in the main subject.
The above is the outline of the soft focus lens and the principle of the digital processing (image processing) of the soft focus lens.

次に、本実施の形態における画像処理部の構成についてさらに詳細に説明する。
図3は、本発明に係る撮像装置におけるフィルタ処理の第1の実施の形態で用いられる画像処理部の概略構成を示すブロック図である。なお、この撮像装置の一部を構成する画像処理部は、独立して画像処理装置として用いられてもよく、以下に示す第2および第3の実施の形態においても同様である。
図3に示すが如く、画像処理部に入力される画像データは、領域情報取得手段により領域情報が取得された後、距離情報テーブル算出手段に供される。距離情報テーブル算出手段は、各画素の距離情報を取得し、この距離情報をもとに次のフィルタ係数テーブル算出手段によりフィルタ係数が算出される。しかる後に、各画素に対してフィルタ処理が行われ、所望のフィルタ処理が施されたフィルタ処理後画像データが得られる。また、本実施の形態では、操作部をユーザが操作することによりコマンドが入力され、領域操作手段によって特定領域の位置、形状、大きさが所望のものに変更される。
Next, the configuration of the image processing unit in the present embodiment will be described in more detail.
FIG. 3 is a block diagram showing a schematic configuration of an image processing unit used in the first embodiment of the filter processing in the imaging apparatus according to the present invention. Note that the image processing unit that constitutes a part of the imaging apparatus may be used independently as an image processing apparatus, and the same applies to the second and third embodiments described below.
As shown in FIG. 3, the image data input to the image processing unit is supplied to the distance information table calculating unit after the region information is acquired by the region information acquiring unit. The distance information table calculation means acquires distance information of each pixel, and the filter coefficient is calculated by the next filter coefficient table calculation means based on the distance information. Thereafter, a filtering process is performed on each pixel, and post-filtering image data subjected to a desired filtering process is obtained. In the present embodiment, a command is input by the user operating the operation unit, and the position, shape, and size of the specific area are changed to a desired one by the area operation unit.

さらに、どのような処理フローでソフトフィルター効果を実現するかを具体的に説明する。
図4は、本発明に係る撮像装置におけるフィルタ処理の第1の実施の形態の処理フローを示すフローチャートである。
ここで本実施の形態では、上述のとおりぼかし効果を弱くする領域(特定領域)はユーザが指定可能であるとする。なお、本発明はかかる態様に何ら限定されるものではなく、即ち、特定領域とはユーザが指定する領域あるいは(所望の設定に応じて)自動に特定される領域のいずれをも含むものである。
Furthermore, the processing flow for realizing the soft filter effect will be specifically described.
FIG. 4 is a flowchart showing a processing flow of the first embodiment of the filter processing in the imaging apparatus according to the present invention.
Here, in the present embodiment, it is assumed that the user can specify a region (specific region) in which the blurring effect is weakened as described above. It should be noted that the present invention is not limited to such a mode, that is, the specific region includes both a region specified by the user or a region automatically specified (depending on a desired setting).

・領域指定
まず、本実施の形態で提案するソフトフォーカス効果が得られる撮影モード(ソフトフォーカスモード)を選択する。すると、LCD9に表示されるモニタリング画像中に、円形(楕円含む)または矩形の枠が表示される。
この枠はユーザがカメラのボタン(操作部41;領域操作手段)を操作することで上下左右に位置(指定位置)を動かすことができる。また、ボタン操作によりその枠の形状の切り替え(円から矩形、または矩形から円等)と枠の大きさの制御とが可能である。即ち、デジタルカメラを被写体に向けた状態で、ユーザはこの枠が主要被写体を囲むようにデジタルカメラを操作する(領域操作手段)。
特定領域の指定は単数または複数行うことが可能で、それぞれ個別に形状や枠の大きさ、位置を変更することができる。枠の形状、サイズ及び位置が定まったらレリーズボタン2を押して撮影を行う。
-Area designation First, a shooting mode (soft focus mode) that provides the soft focus effect proposed in the present embodiment is selected. Then, a circular (including ellipse) or rectangular frame is displayed in the monitoring image displayed on the LCD 9.
This frame can be moved up and down and left and right (designated position) by operating a button (operation unit 41; area operation means) of the camera. Further, the shape of the frame can be switched by button operation (circle to rectangle, rectangle to circle, etc.) and the size of the frame can be controlled. That is, with the digital camera facing the subject, the user operates the digital camera so that this frame surrounds the main subject (region operation means).
One or more specific areas can be designated, and the shape, frame size, and position can be individually changed. When the shape, size and position of the frame are determined, the release button 2 is pressed to take a picture.

・撮影/画像データ取得/領域情報取得
撮影が開始されると、ユーザが指定した複数の特定領域について、指定位置、サイズ及び形状からなる領域情報をそれぞれ取得する(領域情報取得手段)。
Shooting / Acquisition of Image Data / Acquisition of Area Information When shooting is started, area information including a specified position, size, and shape is acquired for each of a plurality of specific areas specified by the user (area information acquisition means).

・距離情報テーブル算出
次に、領域情報を参照しつつ、入力された画像データの全画素それぞれについて、特定領域からの距離を算出する。複数の特定領域が指定されている場合は、その全ての特定領域に関して、各々の画素(注目画素)ごとからの距離を算出する(距離情報テーブル算出手段)。この注目画素に対して全ての特定領域について算出された距離の中で、もっとも距離の近い特定領域からの距離を、当該注目画素における“特定領域からの距離“と決定し、距離情報として選択する。ただし、全画素それぞれに対して距離データを保持するとなると、情報を記憶しておくためのメモリが非常に大きくなってしまう。したがって、例えば、特定領域からの距離が最大となる距離を255として正規化し、距離情報を0〜255の指標にしてしまっても良い。
-Distance information table calculation Next, the distance from a specific area is calculated about all the pixels of the input image data, referring area information. When a plurality of specific areas are designated, the distance from each pixel (target pixel) is calculated for all the specific areas (distance information table calculating means). Of the distances calculated for all the specific areas with respect to the target pixel, the distance from the specific area closest to the target pixel is determined as “distance from the specific area” in the target pixel and is selected as distance information. . However, if the distance data is held for each of all the pixels, the memory for storing the information becomes very large. Therefore, for example, the distance that maximizes the distance from the specific region may be normalized as 255, and the distance information may be used as an index of 0 to 255.

・フィルタ係数テーブル算出
距離情報が算出されると、それに基づいて各画素に施すフィルタ係数を算出する(フィルタ係数テーブル算出手段)。尚、本実施の形態ではフィルタ係数としてローパスフィルタ係数を算出するものとし、特定領域からの距離が大きい画素ほどローパスフィルタの効果が強くなる(ローパス)フィルタ係数を設定するようにする。また本実施の形態では、特定領域に含まれる画素には弱い(ローパス)フィルタ係数を設定する。
Filter coefficient table calculation When the distance information is calculated, a filter coefficient to be applied to each pixel is calculated based on the distance information (filter coefficient table calculating means). In the present embodiment, a low-pass filter coefficient is calculated as a filter coefficient, and a filter coefficient is set such that the effect of the low-pass filter becomes stronger as the distance from the specific region increases. In the present embodiment, weak (low-pass) filter coefficients are set for the pixels included in the specific region.

・フィルタ処理
以上の処理ステップを踏み、最終的に算出した距離情報からなる距離情報テーブルと(ローパス)フィルタ係数テーブルとを参照し、画像データにローパスフィルタ処理を行う(フィルタ処理手段)。
-Filter processing The above processing steps are performed, and a low-pass filter process is performed on the image data by referring to a distance information table composed of finally calculated distance information and a (low-pass) filter coefficient table (filter processing means).

また、図5は第1の実施の形態において指定された特定領域が単数の場合のフィルタ処理の一例を示す概略図である。
図5に示す例では、中心に位置する特定領域ではぼかし効果が弱く、特定領域からの距離が大きくなるにつれて(四辺に近付くにつれて)ぼかし効果が強くなるようにフィルタ処理が行われる(ローパスフィルタ係数が算出される)。
FIG. 5 is a schematic diagram illustrating an example of a filtering process in the case where a single specific region is designated in the first embodiment.
In the example illustrated in FIG. 5, the filtering process is performed so that the blurring effect is weak in the specific region located in the center, and the blurring effect becomes strong as the distance from the specific region increases (as the four sides approach). Is calculated).

さらに、図6は第1の実施の形態において指定された特定領域が複数(2つ)の場合のフィルタ処理の一例を示す概略図である。
図6に示す例では、図6中左下(特定領域1)及び右上(特定領域2)のそれぞれに位置する2つの特定領域ではぼかし効果が弱く、特定領域からの距離が大きくなるにつれてぼかし効果が強くなるようにフィルタ処理が行われる(ローパスフィルタ係数が算出される)。
ここで、2つの特定領域からの距離(距離情報)の算出について図6に示す具体例を用いて説明する。図6に示す注目画素からの距離は、特定領域1からの距離Aと特定距離2からの距離Bとを算出した後、距離Aと距離Bとの大小関係を判定し、いずれか大きいほうを当該注目画素における距離情報とする。特定領域が3以上の場合であっても同様に判定し、最も距離が大きいいずれか1を距離情報とする。
そして、画像データ中の各画素全てについての距離情報を取得し、特定領域からの距離が大きくなるにつれてぼかし効果が強くなるようにフィルタ処理が行われる(ローパスフィルタ係数が算出される)。
Furthermore, FIG. 6 is a schematic diagram illustrating an example of a filtering process when there are a plurality (two) of specific areas designated in the first embodiment.
In the example illustrated in FIG. 6, the blurring effect is weak in the two specific areas located at the lower left (specific area 1) and the upper right (specific area 2) in FIG. 6, and the blurring effect increases as the distance from the specific area increases. Filter processing is performed to increase the intensity (low pass filter coefficients are calculated).
Here, calculation of the distance (distance information) from two specific regions will be described using a specific example shown in FIG. The distance from the target pixel shown in FIG. 6 is calculated by calculating the distance A from the specific area 1 and the distance B from the specific distance 2, and then determining the magnitude relationship between the distance A and the distance B. The distance information at the target pixel is used. Even if the specific area is 3 or more, the same determination is made, and any one having the longest distance is set as the distance information.
Then, distance information for all the pixels in the image data is acquired, and filter processing is performed so that the blurring effect becomes stronger as the distance from the specific region increases (low pass filter coefficient is calculated).

以上説明した本発明に係る撮像装置におけるフィルタ処理の第1の実施の形態では、具体的には、デジタル処理によるソフトフォーカス処理に際して、撮影前に、ユーザに主要被写体の位置領域を単数または複数指定させ、撮影時にはそれを参照し、指定された特定領域から離れた位置の画素のローパスフィルタ係数を強くし、一方、指定された特定領域はその周辺より弱いローパスフィルタ係数で画像全体にローパスフィルタ処理を行うことで、画像全体にソフトフォーカスレンズを使用したような柔らかい描写がかかり、なおかつ主要被写体を周辺から際立たせることができる。   In the first embodiment of the filter processing in the imaging apparatus according to the present invention described above, specifically, in the soft focus processing by digital processing, one or a plurality of position areas of the main subject are designated to the user before shooting. When shooting, refer to it and strengthen the low-pass filter coefficient of the pixel at a position away from the specified specific area, while the specified specific area is low-pass filter processed on the entire image with a low-pass filter coefficient weaker than its surroundings. By performing the above, a soft depiction using a soft focus lens is applied to the entire image, and the main subject can stand out from the periphery.

このように、ローパスフィルタを使って画像全体をぼかした、あるいは、ソフトフォーカスレンズを使って撮影したような柔らかい描写の画像を生成しつつ、複数の主要被写体を含むそれぞれの局所的な領域のぼかし効果を弱くすることによって、主要被写体とその周辺でぼけ方が異なることにより複数の主要被写体が画像中で強調され、また、主要被写体にはある程度芯を残したままの画像が撮影できる。   In this way, while blurring the entire image using a low-pass filter, or creating a soft depiction of an image taken with a soft focus lens, each local area including multiple main subjects is blurred. By reducing the effect, a plurality of main subjects are emphasized in the image due to differences in blurring between the main subject and its surroundings, and an image with a certain amount of core remaining in the main subject can be taken.

《フィルタ処理の第2の実施の形態》
上記第1の実施の形態では、特定領域をユーザが指定することができたが、このような特定領域指定(エリア設定)の操作が煩わしいと感じるユーザも存在する。また、ソフトフォーカスレンズは、柔らかい印象の描写をすることや、顔のシワやシミを目立たなくすることから、女性のポートレート写真に多く用いられる。
そこで本実施の形態では、被写体の中から人物の顔を自動で検出し、検出データに基づいて煩雑なエリア設定を必要とすることなく、簡単に人物を主要被写体(特定領域)としたソフトフォーカス画像を撮影する方法を説明する。
<< Second Embodiment of Filter Processing >>
In the first embodiment, the user can designate a specific area, but there are also users who feel that the operation of such specific area designation (area setting) is troublesome. The soft focus lens is often used for a portrait photograph of a woman because it draws a soft impression and makes the wrinkles and spots of the face inconspicuous.
In this embodiment, therefore, a soft focus that automatically detects a person's face from the subject and easily sets the person as the main subject (specific area) without requiring complicated area setting based on the detection data. A method for taking an image will be described.

先ず、本実施の形態における画像処理部の構成についてさらに詳細に説明する。
図7は、本発明に係る撮像装置におけるフィルタ処理の第2の実施の形態で用いられる画像処理部の概略構成を示すブロック図である。
図7に示すが如く、画像処理部に入力される画像データは、顔検出手段により顔検出が行われ、顔検出情報が得られる。この顔検出情報は、領域情報取得手段により領域情報として取得された後に、距離情報テーブル算出手段に供される。距離情報テーブル算出手段は、各画素の距離情報を取得し、この距離情報をもとに次のフィルタ係数テーブル算出手段によりフィルタ係数が算出される。しかる後に、各画素に対してフィルタ処理が行われ、所望のフィルタ処理が施されたフィルタ処理後画像データが得られる。
また、本実施の形態ではユーザが特定領域の指定を行わず、自動で顔検出(特定領域の指定)が行われるものである。なお、操作部をユーザが操作することによりコマンドが入力され、取得された顔検出情報である特定領域の位置、形状、大きさが領域操作手段によって所望のものに変更される構成であっても構わない。
First, the configuration of the image processing unit in the present embodiment will be described in more detail.
FIG. 7 is a block diagram showing a schematic configuration of an image processing unit used in the second embodiment of the filter processing in the imaging apparatus according to the present invention.
As shown in FIG. 7, the image data input to the image processing unit is subjected to face detection by face detection means, and face detection information is obtained. This face detection information is acquired as region information by the region information acquisition unit, and then provided to the distance information table calculation unit. The distance information table calculation means acquires distance information of each pixel, and the filter coefficient is calculated by the next filter coefficient table calculation means based on the distance information. Thereafter, a filtering process is performed on each pixel, and post-filtering image data subjected to a desired filtering process is obtained.
In this embodiment, the user does not designate a specific area, and face detection (specific area designation) is automatically performed. Note that even if the command is input by the user operating the operation unit, the position, shape, and size of the specific area, which is the acquired face detection information, are changed to a desired one by the area operation means. I do not care.

次に、どのような処理フローで顔検出及びソフトフィルター効果を実現するかを具体的に説明する。
図8は、本発明に係る撮像装置におけるフィルタ処理の第2の実施の形態の処理フローを示すフローチャートである。
Next, the processing flow for realizing the face detection and the soft filter effect will be specifically described.
FIG. 8 is a flowchart showing a processing flow of the second embodiment of the filter processing in the imaging apparatus according to the present invention.

・撮影/画像データ取得/顔検出/顔検出データ取得
顔検出機能を有するデジタルカメラにより、人物を被写体として撮影を行い、生成される画像データから顔検出機能によって顔の検出を行う(顔検出手段)。顔検出の手法については後述する。
Photographing / image data acquisition / face detection / face detection data acquisition A digital camera having a face detection function is used to photograph a person as a subject, and face detection is performed from the generated image data using a face detection function (face detection means) ). The face detection method will be described later.

・領域情報取得
先ず、ここでは顔検出機能が単数の顔を検出した場合について考える。(図8において、画像中に顔あり:YES、顔検出数=1:YES、の場合。)
顔検出の結果(顔検出情報)から、画像データ上の顔の位置及びサイズを取得する。特定領域としては、顔は楕円なので特定領域の形状は楕円とし、特定領域のサイズは顔のサイズを包含するサイズとする。また、顔検出の結果をそのまま特定領域としても良い。
-Region information acquisition First, consider the case where the face detection function detects a single face. (In FIG. 8, when there is a face in the image: YES, the number of detected faces = 1: YES.)
From the result of face detection (face detection information), the position and size of the face on the image data are acquired. As the specific area, since the face is an ellipse, the shape of the specific area is an ellipse, and the size of the specific area is a size that includes the size of the face. Further, the result of face detection may be used as the specific area as it is.

次に、顔検出機能が複数の顔を検出した場合について考える。(図8において、画像中に顔あり:YES、顔検出数=1:NO、の場合。)
例えば、N数の顔を検出した場合、検出した顔に第1優先度から第M優先度までの優先度を付ける。ただし、M,Nは整数で、M≦Nである。また、主要被写体(顔)の優先度については後述する。
しかる後は、第1の実施の形態で提示した、特定領域からの距離に依存したLPF(ローパスフィルタ)パラメータの算出と同様にして、LPF効果が1(優先度が高い)からM(優先度が低い)になるにつれて強くなるようなパラメータを算出して設定すれば良い。また、特定の人物の顔のみを強調したい場合は、第1主要被写体のみLPFパラメータを弱くするといった制御も可能である。
Next, consider a case where the face detection function detects a plurality of faces. (In FIG. 8, when there is a face in the image: YES, face detection count = 1: NO.)
For example, when N faces are detected, priorities from the first priority to the Mth priority are assigned to the detected faces. However, M and N are integers, and M ≦ N. The priority of the main subject (face) will be described later.
Thereafter, in the same manner as the calculation of the LPF (low-pass filter) parameter depending on the distance from the specific region presented in the first embodiment, the LPF effect is changed from 1 (high priority) to M (priority). It is only necessary to calculate and set a parameter that becomes stronger as the value becomes lower. Further, when it is desired to emphasize only the face of a specific person, it is possible to perform control such that the LPF parameter is weakened only for the first main subject.

なお、図8において、画像中に顔あり:NOの場合、領域情報取得および距離情報テーブル算出は行わずに、主要被写体(特定領域)がないものとし、画面全体に一律のぼかしをかけるべくフィルタ係数テーブル算出及びフィルタ処理のみを行う。具体的には、画像データ全体に同一のローパスフィルタ係数(フィルタ係数)を算出し、このローパスフィルタ係数を用いてフィルタ処理を行う。   In FIG. 8, if there is a face in the image: NO, the region information acquisition and the distance information table calculation are not performed, there is no main subject (specific region), and the filter is applied to uniformly blur the entire screen. Only coefficient table calculation and filter processing are performed. Specifically, the same low-pass filter coefficient (filter coefficient) is calculated for the entire image data, and filter processing is performed using this low-pass filter coefficient.

・距離情報テーブル算出/フィルタ係数テーブル算出/フィルタ処理
距離情報テーブル算出、フィルタ係数テーブル算出及びフィルタ処理については上記第1の実施の形態と同様のため、説明を省略する。
Distance information table calculation / filter coefficient table calculation / filter processing The distance information table calculation, the filter coefficient table calculation, and the filter processing are the same as those in the first embodiment, and a description thereof will be omitted.

<顔検出方法の説明>
被写体像の中から人物像(顔)を検出する方法は、下記(A)〜(C)に示すような手法が公知となっており、本実施の形態では、下記(A)〜(C)に示す手法うちのいずれかの手法を用いるものとする。
(A)テレビジョン学会誌Vol.49、No.6、pp.787−797(1995)の「顔領域抽出に有効な修正HSV表色系の提案」に示されるように、カラー画像をモザイク画像化し、肌色領域に着目して顔領域を抽出する方法。
(B)電子情報通信学会誌Vol.74−D−II、No.11、pp.1625−1627(1991)の「静止濃淡情景画像からの顔領域を抽出する手法」に示されているように、髪や目や口など正面人物像の頭部を構成する各部分に関する幾何学的な形状特徴を利用して正面人物の頭部領域を抽出する方法。
(C)画像ラボ1991−11(1991)の「テレビ電話用顔領域検出とその効果」に示されるように、動画像の場合、フレーム間の人物の微妙な動きによって発生する人物像の輪郭エッジを利用して正面人物像を抽出する方法。
<Description of face detection method>
As a method for detecting a human image (face) from a subject image, the following methods (A) to (C) are known, and in this embodiment, the following (A) to (C) are used. Any one of the methods shown in FIG.
(A) Television Society Journal Vol. 49, no. 6, pp. No. 787-797 (1995) “Proposal of a modified HSV color system effective for face area extraction” is a method of extracting a face area by converting a color image into a mosaic image and paying attention to a skin color area.
(B) IEICE Journal Vol. 74-D-II, no. 11, pp. 1625-1627 (1991) “A method for extracting a face region from a still gray scene image”, the geometrical structure of each part constituting the head of a front human figure such as hair, eyes and mouth. Of extracting the head region of a frontal person using various shape features.
(C) As shown in “Video phone face area detection and its effect” in Image Lab 1991-11 (1991), in the case of a moving image, a contour edge of a human image generated by a subtle movement of a person between frames To extract a frontal portrait using GIS.

なお、図8に示す処理フローでは、撮影して取得された画像データに対して顔検出を行う構成を開示しているが、本発明はこれに何ら限定されるものではなく、これと同時あるいは別に、撮影前の画角(フレーミング)決定時において顔検出を行う構成としても構わない。   Note that the processing flow shown in FIG. 8 discloses a configuration in which face detection is performed on image data acquired by shooting, but the present invention is not limited to this, and at the same time or Alternatively, the face may be detected when the angle of view (framing) before photographing is determined.

<主要被写体の優先度>
主要被写体の優先度のつけ方は例えば下記(1)〜(3)に示すようなものが考えられる。なお、以下に示す顔のサイズ、AF評価値、位置(これらを顔検出評価値とする)に基づき、優先度を決定し、該優先度が高いほうから順にローパスフィルタ係数が弱くなるようにフィルタ係数を算出する。
(1)検出した顔のサイズ
検出した顔のサイズが大きい程、優先度を高く設定する。
(2)AF評価値
検出した顔のAF評価値からAFが合っている顔を判定し、AF評価値の高さから優先度をつける。
(3)位置
通常主要被写体は画像中心に位置することが考えられるので、画像中央からの位置が近いほど優先度を高く設定する。
<Priority of main subject>
For example, the following priorities (1) to (3) are considered as methods of assigning priorities to main subjects. It should be noted that priority is determined based on the face size, AF evaluation value, and position (which will be referred to as face detection evaluation values) shown below, and the low-pass filter coefficient is decreased in order from the higher priority. Calculate the coefficient.
(1) Detected face size The larger the detected face size, the higher the priority.
(2) AF evaluation value A face with AF is determined from the AF evaluation value of the detected face, and a priority is assigned based on the height of the AF evaluation value.
(3) Position Since it is considered that the main subject is usually located at the center of the image, the priority is set higher as the position from the center of the image is closer.

《フィルタ処理の第3の実施の形態》
ここでは、チルトシフトレンズで得ることができるミニチュア効果を、デジタル処理で実現する方法について説明する。
ここでまず、チルトシフトレンズとミニチュア効果について記述する。
チルトシフトレンズとは、レンズを傾ける機構を備えたレンズで、レンズを傾けることにより擬似的に被写界深度を浅くすることができる。例えば、レンズを前後に傾けると上下の被写界深度が浅くなり、レンズを左右に傾けると左右の被写界深度が浅くなる。この仕組みを利用して、通常は近くの被写体と遠くの被写体との両方にピントを合わせるために使用されるが、被写体深度を制御して、あえて焦点が合っているエリアとぼけているエリアを作り出し(逆チルトと呼ばれる)、現実味を失わせて実際の風景をまるでミニチュアを撮影したかのように見せる手法がある。チルトシフトレンズとは、このような目的で、アーティスティックな写真を撮影したい人が好んで使用するレンズでもある。
<< Third embodiment of filter processing >>
Here, a method for realizing the miniature effect that can be obtained by the tilt shift lens by digital processing will be described.
First, the tilt shift lens and the miniature effect will be described.
The tilt shift lens is a lens having a mechanism for tilting the lens, and the depth of field can be artificially reduced by tilting the lens. For example, when the lens is tilted back and forth, the upper and lower depths of field become shallower, and when the lens is tilted left and right, the left and right depths of field become shallower. Using this mechanism, it is usually used to focus on both near and far subjects, but the depth of the subject is controlled to create a focused area and a blurred area. There is a technique (called reverse tilt) that makes a real scene look as if a miniature was photographed by losing reality. The tilt shift lens is also a lens that is preferably used by those who want to take artistic photographs for such purposes.

しかしながら、チルトシフトレンズは一般的には特殊撮影を対象としたものであり、汎用性に欠ける割には高価で気軽に購入できるものではない。この問題を解決するために、逆チルトの、デジタル処理での実現方法を説明する。   However, the tilt shift lens is generally intended for special photography, and is not expensive and can be purchased easily although it lacks versatility. In order to solve this problem, a method for realizing reverse tilt in digital processing will be described.

上述の第1の実施の形態及び第2の実施の形態における特定領域に対しては、その周辺と比較して弱いローパスフィルタ係数をかけていたが、本実施の形態では、特定領域にはローパスフィルタ処理を施さないこととする、もしくは、むしろ弱めにハイパスフィルタ係数をかけても良い。   In the first embodiment and the second embodiment described above, a low-pass filter coefficient that is weaker than that of the surrounding area is applied to the specific area. However, in this embodiment, a low-pass filter coefficient is applied to the specific area. The filtering process may not be performed, or the high-pass filter coefficient may be applied rather weakly.

また、図9は第3の実施の形態において指定された特定領域が矩形である場合のフィルタ処理の一例を示す概略図である。
本実施の形態における特定領域は矩形とし、画像両端を含む領域とする。ぼけ方はこれまでと同様に、特定領域からの距離に応じて、強くかかるパラメータを設定する。
つまり、図9に示すように、ぼける範囲は画像の上下、もしくは左右の領域になるので、本実施の形態によればチルトシフトレンズの効果を得ることができる。あるいは、ぼける範囲を図9に示す上下と左右との間に位置するような斜め(不図示)の領域にしても良い。
FIG. 9 is a schematic diagram illustrating an example of filter processing when the specific area designated in the third embodiment is a rectangle.
The specific area in the present embodiment is a rectangle, and includes an area including both ends of the image. In the same way as before, the parameter is strongly set according to the distance from the specific area.
That is, as shown in FIG. 9, since the blurred range is the top and bottom or left and right regions of the image, the effect of the tilt shift lens can be obtained according to this embodiment. Alternatively, the blurred range may be an oblique (not shown) region located between the top and bottom and the left and right shown in FIG.

さらにミニチュアらしい画像を期待する場合は、彩度やコントラストを調整することで(一般的には彩度やコントラストを上げる)、よりミニチュアらしい画像が得られる。   If a miniature-like image is expected, a more miniature-like image can be obtained by adjusting the saturation and contrast (generally increasing the saturation and contrast).

なお、以上示した第3の実施の形態では、上記第1の実施の形態における特定領域の形状が矩形であると共に、画像データにおけるいずれかの両端部を含んでなる点で相違し、これ以外の点で共通する。このため、上記第1の実施の形態と重複する点は説明を省略した。   The third embodiment described above is different in that the shape of the specific area in the first embodiment is rectangular and includes both ends of the image data. In common. For this reason, the description overlapping with the first embodiment is omitted.

《フィルタ処理のその他の実施の形態》
以上示した第1〜3の実施の形態に加えて、フィルタ処理手段によるフィルタ処理を適用するか否かをユーザが選択できる、フィルタ処理適用選択手段をさらに備える構成としてもよい。
<< Other Embodiments of Filter Processing >>
In addition to the first to third embodiments described above, a configuration may further include a filter processing application selection unit that allows the user to select whether or not to apply the filter processing by the filter processing unit.

1 デジタルスチルカメラ
21 アナログフロントエンド部
22 信号処理部
23 SDRAM
24 ROM
28 制御部
42 画像処理部
44 RAM
DESCRIPTION OF SYMBOLS 1 Digital still camera 21 Analog front end part 22 Signal processing part 23 SDRAM
24 ROM
28 Control Unit 42 Image Processing Unit 44 RAM

特開2009−284056号公報JP 2009-284056 A

Claims (11)

入力された画像データを画像処理する画像処理装置であって、
前記画像データにおける単数または複数の特定領域の領域情報を取得する領域情報取得手段と、
前記画素データにおける各々の画素について、前記単数または複数の特定領域から当該画素までの距離情報を、前記領域情報に基づき算出する距離情報テーブル算出手段と、
前記画素データにおける各々の画素にかけるフィルタ処理に用いられるフィルタ係数を、前記距離情報に基づき算出するフィルタ係数テーブル算出手段と、
前記フィルタ係数に基づくフィルタ処理を前記画素データにおける各々の画素に施すフィルタ処理手段と、を有し、
前記フィルタ係数テーブル算出手段は、前記画像データにおける各々の画素に対し、前記距離情報に基づき、前記特定領域からの距離が大きい画素ほど強いローパスフィルタ係数を前記フィルタ係数として算出し、かつ、前記特定領域に含まれる画素には弱いローパスフィルタ係数ないし弱いハイパスフィルタ係数を前記フィルタ係数として算出し、
前記距離情報テーブル算出手段は、前記特定領域が複数ある場合は、前記画素データにおける各々の画素について当該複数の特定領域のそれぞれからの距離を取得し、当該取得された距離の中で最も距離が近いと判断された特定領域からの距離を距離情報として選択する
ことを特徴とする画像処理装置。
An image processing apparatus that performs image processing on input image data,
Area information acquisition means for acquiring area information of one or more specific areas in the image data;
For each pixel in the pixel data, distance information table calculating means for calculating distance information from the specific region or pixels to the pixel based on the region information;
A filter coefficient table calculating means for calculating a filter coefficient used for filter processing applied to each pixel in the pixel data based on the distance information;
Filter processing means for applying a filtering process based on the filter coefficient to each pixel in the pixel data,
The filter coefficient table calculating unit calculates, as the filter coefficient, a low-pass filter coefficient that is stronger for each pixel in the image data, based on the distance information, for a pixel having a greater distance from the specific area. For the pixels included in the region, a weak low pass filter coefficient or a weak high pass filter coefficient is calculated as the filter coefficient,
When there are a plurality of the specific areas, the distance information table calculation unit acquires the distance from each of the plurality of specific areas for each pixel in the pixel data, and the distance is the longest among the acquired distances. An image processing apparatus, wherein a distance from a specific area determined to be close is selected as distance information.
前記領域情報は、前記単数または複数の特定領域の位置、形状または大きさを含むことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area information includes a position, a shape, or a size of the one or more specific areas. 前記単数または複数の特定領域の指定、及び、前記領域情報の制御を、ユーザにより入力可能な領域操作手段を有することを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an area operation unit that allows a user to input designation of the specific area or areas and control of the area information. 前記特定領域の形状は、円形、楕円または矩形を含む
ことを特徴とする請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the shape of the specific region includes a circle, an ellipse, or a rectangle.
前記特定領域の形状は、矩形であり、かつ、前記画像データにおけるいずれかの両端部を含むことを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the shape of the specific area is a rectangle and includes both ends of the image data. 前記画像データにおける顔検出を行い、顔の位置及びサイズの少なくとも1つを含む顔検出情報を取得する顔検出手段を有し、
前記領域情報取得手段は、前記顔検出情報を前記領域情報として取得する
ことを特徴とする請求項1または2に記載の画像処理装置。
Face detection means for performing face detection in the image data and acquiring face detection information including at least one of the position and size of the face;
The image processing apparatus according to claim 1, wherein the area information acquisition unit acquires the face detection information as the area information.
前記フィルタ係数テーブル算出手段は、前記顔検出手段により前記画像データから顔が検出されなかった場合は、当該画像データ全体に同一のローパスフィルタ係数を前記フィルタ係数として算出すること
を特徴とする請求項6に記載の画像処理装置。
The filter coefficient table calculation unit calculates the same low-pass filter coefficient as the filter coefficient for the entire image data when a face is not detected from the image data by the face detection unit. 6. The image processing apparatus according to 6.
前記フィルタ係数テーブル算出手段は、前記顔検出手段により前記画像データから複数の顔が検出された場合は、検出された全ての顔について顔検出評価値に基づき優先度をつけ、前記優先度が高い方から順にローパスフィルタ係数が弱くなるように前記フィルタ係数を算出すること
を特徴とする請求項6または7に記載の画像処理装置。
The filter coefficient table calculation unit assigns priorities based on face detection evaluation values for all detected faces when the face detection unit detects a plurality of faces from the image data, and the priority is high. The image processing apparatus according to claim 6, wherein the filter coefficient is calculated so that the low-pass filter coefficient becomes weaker in order from one side.
前記顔検出評価値は、検出された顔のAF評価値あるいはサイズ、または、顔が検出された位置を含むこと
を特徴とする請求項8に記載の画像処理装置。
The image processing apparatus according to claim 8, wherein the face detection evaluation value includes an AF evaluation value or size of a detected face, or a position where a face is detected.
前記フィルタ処理手段によるフィルタ処理を適用するか否かをユーザが選択できるフィルタ処理適用選択手段
を有することを特徴とする請求項1〜9のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising: a filter processing application selection unit that allows a user to select whether or not to apply the filter processing by the filter processing unit.
請求項1〜10のいずれか1項に記載の画像処理装置を備えることを特徴とする撮像装置。   An imaging apparatus comprising the image processing apparatus according to claim 1.
JP2010110070A 2010-05-12 2010-05-12 Imaging apparatus and image processing apparatus Pending JP2011239267A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010110070A JP2011239267A (en) 2010-05-12 2010-05-12 Imaging apparatus and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010110070A JP2011239267A (en) 2010-05-12 2010-05-12 Imaging apparatus and image processing apparatus

Publications (1)

Publication Number Publication Date
JP2011239267A true JP2011239267A (en) 2011-11-24

Family

ID=45326741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010110070A Pending JP2011239267A (en) 2010-05-12 2010-05-12 Imaging apparatus and image processing apparatus

Country Status (1)

Country Link
JP (1) JP2011239267A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013115754A (en) * 2011-11-30 2013-06-10 Canon Inc Image processing apparatus, image processing method, and program
JP2016032181A (en) * 2014-07-28 2016-03-07 キヤノン株式会社 Image processing apparatus, image pickup device and image processing method
JP2017016670A (en) * 2012-03-06 2017-01-19 アップル インコーポレイテッド Electronic device, method and program
WO2017142342A1 (en) * 2016-02-19 2017-08-24 Samsung Electronics Co., Ltd. Electronic device and operating method thereof
JP2020043574A (en) * 2014-12-03 2020-03-19 株式会社ニコン Electronic apparatus

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216043A (en) * 2004-01-30 2005-08-11 Noritsu Koki Co Ltd Softening effect filter and processing program therefor
JP2006301921A (en) * 2005-04-20 2006-11-02 Noritsu Koki Co Ltd Soft effect filter, soft effect filtering program and photographic image processing apparatus
JP2007066199A (en) * 2005-09-01 2007-03-15 Canon Inc Image processor and image processing method
JP2007124280A (en) * 2005-10-28 2007-05-17 Nikon Corp Imaging apparatus
JP2008067230A (en) * 2006-09-08 2008-03-21 Sony Corp Image processing apparatus, image processing method, and program
JP2008084236A (en) * 2006-09-29 2008-04-10 Casio Comput Co Ltd Image processor, image processing method and program
JP2008118348A (en) * 2006-11-02 2008-05-22 Nikon Corp Electronic camera and program
JP2008244693A (en) * 2007-03-27 2008-10-09 Sanyo Electric Co Ltd Image processor
JP2008294785A (en) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd Image processor, imaging apparatus, image file, and image processing method
JP2009284056A (en) * 2008-05-20 2009-12-03 Fujifilm Corp Image processing apparatus, method, and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216043A (en) * 2004-01-30 2005-08-11 Noritsu Koki Co Ltd Softening effect filter and processing program therefor
JP2006301921A (en) * 2005-04-20 2006-11-02 Noritsu Koki Co Ltd Soft effect filter, soft effect filtering program and photographic image processing apparatus
JP2007066199A (en) * 2005-09-01 2007-03-15 Canon Inc Image processor and image processing method
JP2007124280A (en) * 2005-10-28 2007-05-17 Nikon Corp Imaging apparatus
JP2008067230A (en) * 2006-09-08 2008-03-21 Sony Corp Image processing apparatus, image processing method, and program
JP2008084236A (en) * 2006-09-29 2008-04-10 Casio Comput Co Ltd Image processor, image processing method and program
JP2008118348A (en) * 2006-11-02 2008-05-22 Nikon Corp Electronic camera and program
JP2008244693A (en) * 2007-03-27 2008-10-09 Sanyo Electric Co Ltd Image processor
JP2008294785A (en) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd Image processor, imaging apparatus, image file, and image processing method
JP2009284056A (en) * 2008-05-20 2009-12-03 Fujifilm Corp Image processing apparatus, method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013115754A (en) * 2011-11-30 2013-06-10 Canon Inc Image processing apparatus, image processing method, and program
JP2017016670A (en) * 2012-03-06 2017-01-19 アップル インコーポレイテッド Electronic device, method and program
JP2016032181A (en) * 2014-07-28 2016-03-07 キヤノン株式会社 Image processing apparatus, image pickup device and image processing method
JP2020043574A (en) * 2014-12-03 2020-03-19 株式会社ニコン Electronic apparatus
US11297221B2 (en) 2014-12-03 2022-04-05 Nikon Corporation Image-capturing apparatus, electronic device, and program
WO2017142342A1 (en) * 2016-02-19 2017-08-24 Samsung Electronics Co., Ltd. Electronic device and operating method thereof
US10255689B2 (en) 2016-02-19 2019-04-09 Samsung Electronics, Co., Ltd. Electronic device for selecting image processing technique based on shape and operating method thereof

Similar Documents

Publication Publication Date Title
US9578260B2 (en) Digital photographing apparatus and method of controlling the digital photographing apparatus
US8792019B2 (en) Video creation device, video creation method and non-transitory computer-readable storage medium
EP2525565B1 (en) Digital photographing apparatus and method of controlling the same to increase continuous shooting speed for capturing panoramic photographs
JP5124372B2 (en) Image processing apparatus, image processing method, and digital still camera
JP2009054130A (en) Image processor, image processing method, and digital still camera
JP5262417B2 (en) Image processing apparatus, image processing method, and image processing program
KR101700366B1 (en) Digital photographing apparatus and control method thereof
KR101626004B1 (en) Method and apparatus for selective support of the RAW format in digital imaging processor
JP2011041089A (en) Method, device and program for processing image, and imaging device
US20130162853A1 (en) Digital photographing apparatus and method of controlling the same
KR101989152B1 (en) Apparatus and method for capturing still image during moving image photographing or reproducing
JP4802884B2 (en) Imaging apparatus, captured image recording method, and program
JP4799501B2 (en) Image capturing apparatus, image capturing apparatus control method, and program
JP2011239267A (en) Imaging apparatus and image processing apparatus
JP2007299339A (en) Image reproducing device, method and program
JP5117889B2 (en) Image processing apparatus and image processing method
KR20160137289A (en) Photographing apparatus and method for controlling the same
JP4717867B2 (en) Imaging apparatus and imaging method
JP6330862B2 (en) Imaging apparatus, imaging method, and program
JP4934617B2 (en) Imaging apparatus and imaging method
JP2010141609A (en) Imaging apparatus
JP5146015B2 (en) Imaging apparatus and imaging method
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP2008172395A (en) Imaging apparatus and image processing apparatus, method, and program
JP2015118274A (en) Imaging device, imaging device control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150303