JP2007194917A - Setting of effect processing suitable for photographing scene of image - Google Patents

Setting of effect processing suitable for photographing scene of image Download PDF

Info

Publication number
JP2007194917A
JP2007194917A JP2006011210A JP2006011210A JP2007194917A JP 2007194917 A JP2007194917 A JP 2007194917A JP 2006011210 A JP2006011210 A JP 2006011210A JP 2006011210 A JP2006011210 A JP 2006011210A JP 2007194917 A JP2007194917 A JP 2007194917A
Authority
JP
Japan
Prior art keywords
image
effect
target image
correction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006011210A
Other languages
Japanese (ja)
Other versions
JP2007194917A5 (en
Inventor
Hirokazu Kasahara
広和 笠原
Yoshiori Matsumoto
佳織 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006011210A priority Critical patent/JP2007194917A/en
Publication of JP2007194917A publication Critical patent/JP2007194917A/en
Publication of JP2007194917A5 publication Critical patent/JP2007194917A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily set to an image an effect processing which is suitable for a photographing scene of the image. <P>SOLUTION: An image processing system judges the photographing scene of an object image. The image processing system selectably presents to a user the effect processing which is the effect processing set in advance for generating a prescribed effect on the object image by changing at least a part of value in a plurality of pixels constituting the object image and which is associated with the photographing scene of the object image, and sets the effect processing selected by the user as the effect processing to be executed for the object image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像の撮影シーンに適した効果処理を画像に対して設定する技術に関する。   The present invention relates to a technique for setting an effect process suitable for an image shooting scene for an image.

近年、撮像素子を用いて被写体を撮像することによりデジタルデータとしての画像データを生成するデジタルスチルカメラ(以下「DSC」とも呼ぶ)が広く普及している。このようなDSCを用いた撮影の際に、画像の撮影シーン(例えば人物を撮影するシーンや夜景を撮影するシーン)が判別され、撮影シーンに適した画像補正(例えばホワイトバランスやシャープネスの補正)が生成された画像データに対して自動的に実行される技術が知られている(例えば特許文献1)。   In recent years, digital still cameras (hereinafter also referred to as “DSC”) that generate image data as digital data by imaging a subject using an image sensor have become widespread. At the time of shooting using such a DSC, a shooting scene of an image (for example, a scene for shooting a person or a scene for shooting a night view) is determined, and image correction suitable for the shooting scene (for example, correction of white balance or sharpness). There is known a technique that is automatically executed on the generated image data (for example, Patent Document 1).

特開2002−218494JP 2002-218494 A 特開2003−18453JP2003-18453 特開2005−62370JP 2005-62370 A 特開2005−311878JP-A-2005-31878

他方、画像処理の1つとして、画像に対する効果処理が知られている。ここで、効果処理とは、画像を構成する複数の画素の内の少なくとも一部の値を変更することによって画像に所定の効果を生じさせる処理を意味している。効果処理の具体例としては、ソフトフォーカスやセピア、クロススクリーン等が挙げられる。画像に対して効果処理を実行することにより、より多彩な画像表現が可能となる。   On the other hand, an effect process for an image is known as one of the image processes. Here, the effect process means a process for producing a predetermined effect on an image by changing at least some values of a plurality of pixels constituting the image. Specific examples of the effect processing include soft focus, sepia, and cross screen. By executing the effect processing on the image, more various image representations are possible.

上記従来技術では、画像の撮影シーンに適した効果処理を設定するための手段は提供されていなかった。そのため、効果処理自体の知識や各撮影シーンに適した効果処理に関する知識に乏しい一般ユーザは、画像の撮影シーンに適した効果処理を採用してより豊かな表現の画像を得ることが困難であった。   In the above prior art, means for setting effect processing suitable for an image shooting scene has not been provided. For this reason, it is difficult for general users who lack knowledge of the effect processing itself and knowledge of the effect processing suitable for each shooting scene to obtain a richer expression image by adopting the effect processing suitable for the shooting scene of the image. It was.

本発明は、上述した従来の課題を解決するためになされたものであり、画像の撮影シーンに適した効果処理を画像に対して容易に設定することを可能とする技術を提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and an object of the present invention is to provide a technique capable of easily setting an effect process suitable for an image shooting scene for an image. And

上記課題の少なくとも一部を解決するために、本発明の画像処理システムは、
対象画像の撮影シーンを判別するシーン判別部と、
前記対象画像を構成する複数の画素の内の少なくとも一部の値を変更することにより前記対象画像に所定の効果を生じさせるための予め設定された効果処理であって前記対象画像の撮影シーンに対応付けられた効果処理をユーザに対して選択可能に提示すると共に、ユーザにより選択された効果処理を前記対象画像に対して実行すべき効果処理として設定する効果設定部と、を備える。
In order to solve at least a part of the above problems, an image processing system of the present invention includes:
A scene discriminating unit for discriminating a shooting scene of the target image;
A preset effect process for producing a predetermined effect on the target image by changing a value of at least a part of a plurality of pixels constituting the target image. An effect setting unit that presents the associated effect process in a selectable manner to the user, and sets the effect process selected by the user as an effect process to be executed on the target image.

この画像処理システムでは、対象画像の撮影シーンが判別され、対象画像の撮影シーンに対応付けられた効果処理がユーザに対して選択可能に提示される。また、ユーザにより選択された効果処理が、対象画像に対して実行すべき効果処理として設定される。そのため、この画像処理システムでは、画像の撮影シーンに適した効果処理を画像に対して容易に設定することができる。   In this image processing system, a shooting scene of the target image is determined, and an effect process associated with the shooting scene of the target image is presented to the user in a selectable manner. Further, the effect process selected by the user is set as the effect process to be executed on the target image. Therefore, in this image processing system, it is possible to easily set an effect process suitable for an image shooting scene for an image.

上記画像処理システムにおいて、さらに、
前記対象画像に対して、前記効果設定部により設定された効果処理を実行する効果処理部を備えるとしてもよい。
In the above image processing system,
It is good also as providing the effect process part which performs the effect process set by the said effect setting part with respect to the said target image.

このようにすれば、対象画像に対して設定された効果処理が実行されるため、画像の撮影シーンに適した効果処理の実行を容易に実現することができる。   In this way, since the effect process set for the target image is executed, it is possible to easily realize the effect process suitable for the shooting scene of the image.

また、上記画像処理システムにおいて、さらに、
前記効果処理部による効果処理実行後の前記対象画像を出力する出力部を備えるとしてもよい。
In the above image processing system,
It is good also as providing the output part which outputs the said target image after the effect process execution by the said effect process part.

このようにすれば、対象画像に対して設定された効果処理の実行後の対象画像が出力されるため、画像の撮影シーンに適した効果処理実行後の対象画像の出力を容易に実現することができる。   In this way, since the target image after the execution of the effect process set for the target image is output, the output of the target image after the execution of the effect process suitable for the shooting scene of the image can be easily realized. Can do.

また、上記画像処理システムにおいて、さらに、
前記対象画像の撮影シーンに対応付けられた画像補正を前記対象画像に対して実行すべき画像補正として設定する補正設定部と、
前記対象画像に対して、前記補正設定部により設定された画像補正を実行する補正処理部と、を備え、
前記効果処理部により実行される効果処理は、前記補正処理部により実行される画像補正に重畳して前記対象画像に対して実行される処理であるとしてもよい。
In the above image processing system,
A correction setting unit that sets an image correction associated with a shooting scene of the target image as an image correction to be performed on the target image;
A correction processing unit that executes image correction set by the correction setting unit on the target image,
The effect process executed by the effect processor may be a process executed on the target image superimposed on the image correction executed by the correction processor.

このようにすれば、対象画像の撮影シーンに対応付けられた画像補正が対象画像に対して実行すべき画像補正として設定され、設定された画像補正が実行される。そのため、この画像処理システムでは、画像の撮影シーンに適した画像補正および効果処理を画像に対して容易に設定することができる。   In this way, the image correction associated with the shooting scene of the target image is set as the image correction to be performed on the target image, and the set image correction is executed. Therefore, in this image processing system, image correction and effect processing suitable for an image shooting scene can be easily set for an image.

また、上記画像処理システムにおいて、
前記効果設定部は、前記シーン判別部が複数の撮影シーンが前記対象画像の撮影シーンとして該当すると判別した場合には、前記複数の撮影シーンのそれぞれに対応付けられた効果処理のすべてを提示するとしてもよい。
In the image processing system,
The effect setting unit presents all of the effect processes associated with each of the plurality of shooting scenes when the scene determination unit determines that a plurality of shooting scenes correspond to the shooting scenes of the target image. It is good.

このようにすれば、対象画像の撮影シーンに適した効果処理を不足なくユーザに提示することができ、ユーザの利便性をより向上させることができる。   In this way, it is possible to present to the user an effect process suitable for the shooting scene of the target image without a shortage, and the convenience for the user can be further improved.

なお、本発明は、種々の態様で実現することが可能であり、例えば、画像処理方法およびシステムもしくは装置、画像生成方法およびシステムもしくは装置、画像出力方法およびシステムもしくは装置、画像補正方法およびシステムもしくは装置、これらの方法、システムまたは装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、そのコンピュータプログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。   Note that the present invention can be realized in various modes, for example, an image processing method and system or apparatus, an image generation method and system or apparatus, an image output method and system or apparatus, an image correction method and system or Implementation in the form of a device, a computer program for realizing the functions of these methods, systems or devices, a recording medium storing the computer program, a data signal including the computer program and embodied in a carrier wave, etc. Can do.

次に、本発明の実施の形態を実施例に基づいて以下の順序で説明する。
A.第1実施例:
B.第2実施例:
C.第3実施例:
D.変形例:
Next, embodiments of the present invention will be described in the following order based on examples.
A. First embodiment:
B. Second embodiment:
C. Third embodiment:
D. Variation:

A.第1実施例:
図1は、本発明の第1実施例としての画像処理システム10の構成を概略的に示す説明図である。第1実施例の画像処理システム10は、デジタルスチルカメラ(以下「DSC」とも呼ぶ)100とプリンタ200とが互いに接続された構成を有している。
A. First embodiment:
FIG. 1 is an explanatory diagram schematically showing the configuration of an image processing system 10 as a first embodiment of the present invention. The image processing system 10 of the first embodiment has a configuration in which a digital still camera (hereinafter also referred to as “DSC”) 100 and a printer 200 are connected to each other.

DSC100は、撮像素子を用いて被写体を撮像することにより画像を表す画像データを生成する装置である。DSC100は、レンズ102と、レンズ102を駆動して焦点距離を調整するレンズ駆動部104と、レンズ駆動部104を制御するレンズ駆動制御部106と、レンズ102を介して受光面に入力された光を電気信号に変換する撮像素子108と、撮像素子108から出力された電気信号に対するA/D変換を行うA/D変換器110と、画像や各種設定情報を表示する表示部112と、ボタンやタッチパネル等の操作部114と、DSC100の各部を制御するCPU116と、外部機器(例えばプリンタ200)との間の情報のやり取りのためのインターフェイス部(I/F部)118と、内部メモリ130と、を備えている。DSC100の各構成要素は、バス120を介して互いに接続されている。   The DSC 100 is an apparatus that generates image data representing an image by imaging a subject using an imaging element. The DSC 100 includes a lens 102, a lens driving unit 104 that drives the lens 102 to adjust the focal length, a lens driving control unit 106 that controls the lens driving unit 104, and light input to the light receiving surface via the lens 102. An image sensor 108 that converts the signal into an electrical signal, an A / D converter 110 that performs A / D conversion on the electrical signal output from the image sensor 108, a display unit 112 that displays images and various setting information, buttons, An operation unit 114 such as a touch panel, a CPU 116 that controls each unit of the DSC 100, an interface unit (I / F unit) 118 for exchanging information with an external device (for example, the printer 200), an internal memory 130, It has. Each component of the DSC 100 is connected to each other via a bus 120.

本実施例では、撮像素子108としてCCD(Charge Coupled Device(電荷結合素子))が用いられる。また、本実施例では、表示部112として、液晶モニタが用いられる。DSC100による撮影時には、表示部112としての液晶モニタに被写体の画像が表示される。なお、本明細書において、「被写体」とは、画像の全体にわたって撮像される人、物、景色といった撮像対象を意味している。   In this embodiment, a CCD (Charge Coupled Device) is used as the image sensor 108. In this embodiment, a liquid crystal monitor is used as the display unit 112. At the time of photographing by the DSC 100, an image of the subject is displayed on a liquid crystal monitor as the display unit 112. In this specification, “subject” means an imaging target such as a person, an object, or a landscape that is captured over the entire image.

内部メモリ130には、画像処理部140と、シーン別対応表CTと、が格納されている。画像処理部140は、所定のオペレーティングシステムの下で、A/D変換やホワイトバランス処理といった画像生成等のための種々の画像処理を行うためのコンピュータプログラムである。CPU116は、内部メモリ130から、画像処理部140を読み出して実行することにより、画像の生成等を実現する。   The internal memory 130 stores an image processing unit 140 and a scene correspondence table CT. The image processing unit 140 is a computer program for performing various image processing for image generation such as A / D conversion and white balance processing under a predetermined operating system. The CPU 116 reads out and executes the image processing unit 140 from the internal memory 130, thereby realizing image generation and the like.

画像処理部140は、また、プログラムモジュールとして、シーン判別部142と、補正設定部144と、補正処理部145と、効果設定部146と、効果処理部147と、を含んでいる。これらの各部の機能については、後述の画像生成出力処理の説明において詳述する。   The image processing unit 140 also includes a scene determination unit 142, a correction setting unit 144, a correction processing unit 145, an effect setting unit 146, and an effect processing unit 147 as program modules. The functions of these units will be described in detail in the description of image generation / output processing described later.

シーン別対応表CTは、画像の撮影シーンに対応付けられた画像補正パラメータおよび効果処理を定義するためのテーブルである。図2は、シーン別対応表CTの内容の一例を示す説明図である。本実施例のDSC100では、撮影シーンとして、「マクロ」や「ポートレート」や「夜景」といった複数の撮影シーンが予め設定されている。シーン別対応表CTには、設定された撮影シーン毎に画像補正を特定するための情報が定められている。ここで、画像補正とは、対象となる画像が好ましい画像となるように、画像を構成する複数の画素の内の少なくとも一部の値を変更することを意味している。画像補正の項目としては、コントラスト補正、明るさ補正、カラーバランス補正、彩度補正、シャープネス、記憶色補正、ノイズ除去等がある。図2に示すように、シーン別対応表CTには、撮影シーン毎に、各項目の画像補正実行に用いるパラメータ値が定められている。   The scene correspondence table CT is a table for defining image correction parameters and effect processing associated with an image shooting scene. FIG. 2 is an explanatory diagram showing an example of the contents of the scene correspondence table CT. In the DSC 100 of the present embodiment, a plurality of shooting scenes such as “macro”, “portrait”, and “night view” are preset as shooting scenes. The scene correspondence table CT defines information for specifying image correction for each set shooting scene. Here, the image correction means changing at least a part of values of a plurality of pixels constituting the image so that the target image becomes a preferable image. The image correction items include contrast correction, brightness correction, color balance correction, saturation correction, sharpness, memory color correction, noise removal, and the like. As shown in FIG. 2, in the scene correspondence table CT, parameter values used for executing image correction for each item are determined for each photographing scene.

さらに、シーン別対応表CTには、各撮影シーンに適した効果処理が定められている。ここで、効果処理とは、画像を構成する複数の画素の内の少なくとも一部の値を変更することによって画像に所定の効果を生じさせる処理を意味している。効果処理は、特殊効果処理、追加効果処理、付加効果処理、任意効果処理、エフェクト等とも呼ばれる。効果処理の項目としては、ソフトフォーカス、クロススクリーンフィルタ(クロスフォーカス)、セピア、質感強調フィルタ、原色強調フィルタ、絵画調フィルタ、スポットライト等がある。例えば、図2に示すように、本実施例では、撮影シーン「マクロ」に適した効果処理として、ソフトフォーカスおよびセピアが設定されている。また、撮影シーン「夜景」に適した効果処理として、クロススクリーンフィルタが設定されている。なお、図2の例では、撮影シーン「ポートレート」に適した効果処理として、撮影シーン「マクロ」と同様に、ソフトフォーカスおよびセピアが設定されているが、「ポートレート」に適したソフトフォーカスおよびセピアの効果処理はあくまで「ポートレート」用の効果処理であって、「マクロ」用のソフトフォーカスおよびセピアの効果処理とは異なる処理であるとしてもよい。   Furthermore, effect processing suitable for each shooting scene is defined in the scene correspondence table CT. Here, the effect process means a process for producing a predetermined effect on an image by changing at least some values of a plurality of pixels constituting the image. The effect processing is also called special effect processing, additional effect processing, additional effect processing, arbitrary effect processing, effect, or the like. The effect processing items include soft focus, cross screen filter (cross focus), sepia, texture enhancement filter, primary color enhancement filter, painting tone filter, spotlight, and the like. For example, as shown in FIG. 2, in this embodiment, soft focus and sepia are set as effect processing suitable for the shooting scene “macro”. In addition, a cross screen filter is set as an effect process suitable for the shooting scene “night view”. In the example of FIG. 2, soft focus and sepia are set as effect processing suitable for the photographic scene “Portrait”, as in the case of the photographic scene “Macro”. The sepia effect process is merely an effect process for “portrait”, and may be a process different from the soft focus and sepia effect process for “macro”.

プリンタ200(図1)は、画像データに基づき画像の印刷を行う印刷装置である。プリンタ200は、プリンタエンジン210と、画像や各種設定情報を表示する表示部212と、ボタンやタッチパネル等の操作部214と、プリンタ200の各部を制御するCPU216と、外部機器(例えばDSC100)との間の情報のやり取りのためのインターフェイス部(I/F部)218と、内部メモリ230と、を備えている。プリンタエンジン210は、印刷データに基づき印刷を行う印刷機構である。本実施例では、表示部212として液晶モニタが用いられる。   The printer 200 (FIG. 1) is a printing apparatus that prints an image based on image data. The printer 200 includes a printer engine 210, a display unit 212 that displays images and various setting information, an operation unit 214 such as buttons and a touch panel, a CPU 216 that controls each unit of the printer 200, and an external device (for example, DSC 100). An interface unit (I / F unit) 218 and an internal memory 230 for exchanging information between them are provided. The printer engine 210 is a printing mechanism that performs printing based on print data. In this embodiment, a liquid crystal monitor is used as the display unit 212.

プリンタ200の内部メモリ230(図1)には、印刷処理部240が格納されている。印刷処理部240は、所定のオペレーティングシステムの下で、プリンタエンジン210を制御して画像の印刷を行うためのコンピュータプログラム(プリンタドライバ)である。CPU216は、内部メモリ230から、印刷処理部240を読み出して実行することにより、画像の印刷を実現する。   A print processing unit 240 is stored in the internal memory 230 (FIG. 1) of the printer 200. The print processing unit 240 is a computer program (printer driver) for controlling the printer engine 210 to print an image under a predetermined operating system. The CPU 216 implements image printing by reading and executing the print processing unit 240 from the internal memory 230.

図3は、第1実施例の画像処理システム10による画像生成出力処理の流れを示すフローチャートである。また、図4は、第1実施例の画像処理システム10による画像生成出力処理の概要を示す説明図である。画像処理システム10(図1)による画像生成出力処理は、DSC100を用いて画像を生成すると共に、生成した画像をプリンタ200を用いて印刷する処理である。   FIG. 3 is a flowchart showing the flow of image generation output processing by the image processing system 10 of the first embodiment. FIG. 4 is an explanatory diagram showing an outline of image generation / output processing by the image processing system 10 of the first embodiment. Image generation output processing by the image processing system 10 (FIG. 1) is processing for generating an image using the DSC 100 and printing the generated image using the printer 200.

ステップS110(図3)では、DSC100(図1)が、ユーザによる操作部114を介した指示に従って撮像を行い、画像(以下「対象画像」とも呼ぶ)を表す画像データ(以下「対象画像データ」とも呼ぶ)を生成する。図4(a)には、DSC100による撮像の様子を示している。ここで、本実施例では、DSC100の操作部114(図1)は、ユーザに撮影シーンを選択させるための図示しないシーン設定部(図4(a)参照)を含んでいる。ユーザは、撮像時に、シーン設定部を操作することによって、撮影シーンを設定することができる。図4(a)の例では、撮影シーンとして「マクロ」が設定されている。   In step S110 (FIG. 3), the DSC 100 (FIG. 1) performs imaging in accordance with an instruction from the user via the operation unit 114, and image data representing an image (hereinafter also referred to as “target image”) (hereinafter “target image data”). (Also called). FIG. 4A shows the state of imaging by the DSC 100. In this embodiment, the operation unit 114 (FIG. 1) of the DSC 100 includes a scene setting unit (not shown) (see FIG. 4A) for allowing the user to select a shooting scene. The user can set a shooting scene by operating the scene setting unit during imaging. In the example of FIG. 4A, “macro” is set as the shooting scene.

ステップS120(図3)では、画像処理部140のシーン判別部142(図1)が、対象画像の撮影シーンの判別を行う。具体的には、シーン判別部142は、操作部114に含まれるシーン設定部(図4(a)参照)の設定状況に基づき撮影シーンを判別する。図4の例では、図4(b)に示すように、撮影シーンが「マクロ」であると判別されている。   In step S120 (FIG. 3), the scene determination unit 142 (FIG. 1) of the image processing unit 140 determines the shooting scene of the target image. Specifically, the scene determination unit 142 determines a shooting scene based on the setting status of a scene setting unit (see FIG. 4A) included in the operation unit 114. In the example of FIG. 4, as shown in FIG. 4B, it is determined that the shooting scene is “macro”.

なお、シーン判別部142(図1)による撮影シーンの判別は、必ずしもシーン設定部の設定状況に基づいて行われる必要はなく、他の方法によって行われるとしてもよい。例えば、シーン判別部142は、撮像により生成された画像を解析して被写体を推定することにより撮影シーンを判別することも可能である。例えば、画像解析の結果、被写体が人物の顔であると推定された場合には、シーン判別部142は、撮影シーンが「ポートレート」であると判別するとしてもよい。   Note that the scene determination unit 142 (FIG. 1) does not necessarily have to determine the shooting scene based on the setting status of the scene setting unit, and may be performed by another method. For example, the scene determination unit 142 can determine a shooting scene by analyzing an image generated by imaging and estimating a subject. For example, when the subject is estimated to be a human face as a result of image analysis, the scene determination unit 142 may determine that the shooting scene is “portrait”.

また、シーン判別部142による撮影シーンの判別の結果、複数の撮影シーンが対象画像の撮影シーンとして該当すると判別される場合があるとしてもよい。このような場合には、例えば夜景を背景とした人物の顔の画像は、対象画像の撮影シーンが「ポートレート」および「夜景」であると判別されるとしてもよい。   Further, as a result of the determination of the shooting scene by the scene determination unit 142, it may be determined that a plurality of shooting scenes correspond to the shooting scene of the target image. In such a case, for example, the image of the face of a person against the background of the night view may be determined as the “portrait” and “night view” of the shooting scene of the target image.

ステップS130(図3)では、画像処理部140の効果設定部146(図1)が、ステップS120で判別された撮影シーンに対応付けられた効果処理の選択肢を提示する。具体的には、効果設定部146は、シーン別対応表CT(図2)を参照して、判別された撮影シーンに対応付けられた効果処理を表示部112(図1)上に表示する。図4(b)には、撮影シーン「マクロ」に対応付けられた効果処理の選択肢として、「ソフトフォーカス」および「セピア」が表示部112上に表示されている様子を示している。なお、図4(b)の例では、表示部112上に、撮像により生成された画像(対象画像)も表示されている。図4(b)に示すように、効果処理の選択肢は、ユーザが操作部114を介して選択することが可能なように、表示部112上に表示される。なお、判別された撮影シーンに対応付けられた効果処理がシーン別対応表CTに1つも登録されていない場合には、効果設定部146は、効果処理の選択肢の提示を実行しない。また、複数の撮影シーンが対象画像の撮影シーンとして該当すると判別された場合には、当該複数の撮影シーンのそれぞれに対応付けられた効果処理がすべて選択肢として表示される。このようにすれば、対象画像の撮影シーンに適した効果処理を不足なくユーザに提示することができる。   In step S130 (FIG. 3), the effect setting unit 146 (FIG. 1) of the image processing unit 140 presents options for effect processing associated with the shooting scene determined in step S120. Specifically, the effect setting unit 146 refers to the scene correspondence table CT (FIG. 2) and displays the effect process associated with the determined shooting scene on the display unit 112 (FIG. 1). FIG. 4B shows a state where “soft focus” and “sepia” are displayed on the display unit 112 as options for effect processing associated with the shooting scene “macro”. In the example of FIG. 4B, an image (target image) generated by imaging is also displayed on the display unit 112. As shown in FIG. 4B, the effect processing options are displayed on the display unit 112 so that the user can select them via the operation unit 114. When no effect process associated with the determined shooting scene is registered in the scene correspondence table CT, the effect setting unit 146 does not present the effect process options. When it is determined that a plurality of shooting scenes correspond to the shooting scenes of the target image, all effect processes associated with the plurality of shooting scenes are displayed as options. In this way, it is possible to present the effect process suitable for the shooting scene of the target image to the user without shortage.

ステップS140(図3)では、効果設定部146(図1)が、ユーザによる操作部114を介した指示に従って、対象画像に対して実行すべき効果処理を設定する。例えば、ユーザが、図4(b)に示した表示部112上において、「ソフトフォーカス」の効果処理を選択した後「設定」ボタンを選択した場合には、効果設定部146は、対象画像に対して「ソフトフォーカス」の効果処理を設定する。   In step S140 (FIG. 3), the effect setting unit 146 (FIG. 1) sets effect processing to be performed on the target image in accordance with an instruction from the user via the operation unit 114. For example, when the user selects the “soft focus” effect process on the display unit 112 shown in FIG. 4B and then selects the “set” button, the effect setting unit 146 displays the target image. On the other hand, “soft focus” effect processing is set.

ステップS150(図1)では、画像処理部140(図1)が、圧縮処理等の所定の処理を実行することにより、対象画像データを含む所定のファイル形式の画像ファイル(以下「対象画像ファイル」とも呼ぶ)を生成する。この対象画像ファイルの生成の際に、画像処理部140の補正設定部144(図1)は、シーン別対応表CT(図2)を参照して、ステップS120において判別された撮影シーンに対応付けられた画像補正を、対象画像に対して実行すべき画像補正として設定する。また、画像処理部140の補正処理部145(図1)は、対象画像に対して設定された画像補正を実行する。例えば、撮影シーンが「マクロ」と判別された場合には、シーン別対応表CT(図2)において撮影シーン「マクロ」に対応付けられている各画像補正パラメータの値を用いた画像補正が対象画像に対して実行される。   In step S150 (FIG. 1), the image processing unit 140 (FIG. 1) executes a predetermined process such as a compression process, whereby an image file having a predetermined file format including target image data (hereinafter referred to as “target image file”). Also called). When generating the target image file, the correction setting unit 144 (FIG. 1) of the image processing unit 140 refers to the scene correspondence table CT (FIG. 2) and associates it with the shooting scene determined in step S120. The obtained image correction is set as an image correction to be performed on the target image. Further, the correction processing unit 145 (FIG. 1) of the image processing unit 140 executes image correction set for the target image. For example, when the shooting scene is determined to be “macro”, image correction using the values of the respective image correction parameters associated with the shooting scene “macro” in the scene correspondence table CT (FIG. 2) is an object. Performed on images.

さらに、対象画像ファイルの生成の際には、画像補正が実行された後に、画像処理部140の効果処理部147(図1)が、ステップS140において設定された効果処理を対象画像に対して実行する。例えば、図4(b)に示すように、「ソフトフォーカス」の効果処理が設定されている場合には、効果処理部147は、対象画像データと対象画像データにぼかしをかけた複製の画像データとを合成することにより、対象画像データに対する「ソフトフォーカス」の効果処理を実行する。なお、図4(c)には、DSC100において対象画像ファイルが生成されている様子を示している。   Further, when the target image file is generated, after the image correction is executed, the effect processing unit 147 (FIG. 1) of the image processing unit 140 executes the effect processing set in step S140 on the target image. To do. For example, as shown in FIG. 4B, when the “soft focus” effect process is set, the effect processing unit 147 copies the target image data and the target image data by duplicating the image data. Are combined to execute “soft focus” effect processing on the target image data. FIG. 4C shows a state where the target image file is generated in the DSC 100.

ステップS160(図3)では、DSC100の画像処理部140(図1)が、ユーザによる指示に従い、対象画像ファイルをプリンタ200に対して送信する。対象画像ファイルを受領したプリンタ200では、印刷処理部240(図1)が、対象画像ファイルに基づいて、画像IMGの出力(印刷)を行う。図4(d)には、プリンタ200により画像IMGが印刷された様子を示している。   In step S160 (FIG. 3), the image processing unit 140 (FIG. 1) of the DSC 100 transmits the target image file to the printer 200 in accordance with an instruction from the user. In the printer 200 that has received the target image file, the print processing unit 240 (FIG. 1) outputs (prints) the image IMG based on the target image file. FIG. 4D shows a state where the image IMG is printed by the printer 200.

以上説明したように、本実施例の画像処理システム10による画像生成出力処理では、DSC100によって対象画像ファイルが生成され、生成された対象画像ファイルに基づき画像IMGがプリンタ200によって印刷される。このとき、DSC100では、対象画像の撮影シーンの判別が行われ、判別された撮影シーンに適した効果処理の候補がユーザに対して選択可能に提示される(図4(b)参照)。また、ユーザにより選択された効果処理が、対象画像に対して実行すべき効果処理として設定される。そのため、効果処理自体の知識や各撮影シーンに適した効果処理に関する知識に乏しい一般ユーザでも、画像の撮影シーンに適した効果処理を採用してより豊かな表現の画像を得ることが可能である。すなわち、本実施例の画像処理システム10では、対象画像の撮影シーンに適した効果処理を対象画像に対して容易に設定することができる。   As described above, in the image generation / output process by the image processing system 10 of the present embodiment, the target image file is generated by the DSC 100, and the image IMG is printed by the printer 200 based on the generated target image file. At this time, the DSC 100 discriminates the shooting scene of the target image and presents the effect processing candidates suitable for the determined shooting scene to the user (see FIG. 4B). Further, the effect process selected by the user is set as the effect process to be executed on the target image. Therefore, even a general user who lacks knowledge about the effect processing itself and knowledge about the effect processing suitable for each shooting scene can adopt an effect processing suitable for the shooting scene of the image to obtain a richer expression image. . That is, in the image processing system 10 of the present embodiment, it is possible to easily set effect processing suitable for the shooting scene of the target image for the target image.

また、本実施例の画像処理システム10による画像生成出力処理では、対象画像に対して設定された効果処理が実行される。そのため、本実施例の画像処理システム10では、対象画像の撮影シーンに適した効果処理を容易に実行することができる。さらに、本実施例の画像処理システム10による画像生成出力処理では、効果処理実行後の対象画像データに基づき、画像IMGが出力(印刷)される。そのため、本実施例の画像処理システム10では、対象画像の撮影シーンに適した効果処理実行後の画像の出力を容易に実行することができる。   In the image generation / output process by the image processing system 10 of the present embodiment, the effect process set for the target image is executed. Therefore, in the image processing system 10 of the present embodiment, it is possible to easily execute effect processing suitable for the shooting scene of the target image. Further, in the image generation / output process by the image processing system 10 of the present embodiment, the image IMG is output (printed) based on the target image data after the effect process is executed. Therefore, in the image processing system 10 of the present embodiment, it is possible to easily execute output of an image after execution of effect processing suitable for the shooting scene of the target image.

なお、本実施例の画像処理システム10による画像生成出力処理では、撮影シーンに対応付けられた画像補正が、対象画像に対して実行すべき画像補正として設定され、設定された画像補正が実行される。そして、画像補正実行後の対象画像データに対して、さらに、設定された効果処理が実行される。すなわち、本実施例では、効果処理部147により実行される効果処理は、補正処理部145により実行される画像補正に重畳して対象画像に対して実行される処理である。ただし、必ずしも画像補正と効果処理とは独立して行われる必要はなく、画像補正と効果処理とが、補正処理部145および効果処理部147によって一度の処理で実行されるとしてもよい。   In the image generation / output process by the image processing system 10 of the present embodiment, the image correction associated with the shooting scene is set as the image correction to be performed on the target image, and the set image correction is executed. The Then, the set effect processing is further executed on the target image data after execution of the image correction. That is, in the present embodiment, the effect process executed by the effect processing unit 147 is a process executed on the target image superimposed on the image correction executed by the correction processing unit 145. However, the image correction and the effect processing are not necessarily performed independently, and the image correction and the effect processing may be executed by the correction processing unit 145 and the effect processing unit 147 in a single process.

B.第2実施例:
図5は、第2実施例の画像処理システム10aの構成を概略的に示す説明図である。第2実施例の画像処理システム10aは、第1実施例の画像処理システム10(図1)と同様に、DSC100aとプリンタ200aとが互いに接続された構成を有している。
B. Second embodiment:
FIG. 5 is an explanatory diagram schematically showing the configuration of the image processing system 10a of the second embodiment. Similar to the image processing system 10 (FIG. 1) of the first embodiment, the image processing system 10a of the second embodiment has a configuration in which a DSC 100a and a printer 200a are connected to each other.

第2実施例の画像処理システム10a(図5)は、DSC100a内の画像処理部140が第1実施例における補正処理部145および効果処理部147(図1)を含んでいない点が、第1実施例の画像処理システム10とは異なっている。さらに、第2実施例の画像処理システム10aは、プリンタ200aの印刷処理部240が、補正処理部245と効果処理部247とを含んでいる点も、第1実施例の画像処理システム10とは異なっている。すなわち、第2実施例の画像処理システム10aでは、補正処理部および効果処理部としての機能が、DSC100aではなく、プリンタ200aに含まれている。   The image processing system 10a (FIG. 5) in the second embodiment is that the image processing section 140 in the DSC 100a does not include the correction processing section 145 and the effect processing section 147 (FIG. 1) in the first embodiment. This is different from the image processing system 10 of the embodiment. Furthermore, the image processing system 10a of the second embodiment is different from the image processing system 10 of the first embodiment in that the print processing section 240 of the printer 200a includes a correction processing section 245 and an effect processing section 247. Is different. That is, in the image processing system 10a of the second embodiment, functions as a correction processing unit and an effect processing unit are included in the printer 200a, not in the DSC 100a.

図6は、第2実施例の画像処理システム10aによる画像生成出力処理の流れを示すフローチャートである。また、図7は、第2実施例の画像処理システム10aによる画像生成出力処理の概要を示す説明図である。第2実施例の画像処理システム10aによる画像生成出力処理は、画像補正および効果処理がプリンタ200a(図5)において実行される点が、第1実施例の画像生成出力処理と異なっている。   FIG. 6 is a flowchart showing the flow of image generation / output processing by the image processing system 10a of the second embodiment. FIG. 7 is an explanatory diagram showing an outline of image generation / output processing by the image processing system 10a of the second embodiment. The image generation / output process by the image processing system 10a of the second embodiment is different from the image generation / output process of the first embodiment in that image correction and effect processing are executed in the printer 200a (FIG. 5).

ステップS210からS240(図6)までの処理内容は、第1実施例の画像生成出力処理におけるステップS110からS140(図3)までの処理内容と同じである。すなわち、撮像によって対象画像データが生成され(図6のステップS210、図7(a))、対象画像の撮影シーンの判別が行われ(図6のステップS220、図7(b))、撮影シーンに対応付けられた効果処理の選択肢が提示され(図6のステップS230、図7(b))、対象画像に対して実行すべき効果処理が設定される(図6のステップS240、図7(b))。   The processing content from step S210 to S240 (FIG. 6) is the same as the processing content from step S110 to S140 (FIG. 3) in the image generation output processing of the first embodiment. That is, the target image data is generated by imaging (step S210 in FIG. 6, FIG. 7A), the shooting scene of the target image is determined (step S220 in FIG. 6, FIG. 7B), and the shooting scene. 6 is presented (step S230 in FIG. 6, FIG. 7B), and effect processing to be executed on the target image is set (step S240 in FIG. 6, FIG. 7 (FIG. 7)). b)).

ステップS250(図6)では、DSC100aの画像処理部140(図5)が、対象画像データを含む所定のファイル形式(例えばExifファイル形式)の画像ファイル(対象画像ファイル)を生成する。この対象画像ファイルの生成の際に、画像処理部140の補正設定部144(図5)が、シーン別対応表CT(図2)を参照して、ステップS220において判別された撮影シーンに対応付けられた画像補正を、対象画像に対して実行すべき画像補正として設定する。そして、補正設定部144は、対象画像ファイルに含まれる付属情報に、設定された画像補正を特定する情報を補正パラメータとして付加する(図7(c)参照)。画像補正を特定するための補正パラメータとしては、例えば各補正項目毎の補正値(図2参照)そのものが用いられるとしてもよいし、撮影シーンを特定する情報が用いられるものとしてもよい。画像補正を特定する情報として撮影シーンを特定する情報が用いられる場合には、後述のステップS260において、撮影シーンを特定する情報が、各補正項目毎の補正値に変換されることとなる。   In step S250 (FIG. 6), the image processing unit 140 (FIG. 5) of the DSC 100a generates an image file (target image file) in a predetermined file format (for example, Exif file format) including the target image data. When generating the target image file, the correction setting unit 144 (FIG. 5) of the image processing unit 140 refers to the scene correspondence table CT (FIG. 2) and associates it with the shooting scene determined in step S220. The obtained image correction is set as an image correction to be performed on the target image. Then, the correction setting unit 144 adds information specifying the set image correction as correction parameters to the attached information included in the target image file (see FIG. 7C). As a correction parameter for specifying image correction, for example, a correction value for each correction item (see FIG. 2) itself may be used, or information for specifying a shooting scene may be used. When information for specifying a shooting scene is used as information for specifying image correction, information for specifying a shooting scene is converted into a correction value for each correction item in step S260 described later.

さらに、ステップS250において画像処理部140の効果設定部146(図5)は、ステップS240において設定された効果処理を特定する情報を、対象画像ファイルに含まれる付属情報に、効果パラメータとして付加する(図7(c)参照)。効果処理を特定するための効果パラメータとしては、上述の補正パラメータと同様に、効果処理そのものを特定する情報が用いられるとしてもよいし、撮影シーンを特定する情報が用いられるものとしてもよい。効果処理を特定する情報として撮影シーンを特定する情報が用いられる場合には、後述のステップS260において、撮影シーンを特定する情報が、効果処理を特定する情報に変換されることとなる。   Further, in step S250, the effect setting unit 146 (FIG. 5) of the image processing unit 140 adds information specifying the effect process set in step S240 to the attached information included in the target image file as an effect parameter ( (Refer FIG.7 (c)). As the effect parameter for specifying the effect process, information for specifying the effect process itself may be used as in the above-described correction parameter, or information for specifying the shooting scene may be used. When information for specifying a shooting scene is used as information for specifying an effect process, information for specifying a shooting scene is converted into information for specifying an effect process in step S260 described later.

ステップS260(図6)では、DSC100aの画像処理部140(図5)が、ユーザによる指示に従い、対象画像ファイルをプリンタ200aに対して送信する。対象画像ファイルを受領したプリンタ200aでは、印刷処理部240に含まれる補正処理部245(図5)が、対象画像ファイルに付加された補正パラメータ(図7(c))によって特定される画像補正を対象画像データに対して実行する。さらに、印刷処理部240の効果処理部247(図5)は、対象画像ファイルに付加された効果パラメータ(図7(c))によって特定される効果処理を実行する。なお、補正処理部245および効果処理部247は、それぞれ補正パラメータおよび効果パラメータと画像補正および効果処理の内容との対応を定義するための情報を有しており、当該情報を参照して画像補正および効果処理の内容を特定する。   In step S260 (FIG. 6), the image processing unit 140 (FIG. 5) of the DSC 100a transmits the target image file to the printer 200a in accordance with an instruction from the user. In the printer 200a that has received the target image file, the correction processing unit 245 (FIG. 5) included in the print processing unit 240 performs the image correction specified by the correction parameter (FIG. 7C) added to the target image file. Execute for target image data. Further, the effect processing unit 247 (FIG. 5) of the print processing unit 240 executes effect processing specified by the effect parameter (FIG. 7C) added to the target image file. The correction processing unit 245 and the effect processing unit 247 each have information for defining the correspondence between the correction parameter and the effect parameter and the contents of the image correction and the effect processing, and the image correction is performed with reference to the information. And the content of the effect processing.

さらに、ステップS260(図6)では、印刷処理部240(図5)が、画像補正および効果処理が実行された後の対象画像データに基づき、画像IMGの印刷(出力)を行う。図7(d)には、プリンタ200aにより画像IMGが印刷された様子を示している。   Further, in step S260 (FIG. 6), the print processing unit 240 (FIG. 5) prints (outputs) the image IMG based on the target image data after the image correction and effect processing are executed. FIG. 7D shows a state where the image IMG is printed by the printer 200a.

以上説明したように、第2実施例の画像処理システム10aによる画像生成出力処理においても、第1実施例の画像生成出力処理と同様に、DSC100aによって対象画像ファイルが生成され、生成された対象画像ファイルに基づき画像IMGがプリンタ200aによって印刷される。このとき、DSC100aでは、対象画像の撮影シーンの判別が実行され、判別された撮影シーンに適した効果処理の候補がユーザに対して選択可能に提示される(図7(b)参照)。また、ユーザにより選択された効果処理が、生成された対象画像に対して実行すべき効果処理として設定される。そのため、第2実施例の画像処理システム10aでも、対象画像の撮影シーンに適した効果処理を対象画像に対して容易に設定することができる。   As described above, in the image generation / output process by the image processing system 10a of the second embodiment, the target image file is generated by the DSC 100a and the generated target image is generated, as in the image generation / output process of the first embodiment. An image IMG is printed by the printer 200a based on the file. At this time, the DSC 100a determines the shooting scene of the target image and presents the effect processing candidates suitable for the determined shooting scene to the user (see FIG. 7B). Further, the effect process selected by the user is set as the effect process to be executed on the generated target image. Therefore, even in the image processing system 10a of the second embodiment, it is possible to easily set effect processing suitable for the shooting scene of the target image for the target image.

また、第2実施例の画像処理システム10aによる画像生成出力処理でも、対象画像に対して設定された効果処理が実行される。そのため、第2実施例の画像処理システム10aでも、対象画像の撮影シーンに適した効果処理を容易に実行することができる。さらに、第2実施例の画像処理システム10aによる画像生成出力処理でも、効果処理実行後の対象画像データに基づき、画像IMGが出力される。そのため、第2実施例の画像処理システム10aでも、対象画像の撮影シーンに適した効果処理実行後の対象画像の出力を容易に実行することができる。   In the image generation / output process by the image processing system 10a of the second embodiment, the effect process set for the target image is executed. Therefore, even in the image processing system 10a of the second embodiment, it is possible to easily execute effect processing suitable for the shooting scene of the target image. Furthermore, also in the image generation output process by the image processing system 10a of the second embodiment, the image IMG is output based on the target image data after the effect process is executed. Therefore, even in the image processing system 10a of the second embodiment, it is possible to easily execute the output of the target image after executing the effect process suitable for the shooting scene of the target image.

C.第3実施例:
図8は、第3実施例の画像処理システム10bの構成を概略的に示す説明図である。第3実施例の画像処理システム10bは、第2実施例の画像処理システム10a(図5)と同様に、プリンタ200aを備えている。第3実施例の画像処理システム10bは、第2実施例の画像処理システム10aにおけるDSC100aの代わりに、パーソナルコンピュータ(以下「PC」とも呼ぶ)300を備えている点が、第2実施例の画像処理システム10aとは異なっている。PC300とプリンタ200aとは、互いに接続されている。
C. Third embodiment:
FIG. 8 is an explanatory diagram schematically showing the configuration of the image processing system 10b of the third embodiment. Similar to the image processing system 10a (FIG. 5) of the second embodiment, the image processing system 10b of the third embodiment includes a printer 200a. The image processing system 10b according to the third embodiment includes a personal computer (hereinafter also referred to as “PC”) 300 instead of the DSC 100a in the image processing system 10a according to the second embodiment. It is different from the processing system 10a. The PC 300 and the printer 200a are connected to each other.

PC300は、液晶モニタ等の表示部312と、キーボードやマウス等の操作部314と、PC300の各部を制御するCPU316と、インターフェイス部(I/F部)318と、ROMやRAM等の内部メモリ330と、を備えている。PC300は、さらにハードディスクドライブ等の外部記憶装置を備えていてもよい。PC300の各構成要素は、バス320を介して互いに接続されている。   The PC 300 includes a display unit 312 such as a liquid crystal monitor, an operation unit 314 such as a keyboard and a mouse, a CPU 316 that controls each unit of the PC 300, an interface unit (I / F unit) 318, and an internal memory 330 such as a ROM and a RAM. And. The PC 300 may further include an external storage device such as a hard disk drive. Each component of the PC 300 is connected to each other via a bus 320.

PC300のインターフェイス部318は、複数の入出力端子を備えており、外部機器との間で情報のやり取りを行う。例えば、インターフェイス部318は、カードスロット319を備えており、カードスロット319に挿入されたメモリカードMCに格納された画像データの読み込みを行う。   The interface unit 318 of the PC 300 includes a plurality of input / output terminals, and exchanges information with external devices. For example, the interface unit 318 includes a card slot 319 and reads image data stored in the memory card MC inserted into the card slot 319.

PC300の内部メモリ330には、画像処理部340と、シーン別対応表CTと、が格納されている。シーン別対応表CTは、第1実施例におけるシーン別対応表CT(図2)と同じものである。画像処理部340は、所定のオペレーティングシステムの下で画像処理を行うためのコンピュータプログラムである。CPU316は、内部メモリ330から、画像処理部340を読み出して実行することにより、画像処理を実現する。   The internal memory 330 of the PC 300 stores an image processing unit 340 and a scene correspondence table CT. The scene correspondence table CT is the same as the scene correspondence table CT (FIG. 2) in the first embodiment. The image processing unit 340 is a computer program for performing image processing under a predetermined operating system. The CPU 316 implements image processing by reading out and executing the image processing unit 340 from the internal memory 330.

画像処理部340は、プログラムモジュールとして、シーン判別部342と、補正設定部344と、効果設定部346と、画像取得部348と、を含んでいる。シーン判別部342と補正設定部344と効果設定部346とは、第2実施例においてDSC100aの有する画像処理部140に含まれるシーン判別部142と補正設定部144と効果設定部146と同様の機能を有するモジュールである。画像取得部348は、画像ファイルを取得するためのモジュールである。   The image processing unit 340 includes a scene determination unit 342, a correction setting unit 344, an effect setting unit 346, and an image acquisition unit 348 as program modules. The scene determination unit 342, the correction setting unit 344, and the effect setting unit 346 have the same functions as the scene determination unit 142, the correction setting unit 144, and the effect setting unit 146 included in the image processing unit 140 of the DSC 100a in the second embodiment. It is a module which has. The image acquisition unit 348 is a module for acquiring an image file.

図9は、第3実施例の画像処理システム10bによる画像変更出力処理の流れを示すフローチャートである。また、図10は、第3実施例の画像処理システム10bによる画像変更出力処理の概要を示す説明図である。画像処理システム10bによる画像変更出力処理は、画像ファイルを取得し、画像補正や効果処理によって取得した画像ファイルに変更を加えた後に、画像を印刷する処理である。   FIG. 9 is a flowchart showing the flow of image change output processing by the image processing system 10b of the third embodiment. FIG. 10 is an explanatory diagram showing an overview of image change output processing by the image processing system 10b of the third embodiment. The image change output process by the image processing system 10b is a process of acquiring an image file, printing the image after changing the image file acquired by image correction or effect processing.

ステップS310(図9)では、PC300の画像処理部340の画像取得部348(図8)が、処理の対象となる画像ファイルを対象画像ファイルとして取得する。具体的には、画像取得部348は、カードスロット319に挿入されたメモリカードMCに格納された画像ファイルを、インターフェイス部318を介して取得する。なお、画像取得部348は、必ずしもメモリカードMCから画像ファイルを取得する必要はなく、デジタルスチルカメラやネットワーク上の他の機器から画像ファイルを取得するとしてもよい。図10(a)には、PC300が対象画像ファイルを取得している様子を示している。   In step S310 (FIG. 9), the image acquisition unit 348 (FIG. 8) of the image processing unit 340 of the PC 300 acquires an image file to be processed as a target image file. Specifically, the image acquisition unit 348 acquires the image file stored in the memory card MC inserted into the card slot 319 via the interface unit 318. Note that the image acquisition unit 348 does not necessarily acquire an image file from the memory card MC, and may acquire an image file from a digital still camera or another device on the network. FIG. 10A shows a state where the PC 300 acquires the target image file.

ステップS320(図9)では、PC300の画像処理部340のシーン判別部342(図8)が、取得した対象画像ファイルの撮影シーンを判別する。具体的には、シーン判別部342は、対象画像ファイルに含まれる画像データを解析して被写体を推定することにより、撮影シーンを判別する。また、対象画像ファイルに付属情報として撮影シーンを特定する情報が含まれている場合には、シーン判別部342は、当該情報に基づき撮影シーンを判別するとしてもよい。   In step S320 (FIG. 9), the scene determination unit 342 (FIG. 8) of the image processing unit 340 of the PC 300 determines the shooting scene of the acquired target image file. Specifically, the scene determination unit 342 determines the shooting scene by analyzing the image data included in the target image file and estimating the subject. If the target image file includes information for specifying a shooting scene as attached information, the scene determination unit 342 may determine the shooting scene based on the information.

ステップS330(図9)では、画像処理部340の効果設定部346(図8)が、ステップS320で判別された撮影シーンに対応付けられた効果処理の選択肢を提示する。効果設定部346は、シーン別対応表CT(図8、図2)を参照して、判別された撮影シーンに対応付けられた効果処理を選択し、表示部312(図8)上に表示する。図10(b)には、撮影シーン「マクロ」に対応付けられた効果処理の選択肢が表示部312上に表示されている様子を示している。図10(b)に示すように、効果処理の選択肢は、ユーザが操作部314を介して選択することが可能なように、表示部312上に表示される。   In step S330 (FIG. 9), the effect setting unit 346 (FIG. 8) of the image processing unit 340 presents effect processing options associated with the shooting scene determined in step S320. The effect setting unit 346 refers to the scene correspondence table CT (FIGS. 8 and 2), selects the effect process associated with the determined shooting scene, and displays it on the display unit 312 (FIG. 8). . FIG. 10B shows a state in which the effect processing options associated with the shooting scene “macro” are displayed on the display unit 312. As shown in FIG. 10B, the effect processing options are displayed on the display unit 312 so that the user can select them via the operation unit 314.

ステップS340(図9)では、画像処理部340の効果設定部346(図8)が、ユーザによる操作部314を介した指示に従って、対象画像ファイルに含まれる画像データに対して実行すべき効果処理を設定する。   In step S340 (FIG. 9), the effect setting unit 346 (FIG. 8) of the image processing unit 340 performs effect processing to be performed on the image data included in the target image file in accordance with an instruction from the user via the operation unit 314. Set.

ステップS350(図9)では、画像処理部340(図8)が、対象画像ファイルを変更する。具体的には、画像処理部340の効果設定部346(図8)が、ステップS340において設定された効果処理を特定する情報を、対象画像ファイルに含まれる付属情報に、効果パラメータとして付加する(図10(c)参照)。なお、対象画像ファイルに撮影シーンに対応付けられた画像補正を特定する情報(補正パラメータ)が付加されていない場合には、画像処理部340の補正設定部344が、対象画像ファイルに補正パラメータを付加するとしてもよい(図10(c)参照)。   In step S350 (FIG. 9), the image processing unit 340 (FIG. 8) changes the target image file. Specifically, the effect setting unit 346 (FIG. 8) of the image processing unit 340 adds information specifying the effect process set in step S340 as an effect parameter to the attached information included in the target image file ( (Refer FIG.10 (c)). If the information (correction parameter) for specifying the image correction associated with the shooting scene is not added to the target image file, the correction setting unit 344 of the image processing unit 340 sets the correction parameter in the target image file. It may be added (see FIG. 10C).

ステップS360(図9)では、画像処理部340(図8)が、ユーザによる指示に従い、対象画像ファイルをプリンタ200aに対して送信する。対象画像ファイルを受領したプリンタ200aでは、第2実施例と同様に、対象画像ファイルに付加された補正パラメータおよび効果パラメータによって特定される画像補正および効果処理が実行される。さらに、プリンタ200aでは、画像補正および効果処理が実行された後の対象画像データに基づき、画像IMGの印刷(出力)が行われる(図10(d)参照)。   In step S360 (FIG. 9), the image processing unit 340 (FIG. 8) transmits the target image file to the printer 200a in accordance with an instruction from the user. In the printer 200a that has received the target image file, image correction and effect processing specified by the correction parameters and effect parameters added to the target image file are executed as in the second embodiment. Further, in the printer 200a, the image IMG is printed (output) based on the target image data after the image correction and the effect processing are executed (see FIG. 10D).

以上説明したように、第3実施例の画像処理システム10bによる画像変更出力処理では、処理の対象となる対象画像ファイルが取得され、取得された対象画像ファイルに基づき画像IMGがプリンタ200aによって印刷される。このとき、PC300では、撮影シーンの判別が実行され、判別された撮影シーンに適した効果処理の候補がユーザに対して選択可能に提示される(図10(b)参照)。また、ユーザにより選択された効果処理が、対象画像に対して実行すべき効果処理として設定される。そのため、第3実施例の画像処理システム10bでも、対象画像の撮影シーンに適した効果処理を対象画像に対して容易に設定することができる。   As described above, in the image change output process by the image processing system 10b of the third embodiment, the target image file to be processed is acquired, and the image IMG is printed by the printer 200a based on the acquired target image file. The At this time, the PC 300 discriminates the photographic scene and presents the effect processing candidates suitable for the discriminated photographic scene to the user in a selectable manner (see FIG. 10B). Further, the effect process selected by the user is set as the effect process to be executed on the target image. Therefore, even in the image processing system 10b of the third embodiment, it is possible to easily set effect processing suitable for the shooting scene of the target image for the target image.

また、第3実施例の画像処理システム10bによる画像変更出力処理では、対象画像に対して設定された効果処理が実行される。そのため、第3実施例の画像処理システム10bでも、対象画像の撮影シーンに適した効果処理を容易に実行することができる。さらに、第3実施例の画像処理システム10bによる画像変更出力処理では、効果処理実行後の対象画像データに基づき、画像IMGが出力される。そのため、第3実施例の画像処理システム10bでは、対象画像の撮影シーンに適した効果処理実行後の画像の出力を容易に実行することができる。   In the image change output process by the image processing system 10b of the third embodiment, the effect process set for the target image is executed. Therefore, even in the image processing system 10b of the third embodiment, it is possible to easily execute effect processing suitable for the shooting scene of the target image. Further, in the image change output process by the image processing system 10b of the third embodiment, the image IMG is output based on the target image data after the effect process is executed. Therefore, in the image processing system 10b of the third embodiment, it is possible to easily execute output of an image after execution of effect processing suitable for the shooting scene of the target image.

D.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
D. Variation:
The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

D1.変形例1:
上記第1および第2実施例では、撮影シーンの判別(図3のステップS120、図6のステップS220)、効果処理の選択肢の提示(図3のステップS130、図6のステップS230)および効果処理の設定(図3のステップS140、図6のステップS240)が、ユーザ指示に従った撮像(図3のステップS110、図6のステップS210)の後に行われているが、必ずしもこのような順序で処理が行われる必要はない。撮影シーンの判別、効果処理の選択肢の提示および効果処理の設定が、ユーザ指示に従った撮像の前に行われるとしてもよい。この場合には、DSC100のシーン判別部142(図1および図5)が、所定のタイミングでシーン判別用の画像を生成し、生成された画像を解析して被写体を推定することにより、撮影シーンの判別を実行することができる。ここで、所定のタイミングは、一定時間経過毎のタイミングであってもよいし、ユーザが例えばシーン判別ボタンを操作することによってシーン判別実行指示を行ったタイミングであってもよい。このように、シーン判別部142によるシーン判別が実行された後にユーザ指示に従った撮像(対象画像の生成)が行われる場合にも、シーン判別部142は、対象画像の撮影シーンを判別していると考えることが可能である。
D1. Modification 1:
In the first and second embodiments, the shooting scene is discriminated (step S120 in FIG. 3 and step S220 in FIG. 6), the effect processing options are presented (step S130 in FIG. 3, step S230 in FIG. 6) and the effect processing. 3 (step S140 in FIG. 3 and step S240 in FIG. 6) are performed after imaging (step S110 in FIG. 3 and step S210 in FIG. 6) in accordance with a user instruction. Processing need not be performed. The determination of the shooting scene, the presentation of effect processing options, and the setting of the effect processing may be performed before imaging according to a user instruction. In this case, the scene discriminating unit 142 (FIGS. 1 and 5) of the DSC 100 generates a scene discriminating image at a predetermined timing, analyzes the generated image and estimates the subject, thereby obtaining a shooting scene. Can be determined. Here, the predetermined timing may be a timing at every elapse of a predetermined time, or may be a timing at which a user gives a scene determination execution instruction by operating a scene determination button, for example. As described above, even when imaging (generation of a target image) is performed in accordance with a user instruction after the scene determination by the scene determination unit 142 is performed, the scene determination unit 142 determines the shooting scene of the target image. It is possible to think that

D2.変形例2:
上記第1実施例において、効果処理設定(図3のステップS140、図4(b))の際に、効果処理実行後の対象画像を表示部112(図1)にプレビューするとしてもよい。具体的には、効果処理の選択肢の提示(図3のステップS130、図4(b))中に、ユーザが選択肢の中から1つの効果処理を選択した場合に、効果処理部147が対象画像に対する効果処理を実行して表示部112に処理後の対象画像をプレビュー表示する。このようにすれば、ユーザは効果処理実行後の対象画像の概要を把握することができ、撮影シーンに適した効果処理の対象画像に対する設定の際のユーザの利便性をさらに向上させることができる。
D2. Modification 2:
In the first embodiment, when the effect process is set (step S140 in FIG. 3, FIG. 4B), the target image after the effect process is performed may be previewed on the display unit 112 (FIG. 1). Specifically, when the user selects one effect process from the options during the presentation of the effect process options (step S130 in FIG. 3, FIG. 4B), the effect processing unit 147 displays the target image. The effect processing is executed to display a preview of the processed target image on the display unit 112. In this way, the user can grasp the outline of the target image after execution of the effect process, and can further improve the convenience of the user when setting the target image for the effect process suitable for the shooting scene. .

D3.変形例3:
上記各実施例において、ある撮影シーンに対応付けられた効果処理の選択肢の提示後、ユーザにより選択・設定された効果処理が、当該撮影シーンにデフォルト設定された効果処理として登録されるとしてもよい。この場合には、以降、同じ撮影シーンと判定された画像に対しては、原則として登録された効果処理が実行される。このようにすれば、ユーザの好みを反映した効果処理の設定の容易化を図ることができ、ユーザの利便性をさらに向上させることができる。
D3. Modification 3:
In each of the embodiments described above, after the effect processing options associated with a shooting scene are presented, the effect processing selected and set by the user may be registered as the default effect processing for the shooting scene. . In this case, in principle, the registered effect process is executed for images determined to be the same shooting scene. In this way, it is possible to facilitate the setting of the effect process that reflects the user's preferences, and the user's convenience can be further improved.

D4.変形例4:
上記各実施例における画像処理システム10(10a、10b)の構成はあくまで一例であり、画像処理システム10の構成を他の構成とすることも可能である。例えば、第1実施例の画像処理システム10(図1)において、DSC100は必ずしも補正設定部144および補正処理部145を備えている必要はない。同様に、第2実施例の画像処理システム10a(図5)において、DSC100aは必ずしも補正設定部144を備えている必要はなく、プリンタ200aは必ずしも補正処理部245を備えている必要はない。同様に、第3実施例の画像処理システム10b(図8)において、PC300は必ずしも補正設定部344を備えている必要はなく、プリンタ200aは必ずしも補正処理部245を備えている必要はない。また、第3実施例の画像処理システム10b(図8)において、プリンタドライバとしての印刷処理部240が、プリンタ200aではなくPC300に含まれるとしてもよい。
D4. Modification 4:
The configuration of the image processing system 10 (10a, 10b) in each of the above embodiments is merely an example, and the configuration of the image processing system 10 may be another configuration. For example, in the image processing system 10 (FIG. 1) of the first embodiment, the DSC 100 does not necessarily have to include the correction setting unit 144 and the correction processing unit 145. Similarly, in the image processing system 10a (FIG. 5) of the second embodiment, the DSC 100a does not necessarily include the correction setting unit 144, and the printer 200a does not necessarily include the correction processing unit 245. Similarly, in the image processing system 10b (FIG. 8) according to the third embodiment, the PC 300 does not necessarily include the correction setting unit 344, and the printer 200a does not necessarily include the correction processing unit 245. Further, in the image processing system 10b (FIG. 8) of the third embodiment, the print processing unit 240 as a printer driver may be included in the PC 300 instead of the printer 200a.

また、上記各実施例におけるシーン別対応表CT(図2)の内容は、あくまで一例であり、シーン別対応表CTを他の内容とすることも可能である。例えば、シーン別対応表CTは、撮影シーンとして、他に「風景」や「機械」等のシーンを含んでいるとしてもよい。このとき、撮影シーン「風景」に対応付けられた効果処理として、もやを加える効果処理や青みを増すホワイトバランスを適用する効果処理等が登録されているとしてもよい。また、撮影シーン「機械」に対応付けられた効果処理として、質感強調の効果処理等が登録されているとしてもよい。その他にも、公知のフィルタやレタッチを用いた効果処理が、シーン別対応表CTに登録されているとしてもよい。   Further, the contents of the scene correspondence table CT (FIG. 2) in each of the above embodiments are merely examples, and the scene correspondence table CT may have other contents. For example, the scene correspondence table CT may include other scenes such as “landscape” and “machine” as shooting scenes. At this time, as an effect process associated with the shooting scene “landscape”, an effect process for adding haze, an effect process for applying white balance for increasing bluishness, or the like may be registered. Also, texture enhancement effect processing or the like may be registered as effect processing associated with the shooting scene “machine”. In addition, effect processing using a known filter or retouch may be registered in the scene correspondence table CT.

また、上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。   In each of the above embodiments, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Also good.

本発明の第1実施例としての画像処理システム10の構成を概略的に示す説明図である。1 is an explanatory diagram schematically showing a configuration of an image processing system 10 as a first embodiment of the present invention. FIG. シーン別対応表CTの内容の一例を示す説明図である。It is explanatory drawing which shows an example of the content of the correspondence table CT classified by scene. 第1実施例の画像処理システム10による画像生成出力処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image generation output process by the image processing system 10 of 1st Example. 第1実施例の画像処理システム10による画像生成出力処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the image generation output process by the image processing system 10 of 1st Example. 第2実施例の画像処理システム10aの構成を概略的に示す説明図である。It is explanatory drawing which shows schematically the structure of the image processing system 10a of 2nd Example. 第2実施例の画像処理システム10aによる画像生成出力処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image generation output process by the image processing system 10a of 2nd Example. 第2実施例の画像処理システム10aによる画像生成出力処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the image generation output process by the image processing system 10a of 2nd Example. 第3実施例の画像処理システム10bの構成を概略的に示す説明図である。It is explanatory drawing which shows schematically the structure of the image processing system 10b of 3rd Example. 第3実施例の画像処理システム10bによる画像変更出力処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image change output process by the image processing system 10b of 3rd Example. 第3実施例の画像処理システム10bによる画像変更出力処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the image change output process by the image processing system 10b of 3rd Example.

符号の説明Explanation of symbols

10…画像処理システム
100…DSC
102…レンズ
104…レンズ駆動部
106…レンズ駆動制御部
108…撮像素子
110…A/D変換器
112…表示部
114…操作部
116…CPU
120…バス
130…内部メモリ
140…画像処理部
142…シーン判別部
144…補正設定部
145…補正処理部
146…効果設定部
147…効果処理部
200…プリンタ
210…プリンタエンジン
212…表示部
214…操作部
216…CPU
230…内部メモリ
240…印刷処理部
245…補正処理部
247…効果処理部
300…PC
312…表示部
314…操作部
316…CPU
318…インターフェイス部
319…カードスロット
320…バス
330…内部メモリ
340…画像処理部
342…シーン判別部
344…補正設定部
346…効果設定部
348…画像取得部
10. Image processing system 100 ... DSC
DESCRIPTION OF SYMBOLS 102 ... Lens 104 ... Lens drive part 106 ... Lens drive control part 108 ... Image pick-up element 110 ... A / D converter 112 ... Display part 114 ... Operation part 116 ... CPU
DESCRIPTION OF SYMBOLS 120 ... Bus 130 ... Internal memory 140 ... Image processing part 142 ... Scene discrimination | determination part 144 ... Correction setting part 145 ... Correction processing part 146 ... Effect setting part 147 ... Effect processing part 200 ... Printer 210 ... Printer engine 212 ... Display part 214 ... Operation unit 216 CPU
230 ... Internal memory 240 ... Print processing unit 245 ... Correction processing unit 247 ... Effect processing unit 300 ... PC
312 ... Display unit 314 ... Operation unit 316 ... CPU
318: Interface unit 319 ... Card slot 320 ... Bus 330 ... Internal memory 340 ... Image processing unit 342 ... Scene discrimination unit 344 ... Correction setting unit 346 ... Effect setting unit 348 ... Image acquisition unit

Claims (6)

画像処理システムであって、
対象画像の撮影シーンを判別するシーン判別部と、
前記対象画像を構成する複数の画素の内の少なくとも一部の値を変更することにより前記対象画像に所定の効果を生じさせるための予め設定された効果処理であって前記対象画像の撮影シーンに対応付けられた効果処理をユーザに対して選択可能に提示すると共に、ユーザにより選択された効果処理を前記対象画像に対して実行すべき効果処理として設定する効果設定部と、を備える、画像処理システム。
An image processing system,
A scene discriminating unit for discriminating a shooting scene of the target image;
A preset effect process for producing a predetermined effect on the target image by changing a value of at least a part of a plurality of pixels constituting the target image. And an effect setting unit that presents the associated effect process so as to be selectable to the user, and sets the effect process selected by the user as an effect process to be performed on the target image. system.
請求項1記載の画像処理システムであって、さらに、
前記対象画像に対して、前記効果設定部により設定された効果処理を実行する効果処理部を備える、画像処理システム。
The image processing system according to claim 1, further comprising:
An image processing system comprising an effect processing unit that executes an effect process set by the effect setting unit on the target image.
請求項2記載の画像処理システムであって、さらに、
前記効果処理部による効果処理実行後の前記対象画像を出力する出力部を備える、画像処理システム。
The image processing system according to claim 2, further comprising:
An image processing system comprising: an output unit that outputs the target image after effect processing by the effect processing unit is executed.
請求項1ないし請求項3のいずれかに記載の画像処理システムであって、さらに、
前記対象画像の撮影シーンに対応付けられた画像補正を前記対象画像に対して実行すべき画像補正として設定する補正設定部と、
前記対象画像に対して、前記補正設定部により設定された画像補正を実行する補正処理部と、を備え、
前記効果処理部により実行される効果処理は、前記補正処理部により実行される画像補正に重畳して前記対象画像に対して実行される処理である、画像処理システム。
The image processing system according to any one of claims 1 to 3, further comprising:
A correction setting unit that sets an image correction associated with a shooting scene of the target image as an image correction to be performed on the target image;
A correction processing unit that executes image correction set by the correction setting unit on the target image,
The effect processing executed by the effect processing unit is an image processing system that is a process executed on the target image while being superimposed on the image correction executed by the correction processing unit.
請求項1ないし請求項4のいずれかに記載の画像処理システムであって、
前記効果設定部は、前記シーン判別部が複数の撮影シーンが前記対象画像の撮影シーンとして該当すると判別した場合には、前記複数の撮影シーンのそれぞれに対応付けられた効果処理のすべてを提示する、画像処理システム。
An image processing system according to any one of claims 1 to 4,
The effect setting unit presents all of the effect processes associated with each of the plurality of shooting scenes when the scene determination unit determines that a plurality of shooting scenes correspond to the shooting scenes of the target image. , Image processing system.
画像処理方法であって、
(a)対象画像の撮影シーンを判別する工程と、
(b)前記対象画像を構成する複数の画素の内の少なくとも一部の値を変更することにより前記対象画像に所定の効果を生じさせるための予め設定された効果処理であって前記対象画像の撮影シーンに対応付けられた効果処理をユーザに対して選択可能に提示すると共に、ユーザにより選択された効果処理を前記対象画像に対して実行すべき効果処理として設定する工程と、を備える、画像処理方法。
An image processing method comprising:
(A) determining a shooting scene of the target image;
(B) A preset effect process for producing a predetermined effect on the target image by changing at least some values of a plurality of pixels constituting the target image. An effect process associated with the shooting scene is presented to the user in a selectable manner, and the effect process selected by the user is set as an effect process to be executed on the target image. Processing method.
JP2006011210A 2006-01-19 2006-01-19 Setting of effect processing suitable for photographing scene of image Pending JP2007194917A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006011210A JP2007194917A (en) 2006-01-19 2006-01-19 Setting of effect processing suitable for photographing scene of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006011210A JP2007194917A (en) 2006-01-19 2006-01-19 Setting of effect processing suitable for photographing scene of image

Publications (2)

Publication Number Publication Date
JP2007194917A true JP2007194917A (en) 2007-08-02
JP2007194917A5 JP2007194917A5 (en) 2009-02-26

Family

ID=38450254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006011210A Pending JP2007194917A (en) 2006-01-19 2006-01-19 Setting of effect processing suitable for photographing scene of image

Country Status (1)

Country Link
JP (1) JP2007194917A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071676A (en) * 2007-09-14 2009-04-02 Casio Comput Co Ltd Imaging apparatus, and program and method for controlling the same
KR20100011936A (en) * 2008-07-25 2010-02-03 후지필름 가부시키가이샤 Imaging device and method
JP2010035048A (en) * 2008-07-30 2010-02-12 Fujifilm Corp Imaging apparatus and imaging method
JP2010062628A (en) * 2008-09-01 2010-03-18 Olympus Imaging Corp Image display device, imaging device, image display method, and image display program
JP2010177992A (en) * 2009-01-29 2010-08-12 Nikon Corp Image processing apparatus and digital camera
US8036998B2 (en) 2007-08-31 2011-10-11 Seiko Epson Corporation Category classification method
JP2011211561A (en) * 2010-03-30 2011-10-20 Nec Corp Mobile terminal with camera, and method and program for controlling the same
JP2012044425A (en) * 2010-08-18 2012-03-01 Olympus Imaging Corp Imaging device
JP2012109921A (en) * 2010-10-27 2012-06-07 Olympus Imaging Corp Imaging apparatus and imaging program
US8243328B2 (en) 2007-04-20 2012-08-14 Seiko Epson Corporation Printing method, printing apparatus, and storage medium storing a program
JP2012165078A (en) * 2011-02-03 2012-08-30 Olympus Imaging Corp Imaging apparatus and imaging program
JP2012182856A (en) * 2012-06-29 2012-09-20 Fujifilm Corp Image pickup device and image pickup method
JP2012199836A (en) * 2011-03-22 2012-10-18 Olympus Imaging Corp Imaging apparatus and imaging program
JP2012199835A (en) * 2011-03-22 2012-10-18 Olympus Imaging Corp Imaging apparatus and imaging program
US8514296B2 (en) 2008-07-25 2013-08-20 Fujifilm Corporation Imaging apparatus capable of recognizing photographic scene and method for the same
US8810691B2 (en) 2010-09-03 2014-08-19 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable recording medium
KR20150087362A (en) * 2012-12-21 2015-07-29 구글 인코포레이티드 Recommending transformations for photography

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000196946A (en) * 1998-12-25 2000-07-14 Casio Comput Co Ltd Program photographing method and electronic image pickup device
JP2002209138A (en) * 2001-01-12 2002-07-26 Minolta Co Ltd Digital camera
JP2002238016A (en) * 2001-02-07 2002-08-23 Minolta Co Ltd Image processor, image processing system, image processing method, image processing program, and computer- readable recording medium recorded with the image processing program
WO2004070657A1 (en) * 2003-02-05 2004-08-19 Seiko Epson Corporation Image processing device
JP2004351793A (en) * 2003-05-29 2004-12-16 Seiko Epson Corp Image output unit, image output system, and image output method
JP2005151130A (en) * 2003-11-14 2005-06-09 Canon Inc Device and method for outputting image, storage medium, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000196946A (en) * 1998-12-25 2000-07-14 Casio Comput Co Ltd Program photographing method and electronic image pickup device
JP2002209138A (en) * 2001-01-12 2002-07-26 Minolta Co Ltd Digital camera
JP2002238016A (en) * 2001-02-07 2002-08-23 Minolta Co Ltd Image processor, image processing system, image processing method, image processing program, and computer- readable recording medium recorded with the image processing program
WO2004070657A1 (en) * 2003-02-05 2004-08-19 Seiko Epson Corporation Image processing device
JP2004351793A (en) * 2003-05-29 2004-12-16 Seiko Epson Corp Image output unit, image output system, and image output method
JP2005151130A (en) * 2003-11-14 2005-06-09 Canon Inc Device and method for outputting image, storage medium, and program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8243328B2 (en) 2007-04-20 2012-08-14 Seiko Epson Corporation Printing method, printing apparatus, and storage medium storing a program
US8036998B2 (en) 2007-08-31 2011-10-11 Seiko Epson Corporation Category classification method
JP2009071676A (en) * 2007-09-14 2009-04-02 Casio Comput Co Ltd Imaging apparatus, and program and method for controlling the same
KR20100011936A (en) * 2008-07-25 2010-02-03 후지필름 가부시키가이샤 Imaging device and method
JP2010050962A (en) * 2008-07-25 2010-03-04 Fujifilm Corp Imaging apparatus and method
KR101590190B1 (en) 2008-07-25 2016-01-29 후지필름 가부시키가이샤 Imaging device and method
US8514296B2 (en) 2008-07-25 2013-08-20 Fujifilm Corporation Imaging apparatus capable of recognizing photographic scene and method for the same
US8199203B2 (en) 2008-07-30 2012-06-12 Fujifilm Corporation Imaging apparatus and imaging method with face detection based on scene recognition results
JP2010035048A (en) * 2008-07-30 2010-02-12 Fujifilm Corp Imaging apparatus and imaging method
JP2010062628A (en) * 2008-09-01 2010-03-18 Olympus Imaging Corp Image display device, imaging device, image display method, and image display program
JP2010177992A (en) * 2009-01-29 2010-08-12 Nikon Corp Image processing apparatus and digital camera
JP2011211561A (en) * 2010-03-30 2011-10-20 Nec Corp Mobile terminal with camera, and method and program for controlling the same
JP2012044425A (en) * 2010-08-18 2012-03-01 Olympus Imaging Corp Imaging device
US8810691B2 (en) 2010-09-03 2014-08-19 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable recording medium
US9241112B2 (en) 2010-09-03 2016-01-19 Olympus Corporation Imaging apparatus, imaging method and computer-readable recording medium
JP2012109921A (en) * 2010-10-27 2012-06-07 Olympus Imaging Corp Imaging apparatus and imaging program
JP2012165078A (en) * 2011-02-03 2012-08-30 Olympus Imaging Corp Imaging apparatus and imaging program
JP2012199836A (en) * 2011-03-22 2012-10-18 Olympus Imaging Corp Imaging apparatus and imaging program
JP2012199835A (en) * 2011-03-22 2012-10-18 Olympus Imaging Corp Imaging apparatus and imaging program
JP2012182856A (en) * 2012-06-29 2012-09-20 Fujifilm Corp Image pickup device and image pickup method
KR20150087362A (en) * 2012-12-21 2015-07-29 구글 인코포레이티드 Recommending transformations for photography
US9438791B2 (en) 2012-12-21 2016-09-06 Google Inc. Transformation of images with filters
KR101688352B1 (en) 2012-12-21 2016-12-20 구글 인코포레이티드 Recommending transformations for photography

Similar Documents

Publication Publication Date Title
JP2007194917A (en) Setting of effect processing suitable for photographing scene of image
JP2010108232A (en) Image processor and program
US8754952B2 (en) Digital camera
JP2009223527A (en) Image processor, image processing method, and computer program for image processing
JP4743180B2 (en) Image display control device, photographing device, image display method and program thereof
JP4457929B2 (en) Imaging device
JP2007158536A (en) Method, apparatus, and program for outputting image
JP2008227787A (en) Device, method and program for processing image
JP2005102153A (en) Image processing apparatus, method and program
JP2001186297A (en) Printed image data processing method, printer and recording medium recording printed image data processing program
JP2003348339A (en) Image processing method, apparatus and program
JP2009223524A (en) Image processor, image processing method, and computer program for image processing
JP2005102154A (en) Image processing apparatus, method and program
JP4766644B2 (en) Image processing method and image processing apparatus
JP5282533B2 (en) Image processing apparatus, imaging apparatus, and program
JP2009055303A (en) Image processing for estimating size of imaging device
JP2010108238A (en) Image processor, image processing method, and program
JP5146559B2 (en) Image data processing method, printer, and recording medium on which image data processing program is recorded
JP2009078565A (en) Image processing device
JP4924274B2 (en) Image processing apparatus, image processing method, and program thereof
JP2008155373A (en) Image processor and image processing method
JP2009060359A (en) Image processor, image processing method, and image printing device
JP2005006213A (en) Image processor and its method
JP2006352609A (en) Image photographing apparatus, image photographing method, control program for image photographing apparatus and recording medium with recorded control program
JP2022027826A (en) Imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308