JP5580623B2 - Image processing apparatus, image processing apparatus control method, program, and storage medium - Google Patents

Image processing apparatus, image processing apparatus control method, program, and storage medium Download PDF

Info

Publication number
JP5580623B2
JP5580623B2 JP2010044630A JP2010044630A JP5580623B2 JP 5580623 B2 JP5580623 B2 JP 5580623B2 JP 2010044630 A JP2010044630 A JP 2010044630A JP 2010044630 A JP2010044630 A JP 2010044630A JP 5580623 B2 JP5580623 B2 JP 5580623B2
Authority
JP
Japan
Prior art keywords
image
image processing
processing
face
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010044630A
Other languages
Japanese (ja)
Other versions
JP2011180844A (en
Inventor
雅人 参納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010044630A priority Critical patent/JP5580623B2/en
Publication of JP2011180844A publication Critical patent/JP2011180844A/en
Application granted granted Critical
Publication of JP5580623B2 publication Critical patent/JP5580623B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理装置の制御方法、プログラム及び記憶媒体に関する。   The present invention relates to an image processing apparatus, a control method for the image processing apparatus, a program, and a storage medium.

近年、デジタルカメラなどの撮像装置で撮像された画像に施す画像処理に関する様々な技術が提案されている。例えば、特許文献1には、画像の撮像時の傾向(撮像傾向)を統計的に取得し、かかる撮像傾向に従って画像にレタッチ(補正や加工)を加える技術が開示されている。   In recent years, various techniques related to image processing applied to an image captured by an imaging apparatus such as a digital camera have been proposed. For example, Patent Document 1 discloses a technique for statistically acquiring a tendency (imaging tendency) when an image is captured and adding retouching (correction or processing) to the image according to the imaging tendency.

特開2005−72949号公報JP-A-2005-72949

しかしながら、特許文献1に開示された技術は、画像の全体にレタッチを加える技術であって、画像の一部分、例えば、ユーザが指定する部分(画像処理の対象とする部分)に対して、かかる部分に適した画像処理を行う技術ではない。また、一般的に、画像の一部分に画像処理を行う場合には、画像処理の対象とする部分やかかる部分に行う画像処理の内容を指示しなければならないため、煩雑な操作や画像処理に関する知識が必要となってしまう。   However, the technique disclosed in Patent Document 1 is a technique for retouching the entire image, and this part of the image, for example, a part designated by the user (a part to be subjected to image processing) It is not a technique for performing image processing suitable for the above. In general, when image processing is performed on a part of an image, it is necessary to instruct the image processing target part and the content of the image processing to be performed on the part. Will be necessary.

そこで、本発明は、このような従来技術の課題に鑑みてなされ、画像に対して画像処理を容易に行うことができる新たな技術を提供することを例示的目的とする。   Therefore, the present invention has been made in view of such problems of the conventional technology, and an object of the present invention is to provide a new technology capable of easily performing image processing on an image.

上記課題を解決するために、本発明の一側面としての画像処理装置は、表示装置の表示画面に画像を表示させる表示制御手段と、記画像において画像処理を行う処理部分を指定する指定手段と、前記指定手段によって指定された前記処理部分の画像の特徴から前記処理部分に顔が含まれるか否かを判断する判断手段と、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定する決定手段と、前記決定手段によって決定された前記画像処理を前記処理部分に行う処理手段と、を有し、前記判断手段により顔が含まれていないと判断された同じ処理部分が複数回指定される場合、前記決定手段は、前記指定ごとに異なる処理が行われるように、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定することを特徴とする。 In order to solve the above problems, an image processing apparatus according to one aspect of the present invention, specifying means for specifying a processing part that performs a display control means for displaying an image on a display screen of the display device, the image processing before Symbol image A determination means for determining whether or not a face is included in the processing portion from image characteristics of the processing portion specified by the specification means; and a plurality of image processing determined based on the determination result of the determination means from a determining means for determining an image processing performed in said processing section, the image processing determined by said determining means have a, a processing unit for performing the processing portion, does not include a face by the determining means When the same processing portion determined to be specified multiple times, the determination means performs a plurality of processes determined based on the determination result of the determination means so that different processing is performed for each specification. From the image processing, and determines the image processing performed in said processing section.

本発明の更なる目的又はその他の側面は、以下、添付図面を参照して説明される好ましい実施形態によって明らかにされるであろう。   Further objects and other aspects of the present invention will become apparent from the preferred embodiments described below with reference to the accompanying drawings.

本発明によれば、例えば、画像に対して画像処理を容易に行う新たな技術を提供することができる。   According to the present invention, for example, a new technique for easily performing image processing on an image can be provided.

本発明の一側面としての画像処理装置として機能する撮像装置を示す図である。It is a figure which shows the imaging device which functions as an image processing device as one aspect of the present invention. 図1に示す撮像装置における画像処理の動作を説明するためのフローチャートである。3 is a flowchart for explaining an image processing operation in the imaging apparatus shown in FIG. 1. 図2に示す画像処理の動作において、図1に示す撮像装置の表示部の表示画面に表示される画像の表示例を示す図である。FIG. 3 is a diagram illustrating a display example of an image displayed on the display screen of the display unit of the imaging apparatus illustrated in FIG. 1 in the image processing operation illustrated in FIG. 2. 図1に示す撮像装置のメモリに記憶されているテーブル(属性情報と画像処理との関係を示すテーブル)の一例を示す図である。FIG. 2 is a diagram illustrating an example of a table (a table indicating a relationship between attribute information and image processing) stored in a memory of the imaging apparatus illustrated in FIG. 1. 図1に示す撮像装置における別の画像処理の動作を説明するためのフローチャートである。6 is a flowchart for explaining another image processing operation in the imaging apparatus shown in FIG. 1. 図1に示す撮像装置のメモリに記憶されているテーブル(属性情報と画像処理との関係を示すテーブル)の一例を示す図である。FIG. 2 is a diagram illustrating an example of a table (a table indicating a relationship between attribute information and image processing) stored in a memory of the imaging apparatus illustrated in FIG. 1. 図5に示す画像処理の動作において、図1に示す撮像装置の表示部の表示画面に表示される画像の表示例を示す図である。FIG. 6 is a diagram illustrating a display example of an image displayed on the display screen of the display unit of the imaging apparatus illustrated in FIG. 1 in the image processing operation illustrated in FIG. 5.

以下、添付図面を参照して、本発明の好適な実施の形態について説明する。なお、各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the accompanying drawings. In addition, in each figure, the same reference number is attached | subjected about the same member and the overlapping description is abbreviate | omitted.

図1は、本発明の一側面としての画像処理装置として機能する撮像装置100を示す図であって、図1(a)は、撮像装置100の概略外観図、図1(b)は、撮像装置100の構成を示す概略ブロック図である。撮像装置100は、被写体を撮像する撮像装置であって、本実施形態では、デジタルカメラとして具現化される。また、撮像装置100は、被写体を撮像して生成した画像データや記録媒体200に記録された画像データに対応する画像を表示(再生)する表示装置や、表示した画像に画像処理を行う画像処理装置としても機能する。ここで、記録媒体200は、例えば、メモリカードやハードディスクなどで構成され、各種データを記録する。記録媒体200は、撮像装置100のスロットに収納されることで、インタフェース(I/F)を介して、撮像装置100との通信が可能となる。   FIG. 1 is a diagram illustrating an imaging apparatus 100 that functions as an image processing apparatus according to an aspect of the present invention. FIG. 1A is a schematic external view of the imaging apparatus 100, and FIG. 2 is a schematic block diagram showing the configuration of the device 100. FIG. The imaging apparatus 100 is an imaging apparatus that captures an image of a subject, and is embodied as a digital camera in the present embodiment. The imaging device 100 also displays a display device that displays (reproduces) an image corresponding to image data generated by imaging a subject or image data recorded on the recording medium 200, and image processing that performs image processing on the displayed image. It also functions as a device. Here, the recording medium 200 is composed of, for example, a memory card or a hard disk, and records various data. The recording medium 200 is accommodated in the slot of the imaging apparatus 100, so that communication with the imaging apparatus 100 is possible via an interface (I / F).

撮像装置100は、図1(a)及び図1(b)に示すように、撮像光学系102と、シャッター部104と、撮像部106と、バリア部108と、A/D変換部110と、画像処理部112と、メモリ114と、D/A変換部116と、表示部118とを有する。また、撮像装置100は、メモリ制御部120と、不揮発性メモリ122と、システム制御部124と、システムメモリ126と、モード切替スイッチ128と、シャッターボタン130と、十字ボタン132と、ホイール134とを有する。更に、撮像装置100は、電源スイッチ136と、電源制御部138と、電源部140とを有する。   As shown in FIGS. 1A and 1B, the imaging apparatus 100 includes an imaging optical system 102, a shutter unit 104, an imaging unit 106, a barrier unit 108, an A / D conversion unit 110, An image processing unit 112, a memory 114, a D / A conversion unit 116, and a display unit 118 are included. In addition, the imaging apparatus 100 includes a memory control unit 120, a nonvolatile memory 122, a system control unit 124, a system memory 126, a mode change switch 128, a shutter button 130, a cross button 132, and a wheel 134. Have. Furthermore, the imaging apparatus 100 includes a power switch 136, a power control unit 138, and a power unit 140.

撮像光学系102は、撮像レンズやフォーカスレンズなどを含み、被写体からの光を撮像部106の撮像面に結像する(即ち、光学像を形成する)。シャッター部104は、本実施形態では、絞り機能を有する。撮像部106は、CCDやCMOS素子(光電変換素子)などで構成され、撮像光学系102によって形成された光学像を電気信号に変換する。バリア部108は、撮像光学系102、シャッター部104及び撮像部106を含む撮像系をカバーして、撮像系への汚れの付着や撮像系の破損を防止する。A/D変換部110は、アナログ信号をデジタル信号に変換する機能を有し、本実施形態では、撮像部106から出力されるアナログ信号をデジタル信号に変換する。   The imaging optical system 102 includes an imaging lens, a focus lens, and the like, and focuses light from the subject on the imaging surface of the imaging unit 106 (that is, forms an optical image). In this embodiment, the shutter unit 104 has a diaphragm function. The imaging unit 106 includes a CCD, a CMOS element (photoelectric conversion element), and the like, and converts an optical image formed by the imaging optical system 102 into an electrical signal. The barrier unit 108 covers the imaging system including the imaging optical system 102, the shutter unit 104, and the imaging unit 106, and prevents dirt from being attached to the imaging system and damage to the imaging system. The A / D conversion unit 110 has a function of converting an analog signal into a digital signal. In the present embodiment, the A / D conversion unit 110 converts the analog signal output from the imaging unit 106 into a digital signal.

画像処理部112は、画像(画像全体や画像の一部分)に画像処理を行う機能を有する。画像処理部112は、例えば、A/D変換部110から入力されるデータ又はメモリ制御部120から入力されるデータに対して、画素補間や縮小などのリサイズ処理や色変換処理を行う。また、画像処理部112は、撮像した画像を用いて所定の演算処理を行い、演算結果をシステム制御部124に出力する。システム制御部124は、画像処理部112からの演算結果に基づいて、露光制御及び焦点検出制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理及びEF(フラッシュプリ発光)処理が行われる。また、画像処理部112は、撮像した画像を用いて所定の演算処理を行い、かかる演算結果に基づいて、TTL方式のAWB(オートホワイトバランス)処理も行う。更に、画像処理部112は、撮像した画像を用いて所定の演算処理を行い、かかる演算結果に基づいて、画像の撮像時の撮像シーン(例えば、青空、夕景、雪、夜景など)の種類を判定する。なお、画像処理部112によって判定された撮像シーンの種類(の情報)は、かかる画像の撮像時に用いられた撮像条件(例えば、フラッシュが発光されたかどうかなど)と共に、画像の撮像時に得られる属性情報として画像データに記録される。   The image processing unit 112 has a function of performing image processing on an image (the entire image or a part of the image). For example, the image processing unit 112 performs resizing processing such as pixel interpolation and reduction, and color conversion processing on data input from the A / D conversion unit 110 or data input from the memory control unit 120. The image processing unit 112 performs predetermined calculation processing using the captured image and outputs the calculation result to the system control unit 124. The system control unit 124 performs exposure control and focus detection control based on the calculation result from the image processing unit 112. As a result, TTL (through the lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing are performed. In addition, the image processing unit 112 performs predetermined calculation processing using the captured image, and also performs TTL AWB (auto white balance) processing based on the calculation result. Further, the image processing unit 112 performs a predetermined calculation process using the captured image, and based on the calculation result, selects the type of imaging scene (for example, blue sky, evening scene, snow, night scene) at the time of imaging. judge. Note that the type (information) of the imaging scene determined by the image processing unit 112 is an attribute obtained when the image is captured, along with the imaging conditions used when capturing the image (for example, whether the flash is emitted). Information is recorded in the image data.

メモリ114は、画像処理部112及びメモリ制御部120を介して、或いは、メモリ制御部120を介して、A/D変換部110から出力されるデータを格納する。例えば、メモリ114は、撮像部106から出力されてA/D変換部110でデジタル信号に変換された画像データ(静止画像データや動画像データ)や表示部118に表示するため(即ち、画像表示用の)画像データなどを格納する。従って、メモリ114は、所定枚数の静止画像データや所定時間の動画像データ及び音声データを格納することが可能な記憶容量を備える。なお、メモリ114は、画像表示用のメモリ(ビデオメモリ)としても機能する。   The memory 114 stores data output from the A / D conversion unit 110 via the image processing unit 112 and the memory control unit 120 or via the memory control unit 120. For example, the memory 114 is displayed from the image data (still image data or moving image data) output from the imaging unit 106 and converted into a digital signal by the A / D conversion unit 110 or the display unit 118 (that is, image display). Image data). Accordingly, the memory 114 has a storage capacity capable of storing a predetermined number of still image data, moving image data and audio data for a predetermined time. The memory 114 also functions as an image display memory (video memory).

D/A変換部116は、メモリ114に格納されている画像表示用の画像データをアナログ信号に変換して、表示部118に供給する。表示部118は、LCDなどの表示素子で構成された表示画面を有し、D/A変換部116から供給されるアナログ信号に応じた画像や撮像装置100に関する各種情報を表示する。   The D / A conversion unit 116 converts image data for image display stored in the memory 114 into an analog signal and supplies the analog signal to the display unit 118. The display unit 118 has a display screen composed of a display element such as an LCD, and displays an image corresponding to the analog signal supplied from the D / A conversion unit 116 and various types of information related to the imaging device 100.

メモリ制御部120は、メモリ114に格納されるデータ(画像データなど)及びメモリ114から読み出されるデータを制御する。不揮発性メモリ122は、電気的にデータを消去及び記録可能なメモリであって、例えば、EEPROMなどを含む。不揮発性メモリ122は、システム制御部124の動作用の定数やプログラム(後述する種々のフローチャートを実行するためのプログラム)などを格納する。   The memory control unit 120 controls data (such as image data) stored in the memory 114 and data read from the memory 114. The nonvolatile memory 122 is a memory that can electrically erase and record data, and includes, for example, an EEPROM. The non-volatile memory 122 stores constants and programs for operating the system control unit 124 (programs for executing various flowcharts described later) and the like.

システム制御部124は、撮像装置100の全体を制御する。システム制御部124は、不揮発性メモリ122に格納されたプログラムを実行して、本実施形態の各処理を実現する。例えば、システム制御部124は、メモリ114、D/A変換部116及び表示部118などを制御して表示制御を行う。システムメモリ126は、例えば、RAMで構成され、システム制御部124の動作用の定数や変数、不揮発性メモリ122から読み出したプログラムなどを展開する。   The system control unit 124 controls the entire imaging apparatus 100. The system control unit 124 executes a program stored in the nonvolatile memory 122 to realize each process of the present embodiment. For example, the system control unit 124 performs display control by controlling the memory 114, the D / A conversion unit 116, the display unit 118, and the like. The system memory 126 is composed of, for example, a RAM, and expands constants and variables for operation of the system control unit 124, a program read from the nonvolatile memory 122, and the like.

モード切替スイッチ128、シャッターボタン130、十字ボタン132、ホイール134及び電源スイッチ136などを含む複数のスイッチ及びボタンは、ユーザの操作を受け付ける(システム制御部124に各種の動作指示を入力する)操作部として機能する。操作部を構成する複数のスイッチ及びボタンは、表示部118の表示画面に表示される各種画面に応じて、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞り込みボタンなどの機能ボタンとして機能する。例えば、メニューボタンが押された場合、各種設定を可能とするメニュー画面が表示部118の表示画面に表示される。これにより、ユーザは、表示部118の表示画面に表示されたメニュー画面と、十字状に配置された上ボタン、下ボタン、左ボタン及び右ボタンを含む十字ボタン132やセットボタンとを用いて、直感的に各種設定を行うことができる。また、操作部は、表示部118の表示画面と、かかる表示画面の上に設けられたタッチパッド(位置入力部)とで構成され、タッチパッドに対するユーザの操作を検知可能なタッチパネルも含む。なお、タッチパネルは、抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式などの様々な方式のタッチパネルを用いることができる。   A plurality of switches and buttons including a mode change switch 128, a shutter button 130, a cross button 132, a wheel 134, a power switch 136, and the like receive an operation of a user (input various operation instructions to the system control unit 124). Function as. A plurality of switches and buttons constituting the operation unit are function buttons such as an end button, a return button, an image feed button, a jump button, and a narrowing button, for example, according to various screens displayed on the display screen of the display unit 118. Function. For example, when a menu button is pressed, a menu screen that allows various settings is displayed on the display screen of the display unit 118. Thereby, the user uses the menu screen displayed on the display screen of the display unit 118 and the cross button 132 and the set button including the upper button, the lower button, the left button, and the right button arranged in a cross shape. Various settings can be made intuitively. The operation unit includes a display screen of the display unit 118 and a touch pad (position input unit) provided on the display screen, and includes a touch panel that can detect a user operation on the touch pad. Note that various types of touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method can be used as the touch panel.

モード切替スイッチ128は、撮像装置100(システム制御部124)の動作モードを切り替えるためのスイッチである。本実施形態では、撮像装置100の動作モードを静止画像撮像モード、動画像撮像モード、再生モード、画像処理モードなどに切り替えることが可能である。   The mode switch 128 is a switch for switching the operation mode of the imaging apparatus 100 (system control unit 124). In the present embodiment, the operation mode of the image capturing apparatus 100 can be switched to a still image capturing mode, a moving image capturing mode, a playback mode, an image processing mode, and the like.

シャッターボタン130は、被写体の撮像を指示するためのボタンであって、第1のシャッタースイッチ130aと、第2のシャッタースイッチ130bとを含む。第1のシャッタースイッチ130aは、シャッターボタン130の操作途中(半押し)でON状態となり、第1のシャッタースイッチ信号SW1を生成して、システム制御部124に供給する。なお、システム制御部124は、第1のシャッタースイッチ130aから供給される第1のシャッタースイッチ信号SW1によって、AF処理、AE処理、EF処理などを開始する。第2のシャッタースイッチ130bは、シャッターボタン130の操作完了(全押し)でON状態となり、第2のシャッタースイッチ信号SW2を生成して、システム制御部124に供給する。なお、システム制御部124は、第2のシャッタースイッチ130bから供給される第2のシャッタースイッチ信号SW2によって、撮像部106からの信号の読み出しから記録媒体200に画像データを記録するまでの一連の撮像処理を開始する。   The shutter button 130 is a button for instructing imaging of a subject, and includes a first shutter switch 130a and a second shutter switch 130b. The first shutter switch 130 a is turned on in the middle of the operation of the shutter button 130 (half-pressed), generates the first shutter switch signal SW <b> 1, and supplies it to the system control unit 124. The system control unit 124 starts AF processing, AE processing, EF processing, and the like in response to the first shutter switch signal SW1 supplied from the first shutter switch 130a. The second shutter switch 130b is turned on when the operation of the shutter button 130 is completed (fully pressed), generates the second shutter switch signal SW2, and supplies the second shutter switch signal SW2 to the system control unit 124. Note that the system control unit 124 performs a series of imaging operations from reading a signal from the imaging unit 106 to recording image data on the recording medium 200 by the second shutter switch signal SW2 supplied from the second shutter switch 130b. Start processing.

ホイール134は、回転可能な部材であって、表示部118の表示画面に表示された選択項目を指示する際などに十字ボタン132と共に使用される。ホイール134は、回転量に応じて電気的なパルス信号を生成して、システム制御部124に供給する。システム制御部124は、ホイール134から供給されるパルス信号に基づいて、撮像装置100の各部を制御する。なお、ホイール134は、ユーザによる回転操作を検出することができればどのような部材であってもよい。例えば、ホイール134は、ユーザによる回転操作に応じてホイール自体が回転してパルス信号を生成するダイヤル部材であってもよいし、ホイール自体は回転せず、ユーザによるホイール上での回転操作を検出するタッチホイールであってもよい。   The wheel 134 is a rotatable member and is used together with the cross button 132 when instructing a selection item displayed on the display screen of the display unit 118. The wheel 134 generates an electrical pulse signal according to the amount of rotation and supplies it to the system control unit 124. The system control unit 124 controls each unit of the imaging apparatus 100 based on the pulse signal supplied from the wheel 134. The wheel 134 may be any member as long as it can detect the rotation operation by the user. For example, the wheel 134 may be a dial member that generates a pulse signal by rotating the wheel itself in response to a rotation operation by the user, or the wheel itself does not rotate and detects the rotation operation on the wheel by the user. It may be a touch wheel.

電源スイッチ136は、撮像装置100の電源状態を電源ONの状態又は電源OFFの状態に切り替えるためのスイッチである。電源制御部138は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路などを含み、電源部140における電池の装着の有無、電池の種類、電池の残容量を検出する。また、電源制御部138は、電源部140における検出結果及びシステム制御部124からの指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む撮像装置100の各部に供給する。電源部140は、アルカリ電池やリチウム電池などの一次電池、NiCd電池、NiMH電池やLi電池などの二次電池、ACアダプターなどを着脱可能に保持して、電圧(直流電圧)を出力する。   The power switch 136 is a switch for switching the power state of the imaging apparatus 100 to a power ON state or a power OFF state. The power supply control unit 138 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like, and detects whether or not the battery is installed in the power supply unit 140, the type of battery, and the remaining capacity of the battery. Further, the power supply control unit 138 controls the DC-DC converter based on the detection result in the power supply unit 140 and the instruction from the system control unit 124, and the necessary voltage is applied to the imaging apparatus 100 including the recording medium 200 for a necessary period. Supply to each part. The power supply unit 140 detachably holds a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery or a Li battery, or an AC adapter, and outputs a voltage (DC voltage).

撮像装置100では、中央1点AFや顔AFを用いて、被写体を撮像することが可能である。中央1点AFとは、撮像画面内の中央位置の1点に対してAFを行うことであり、顔AFとは、顔検出処理によって検出された撮像画面内の人物の顔に対してAFを行うことである。また、撮像装置100は、顔AFと同時に、顔AE、顔FE及び顔WBを行うこともできる。顔AEとは、顔検出処理によって検出された顔の明るさに応じて、撮像画面全体の露出を最適化することである。顔FEとは、顔検出処理によって検出された顔を中心としてフラッシュの調光を行うことである。顔WBとは、顔検出処理によって検出された顔の色に応じて、撮像画面全体のWBを最適化することである。   In the imaging apparatus 100, it is possible to image a subject using the central one-point AF and the face AF. The central one-point AF is to perform AF on one point at the central position in the imaging screen, and the face AF is AF to a human face in the imaging screen detected by the face detection process. Is to do. Further, the imaging apparatus 100 can perform the face AE, the face FE, and the face WB simultaneously with the face AF. The face AE is to optimize the exposure of the entire imaging screen according to the brightness of the face detected by the face detection process. The face FE is to perform flash light control around the face detected by the face detection process. The face WB is to optimize the WB of the entire imaging screen in accordance with the face color detected by the face detection process.

ここで、顔検出処理について簡単に説明する。顔検出処理では、まず、システム制御部124が顔検出対象の画像データを画像処理部112に入力する。画像処理部112は、システム制御部124の制御下で、入力された画像データに対して水平方向バンドパスフィルタ及び垂直方向バンドパスフィルタを作用させて、画像データからエッジ成分を検出する。システム制御部124は、画像処理部112によって検出されたエッジ成分に対してパターンマッチングを行い、目、鼻、口及び耳の候補群を抽出する。また、システム制御部124は、抽出された候補群のうち、予め設定された条件(例えば、2つの目の距離や傾きなど)を満たすものを目と判断して、目の候補群として絞り込む。更に、システム制御部124は、絞り込まれた目の候補群とそれに対応する顔の他のパターン(鼻、口、耳)とを対応させ、予め設定した非顔条件フィルタを作用させることで顔を検出する。そして、システム制御部124は、顔の検出結果に応じて顔情報を生成して、顔検出処理を終了する。なお、顔情報は、例えば、顔の数、位置及びサイズなどを含み、画像データ(画像)に関連付けてメモリ114や記録媒体200に格納される。   Here, the face detection process will be briefly described. In the face detection process, first, the system control unit 124 inputs image data to be detected to the image processing unit 112. The image processing unit 112 detects edge components from the image data by applying a horizontal bandpass filter and a vertical bandpass filter to the input image data under the control of the system control unit 124. The system control unit 124 performs pattern matching on the edge component detected by the image processing unit 112 and extracts a candidate group of eyes, nose, mouth, and ears. In addition, the system control unit 124 determines that an eye that satisfies a preset condition (for example, the distance or inclination of two eyes) among the extracted candidate groups is an eye and narrows it down as an eye candidate group. Further, the system control unit 124 associates the narrowed-down eye candidate group with other patterns of the face (nose, mouth, ears) corresponding thereto, and applies a preset non-face condition filter to apply the face. To detect. Then, the system control unit 124 generates face information according to the face detection result, and ends the face detection process. Note that the face information includes, for example, the number, position, size, and the like of faces, and is stored in the memory 114 or the recording medium 200 in association with image data (image).

このように、撮像装置100では、ライブビュー表示、或いは、表示部118の表示画面に表示(再生)される画像に対応する画像データを解析し、顔情報などの画像データの特徴量を検出することができる。   As described above, the imaging apparatus 100 analyzes image data corresponding to an image displayed (reproduced) on a live view display or the display screen of the display unit 118, and detects a feature amount of image data such as face information. be able to.

また、システム制御部124は、操作部の1つであるタッチパネルに対するユーザの操作を検出することが可能である。ここで、ユーザの操作とは、タッチパネルに指やペンでタッチしたこと(タッチダウン)、タッチパネルに指やペンでタッチした状態であること(タッチオン)、タッチパネルにタッチしたまま指やペンを動かしたこと(ムーブ)を含む。更に、ユーザの操作とは、タッチパネルにタッチしていた指やペンを離したこと(タッチアップ)、タッチパネルにタッチしていない状態であること(タッチオフ)を含む。タッチパネルに対するユーザの操作、及び、指やペンがタッチしているタッチパネル上の位置座標を含む操作情報は、内部バスを介して、システム制御部124に通知される。そして、システム制御部124は、通知された操作情報に基づいて、タッチパネルに対するユーザの操作の種類(即ち、どのような操作が行われたか)を検出する。なお、ムーブに関しては、システム制御部124は、位置座標の変化に基づいて、タッチパネル上における指やペンの移動方向も垂直成分及び水平成分ごとに検出することができる。
<第1の実施形態>
図2を参照して、撮像装置100における画像処理の動作について説明する。ここでは、画像処理の対象となる画像(画像データ)は、記録媒体200に記録された複数の画像(画像データ)から選択され、予めメモリ114に読み込まれているものとする。なお、撮像装置100において画像処理を行う画像は、撮像装置100によって撮像された画像であってもよいし、他の撮像装置によって撮像された画像であってもよい。
Further, the system control unit 124 can detect a user operation on the touch panel which is one of the operation units. Here, the user's operation is that the touch panel is touched with a finger or pen (touch down), the touch panel is touched with a finger or pen (touch on), and the finger or pen is moved while touching the touch panel. Including the move. Further, the user operation includes releasing a finger or pen that has been touching the touch panel (touch-up) and not touching the touch panel (touch-off). Operation information including the user's operation on the touch panel and the position coordinates on the touch panel touched by the finger or pen is notified to the system control unit 124 via the internal bus. Then, the system control unit 124 detects the type of user operation on the touch panel (that is, what operation has been performed) based on the notified operation information. Regarding the move, the system control unit 124 can also detect the moving direction of the finger or pen on the touch panel for each vertical component and horizontal component based on the change of the position coordinates.
<First Embodiment>
With reference to FIG. 2, the image processing operation in the imaging apparatus 100 will be described. Here, it is assumed that an image (image data) to be subjected to image processing is selected from a plurality of images (image data) recorded on the recording medium 200 and has been read into the memory 114 in advance. Note that an image subjected to image processing in the imaging apparatus 100 may be an image captured by the imaging apparatus 100 or an image captured by another imaging apparatus.

S202において、システム制御部124は、画像処理の対象となる画像の画像データに記録されている撮像条件及び撮像シーンの種類の少なくとも一方を含む属性情報を取得する。   In step S202, the system control unit 124 acquires attribute information including at least one of the imaging condition and the type of the imaging scene recorded in the image data of the image to be subjected to image processing.

S204において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の画像データに対して顔検出処理を行う。これにより、画像処理の対象となる画像に含まれる人物の顔が検出され、かかる顔の数、位置及びサイズなどを含む顔情報が生成される。なお、上述したように、画像の撮像時に顔検出処理が行われ、顔情報が画像に関連付けられて記録媒体200などに記録されている場合には、システム制御部124は、S204で顔検出処理を行う必要はなく、記録されている顔情報を取得すればよい。   In step S <b> 204, the system control unit 124 performs face detection processing on image data of an image to be subjected to image processing in cooperation with the image processing unit 112. As a result, the face of a person included in the image to be subjected to image processing is detected, and face information including the number, position, size, and the like of the face is generated. As described above, when face detection processing is performed when an image is captured and face information is associated with the image and recorded on the recording medium 200 or the like, the system control unit 124 causes the face detection processing in S204. There is no need to perform the process, and the recorded face information may be acquired.

S206において、システム制御部124は、S204の顔検出処理によって生成された顔情報に基づいて、人物の顔の位置を表す顔枠を画像処理の対象となる画像に重ねて表示部118の表示画面に表示する。図3(a)は、S206において表示部118の表示画面に表示される画像の表示例を示す図である。本実施形態では、画像処理の対象となる画像IMには、3人の人物が含まれているため、3つの顔枠FF1、FF2及びFF3が表示されている。また、本実施形態では、画像IMは、図3(a)に示すように、画像IMにおいて画像処理を行う処理部分を指定するために、表示部118の表示画面に表示された画像IM(即ち、タッチパネル上の画像IM)へのタッチを促すメッセージも表示される。   In S206, the system control unit 124 superimposes a face frame representing the position of the person's face on the image to be image-processed based on the face information generated by the face detection process in S204, and displays the display screen of the display unit 118. To display. FIG. 3A is a diagram illustrating a display example of an image displayed on the display screen of the display unit 118 in S206. In the present embodiment, since three persons are included in the image IM to be subjected to image processing, three face frames FF1, FF2, and FF3 are displayed. In the present embodiment, as shown in FIG. 3A, the image IM is an image IM displayed on the display screen of the display unit 118 (that is, in order to specify a processing portion for performing image processing in the image IM (that is, the image IM). A message prompting the user to touch the image IM) on the touch panel is also displayed.

S208において、システム制御部124は、表示部118の表示画面に表示された画像(即ち、表示部118の表示画面)がタッチされたかどうかを判定する。上述したように、表示部118の表示画面にはタッチパネルが構成されているため、システム制御部124は、タッチパネルに対するユーザの操作、即ち、表示部118の表示画面に表示された画像がタッチされたことを検出することができる。表示部118の表示画面に表示された画像がタッチされていない場合には、画像がタッチされるまで待機し(S208を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S210に移行する。   In step S <b> 208, the system control unit 124 determines whether an image displayed on the display screen of the display unit 118 (that is, the display screen of the display unit 118) has been touched. As described above, a touch panel is configured on the display screen of the display unit 118, so that the system control unit 124 touches the user's operation on the touch panel, that is, the image displayed on the display screen of the display unit 118. Can be detected. When the image displayed on the display screen of the display unit 118 is not touched, the process waits until the image is touched (repeats S208), and the image displayed on the display screen of the display unit 118 is touched. The process proceeds to S210.

S210において、システム制御部124は、タッチされたタッチパネル上の位置座標を含む操作情報に基づいて、表示部118の表示画面に表示された画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。   In S210, the system control unit 124 detects a touched portion of the image displayed on the display screen of the display unit 118 based on the operation information including the touched position coordinates on the touch panel, and detects the touched portion as an image. Specify as the processing part to perform processing.

S212において、システム制御部124は、S210で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔ではない場合には、S234に移行する。また、処理部分の種類が人物の顔である場合には、S214に移行する。   In S212, the system control unit 124 determines whether or not the type of the processing part designated in S210 is a human face (that is, specifies the type of the processing part). If the type of the processing part is not a person's face, the process proceeds to S234. On the other hand, if the type of the processing portion is a human face, the process proceeds to S214.

S214において、システム制御部124は、画像処理の対象となる画像の撮像時にストロボが発光されたかどうかを判定する。具体的には、システム制御部124は、S202で取得した属性情報を参照し、かかる属性情報に含まれる撮像条件が画像の撮像時にストロボが発光されたことを表しているかストロボが発光されていないことを表しているかを判定する。   In step S <b> 214, the system control unit 124 determines whether or not the strobe light is emitted when an image to be subjected to image processing is captured. Specifically, the system control unit 124 refers to the attribute information acquired in S202, and the imaging condition included in the attribute information indicates that the strobe is emitted when the image is captured, or the strobe is not emitted. It is determined whether it represents.

画像処理の対象となる画像の撮像時にストロボが発光されている場合には、S216に移行し、画像処理の対象となる画像の撮像時にストロボが発光されていない場合には、S218に移行する。S216及びS218では、システム制御部124は、属性情報及び処理部分の種類に対して予め定められた複数の画像処理から、処理部分に行う画像処理を決定する。例えば、メモリ114には、図4(a)に示すように、属性情報(撮像条件)と画像処理との関係を表すテーブルが記憶されており、システム制御部124は、図4(a)に示すテーブルを参照することで、処理部分に行う画像処理を決定することができる。本実施形態では、S216において、システム制御部124は、赤目補正処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。また、S218において、システム制御部124は、暗部補正処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。このように、本実施形態では、処理部分の種類が人物の顔である場合に、画像の撮像時にストロボが発光されたか発光されていないかに応じて異なる画像処理が行われるように、処理部分に行う画像処理を決定する。   If the strobe light is emitted when the image to be processed is captured, the process proceeds to S216. If the strobe light is not emitted when the image to be processed is captured, the process proceeds to S218. In S <b> 216 and S <b> 218, the system control unit 124 determines image processing to be performed on the processing portion from a plurality of image processing predetermined for the attribute information and the type of processing portion. For example, as shown in FIG. 4A, the memory 114 stores a table representing the relationship between attribute information (imaging conditions) and image processing. The system control unit 124 stores the table shown in FIG. By referring to the table shown, image processing to be performed on the processing portion can be determined. In the present embodiment, in S216, the system control unit 124 determines the red-eye correction process as an image process to be performed on a processing portion of an image to be subjected to image processing. In step S <b> 218, the system control unit 124 determines the dark portion correction processing as image processing to be performed on the processing portion of the image to be subjected to image processing. As described above, in this embodiment, when the type of the processing portion is a person's face, the processing portion is configured so that different image processing is performed depending on whether the strobe is emitted or not when the image is captured. Determine the image processing to be performed.

S220において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の処理部分に対して、S216又はS218で決定した画像処理(本実施形態では、赤目補正処理又は暗部補正処理)を行う。   In S220, the system control unit 124 cooperates with the image processing unit 112 to perform the image processing determined in S216 or S218 on the processing portion of the image to be subjected to image processing (in this embodiment, red-eye correction processing or Dark area correction processing).

S222において、システム制御部124は、S220で画像処理が行われた画像を表示部118の表示画面に表示する。なお、画像処理が行われた画像を表示する際には、図3(b)に示すように、画像処理の内容の説明も表示して、ユーザが画像処理の内容(例えば、赤目補正処理)について認識できるようにすることが好ましい。また、図3(b)に示すように、画像処理が行われた画像の保存を指示するための保存ボタンや画像処理が行われる前の画像に戻すことを指示するための戻すボタンなども表示するとよい。   In step S222, the system control unit 124 displays the image on which the image processing has been performed in step S220 on the display screen of the display unit 118. Note that when displaying an image that has been subjected to image processing, as shown in FIG. 3B, the description of the content of the image processing is also displayed, and the content of the image processing (for example, red-eye correction processing) is displayed by the user. It is preferable to be able to recognize. In addition, as shown in FIG. 3B, a save button for instructing to save the image that has been subjected to image processing, a return button for instructing to return to the image before the image processing is performed, and the like are also displayed. Good.

S224において、システム制御部124は、画像処理が行われた画像(S222で表示された画像)を保存するかどうかを判定する。例えば、システム制御部124は、図3(b)に示す保存ボタンがタッチされたかどうか(即ち、画像の保存が指示されたかどうか)を検出する。そして、保存ボタンがタッチされたことを検出した場合には、システム制御部124は、画像処理が行われた画像を保存すると判定し、S226において、画像処理が行われた画像を記録媒体200に保存する。また、保存ボタンがタッチされたことを検出しなかった場合には、システム制御部124は、画像処理が行われた画像を保存しないと判定し、S228に移行する。なお、画像処理が行われた画像を保存するかどうかの判定は、上述した方法に限定するものではない。例えば、タッチパネルに対して特定の操作(例えば、画像の枠をなぞるなど)が行われたかどうか、第2のシャッタースイッチ130bがON状態になったかどうかなどに応じて、画像処理が行われた画像を保存するかどうかの判定を行ってもよい。   In step S224, the system control unit 124 determines whether to save the image that has undergone image processing (the image displayed in step S222). For example, the system control unit 124 detects whether or not a save button shown in FIG. 3B is touched (that is, whether or not an image save is instructed). If it is detected that the save button has been touched, the system control unit 124 determines to save the image that has been subjected to image processing, and the image that has been subjected to image processing is stored in the recording medium 200 in S226. save. If it is not detected that the save button has been touched, the system control unit 124 determines that the image that has been subjected to image processing is not to be saved, and proceeds to S228. Note that determination as to whether or not to save an image that has been subjected to image processing is not limited to the method described above. For example, an image subjected to image processing depending on whether a specific operation (for example, tracing an image frame) is performed on the touch panel, whether the second shutter switch 130b is turned on, or the like. It may be determined whether or not to save.

S228において、システム制御部124は、表示部118の表示画面に表示された画像(即ち、画像処理が行われた画像)がタッチされたかどうかを判定する。画像がタッチされていない場合には、画像がタッチされるまで待機し(S228を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S230に移行する。   In step S <b> 228, the system control unit 124 determines whether an image displayed on the display screen of the display unit 118 (that is, an image subjected to image processing) has been touched. If the image is not touched, the process waits until the image is touched (repeats S228). If the image displayed on the display screen of the display unit 118 is touched, the process proceeds to S230.

S230において、システム制御部124は、S210と同様に、画像処理が行われた画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。   In S230, as in S210, the system control unit 124 detects a touched portion of the image that has been subjected to image processing, and designates this portion as a processing portion that performs image processing.

S232において、システム制御部124は、S212と同様に、S230で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔ではない場合には、S234に移行する。また、処理部分の種類が人物の顔である場合には、S214に移行する。   In S232, the system control unit 124 determines whether the type of the processing part specified in S230 is a human face (that is, specifies the type of the processing part), as in S212. If the type of the processing part is not a person's face, the process proceeds to S234. On the other hand, if the type of the processing portion is a human face, the process proceeds to S214.

S234において、システム制御部124は、S202で取得した属性情報に含まれる撮像シーンの種類に応じて、予め定められた複数の画像処理から、S230で指定した処理部分に行う画像処理を決定する。例えば、メモリ114には、図4(b)に示すように、属性情報(撮像シーンの種類)と画像処理との関係を表すテーブルが記憶されており、システム制御部124は、図4(b)に示すテーブルを参照することで、処理部分に行う画像処理を決定することができる。図4(b)を参照するに、システム制御部124は、画像処理の対象となる画像の撮像シーンの種類が「青空」である場合には、青色強調処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。また、システム制御部124は、画像処理の対象となる画像の撮像シーンの種類が「夕景」である場合には、赤色強調処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。また、システム制御部124は、画像処理の対象となる画像の撮像シーンの種類が「スノー」や「夜景」である場合には、コントラスト補正処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。   In S234, the system control unit 124 determines image processing to be performed on the processing portion specified in S230 from a plurality of predetermined image processing according to the type of the imaging scene included in the attribute information acquired in S202. For example, as shown in FIG. 4B, the memory 114 stores a table representing the relationship between attribute information (type of captured scene) and image processing, and the system control unit 124 stores the table shown in FIG. ), It is possible to determine image processing to be performed on the processing portion. Referring to FIG. 4B, the system control unit 124 performs the blue enhancement process on the image to be processed when the type of the imaging scene of the image to be processed is “blue sky”. The image processing to be performed on the processing portion is determined. In addition, when the type of the imaging scene of the image to be image-processed is “evening scene”, the system control unit 124 determines the red enhancement process as the image process to be performed on the processing portion of the image to be image-processed. To do. Further, the system control unit 124 performs the contrast correction processing on the processing portion of the image to be image-processed when the type of the imaging scene of the image to be image-processed is “snow” or “night scene”. Determine as image processing.

S236において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の処理部分に対して、S234で決定した画像処理(青色強調処理、赤色強調処理、コントラスト補正処理など)を行う。   In S <b> 236, the system control unit 124 cooperates with the image processing unit 112 to perform the image processing (blue enhancement processing, red enhancement processing, contrast correction processing) determined in S <b> 234 on the processing portion of the image to be processed. Etc.).

S238において、システム制御部124は、S236で画像処理が行われた画像を表示部118の表示画面に表示する。なお、上述したように、像処理が行われた画像を表示する際には、ユーザが画像処理の内容(例えば、青色強調処理)について認識できるようにすることが好ましい。また、画像処理が行われた画像の保存を指示するための保存ボタンなども表示するとよい。   In step S238, the system control unit 124 displays the image on which the image processing has been performed in step S236 on the display screen of the display unit 118. As described above, when displaying an image on which image processing has been performed, it is preferable that the user can recognize the content of the image processing (for example, blue enhancement processing). In addition, a save button or the like for instructing to save an image that has been subjected to image processing may be displayed.

S240において、システム制御部124は、S224と同様に、画像処理が行われた画像(S238で表示された画像)を保存するかどうかを判定する。画像処理が行われた画像を保存する場合には、システム制御部124は、S242において、画像処理が行われた画像を記録媒体200に保存する。また、画像処理が行われた画像を保存しない場合には、S244に移行する。   In S240, the system control unit 124 determines whether or not to save the image that has undergone image processing (the image displayed in S238), as in S224. When storing the image that has been subjected to the image processing, the system control unit 124 stores the image that has been subjected to the image processing in the recording medium 200 in S242. If the image that has undergone image processing is not stored, the process proceeds to S244.

S244において、システム制御部124は、表示部118の表示画面に表示された画像(即ち、画像処理が行われた画像)がタッチされたかどうかを判定する。画像がタッチされていない場合には、画像がタッチされるまで待機し(S244を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S246に移行する。   In step S244, the system control unit 124 determines whether an image displayed on the display screen of the display unit 118 (that is, an image on which image processing has been performed) has been touched. If the image is not touched, the process waits until the image is touched (repeats S244). If the image displayed on the display screen of the display unit 118 is touched, the process proceeds to S246.

S246において、システム制御部124は、S210やS230と同様に、画像処理が行われた画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。   In S246, as in S210 and S230, the system control unit 124 detects a touched portion of the image that has been subjected to image processing, and designates this portion as a processing portion that performs image processing.

S248において、システム制御部124は、S212やS232と同様に、S246で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔ではない場合には、S250に移行する。また、処理部分の種類が人物の顔である場合には、S214に移行する。   In S248, similarly to S212 and S232, the system control unit 124 determines whether the type of the processing part specified in S246 is a human face (that is, specifies the type of the processing part). If the type of the processing part is not a human face, the process proceeds to S250. On the other hand, if the type of the processing portion is a human face, the process proceeds to S214.

S250において、システム制御部124は、S234と同様に、S202で取得した属性情報に含まれる撮像シーンの種類に応じて、予め定められた複数の画像処理から、S246で指定した処理部分に行う画像処理を決定する。但し、ここでは、システム制御部124は、S234で決定した画像処理と異なる画像処理を、画像処理の対象である画像の処理部分に行う画像処理として決定する。換言すれば、同じ処理部分が複数回指定された場合には、処理部分の指定ごとに異なる画像処理が行われるように、処理部分に行う画像処理を決定する。例えば、システム制御部124は、図4(b)に示すテーブルを参照して、画像処理の対象となる画像の撮像シーンの種類が「青空」や「夕景」である場合には、コントラスト補正処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。また、システム制御部124は、画像処理の対象となる画像の撮像シーンの種類が「夜景」である場合には、ノイズリダクション処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。   In S250, similarly to S234, the system control unit 124 performs an image to be performed on the processing portion specified in S246 from a plurality of predetermined image processing according to the type of the imaging scene included in the attribute information acquired in S202. Determine processing. However, here, the system control unit 124 determines the image processing different from the image processing determined in S234 as the image processing to be performed on the processing portion of the image that is the target of the image processing. In other words, when the same processing portion is designated a plurality of times, the image processing to be performed on the processing portion is determined so that different image processing is performed for each designation of the processing portion. For example, with reference to the table shown in FIG. 4B, the system control unit 124 performs contrast correction processing when the type of the imaging scene of the image to be subjected to image processing is “blue sky” or “evening scene”. Are determined as image processing to be performed on the processing portion of the image to be processed. Further, the system control unit 124 determines that the noise reduction process is performed as the image process to be performed on the image processing target when the type of the imaging scene of the image to be processed is “night scene”. To do.

S252において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の処理部分に対して、S250で決定した画像処理(コントラスト補正処理、ノイズリダクション処理など)を行う。   In S252, the system control unit 124 cooperates with the image processing unit 112 to perform the image processing (contrast correction processing, noise reduction processing, etc.) determined in S250 on the processing portion of the image to be subjected to image processing. .

S254において、システム制御部124は、S238と同様に、S252で画像処理が行われた画像を表示部118の表示画面に表示する。   In S254, the system control unit 124 displays the image that has been subjected to the image processing in S252 on the display screen of the display unit 118, as in S238.

S256において、システム制御部124は、S224やS240と同様に、画像処理が行われた画像(S238で表示された画像)を保存するかどうかを判定する。画像処理が行われた画像を保存する場合には、S242に移行し、システム制御部124は、画像処理が行われた画像を記録媒体200に保存する。また、画像処理が行われた画像を保存しない場合には、S258に移行する。   In S256, the system control unit 124 determines whether or not to save the image that has been subjected to image processing (the image displayed in S238), as in S224 and S240. In the case of storing the image that has been subjected to the image processing, the process proceeds to S242, and the system control unit 124 stores the image that has been subjected to the image processing in the recording medium 200. If the image that has been subjected to image processing is not stored, the process proceeds to S258.

S258において、システム制御部124は、表示部118の表示画面に表示された画像(即ち、画像処理が行われた画像)がタッチされたかどうかを判定する。画像がタッチされていない場合には、画像がタッチされるまで待機し(S258を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S260に移行する。   In step S258, the system control unit 124 determines whether an image displayed on the display screen of the display unit 118 (that is, an image subjected to image processing) has been touched. If the image is not touched, the process waits until the image is touched (repeats S258). If the image displayed on the display screen of the display unit 118 is touched, the process proceeds to S260.

S260において、システム制御部124は、S210、S230、S246と同様に、画像処理が行われた画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。   In S260, as in S210, S230, and S246, the system control unit 124 detects a touched portion of the image that has been subjected to image processing, and designates this portion as a processing portion that performs image processing.

S262において、システム制御部124は、S212、S232、S248と同様に、S260で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔ではない場合には、S206に移行して、画像処理が行われていない画像(即ち、もとの画像)を顔枠と共に表示部118の表示画面に表示する。また、処理部分の種類が人物の顔である場合には、S214に移行する。   In S262, as in S212, S232, and S248, the system control unit 124 determines whether or not the type of the processing part specified in S260 is a human face (that is, specifies the type of the processing part). If the type of the processing portion is not a person's face, the process proceeds to S206, and an image that has not been subjected to image processing (that is, the original image) is displayed on the display screen of the display unit 118 together with the face frame. On the other hand, if the type of the processing portion is a human face, the process proceeds to S214.

このように、本実施形態の撮像装置100では、画像処理の対象となる画像の属性情報、及び、画像処理を行う処理部分の種類に応じて、かかる処理部分に行う画像処理を決定し、かかる画像処理を自動的に行う。従って、ユーザは、画像処理に関する知識がなくても、画像の気に入らない部分(即ち、画像処理を行う処理部分)をタッチするという簡単な操作を行うだけで、画像に適した画像処理を容易に行うことができる。   As described above, the imaging apparatus 100 according to the present embodiment determines the image processing to be performed on the processing portion according to the attribute information of the image to be image-processed and the type of the processing portion to be subjected to the image processing. Automatically perform image processing. Therefore, even if the user has no knowledge about image processing, the user can easily perform image processing suitable for an image by simply touching a portion of the image that he / she does not like (ie, a processing portion for performing image processing). It can be carried out.

なお、画像処理の対象となる画像の属性情報、及び、画像処理を行う処理部分の種類に応じて決定した画像処理を自動的に行うのではなく、決定した画像処理の内容をユーザに通知し、ユーザの指示に応じて行うようにしてもよい。これにより、ユーザは、例えば、処理部分に行う画像処理として決定した画像処理が好ましくないと感じた場合に、かかる画像処理が行われることを中止することができる。
<第2の実施形態>
図5を参照して、撮像装置100における別の画像処理の動作について説明する。第1の実施形態と同様に、画像処理の対象となる画像(画像データ)は、記録媒体200に記録された複数の画像(画像データ)から選択され、予めメモリ114に読み込まれているものとする。また、図5に示すS502乃至S512は、図2に示すS202乃至S212と同じであるため、ここでの詳細な説明は省略する。なお、S512において、S510で指定した処理部分の種類が人物の顔ではない場合には、S534に移行し、S510で指定した処理部分の種類が人物の顔である場合には、S514に移行する。
In addition, instead of automatically performing the image processing determined according to the attribute information of the image to be processed and the type of the processing portion to perform the image processing, the user is notified of the content of the determined image processing. Alternatively, it may be performed in accordance with a user instruction. Thereby, for example, when the user feels that the image processing determined as the image processing to be performed on the processing portion is not preferable, the user can stop performing the image processing.
<Second Embodiment>
With reference to FIG. 5, another image processing operation in the imaging apparatus 100 will be described. As in the first embodiment, an image (image data) to be subjected to image processing is selected from a plurality of images (image data) recorded on the recording medium 200 and read into the memory 114 in advance. To do. Further, S502 to S512 shown in FIG. 5 are the same as S202 to S212 shown in FIG. In S512, if the type of the processing part specified in S510 is not a person's face, the process proceeds to S534. If the type of the processing part specified in S510 is a person's face, the process proceeds to S514. .

S514において、システム制御部124は、S502で取得した属性情報に対応する複数の画像処理を選択可能にユーザに通知する。例えば、メモリ114には、図6に示すように、属性情報(撮像条件)と画像処理との関係を表すテーブルが記憶されており、システム制御部124は、図6に示すテーブルを参照して、選択可能な画像処理を表示部118の表示画面に表示する。図7(a)は、S514において表示部118の表示画面に表示される画像の表示例を示す図であって、撮像条件が画像の撮像時にストロボが発光されていないことを表している場合の表示例を示す図である。図7(a)を参照するに、選択可能な画像処理として逆光補正処理と美肌補正処理とを含む画像処理選択メニューが表示されている。ユーザは、画像処理選択メニューの逆光補正処理又は美肌補正処理の項目部分にタッチすることで、処理部分に行う画像処理を選択することができる。なお、撮像条件が画像の撮像時にストロボが発光されていることを表している場合には、赤目補正処理と美肌補正処理とを含む画像処理選択メニューが表示されることになる。   In step S514, the system control unit 124 notifies the user that a plurality of image processes corresponding to the attribute information acquired in step S502 can be selected. For example, as shown in FIG. 6, the memory 114 stores a table representing the relationship between attribute information (imaging conditions) and image processing. The system control unit 124 refers to the table shown in FIG. The selectable image processing is displayed on the display screen of the display unit 118. FIG. 7A is a diagram illustrating a display example of an image displayed on the display screen of the display unit 118 in S514, and the imaging condition indicates that the strobe is not emitted when the image is captured. It is a figure which shows the example of a display. Referring to FIG. 7A, an image processing selection menu including a backlight correction process and a beautiful skin correction process is displayed as selectable image processes. The user can select the image processing to be performed on the processing portion by touching the item portion of the backlight correction processing or the skin softening correction processing in the image processing selection menu. When the image capturing condition indicates that the strobe is emitted at the time of image capturing, an image processing selection menu including red eye correction processing and skin softening correction processing is displayed.

S516において、システム制御部124は、S514で通知した複数の画像処理のうちユーザによって選択された画像処理を、S510で指定した処理部分に行う画像処理として決定する。   In S516, the system control unit 124 determines the image processing selected by the user from the plurality of image processing notified in S514 as the image processing to be performed on the processing portion specified in S510.

S518において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の処理部分に対して、S516で決定した画像処理(例えば、逆光補正処理又は美肌補正処理)を行う。   In S518, the system control unit 124 cooperates with the image processing unit 112 to perform the image processing (for example, backlight correction processing or skin beautification processing) determined in S516 on the processing portion of the image to be processed. Do.

S520において、システム制御部124は、S518で画像処理が行われた画像を表示部118の表示画面に表示する。なお、画像処理が行われた画像を表示する際には、図7(b)に示すように、処理部分に行った画像処理の内容の説明も表示して、ユーザが画像処理の内容について認識できるようにすることが好ましい。図7(b)では、処理部分に美肌補正処理及び赤目補正処理が行われたことを表すアイコンが表示されている。また、画像処理が行われた画像の保存を指示するための保存ボタンや画像処理が行われる前の画像に戻すことを指示するための戻すボタンなども表示するとよい。   In step S520, the system control unit 124 displays the image on which image processing has been performed in step S518 on the display screen of the display unit 118. When an image that has been subjected to image processing is displayed, as shown in FIG. 7B, a description of the content of the image processing performed on the processing portion is also displayed so that the user can recognize the content of the image processing. It is preferable to be able to do this. In FIG.7 (b), the icon showing that the beautiful skin correction process and the red eye correction process were performed is displayed on the process part. In addition, a save button for instructing to save an image that has been subjected to image processing, a return button for instructing to return to an image before the image processing is performed, and the like may be displayed.

S522において、システム制御部124は、画像処理が行われた画像(S520で表示された画像)を保存するかどうかを判定する。画像処理が行われた画像を保存する場合には、システム制御部124は、S524において、画像処理が行われた画像を記録媒体200に保存する。また、画像処理が行われた画像を保存しない場合には、S526に移行する。   In step S522, the system control unit 124 determines whether to save the image on which image processing has been performed (the image displayed in step S520). When storing the image that has been subjected to the image processing, the system control unit 124 stores the image that has been subjected to the image processing in the recording medium 200 in S524. If the image that has been subjected to image processing is not stored, the process proceeds to S526.

S526において、システム制御部124は、画像処理を終了するかどうかを判定する。例えば、システム制御部124は、操作部の1つである画像処理終了ボタンが選択されたかどうか(即ち、画像処理の終了が指示されたかどうか)を検出する。そして、画像処理終了ボタンが選択されたことを検出した場合には、システム制御部124は、画像処理を終了する。また、画像処理終了ボタンが選択されたことを検出しなかった場合には、システム制御部124は、画像処理を終了しないと判定し、S528に移行する。   In step S526, the system control unit 124 determines whether to end the image processing. For example, the system control unit 124 detects whether an image processing end button that is one of the operation units is selected (that is, whether the end of image processing is instructed). If it is detected that the image processing end button has been selected, the system control unit 124 ends the image processing. If it is not detected that the image processing end button has been selected, the system control unit 124 determines that the image processing is not to be ended, and proceeds to S528.

S528において、システム制御部124は、表示部118の表示画面に表示された画像(即ち、画像処理が行われた画像)がタッチされたかどうかを判定する。画像がタッチされていない場合には、画像がタッチされるまで待機し(S528を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S530に移行する。   In step S <b> 528, the system control unit 124 determines whether an image displayed on the display screen of the display unit 118 (that is, an image subjected to image processing) has been touched. If the image is not touched, the process waits until the image is touched (S528 is repeated). If the image displayed on the display screen of the display unit 118 is touched, the process proceeds to S530.

S530において、システム制御部124は、タッチされたタッチパネル上の位置座標を含む操作情報に基づいて、表示部118の表示画面に表示された画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。   In S530, the system control unit 124 detects the touched portion of the image displayed on the display screen of the display unit 118 based on the operation information including the touched position coordinates on the touch panel, and detects the touched portion as an image. Specify as the processing part to perform processing.

S532において、システム制御部124は、S530で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔ではない場合には、S534に移行する。また、処理部分の種類が人物の顔である場合には、S514に移行する。   In S532, the system control unit 124 determines whether or not the type of the processing part specified in S530 is a human face (that is, specifies the type of the processing part). If the type of the processing part is not a human face, the process proceeds to S534. If the type of processing part is a human face, the process proceeds to S514.

S534において、システム制御部124は、S502で取得した属性情報に対応する複数の画像処理を選択可能にユーザに通知する。例えば、メモリ114には、図4(b)に示すように、属性情報(撮像シーンの種類)と画像処理との関係を表すテーブルが記憶されており、システム制御部124は、図4(b)に示すテーブルを参照して、選択可能な画像処理を表示部118の表示画面に表示する。撮像シーンの種類が「青空」である場合には、青色強調処理とコントラスト補正処理とを含む画像処理選択メニューが表示される。また、撮像シーンの種類が「夜景」である場合には、コントラスト補正処理とノイズリダクション処理とを含む画像処理選択メニューが表示される。   In step S534, the system control unit 124 notifies the user that a plurality of image processes corresponding to the attribute information acquired in step S502 can be selected. For example, as shown in FIG. 4B, the memory 114 stores a table representing the relationship between attribute information (type of captured scene) and image processing, and the system control unit 124 stores the table shown in FIG. The selectable image processing is displayed on the display screen of the display unit 118 with reference to the table shown in FIG. When the type of the imaging scene is “blue sky”, an image processing selection menu including blue enhancement processing and contrast correction processing is displayed. Further, when the type of the imaging scene is “night scene”, an image processing selection menu including a contrast correction process and a noise reduction process is displayed.

S536において、システム制御部124は、S534で通知した複数の画像処理のうちユーザによって選択された画像処理を、S530で指定した処理部分に行う画像処理として決定する。   In S536, the system control unit 124 determines the image processing selected by the user from among the plurality of image processing notified in S534 as the image processing to be performed on the processing portion specified in S530.

S538において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の処理部分に対して、S536で決定した画像処理(例えば、青色強調処理又はコントラスト補正処理)を行う。   In step S538, the system control unit 124 cooperates with the image processing unit 112 to perform the image processing (for example, blue enhancement processing or contrast correction processing) determined in step S536 on the processing portion of the image to be processed. Do.

S540において、システム制御部124は、S518で画像処理が行われた画像を表示部118の表示画面に表示する。なお、画像処理が行われた画像を表示する際には、画像処理の内容の説明も表示して、ユーザが画像処理の内容について認識できるようにすることが好ましい。また、画像処理が行われた画像の保存を指示するための保存ボタンや画像処理が行われる前の画像に戻すことを指示するための戻すボタンなども表示するとよい。   In step S540, the system control unit 124 displays the image on which image processing has been performed in step S518 on the display screen of the display unit 118. Note that when displaying an image that has been subjected to image processing, it is preferable to display an explanation of the content of the image processing so that the user can recognize the content of the image processing. In addition, a save button for instructing to save an image that has been subjected to image processing, a return button for instructing to return to an image prior to image processing, and the like may be displayed.

S542において、システム制御部124は、S522と同様に、画像処理が行われた画像(S540で表示された画像)を保存するかどうかを判定する。画像処理が行われた画像を保存する場合には、S524に移行し、システム制御部124は、画像処理が行われた画像を記録媒体200に保存する。また、画像処理が行われた画像を保存しない場合には、S544に移行する。   In S542, the system control unit 124 determines whether to save the image that has been subjected to image processing (the image displayed in S540), as in S522. When storing the image that has been subjected to image processing, the process proceeds to S524, and the system control unit 124 stores the image that has been subjected to image processing in the recording medium 200. If the image that has been subjected to image processing is not stored, the process proceeds to S544.

S544において、システム制御部124は、S526と同様に、画像処理を終了するかどうかを判定する。上述したように、システム制御部124は、画像処理終了ボタンが選択されたことを検出した場合には、画像処理を終了する。また、画像処理終了ボタンが選択されたことを検出しなかった場合には、システム制御部124は、画像処理を終了しないと判定し、S546に移行する。   In S544, the system control unit 124 determines whether to end the image processing, as in S526. As described above, when detecting that the image processing end button has been selected, the system control unit 124 ends the image processing. If it is not detected that the image processing end button has been selected, the system control unit 124 determines not to end the image processing, and the process proceeds to S546.

S546において、システム制御部124は、S528と同様に、表示部118の表示画面に表示された画像(即ち、画像処理が行われた画像)がタッチされたかどうかを判定する。画像がタッチされていない場合には、画像がタッチされるまで待機し(S546を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S548に移行する。   In S546, as in S528, the system control unit 124 determines whether an image displayed on the display screen of the display unit 118 (that is, an image subjected to image processing) has been touched. If the image is not touched, the process waits until the image is touched (repeats S546). If the image displayed on the display screen of the display unit 118 is touched, the process proceeds to S548.

S548において、システム制御部124は、S530と同様に、表示部118の表示画面に表示された画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。   In S548, the system control unit 124 detects a touched portion of the image displayed on the display screen of the display unit 118, and designates this portion as a processing portion for performing image processing, as in S530.

S550において、システム制御部124は、S548で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔である場合には、S514に移行する。また、処理部分の種類が人物の顔ではない場合には、S534に移行する。   In S550, the system control unit 124 determines whether or not the type of the processing part specified in S548 is a human face (that is, specifies the type of the processing part). If the type of the processing part is a human face, the process proceeds to S514. If the type of the processing part is not a person's face, the process proceeds to S534.

このように、本実施形態の撮像装置100では、画像処理の対象となる画像の属性情報、及び、画像処理を行う処理部分の種類に応じて、かかる処理部分に行うことが可能な複数の画像処理を通知する。そして、ユーザによって選択された画像処理を処理部分に行う画像処理として決定し、かかる画像処理を自動的に行う。従って、ユーザは、画像処理に関する知識がなくても、画像の気に入らない部分(即ち、画像処理を行う処理部分)をタッチして、処理部分に行うことが可能な画像処理を選択するという簡単な操作を行うだけで、画像に適した画像処理を容易に行うことができる。   As described above, in the imaging apparatus 100 according to the present embodiment, a plurality of images that can be performed on the processing portion according to the attribute information of the image to be subjected to image processing and the type of the processing portion on which the image processing is performed. Notify the process. Then, the image processing selected by the user is determined as the image processing to be performed on the processing portion, and the image processing is automatically performed. Therefore, even if the user has no knowledge about image processing, the user touches a portion that is not liked by the image (that is, a processing portion that performs image processing) and selects image processing that can be performed on the processing portion. Image processing suitable for an image can be easily performed only by performing an operation.

なお、第1の実施形態及び第2の実施形態では、画像処理を行う装置が撮像装置であるため、タッチパネルに対するユーザの操作に応じて処理部分を指定している。但し、画像処理を行う装置がパーソナルコンピュータなどの画像処理装置である場合には、一般的に、表示画面に表示された画像においてポインタを動かすためのポインティングデバイスが備わっている。このような場合には、ユーザによるポインティングデバイスの操作に応じて処理部分を指定してもよい。   In the first embodiment and the second embodiment, since the device that performs image processing is an imaging device, a processing portion is designated according to a user operation on the touch panel. However, when the image processing apparatus is an image processing apparatus such as a personal computer, a pointing device for moving the pointer in the image displayed on the display screen is generally provided. In such a case, the processing portion may be designated according to the operation of the pointing device by the user.

また、撮像装置100におけるシステム制御部124の制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、撮像装置100の全体の制御を行ってもよい。   Further, the control of the system control unit 124 in the imaging apparatus 100 may be performed by one hardware, or the entire imaging apparatus 100 may be controlled by a plurality of hardware sharing the processing.

また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例に説明したが、本発明はこれに限定されるものではない。例えば、本発明は、パーソナルコンピュータ、携帯電話端末、携帯型画像ビューワ及びプリンタなど、画像を表示制御可能な表示装置を備えるものに適用することができる。   In the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example. However, the present invention is not limited to this. For example, the present invention can be applied to an apparatus including a display device capable of controlling image display, such as a personal computer, a mobile phone terminal, a portable image viewer, and a printer.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び、かかるプログラムを記憶した記憶媒体は本発明を構成することになる。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or each storage medium, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。例えば、上述した各実施形態を適宜組み合わせることも可能である。   As mentioned above, although preferable embodiment of this invention was described, it cannot be overemphasized that this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. For example, the above-described embodiments can be appropriately combined.

Claims (16)

表示装置の表示画面に画像を表示させる表示制御手段と、
記画像において画像処理を行う処理部分を指定する指定手段と、
前記指定手段によって指定された前記処理部分の画像の特徴から前記処理部分に顔が含まれるか否かを判断する判断手段と、
前記判断手段の判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定する決定手段と、
前記決定手段によって決定された前記画像処理を前記処理部分に行う処理手段と、
を有し、
前記判断手段により顔が含まれていないと判断された同じ処理部分が複数回指定される場合、前記決定手段は、前記指定ごとに異なる処理が行われるように、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定することを特徴とする画像処理装置。
Display control means for displaying an image on the display screen of the display device;
Designating means for designating processing part for performing image processing in the previous SL image,
Determining means for determining whether or not a face is included in the processing portion from the characteristics of the image of the processing portion specified by the specifying means;
Determining means for determining image processing to be performed on the processing portion from a plurality of image processing determined based on the determination result of the determining means;
Processing means for performing the image processing determined by the determination means on the processing portion;
I have a,
When the same processing part determined not to contain a face by the determination unit is specified a plurality of times, the determination unit is based on the determination result of the determination unit so that different processing is performed for each specification. An image processing apparatus for determining image processing to be performed on the processing portion from a plurality of predetermined image processing.
前記同じ処理部分が繰り返し指定されることにより行われる複数の画像処理が一巡した場合、該処理部分の指定に応じて、前記表示制御手段は、画像処理を行っていない画像が表示されるように制御することを特徴とする請求項1に記載の画像処理装置。 When a plurality of image processing performed by repeatedly specifying the same processing portion is completed, the display control unit displays an image that has not been subjected to image processing according to the specification of the processing portion. the image processing apparatus according to claim 1, characterized in that control. 前記画像に関連付けられている属性情報を取得する取得手段を更に有し、It further has an acquisition means for acquiring attribute information associated with the image,
前記決定手段は、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記属性情報に基づき前記処理部分に行う画像処理を決定することを特徴とする請求項1又は2に記載の画像処理装置。The said determination means determines the image process performed to the said process part based on the said attribute information from the several image processing defined based on the determination result of the said determination means, The Claim 1 or 2 characterized by the above-mentioned. Image processing device.
前記属性情報と前記定められた複数の画像処理との関係を表すテーブルを、顔を含む処理部分と顔を含まない処理部分とで区別して記憶する記憶手段を更に有し、
前記決定手段は、前記記憶手段に記憶された前記テーブルを参照して、前記取得手段によって取得された前記属性情報に対応する画像処理を前記処理部分に行う画像処理として決定することを特徴とする請求項に記載の画像処理装置。
A table representing a relationship between a plurality of image processing said attribute information and is Me before Kijo, further comprising a storage means for storing distinguished by a processing portion that does not include the processing portion and the face including a face,
It said determining means includes a wherein with reference to stored pre-Symbol table in the storage means, determines the image processing corresponding to the attribute information acquired by the acquisition means as the image processing performed in the processing portion The image processing apparatus according to claim 3 .
前記属性情報と前記定められた複数の画像処理との関係を表すテーブルを、顔を含む処理部分と顔を含まない処理部分とで区別して記憶する記憶手段を更に有し、
前記決定手段は、前記記憶手段に記憶された前記テーブルを参照して、前記取得手段によって取得された前記属性情報に対応する複数の画像処理を選択可能にユーザに通知し、前記複数の画像処理のうち前記ユーザによって選択された画像処理を前記処理部分に行う画像処理として決定することを特徴とする請求項に記載の画像処理装置。
A table representing a relationship between a plurality of image processing said attribute information and is Me before Kijo, further comprising a storage means for storing distinguished by a processing portion that does not include the processing portion and the face including a face,
The determination unit refers to the pre-Symbol table stored in the storage means, it has been notified to selectably user a plurality of image processing corresponding to the attribute information acquired by the acquisition means, the plurality of images The image processing apparatus according to claim 3 , wherein an image process selected by the user among the processes is determined as an image process to be performed on the processing portion.
前記画像に対応づけられている属性情報を取得する取得手段を更に有し、It further has an acquisition means for acquiring attribute information associated with the image,
前記判断手段が前記指定された処理部分に顔が含まれていると判断した場合、前記決定手段は、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記属性情報に含まれる前記画像の撮像時に用いられた撮像条件に基づき前記処理部分に行う画像処理を決定し、When the determination unit determines that a face is included in the designated processing portion, the determination unit is included in the attribute information from a plurality of image processes determined based on the determination result of the determination unit. Determine image processing to be performed on the processing portion based on the imaging conditions used at the time of imaging the image,
前記判断手段が前記指定された処理部分に顔が含まれていないと判断した場合、前記決定手段は、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記属性情報に含まれる前記画像の撮像時に判定された撮像シーンの種類に基づき前記処理部分に行う画像処理を決定することを特徴とする請求項1又は2に記載の画像処理装置。When the determination unit determines that no face is included in the designated processing portion, the determination unit includes the plurality of image processes determined based on the determination result of the determination unit and is included in the attribute information. The image processing apparatus according to claim 1, wherein image processing to be performed on the processing portion is determined based on a type of an imaging scene determined at the time of capturing the image.
前記画像の撮像時に判定された撮像シーンの種類を含む属性情報を取得する取得手段を更に有し、Further comprising an acquisition means for acquiring attribute information including a type of an imaging scene determined at the time of imaging the image;
前記判断手段により顔が含まれていないと判断された同じ処理部分が複数回指定される場合、前記決定手段は、前記指定ごとに異なる処理が行われるように、前記判断手段の判断結果及び前記属性情報に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定することを特徴とする請求項1又は2に記載の画像処理装置。When the same processing part determined not to contain a face by the determination unit is specified a plurality of times, the determination unit determines the determination result of the determination unit and the determination unit so that different processing is performed for each specification. The image processing apparatus according to claim 1, wherein image processing to be performed on the processing portion is determined from a plurality of image processing determined based on attribute information.
前記処理手段は、前記決定手段で決定された前記画像処理を自動的に前記処理部分に行うことを特徴とする請求項1乃至のうちいずれか1項に記載の画像処理装置。 The processing means, the image processing apparatus according to any one of claims 1 to 7, characterized in that the automatically the treated portion of the image processing determined by said determining means. 前記表示制御手段は、前記処理手段によって前記画像処理が行われた画像を、前記画像処理の内容の説明と共に前記表示画面に表示させることを特徴とする請求項1乃至のうちいずれか1項に記載の画像処理装置。 Wherein the display control unit, any one of claims 1 to 8, characterized in that the image which the image processing has been performed by the processing means, to be displayed on the display screen together with the description of the contents of the image processing An image processing apparatus according to 1. 記決定手段は、前記指定された処理部分に顔が含まれると判断された場合に、前記属性情報に含まれる前記撮像条件が前記画像の撮像時にストロボが発光されたことを表しているかストロボが発光されていないことを表しているかに応じて異なる画像処理が行われるように、前記処理部分に行う画像処理を決定することを特徴とする請求項に記載の画像処理装置。 Before SL determining means, when it is determined that a face is included in the specified processing portion, or the imaging condition included in the attribute information indicates that the flash is emitted when imaging the image strobe The image processing apparatus according to claim 4 , wherein image processing to be performed on the processing portion is determined so that different image processing is performed depending on whether or not the light is emitted. 記決定手段は、前記指定された処理部分に顔が含まれないと判断された場合に、前記属性情報に含まれる前記撮像シーンの種類に応じて異なる画像処理が行われるように、前記処理部分に行う画像処理を決定することを特徴とする請求項に記載の画像処理装置。 Before SL determining means, when it is determined that no face is included in the specified processing portion, so that different image processing according to the type of the image scene included in the attribute information is performed, the processing The image processing apparatus according to claim 4 , wherein image processing to be performed on the portion is determined. 前記表示装置の前記表示画面の上には、位置入力手段が設けられており、
前記指定手段は、前記位置入力手段に対するユーザの操作に応じて前記処理部分を指定することを特徴とする請求項1乃至11のうちいずれか1項に記載の画像処理装置。
Position input means is provided on the display screen of the display device,
It said specifying means, the image processing apparatus according to any one of claims 1 to 11, wherein the designating the processing part in response to a user's operation to the position input means.
前記表示画面に表示された前記画像においてポインタを動かすためのポインティングデバイスを更に有し、
前記指定手段は、ユーザによる前記ポインティングデバイスの操作に応じて前記処理部分を指定することを特徴とする請求項1乃至11のうちいずれか1項に記載の画像処理装置。
A pointing device for moving a pointer in the image displayed on the display screen;
It said specifying means, the image processing apparatus according to any one of claims 1 to 11, wherein the designating the processing part in response to the operation of the pointing device by the user.
画像処理装置の制御方法であって、
表示制御手段が、表示装置の表示画面に画像を表示させる表示制御ステップと、
定手段が、前記画像において画像処理を行う処理部分を指定する指定ステップと、
特定手段が、前記指定ステップで指定された前記処理部分の画像の特徴から前記処理部分に顔が含まれるか否かを判断する判断ステップと、
決定手段が、前記判断ステップでの判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定する決定ステップと、
処理手段が、前記決定ステップで決定された前記画像処理を前記処理部分に行う処理ステップと、
を有し、
前記判断ステップにて顔が含まれていないと判断された同じ処理部分が複数回指定される場合、前記決定ステップでは、前記指定ごとに異なる処理が行われるように、前記判断ステップでの判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定することを特徴とする制御方法。
A control method for an image processing apparatus, comprising:
A display control step for causing the display control means to display an image on the display screen of the display device;
Specified means, a designation step of designating a processing part for performing image processing in the image,
A determining step for determining whether or not a face is included in the processing portion from the feature of the image of the processing portion specified in the specifying step;
A determination step for determining image processing to be performed on the processing portion from a plurality of image processing determined based on the determination result in the determination step;
A processing step in which processing means performs the image processing determined in the determining step on the processing portion;
I have a,
When the same processing part determined not to contain a face in the determination step is specified a plurality of times, the determination result in the determination step is such that a different process is performed for each specification in the determination step. A control method for determining image processing to be performed on the processing portion from a plurality of image processing determined based on the method.
コンピュータを、請求項1乃至13のうちいずれか1項に記載された画像処理装置の各手段として機能させるプログラム。 A program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 13 . コンピュータを、請求項1乃至13のうちいずれか1項に記載された画像処理装置の各手段として機能させるプログラムを格納した記憶媒体。 A storage medium storing a program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 13 .
JP2010044630A 2010-03-01 2010-03-01 Image processing apparatus, image processing apparatus control method, program, and storage medium Expired - Fee Related JP5580623B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010044630A JP5580623B2 (en) 2010-03-01 2010-03-01 Image processing apparatus, image processing apparatus control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010044630A JP5580623B2 (en) 2010-03-01 2010-03-01 Image processing apparatus, image processing apparatus control method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2011180844A JP2011180844A (en) 2011-09-15
JP5580623B2 true JP5580623B2 (en) 2014-08-27

Family

ID=44692281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010044630A Expired - Fee Related JP5580623B2 (en) 2010-03-01 2010-03-01 Image processing apparatus, image processing apparatus control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP5580623B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5859061B2 (en) * 2013-06-11 2016-02-10 キヤノン株式会社 Imaging apparatus, image processing apparatus, and control method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148780A (en) * 1999-09-07 2001-05-29 Fuji Photo Film Co Ltd Method for setting red-eye correction area and red-eye correction method
JP2003204459A (en) * 2001-10-23 2003-07-18 Konica Corp Digital camera and image reproducing apparatus
JP2004145287A (en) * 2002-08-30 2004-05-20 Fuji Photo Film Co Ltd Red-eye effect compensating method, picture processing method, printing method and printer
JP4554548B2 (en) * 2006-03-31 2010-09-29 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program
JP4708250B2 (en) * 2006-04-06 2011-06-22 富士フイルム株式会社 Red-eye correction processing system, red-eye correction processing method, and red-eye correction processing program

Also Published As

Publication number Publication date
JP2011180844A (en) 2011-09-15

Similar Documents

Publication Publication Date Title
JP5473646B2 (en) Image search apparatus, control method, program, and storage medium
EP2402884A2 (en) Image processing device and image processing method
US10290077B2 (en) Display control apparatus and method for controlling the same
US11496670B2 (en) Electronic device with display screen capable of reliable detection of a user selected displayed eye region in a scene to be captured, and region selection method
US9671932B2 (en) Display control apparatus and control method thereof
US11696020B2 (en) Electronic apparatus, image capture apparatus, method for controlling the same, and storage medium
JP2007081732A (en) Imaging apparatus
JP2009060291A (en) Image processing apparatus, image processing method and program
JP6460868B2 (en) Display control apparatus and control method thereof
US9648195B2 (en) Image capturing apparatus and image capturing method
JP5580623B2 (en) Image processing apparatus, image processing apparatus control method, program, and storage medium
JP2014110596A (en) Image pickup device, control method, and program therefor, and recording medium
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
US11165970B2 (en) Image processing apparatus, imaging apparatus, image processing method, and non-transitory computer readable medium
JP4682097B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5623247B2 (en) Imaging apparatus and control method thereof
JP2009177358A (en) Image processor, image processing method, and program
JP6289107B2 (en) Image reproduction apparatus, control method thereof, and control program
US11457137B2 (en) Electronic apparatus and control method for electronic apparatus
US11330187B2 (en) Electronic apparatus, method of controlling electronic apparatus, and storage medium
US10419659B2 (en) Electronic device and control method thereof to switch an item for which a setting value to be changed
JP6124658B2 (en) Image processing apparatus and image processing apparatus control method
US20120315007A1 (en) Imaging apparatus and control method therefor
JP5832280B2 (en) Display control apparatus, control method therefor, program, and storage medium
JP2011166214A (en) Image retrieval device and control method of the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140711

R151 Written notification of patent or utility model registration

Ref document number: 5580623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees