JP5580623B2 - Image processing apparatus, image processing apparatus control method, program, and storage medium - Google Patents
Image processing apparatus, image processing apparatus control method, program, and storage medium Download PDFInfo
- Publication number
- JP5580623B2 JP5580623B2 JP2010044630A JP2010044630A JP5580623B2 JP 5580623 B2 JP5580623 B2 JP 5580623B2 JP 2010044630 A JP2010044630 A JP 2010044630A JP 2010044630 A JP2010044630 A JP 2010044630A JP 5580623 B2 JP5580623 B2 JP 5580623B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- processing
- face
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、画像処理装置、画像処理装置の制御方法、プログラム及び記憶媒体に関する。 The present invention relates to an image processing apparatus, a control method for the image processing apparatus, a program, and a storage medium.
近年、デジタルカメラなどの撮像装置で撮像された画像に施す画像処理に関する様々な技術が提案されている。例えば、特許文献1には、画像の撮像時の傾向(撮像傾向)を統計的に取得し、かかる撮像傾向に従って画像にレタッチ(補正や加工)を加える技術が開示されている。 In recent years, various techniques related to image processing applied to an image captured by an imaging apparatus such as a digital camera have been proposed. For example, Patent Document 1 discloses a technique for statistically acquiring a tendency (imaging tendency) when an image is captured and adding retouching (correction or processing) to the image according to the imaging tendency.
しかしながら、特許文献1に開示された技術は、画像の全体にレタッチを加える技術であって、画像の一部分、例えば、ユーザが指定する部分(画像処理の対象とする部分)に対して、かかる部分に適した画像処理を行う技術ではない。また、一般的に、画像の一部分に画像処理を行う場合には、画像処理の対象とする部分やかかる部分に行う画像処理の内容を指示しなければならないため、煩雑な操作や画像処理に関する知識が必要となってしまう。 However, the technique disclosed in Patent Document 1 is a technique for retouching the entire image, and this part of the image, for example, a part designated by the user (a part to be subjected to image processing) It is not a technique for performing image processing suitable for the above. In general, when image processing is performed on a part of an image, it is necessary to instruct the image processing target part and the content of the image processing to be performed on the part. Will be necessary.
そこで、本発明は、このような従来技術の課題に鑑みてなされ、画像に対して画像処理を容易に行うことができる新たな技術を提供することを例示的目的とする。 Therefore, the present invention has been made in view of such problems of the conventional technology, and an object of the present invention is to provide a new technology capable of easily performing image processing on an image.
上記課題を解決するために、本発明の一側面としての画像処理装置は、表示装置の表示画面に画像を表示させる表示制御手段と、前記画像において画像処理を行う処理部分を指定する指定手段と、前記指定手段によって指定された前記処理部分の画像の特徴から前記処理部分に顔が含まれるか否かを判断する判断手段と、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定する決定手段と、前記決定手段によって決定された前記画像処理を前記処理部分に行う処理手段と、を有し、前記判断手段により顔が含まれていないと判断された同じ処理部分が複数回指定される場合、前記決定手段は、前記指定ごとに異なる処理が行われるように、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定することを特徴とする。 In order to solve the above problems, an image processing apparatus according to one aspect of the present invention, specifying means for specifying a processing part that performs a display control means for displaying an image on a display screen of the display device, the image processing before Symbol image A determination means for determining whether or not a face is included in the processing portion from image characteristics of the processing portion specified by the specification means; and a plurality of image processing determined based on the determination result of the determination means from a determining means for determining an image processing performed in said processing section, the image processing determined by said determining means have a, a processing unit for performing the processing portion, does not include a face by the determining means When the same processing portion determined to be specified multiple times, the determination means performs a plurality of processes determined based on the determination result of the determination means so that different processing is performed for each specification. From the image processing, and determines the image processing performed in said processing section.
本発明の更なる目的又はその他の側面は、以下、添付図面を参照して説明される好ましい実施形態によって明らかにされるであろう。 Further objects and other aspects of the present invention will become apparent from the preferred embodiments described below with reference to the accompanying drawings.
本発明によれば、例えば、画像に対して画像処理を容易に行う新たな技術を提供することができる。 According to the present invention, for example, a new technique for easily performing image processing on an image can be provided.
以下、添付図面を参照して、本発明の好適な実施の形態について説明する。なお、各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the accompanying drawings. In addition, in each figure, the same reference number is attached | subjected about the same member and the overlapping description is abbreviate | omitted.
図1は、本発明の一側面としての画像処理装置として機能する撮像装置100を示す図であって、図1(a)は、撮像装置100の概略外観図、図1(b)は、撮像装置100の構成を示す概略ブロック図である。撮像装置100は、被写体を撮像する撮像装置であって、本実施形態では、デジタルカメラとして具現化される。また、撮像装置100は、被写体を撮像して生成した画像データや記録媒体200に記録された画像データに対応する画像を表示(再生)する表示装置や、表示した画像に画像処理を行う画像処理装置としても機能する。ここで、記録媒体200は、例えば、メモリカードやハードディスクなどで構成され、各種データを記録する。記録媒体200は、撮像装置100のスロットに収納されることで、インタフェース(I/F)を介して、撮像装置100との通信が可能となる。
FIG. 1 is a diagram illustrating an
撮像装置100は、図1(a)及び図1(b)に示すように、撮像光学系102と、シャッター部104と、撮像部106と、バリア部108と、A/D変換部110と、画像処理部112と、メモリ114と、D/A変換部116と、表示部118とを有する。また、撮像装置100は、メモリ制御部120と、不揮発性メモリ122と、システム制御部124と、システムメモリ126と、モード切替スイッチ128と、シャッターボタン130と、十字ボタン132と、ホイール134とを有する。更に、撮像装置100は、電源スイッチ136と、電源制御部138と、電源部140とを有する。
As shown in FIGS. 1A and 1B, the
撮像光学系102は、撮像レンズやフォーカスレンズなどを含み、被写体からの光を撮像部106の撮像面に結像する(即ち、光学像を形成する)。シャッター部104は、本実施形態では、絞り機能を有する。撮像部106は、CCDやCMOS素子(光電変換素子)などで構成され、撮像光学系102によって形成された光学像を電気信号に変換する。バリア部108は、撮像光学系102、シャッター部104及び撮像部106を含む撮像系をカバーして、撮像系への汚れの付着や撮像系の破損を防止する。A/D変換部110は、アナログ信号をデジタル信号に変換する機能を有し、本実施形態では、撮像部106から出力されるアナログ信号をデジタル信号に変換する。
The imaging
画像処理部112は、画像(画像全体や画像の一部分)に画像処理を行う機能を有する。画像処理部112は、例えば、A/D変換部110から入力されるデータ又はメモリ制御部120から入力されるデータに対して、画素補間や縮小などのリサイズ処理や色変換処理を行う。また、画像処理部112は、撮像した画像を用いて所定の演算処理を行い、演算結果をシステム制御部124に出力する。システム制御部124は、画像処理部112からの演算結果に基づいて、露光制御及び焦点検出制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理及びEF(フラッシュプリ発光)処理が行われる。また、画像処理部112は、撮像した画像を用いて所定の演算処理を行い、かかる演算結果に基づいて、TTL方式のAWB(オートホワイトバランス)処理も行う。更に、画像処理部112は、撮像した画像を用いて所定の演算処理を行い、かかる演算結果に基づいて、画像の撮像時の撮像シーン(例えば、青空、夕景、雪、夜景など)の種類を判定する。なお、画像処理部112によって判定された撮像シーンの種類(の情報)は、かかる画像の撮像時に用いられた撮像条件(例えば、フラッシュが発光されたかどうかなど)と共に、画像の撮像時に得られる属性情報として画像データに記録される。
The
メモリ114は、画像処理部112及びメモリ制御部120を介して、或いは、メモリ制御部120を介して、A/D変換部110から出力されるデータを格納する。例えば、メモリ114は、撮像部106から出力されてA/D変換部110でデジタル信号に変換された画像データ(静止画像データや動画像データ)や表示部118に表示するため(即ち、画像表示用の)画像データなどを格納する。従って、メモリ114は、所定枚数の静止画像データや所定時間の動画像データ及び音声データを格納することが可能な記憶容量を備える。なお、メモリ114は、画像表示用のメモリ(ビデオメモリ)としても機能する。
The
D/A変換部116は、メモリ114に格納されている画像表示用の画像データをアナログ信号に変換して、表示部118に供給する。表示部118は、LCDなどの表示素子で構成された表示画面を有し、D/A変換部116から供給されるアナログ信号に応じた画像や撮像装置100に関する各種情報を表示する。
The D /
メモリ制御部120は、メモリ114に格納されるデータ(画像データなど)及びメモリ114から読み出されるデータを制御する。不揮発性メモリ122は、電気的にデータを消去及び記録可能なメモリであって、例えば、EEPROMなどを含む。不揮発性メモリ122は、システム制御部124の動作用の定数やプログラム(後述する種々のフローチャートを実行するためのプログラム)などを格納する。
The
システム制御部124は、撮像装置100の全体を制御する。システム制御部124は、不揮発性メモリ122に格納されたプログラムを実行して、本実施形態の各処理を実現する。例えば、システム制御部124は、メモリ114、D/A変換部116及び表示部118などを制御して表示制御を行う。システムメモリ126は、例えば、RAMで構成され、システム制御部124の動作用の定数や変数、不揮発性メモリ122から読み出したプログラムなどを展開する。
The
モード切替スイッチ128、シャッターボタン130、十字ボタン132、ホイール134及び電源スイッチ136などを含む複数のスイッチ及びボタンは、ユーザの操作を受け付ける(システム制御部124に各種の動作指示を入力する)操作部として機能する。操作部を構成する複数のスイッチ及びボタンは、表示部118の表示画面に表示される各種画面に応じて、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞り込みボタンなどの機能ボタンとして機能する。例えば、メニューボタンが押された場合、各種設定を可能とするメニュー画面が表示部118の表示画面に表示される。これにより、ユーザは、表示部118の表示画面に表示されたメニュー画面と、十字状に配置された上ボタン、下ボタン、左ボタン及び右ボタンを含む十字ボタン132やセットボタンとを用いて、直感的に各種設定を行うことができる。また、操作部は、表示部118の表示画面と、かかる表示画面の上に設けられたタッチパッド(位置入力部)とで構成され、タッチパッドに対するユーザの操作を検知可能なタッチパネルも含む。なお、タッチパネルは、抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式などの様々な方式のタッチパネルを用いることができる。
A plurality of switches and buttons including a
モード切替スイッチ128は、撮像装置100(システム制御部124)の動作モードを切り替えるためのスイッチである。本実施形態では、撮像装置100の動作モードを静止画像撮像モード、動画像撮像モード、再生モード、画像処理モードなどに切り替えることが可能である。
The
シャッターボタン130は、被写体の撮像を指示するためのボタンであって、第1のシャッタースイッチ130aと、第2のシャッタースイッチ130bとを含む。第1のシャッタースイッチ130aは、シャッターボタン130の操作途中(半押し)でON状態となり、第1のシャッタースイッチ信号SW1を生成して、システム制御部124に供給する。なお、システム制御部124は、第1のシャッタースイッチ130aから供給される第1のシャッタースイッチ信号SW1によって、AF処理、AE処理、EF処理などを開始する。第2のシャッタースイッチ130bは、シャッターボタン130の操作完了(全押し)でON状態となり、第2のシャッタースイッチ信号SW2を生成して、システム制御部124に供給する。なお、システム制御部124は、第2のシャッタースイッチ130bから供給される第2のシャッタースイッチ信号SW2によって、撮像部106からの信号の読み出しから記録媒体200に画像データを記録するまでの一連の撮像処理を開始する。
The
ホイール134は、回転可能な部材であって、表示部118の表示画面に表示された選択項目を指示する際などに十字ボタン132と共に使用される。ホイール134は、回転量に応じて電気的なパルス信号を生成して、システム制御部124に供給する。システム制御部124は、ホイール134から供給されるパルス信号に基づいて、撮像装置100の各部を制御する。なお、ホイール134は、ユーザによる回転操作を検出することができればどのような部材であってもよい。例えば、ホイール134は、ユーザによる回転操作に応じてホイール自体が回転してパルス信号を生成するダイヤル部材であってもよいし、ホイール自体は回転せず、ユーザによるホイール上での回転操作を検出するタッチホイールであってもよい。
The
電源スイッチ136は、撮像装置100の電源状態を電源ONの状態又は電源OFFの状態に切り替えるためのスイッチである。電源制御部138は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路などを含み、電源部140における電池の装着の有無、電池の種類、電池の残容量を検出する。また、電源制御部138は、電源部140における検出結果及びシステム制御部124からの指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む撮像装置100の各部に供給する。電源部140は、アルカリ電池やリチウム電池などの一次電池、NiCd電池、NiMH電池やLi電池などの二次電池、ACアダプターなどを着脱可能に保持して、電圧(直流電圧)を出力する。
The
撮像装置100では、中央1点AFや顔AFを用いて、被写体を撮像することが可能である。中央1点AFとは、撮像画面内の中央位置の1点に対してAFを行うことであり、顔AFとは、顔検出処理によって検出された撮像画面内の人物の顔に対してAFを行うことである。また、撮像装置100は、顔AFと同時に、顔AE、顔FE及び顔WBを行うこともできる。顔AEとは、顔検出処理によって検出された顔の明るさに応じて、撮像画面全体の露出を最適化することである。顔FEとは、顔検出処理によって検出された顔を中心としてフラッシュの調光を行うことである。顔WBとは、顔検出処理によって検出された顔の色に応じて、撮像画面全体のWBを最適化することである。
In the
ここで、顔検出処理について簡単に説明する。顔検出処理では、まず、システム制御部124が顔検出対象の画像データを画像処理部112に入力する。画像処理部112は、システム制御部124の制御下で、入力された画像データに対して水平方向バンドパスフィルタ及び垂直方向バンドパスフィルタを作用させて、画像データからエッジ成分を検出する。システム制御部124は、画像処理部112によって検出されたエッジ成分に対してパターンマッチングを行い、目、鼻、口及び耳の候補群を抽出する。また、システム制御部124は、抽出された候補群のうち、予め設定された条件(例えば、2つの目の距離や傾きなど)を満たすものを目と判断して、目の候補群として絞り込む。更に、システム制御部124は、絞り込まれた目の候補群とそれに対応する顔の他のパターン(鼻、口、耳)とを対応させ、予め設定した非顔条件フィルタを作用させることで顔を検出する。そして、システム制御部124は、顔の検出結果に応じて顔情報を生成して、顔検出処理を終了する。なお、顔情報は、例えば、顔の数、位置及びサイズなどを含み、画像データ(画像)に関連付けてメモリ114や記録媒体200に格納される。
Here, the face detection process will be briefly described. In the face detection process, first, the
このように、撮像装置100では、ライブビュー表示、或いは、表示部118の表示画面に表示(再生)される画像に対応する画像データを解析し、顔情報などの画像データの特徴量を検出することができる。
As described above, the
また、システム制御部124は、操作部の1つであるタッチパネルに対するユーザの操作を検出することが可能である。ここで、ユーザの操作とは、タッチパネルに指やペンでタッチしたこと(タッチダウン)、タッチパネルに指やペンでタッチした状態であること(タッチオン)、タッチパネルにタッチしたまま指やペンを動かしたこと(ムーブ)を含む。更に、ユーザの操作とは、タッチパネルにタッチしていた指やペンを離したこと(タッチアップ)、タッチパネルにタッチしていない状態であること(タッチオフ)を含む。タッチパネルに対するユーザの操作、及び、指やペンがタッチしているタッチパネル上の位置座標を含む操作情報は、内部バスを介して、システム制御部124に通知される。そして、システム制御部124は、通知された操作情報に基づいて、タッチパネルに対するユーザの操作の種類(即ち、どのような操作が行われたか)を検出する。なお、ムーブに関しては、システム制御部124は、位置座標の変化に基づいて、タッチパネル上における指やペンの移動方向も垂直成分及び水平成分ごとに検出することができる。
<第1の実施形態>
図2を参照して、撮像装置100における画像処理の動作について説明する。ここでは、画像処理の対象となる画像(画像データ)は、記録媒体200に記録された複数の画像(画像データ)から選択され、予めメモリ114に読み込まれているものとする。なお、撮像装置100において画像処理を行う画像は、撮像装置100によって撮像された画像であってもよいし、他の撮像装置によって撮像された画像であってもよい。
Further, the
<First Embodiment>
With reference to FIG. 2, the image processing operation in the
S202において、システム制御部124は、画像処理の対象となる画像の画像データに記録されている撮像条件及び撮像シーンの種類の少なくとも一方を含む属性情報を取得する。
In step S202, the
S204において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の画像データに対して顔検出処理を行う。これにより、画像処理の対象となる画像に含まれる人物の顔が検出され、かかる顔の数、位置及びサイズなどを含む顔情報が生成される。なお、上述したように、画像の撮像時に顔検出処理が行われ、顔情報が画像に関連付けられて記録媒体200などに記録されている場合には、システム制御部124は、S204で顔検出処理を行う必要はなく、記録されている顔情報を取得すればよい。
In step S <b> 204, the
S206において、システム制御部124は、S204の顔検出処理によって生成された顔情報に基づいて、人物の顔の位置を表す顔枠を画像処理の対象となる画像に重ねて表示部118の表示画面に表示する。図3(a)は、S206において表示部118の表示画面に表示される画像の表示例を示す図である。本実施形態では、画像処理の対象となる画像IMには、3人の人物が含まれているため、3つの顔枠FF1、FF2及びFF3が表示されている。また、本実施形態では、画像IMは、図3(a)に示すように、画像IMにおいて画像処理を行う処理部分を指定するために、表示部118の表示画面に表示された画像IM(即ち、タッチパネル上の画像IM)へのタッチを促すメッセージも表示される。
In S206, the
S208において、システム制御部124は、表示部118の表示画面に表示された画像(即ち、表示部118の表示画面)がタッチされたかどうかを判定する。上述したように、表示部118の表示画面にはタッチパネルが構成されているため、システム制御部124は、タッチパネルに対するユーザの操作、即ち、表示部118の表示画面に表示された画像がタッチされたことを検出することができる。表示部118の表示画面に表示された画像がタッチされていない場合には、画像がタッチされるまで待機し(S208を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S210に移行する。
In step S <b> 208, the
S210において、システム制御部124は、タッチされたタッチパネル上の位置座標を含む操作情報に基づいて、表示部118の表示画面に表示された画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。
In S210, the
S212において、システム制御部124は、S210で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔ではない場合には、S234に移行する。また、処理部分の種類が人物の顔である場合には、S214に移行する。
In S212, the
S214において、システム制御部124は、画像処理の対象となる画像の撮像時にストロボが発光されたかどうかを判定する。具体的には、システム制御部124は、S202で取得した属性情報を参照し、かかる属性情報に含まれる撮像条件が画像の撮像時にストロボが発光されたことを表しているかストロボが発光されていないことを表しているかを判定する。
In step S <b> 214, the
画像処理の対象となる画像の撮像時にストロボが発光されている場合には、S216に移行し、画像処理の対象となる画像の撮像時にストロボが発光されていない場合には、S218に移行する。S216及びS218では、システム制御部124は、属性情報及び処理部分の種類に対して予め定められた複数の画像処理から、処理部分に行う画像処理を決定する。例えば、メモリ114には、図4(a)に示すように、属性情報(撮像条件)と画像処理との関係を表すテーブルが記憶されており、システム制御部124は、図4(a)に示すテーブルを参照することで、処理部分に行う画像処理を決定することができる。本実施形態では、S216において、システム制御部124は、赤目補正処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。また、S218において、システム制御部124は、暗部補正処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。このように、本実施形態では、処理部分の種類が人物の顔である場合に、画像の撮像時にストロボが発光されたか発光されていないかに応じて異なる画像処理が行われるように、処理部分に行う画像処理を決定する。
If the strobe light is emitted when the image to be processed is captured, the process proceeds to S216. If the strobe light is not emitted when the image to be processed is captured, the process proceeds to S218. In S <b> 216 and S <b> 218, the
S220において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の処理部分に対して、S216又はS218で決定した画像処理(本実施形態では、赤目補正処理又は暗部補正処理)を行う。
In S220, the
S222において、システム制御部124は、S220で画像処理が行われた画像を表示部118の表示画面に表示する。なお、画像処理が行われた画像を表示する際には、図3(b)に示すように、画像処理の内容の説明も表示して、ユーザが画像処理の内容(例えば、赤目補正処理)について認識できるようにすることが好ましい。また、図3(b)に示すように、画像処理が行われた画像の保存を指示するための保存ボタンや画像処理が行われる前の画像に戻すことを指示するための戻すボタンなども表示するとよい。
In step S222, the
S224において、システム制御部124は、画像処理が行われた画像(S222で表示された画像)を保存するかどうかを判定する。例えば、システム制御部124は、図3(b)に示す保存ボタンがタッチされたかどうか(即ち、画像の保存が指示されたかどうか)を検出する。そして、保存ボタンがタッチされたことを検出した場合には、システム制御部124は、画像処理が行われた画像を保存すると判定し、S226において、画像処理が行われた画像を記録媒体200に保存する。また、保存ボタンがタッチされたことを検出しなかった場合には、システム制御部124は、画像処理が行われた画像を保存しないと判定し、S228に移行する。なお、画像処理が行われた画像を保存するかどうかの判定は、上述した方法に限定するものではない。例えば、タッチパネルに対して特定の操作(例えば、画像の枠をなぞるなど)が行われたかどうか、第2のシャッタースイッチ130bがON状態になったかどうかなどに応じて、画像処理が行われた画像を保存するかどうかの判定を行ってもよい。
In step S224, the
S228において、システム制御部124は、表示部118の表示画面に表示された画像(即ち、画像処理が行われた画像)がタッチされたかどうかを判定する。画像がタッチされていない場合には、画像がタッチされるまで待機し(S228を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S230に移行する。
In step S <b> 228, the
S230において、システム制御部124は、S210と同様に、画像処理が行われた画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。
In S230, as in S210, the
S232において、システム制御部124は、S212と同様に、S230で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔ではない場合には、S234に移行する。また、処理部分の種類が人物の顔である場合には、S214に移行する。
In S232, the
S234において、システム制御部124は、S202で取得した属性情報に含まれる撮像シーンの種類に応じて、予め定められた複数の画像処理から、S230で指定した処理部分に行う画像処理を決定する。例えば、メモリ114には、図4(b)に示すように、属性情報(撮像シーンの種類)と画像処理との関係を表すテーブルが記憶されており、システム制御部124は、図4(b)に示すテーブルを参照することで、処理部分に行う画像処理を決定することができる。図4(b)を参照するに、システム制御部124は、画像処理の対象となる画像の撮像シーンの種類が「青空」である場合には、青色強調処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。また、システム制御部124は、画像処理の対象となる画像の撮像シーンの種類が「夕景」である場合には、赤色強調処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。また、システム制御部124は、画像処理の対象となる画像の撮像シーンの種類が「スノー」や「夜景」である場合には、コントラスト補正処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。
In S234, the
S236において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の処理部分に対して、S234で決定した画像処理(青色強調処理、赤色強調処理、コントラスト補正処理など)を行う。
In S <b> 236, the
S238において、システム制御部124は、S236で画像処理が行われた画像を表示部118の表示画面に表示する。なお、上述したように、像処理が行われた画像を表示する際には、ユーザが画像処理の内容(例えば、青色強調処理)について認識できるようにすることが好ましい。また、画像処理が行われた画像の保存を指示するための保存ボタンなども表示するとよい。
In step S238, the
S240において、システム制御部124は、S224と同様に、画像処理が行われた画像(S238で表示された画像)を保存するかどうかを判定する。画像処理が行われた画像を保存する場合には、システム制御部124は、S242において、画像処理が行われた画像を記録媒体200に保存する。また、画像処理が行われた画像を保存しない場合には、S244に移行する。
In S240, the
S244において、システム制御部124は、表示部118の表示画面に表示された画像(即ち、画像処理が行われた画像)がタッチされたかどうかを判定する。画像がタッチされていない場合には、画像がタッチされるまで待機し(S244を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S246に移行する。
In step S244, the
S246において、システム制御部124は、S210やS230と同様に、画像処理が行われた画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。
In S246, as in S210 and S230, the
S248において、システム制御部124は、S212やS232と同様に、S246で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔ではない場合には、S250に移行する。また、処理部分の種類が人物の顔である場合には、S214に移行する。
In S248, similarly to S212 and S232, the
S250において、システム制御部124は、S234と同様に、S202で取得した属性情報に含まれる撮像シーンの種類に応じて、予め定められた複数の画像処理から、S246で指定した処理部分に行う画像処理を決定する。但し、ここでは、システム制御部124は、S234で決定した画像処理と異なる画像処理を、画像処理の対象である画像の処理部分に行う画像処理として決定する。換言すれば、同じ処理部分が複数回指定された場合には、処理部分の指定ごとに異なる画像処理が行われるように、処理部分に行う画像処理を決定する。例えば、システム制御部124は、図4(b)に示すテーブルを参照して、画像処理の対象となる画像の撮像シーンの種類が「青空」や「夕景」である場合には、コントラスト補正処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。また、システム制御部124は、画像処理の対象となる画像の撮像シーンの種類が「夜景」である場合には、ノイズリダクション処理を画像処理の対象となる画像の処理部分に行う画像処理として決定する。
In S250, similarly to S234, the
S252において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の処理部分に対して、S250で決定した画像処理(コントラスト補正処理、ノイズリダクション処理など)を行う。
In S252, the
S254において、システム制御部124は、S238と同様に、S252で画像処理が行われた画像を表示部118の表示画面に表示する。
In S254, the
S256において、システム制御部124は、S224やS240と同様に、画像処理が行われた画像(S238で表示された画像)を保存するかどうかを判定する。画像処理が行われた画像を保存する場合には、S242に移行し、システム制御部124は、画像処理が行われた画像を記録媒体200に保存する。また、画像処理が行われた画像を保存しない場合には、S258に移行する。
In S256, the
S258において、システム制御部124は、表示部118の表示画面に表示された画像(即ち、画像処理が行われた画像)がタッチされたかどうかを判定する。画像がタッチされていない場合には、画像がタッチされるまで待機し(S258を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S260に移行する。
In step S258, the
S260において、システム制御部124は、S210、S230、S246と同様に、画像処理が行われた画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。
In S260, as in S210, S230, and S246, the
S262において、システム制御部124は、S212、S232、S248と同様に、S260で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔ではない場合には、S206に移行して、画像処理が行われていない画像(即ち、もとの画像)を顔枠と共に表示部118の表示画面に表示する。また、処理部分の種類が人物の顔である場合には、S214に移行する。
In S262, as in S212, S232, and S248, the
このように、本実施形態の撮像装置100では、画像処理の対象となる画像の属性情報、及び、画像処理を行う処理部分の種類に応じて、かかる処理部分に行う画像処理を決定し、かかる画像処理を自動的に行う。従って、ユーザは、画像処理に関する知識がなくても、画像の気に入らない部分(即ち、画像処理を行う処理部分)をタッチするという簡単な操作を行うだけで、画像に適した画像処理を容易に行うことができる。
As described above, the
なお、画像処理の対象となる画像の属性情報、及び、画像処理を行う処理部分の種類に応じて決定した画像処理を自動的に行うのではなく、決定した画像処理の内容をユーザに通知し、ユーザの指示に応じて行うようにしてもよい。これにより、ユーザは、例えば、処理部分に行う画像処理として決定した画像処理が好ましくないと感じた場合に、かかる画像処理が行われることを中止することができる。
<第2の実施形態>
図5を参照して、撮像装置100における別の画像処理の動作について説明する。第1の実施形態と同様に、画像処理の対象となる画像(画像データ)は、記録媒体200に記録された複数の画像(画像データ)から選択され、予めメモリ114に読み込まれているものとする。また、図5に示すS502乃至S512は、図2に示すS202乃至S212と同じであるため、ここでの詳細な説明は省略する。なお、S512において、S510で指定した処理部分の種類が人物の顔ではない場合には、S534に移行し、S510で指定した処理部分の種類が人物の顔である場合には、S514に移行する。
In addition, instead of automatically performing the image processing determined according to the attribute information of the image to be processed and the type of the processing portion to perform the image processing, the user is notified of the content of the determined image processing. Alternatively, it may be performed in accordance with a user instruction. Thereby, for example, when the user feels that the image processing determined as the image processing to be performed on the processing portion is not preferable, the user can stop performing the image processing.
<Second Embodiment>
With reference to FIG. 5, another image processing operation in the
S514において、システム制御部124は、S502で取得した属性情報に対応する複数の画像処理を選択可能にユーザに通知する。例えば、メモリ114には、図6に示すように、属性情報(撮像条件)と画像処理との関係を表すテーブルが記憶されており、システム制御部124は、図6に示すテーブルを参照して、選択可能な画像処理を表示部118の表示画面に表示する。図7(a)は、S514において表示部118の表示画面に表示される画像の表示例を示す図であって、撮像条件が画像の撮像時にストロボが発光されていないことを表している場合の表示例を示す図である。図7(a)を参照するに、選択可能な画像処理として逆光補正処理と美肌補正処理とを含む画像処理選択メニューが表示されている。ユーザは、画像処理選択メニューの逆光補正処理又は美肌補正処理の項目部分にタッチすることで、処理部分に行う画像処理を選択することができる。なお、撮像条件が画像の撮像時にストロボが発光されていることを表している場合には、赤目補正処理と美肌補正処理とを含む画像処理選択メニューが表示されることになる。
In step S514, the
S516において、システム制御部124は、S514で通知した複数の画像処理のうちユーザによって選択された画像処理を、S510で指定した処理部分に行う画像処理として決定する。
In S516, the
S518において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の処理部分に対して、S516で決定した画像処理(例えば、逆光補正処理又は美肌補正処理)を行う。
In S518, the
S520において、システム制御部124は、S518で画像処理が行われた画像を表示部118の表示画面に表示する。なお、画像処理が行われた画像を表示する際には、図7(b)に示すように、処理部分に行った画像処理の内容の説明も表示して、ユーザが画像処理の内容について認識できるようにすることが好ましい。図7(b)では、処理部分に美肌補正処理及び赤目補正処理が行われたことを表すアイコンが表示されている。また、画像処理が行われた画像の保存を指示するための保存ボタンや画像処理が行われる前の画像に戻すことを指示するための戻すボタンなども表示するとよい。
In step S520, the
S522において、システム制御部124は、画像処理が行われた画像(S520で表示された画像)を保存するかどうかを判定する。画像処理が行われた画像を保存する場合には、システム制御部124は、S524において、画像処理が行われた画像を記録媒体200に保存する。また、画像処理が行われた画像を保存しない場合には、S526に移行する。
In step S522, the
S526において、システム制御部124は、画像処理を終了するかどうかを判定する。例えば、システム制御部124は、操作部の1つである画像処理終了ボタンが選択されたかどうか(即ち、画像処理の終了が指示されたかどうか)を検出する。そして、画像処理終了ボタンが選択されたことを検出した場合には、システム制御部124は、画像処理を終了する。また、画像処理終了ボタンが選択されたことを検出しなかった場合には、システム制御部124は、画像処理を終了しないと判定し、S528に移行する。
In step S526, the
S528において、システム制御部124は、表示部118の表示画面に表示された画像(即ち、画像処理が行われた画像)がタッチされたかどうかを判定する。画像がタッチされていない場合には、画像がタッチされるまで待機し(S528を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S530に移行する。
In step S <b> 528, the
S530において、システム制御部124は、タッチされたタッチパネル上の位置座標を含む操作情報に基づいて、表示部118の表示画面に表示された画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。
In S530, the
S532において、システム制御部124は、S530で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔ではない場合には、S534に移行する。また、処理部分の種類が人物の顔である場合には、S514に移行する。
In S532, the
S534において、システム制御部124は、S502で取得した属性情報に対応する複数の画像処理を選択可能にユーザに通知する。例えば、メモリ114には、図4(b)に示すように、属性情報(撮像シーンの種類)と画像処理との関係を表すテーブルが記憶されており、システム制御部124は、図4(b)に示すテーブルを参照して、選択可能な画像処理を表示部118の表示画面に表示する。撮像シーンの種類が「青空」である場合には、青色強調処理とコントラスト補正処理とを含む画像処理選択メニューが表示される。また、撮像シーンの種類が「夜景」である場合には、コントラスト補正処理とノイズリダクション処理とを含む画像処理選択メニューが表示される。
In step S534, the
S536において、システム制御部124は、S534で通知した複数の画像処理のうちユーザによって選択された画像処理を、S530で指定した処理部分に行う画像処理として決定する。
In S536, the
S538において、システム制御部124は、画像処理部112と協同して、画像処理の対象となる画像の処理部分に対して、S536で決定した画像処理(例えば、青色強調処理又はコントラスト補正処理)を行う。
In step S538, the
S540において、システム制御部124は、S518で画像処理が行われた画像を表示部118の表示画面に表示する。なお、画像処理が行われた画像を表示する際には、画像処理の内容の説明も表示して、ユーザが画像処理の内容について認識できるようにすることが好ましい。また、画像処理が行われた画像の保存を指示するための保存ボタンや画像処理が行われる前の画像に戻すことを指示するための戻すボタンなども表示するとよい。
In step S540, the
S542において、システム制御部124は、S522と同様に、画像処理が行われた画像(S540で表示された画像)を保存するかどうかを判定する。画像処理が行われた画像を保存する場合には、S524に移行し、システム制御部124は、画像処理が行われた画像を記録媒体200に保存する。また、画像処理が行われた画像を保存しない場合には、S544に移行する。
In S542, the
S544において、システム制御部124は、S526と同様に、画像処理を終了するかどうかを判定する。上述したように、システム制御部124は、画像処理終了ボタンが選択されたことを検出した場合には、画像処理を終了する。また、画像処理終了ボタンが選択されたことを検出しなかった場合には、システム制御部124は、画像処理を終了しないと判定し、S546に移行する。
In S544, the
S546において、システム制御部124は、S528と同様に、表示部118の表示画面に表示された画像(即ち、画像処理が行われた画像)がタッチされたかどうかを判定する。画像がタッチされていない場合には、画像がタッチされるまで待機し(S546を繰り返す)、表示部118の表示画面に表示された画像がタッチされた場合には、S548に移行する。
In S546, as in S528, the
S548において、システム制御部124は、S530と同様に、表示部118の表示画面に表示された画像のタッチされた部分を検出し、かかる部分を、画像処理を行う処理部分として指定する。
In S548, the
S550において、システム制御部124は、S548で指定した処理部分の種類が人物の顔であるかどうかを判定する(即ち、処理部分の種類を特定する)。処理部分の種類が人物の顔である場合には、S514に移行する。また、処理部分の種類が人物の顔ではない場合には、S534に移行する。
In S550, the
このように、本実施形態の撮像装置100では、画像処理の対象となる画像の属性情報、及び、画像処理を行う処理部分の種類に応じて、かかる処理部分に行うことが可能な複数の画像処理を通知する。そして、ユーザによって選択された画像処理を処理部分に行う画像処理として決定し、かかる画像処理を自動的に行う。従って、ユーザは、画像処理に関する知識がなくても、画像の気に入らない部分(即ち、画像処理を行う処理部分)をタッチして、処理部分に行うことが可能な画像処理を選択するという簡単な操作を行うだけで、画像に適した画像処理を容易に行うことができる。
As described above, in the
なお、第1の実施形態及び第2の実施形態では、画像処理を行う装置が撮像装置であるため、タッチパネルに対するユーザの操作に応じて処理部分を指定している。但し、画像処理を行う装置がパーソナルコンピュータなどの画像処理装置である場合には、一般的に、表示画面に表示された画像においてポインタを動かすためのポインティングデバイスが備わっている。このような場合には、ユーザによるポインティングデバイスの操作に応じて処理部分を指定してもよい。 In the first embodiment and the second embodiment, since the device that performs image processing is an imaging device, a processing portion is designated according to a user operation on the touch panel. However, when the image processing apparatus is an image processing apparatus such as a personal computer, a pointing device for moving the pointer in the image displayed on the display screen is generally provided. In such a case, the processing portion may be designated according to the operation of the pointing device by the user.
また、撮像装置100におけるシステム制御部124の制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、撮像装置100の全体の制御を行ってもよい。
Further, the control of the
また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例に説明したが、本発明はこれに限定されるものではない。例えば、本発明は、パーソナルコンピュータ、携帯電話端末、携帯型画像ビューワ及びプリンタなど、画像を表示制御可能な表示装置を備えるものに適用することができる。 In the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example. However, the present invention is not limited to this. For example, the present invention can be applied to an apparatus including a display device capable of controlling image display, such as a personal computer, a mobile phone terminal, a portable image viewer, and a printer.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び、かかるプログラムを記憶した記憶媒体は本発明を構成することになる。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or each storage medium, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。例えば、上述した各実施形態を適宜組み合わせることも可能である。 As mentioned above, although preferable embodiment of this invention was described, it cannot be overemphasized that this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. For example, the above-described embodiments can be appropriately combined.
Claims (16)
前記画像において画像処理を行う処理部分を指定する指定手段と、
前記指定手段によって指定された前記処理部分の画像の特徴から前記処理部分に顔が含まれるか否かを判断する判断手段と、
前記判断手段の判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定する決定手段と、
前記決定手段によって決定された前記画像処理を前記処理部分に行う処理手段と、
を有し、
前記判断手段により顔が含まれていないと判断された同じ処理部分が複数回指定される場合、前記決定手段は、前記指定ごとに異なる処理が行われるように、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定することを特徴とする画像処理装置。 Display control means for displaying an image on the display screen of the display device;
Designating means for designating processing part for performing image processing in the previous SL image,
Determining means for determining whether or not a face is included in the processing portion from the characteristics of the image of the processing portion specified by the specifying means;
Determining means for determining image processing to be performed on the processing portion from a plurality of image processing determined based on the determination result of the determining means;
Processing means for performing the image processing determined by the determination means on the processing portion;
I have a,
When the same processing part determined not to contain a face by the determination unit is specified a plurality of times, the determination unit is based on the determination result of the determination unit so that different processing is performed for each specification. An image processing apparatus for determining image processing to be performed on the processing portion from a plurality of predetermined image processing.
前記決定手段は、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記属性情報に基づき前記処理部分に行う画像処理を決定することを特徴とする請求項1又は2に記載の画像処理装置。The said determination means determines the image process performed to the said process part based on the said attribute information from the several image processing defined based on the determination result of the said determination means, The Claim 1 or 2 characterized by the above-mentioned. Image processing device.
前記決定手段は、前記記憶手段に記憶された前記テーブルを参照して、前記取得手段によって取得された前記属性情報に対応する画像処理を前記処理部分に行う画像処理として決定することを特徴とする請求項3に記載の画像処理装置。 A table representing a relationship between a plurality of image processing said attribute information and is Me before Kijo, further comprising a storage means for storing distinguished by a processing portion that does not include the processing portion and the face including a face,
It said determining means includes a wherein with reference to stored pre-Symbol table in the storage means, determines the image processing corresponding to the attribute information acquired by the acquisition means as the image processing performed in the processing portion The image processing apparatus according to claim 3 .
前記決定手段は、前記記憶手段に記憶された前記テーブルを参照して、前記取得手段によって取得された前記属性情報に対応する複数の画像処理を選択可能にユーザに通知し、前記複数の画像処理のうち前記ユーザによって選択された画像処理を前記処理部分に行う画像処理として決定することを特徴とする請求項3に記載の画像処理装置。 A table representing a relationship between a plurality of image processing said attribute information and is Me before Kijo, further comprising a storage means for storing distinguished by a processing portion that does not include the processing portion and the face including a face,
The determination unit refers to the pre-Symbol table stored in the storage means, it has been notified to selectably user a plurality of image processing corresponding to the attribute information acquired by the acquisition means, the plurality of images The image processing apparatus according to claim 3 , wherein an image process selected by the user among the processes is determined as an image process to be performed on the processing portion.
前記判断手段が前記指定された処理部分に顔が含まれていると判断した場合、前記決定手段は、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記属性情報に含まれる前記画像の撮像時に用いられた撮像条件に基づき前記処理部分に行う画像処理を決定し、When the determination unit determines that a face is included in the designated processing portion, the determination unit is included in the attribute information from a plurality of image processes determined based on the determination result of the determination unit. Determine image processing to be performed on the processing portion based on the imaging conditions used at the time of imaging the image,
前記判断手段が前記指定された処理部分に顔が含まれていないと判断した場合、前記決定手段は、前記判断手段の判断結果に基づき定められた複数の画像処理から、前記属性情報に含まれる前記画像の撮像時に判定された撮像シーンの種類に基づき前記処理部分に行う画像処理を決定することを特徴とする請求項1又は2に記載の画像処理装置。When the determination unit determines that no face is included in the designated processing portion, the determination unit includes the plurality of image processes determined based on the determination result of the determination unit and is included in the attribute information. The image processing apparatus according to claim 1, wherein image processing to be performed on the processing portion is determined based on a type of an imaging scene determined at the time of capturing the image.
前記判断手段により顔が含まれていないと判断された同じ処理部分が複数回指定される場合、前記決定手段は、前記指定ごとに異なる処理が行われるように、前記判断手段の判断結果及び前記属性情報に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定することを特徴とする請求項1又は2に記載の画像処理装置。When the same processing part determined not to contain a face by the determination unit is specified a plurality of times, the determination unit determines the determination result of the determination unit and the determination unit so that different processing is performed for each specification. The image processing apparatus according to claim 1, wherein image processing to be performed on the processing portion is determined from a plurality of image processing determined based on attribute information.
前記指定手段は、前記位置入力手段に対するユーザの操作に応じて前記処理部分を指定することを特徴とする請求項1乃至11のうちいずれか1項に記載の画像処理装置。 Position input means is provided on the display screen of the display device,
It said specifying means, the image processing apparatus according to any one of claims 1 to 11, wherein the designating the processing part in response to a user's operation to the position input means.
前記指定手段は、ユーザによる前記ポインティングデバイスの操作に応じて前記処理部分を指定することを特徴とする請求項1乃至11のうちいずれか1項に記載の画像処理装置。 A pointing device for moving a pointer in the image displayed on the display screen;
It said specifying means, the image processing apparatus according to any one of claims 1 to 11, wherein the designating the processing part in response to the operation of the pointing device by the user.
表示制御手段が、表示装置の表示画面に画像を表示させる表示制御ステップと、
指定手段が、前記画像において画像処理を行う処理部分を指定する指定ステップと、
特定手段が、前記指定ステップで指定された前記処理部分の画像の特徴から前記処理部分に顔が含まれるか否かを判断する判断ステップと、
決定手段が、前記判断ステップでの判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定する決定ステップと、
処理手段が、前記決定ステップで決定された前記画像処理を前記処理部分に行う処理ステップと、
を有し、
前記判断ステップにて顔が含まれていないと判断された同じ処理部分が複数回指定される場合、前記決定ステップでは、前記指定ごとに異なる処理が行われるように、前記判断ステップでの判断結果に基づき定められた複数の画像処理から、前記処理部分に行う画像処理を決定することを特徴とする制御方法。 A control method for an image processing apparatus, comprising:
A display control step for causing the display control means to display an image on the display screen of the display device;
Specified means, a designation step of designating a processing part for performing image processing in the image,
A determining step for determining whether or not a face is included in the processing portion from the feature of the image of the processing portion specified in the specifying step;
A determination step for determining image processing to be performed on the processing portion from a plurality of image processing determined based on the determination result in the determination step;
A processing step in which processing means performs the image processing determined in the determining step on the processing portion;
I have a,
When the same processing part determined not to contain a face in the determination step is specified a plurality of times, the determination result in the determination step is such that a different process is performed for each specification in the determination step. A control method for determining image processing to be performed on the processing portion from a plurality of image processing determined based on the method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010044630A JP5580623B2 (en) | 2010-03-01 | 2010-03-01 | Image processing apparatus, image processing apparatus control method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010044630A JP5580623B2 (en) | 2010-03-01 | 2010-03-01 | Image processing apparatus, image processing apparatus control method, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011180844A JP2011180844A (en) | 2011-09-15 |
JP5580623B2 true JP5580623B2 (en) | 2014-08-27 |
Family
ID=44692281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010044630A Expired - Fee Related JP5580623B2 (en) | 2010-03-01 | 2010-03-01 | Image processing apparatus, image processing apparatus control method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5580623B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5859061B2 (en) * | 2013-06-11 | 2016-02-10 | キヤノン株式会社 | Imaging apparatus, image processing apparatus, and control method thereof |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001148780A (en) * | 1999-09-07 | 2001-05-29 | Fuji Photo Film Co Ltd | Method for setting red-eye correction area and red-eye correction method |
JP2003204459A (en) * | 2001-10-23 | 2003-07-18 | Konica Corp | Digital camera and image reproducing apparatus |
JP2004145287A (en) * | 2002-08-30 | 2004-05-20 | Fuji Photo Film Co Ltd | Red-eye effect compensating method, picture processing method, printing method and printer |
JP4554548B2 (en) * | 2006-03-31 | 2010-09-29 | 富士フイルム株式会社 | Image processing apparatus, image processing method, and image processing program |
JP4708250B2 (en) * | 2006-04-06 | 2011-06-22 | 富士フイルム株式会社 | Red-eye correction processing system, red-eye correction processing method, and red-eye correction processing program |
-
2010
- 2010-03-01 JP JP2010044630A patent/JP5580623B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011180844A (en) | 2011-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5473646B2 (en) | Image search apparatus, control method, program, and storage medium | |
EP2402884A2 (en) | Image processing device and image processing method | |
US10290077B2 (en) | Display control apparatus and method for controlling the same | |
US11496670B2 (en) | Electronic device with display screen capable of reliable detection of a user selected displayed eye region in a scene to be captured, and region selection method | |
US9671932B2 (en) | Display control apparatus and control method thereof | |
US11696020B2 (en) | Electronic apparatus, image capture apparatus, method for controlling the same, and storage medium | |
JP2007081732A (en) | Imaging apparatus | |
JP2009060291A (en) | Image processing apparatus, image processing method and program | |
JP6460868B2 (en) | Display control apparatus and control method thereof | |
US9648195B2 (en) | Image capturing apparatus and image capturing method | |
JP5580623B2 (en) | Image processing apparatus, image processing apparatus control method, program, and storage medium | |
JP2014110596A (en) | Image pickup device, control method, and program therefor, and recording medium | |
JP2014017665A (en) | Display control unit, control method for display control unit, program, and recording medium | |
US11165970B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and non-transitory computer readable medium | |
JP4682097B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP5623247B2 (en) | Imaging apparatus and control method thereof | |
JP2009177358A (en) | Image processor, image processing method, and program | |
JP6289107B2 (en) | Image reproduction apparatus, control method thereof, and control program | |
US11457137B2 (en) | Electronic apparatus and control method for electronic apparatus | |
US11330187B2 (en) | Electronic apparatus, method of controlling electronic apparatus, and storage medium | |
US10419659B2 (en) | Electronic device and control method thereof to switch an item for which a setting value to be changed | |
JP6124658B2 (en) | Image processing apparatus and image processing apparatus control method | |
US20120315007A1 (en) | Imaging apparatus and control method therefor | |
JP5832280B2 (en) | Display control apparatus, control method therefor, program, and storage medium | |
JP2011166214A (en) | Image retrieval device and control method of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140711 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5580623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |