JP2005215750A - 顔検知装置および顔検知方法 - Google Patents

顔検知装置および顔検知方法 Download PDF

Info

Publication number
JP2005215750A
JP2005215750A JP2004018245A JP2004018245A JP2005215750A JP 2005215750 A JP2005215750 A JP 2005215750A JP 2004018245 A JP2004018245 A JP 2004018245A JP 2004018245 A JP2004018245 A JP 2004018245A JP 2005215750 A JP2005215750 A JP 2005215750A
Authority
JP
Japan
Prior art keywords
face detection
area
information
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004018245A
Other languages
English (en)
Inventor
Teruki Yoshikawa
輝樹 吉川
Tomoyasu Yoshikawa
智康 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004018245A priority Critical patent/JP2005215750A/ja
Priority to US11/038,022 priority patent/US7734098B2/en
Priority to KR1020050006966A priority patent/KR100777496B1/ko
Priority to CN2008100953933A priority patent/CN101286198B/zh
Priority to CNB2005100058056A priority patent/CN100395769C/zh
Publication of JP2005215750A publication Critical patent/JP2005215750A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration

Abstract

【課題】 顔検知の精度を保持しつつ、処理時間の短縮を図る。
【解決手段】 デジタルカメラ101等で撮影された画像から被写体の顔領域を抽出する顔検知手段106として、画像データと撮影条件等の画像データに関連する付属情報とから、画像領域内の合焦領域情報を取得する手段107と、前記合焦領域情報に基づいて該画像領域内で顔検知領域を決定する手段110と、画像領域全体ではなく、部分的に顔検知処理を実行する手段111とを備える。
【選択図】 図1

Description

本発明は、静止画像データから被写体を抽出する手段、特に人物画像の顔を検知する顔検知装置および方法に関する。
近年、デジタルスチルカメラやデジタルビデオカメラなどが急速に普及してきている。それに伴い、これら撮像機器により撮影した画像を高画質化処理するツールなどの需要も増加している。
高画質化処理においては、例えば画像に対して顔検知処理を実行し、人の顔がある場合にはその人の顔を基準として補正量を決定する方法が広く知られている。
しかしながら、高画質化処理に要する処理時間のうち顔検知処理の処理時間が大半を占めており、その処理時間の短縮が求められていた。
顔検知の効率を向上させる手段は既にいくつか提案されている。
例えば下記特許文献1では、撮影装置において、撮影モードや被写体倍率に基づいて画像全体に渡る画素間引き処理を行ったり、検知のためのブロック分割数を切り替える手法を提案している。これにより顔検知精度を撮影画像毎に変更し、処理効率を向上させている。
特開2003−163827号公報
ところで、上記特許文献1に記載の発明では、画像全体に対して顔検知処理を行っているため、画像のデータ量の増加に伴って顔検知処理の領域も大幅に増加し、処理時間も長くなってしまうという問題がある。また、処理時間を短縮するために間引き数を多くすると検知精度を落とすという問題が生じる。
本発明は上記問題に鑑みてなされたものであり、より効率的に顔検知処理を行うことによって、検知精度を保持しつつ、処理時間の短縮を図ることを目的とするものである。
上記目的を達成するため、本発明の顔検知装置は、画像データおよび該画像データに関連する付属情報に基づいて該画像から被写体の顔領域を抽出する顔検知装置において、前記付属情報に基づいて前記画像の画像領域内での顔検知領域を決定する手段と、決定された顔検知領域内で顔検知処理を実行する手段とを備えることを特徴とする。顔検知領域を決定するための付属情報は、例えば、画像撮影時の合焦領域情報またはアシスト情報である。
本発明によれば、撮影条件等の付属情報を用いて顔検知のための領域を決定するようにしたため、顔を検知するまでの処理時間が短縮できる。加えて、顔検知結果に基づいて画像処理を行うようなシステムでは、顔検知処理の短縮により、システム全体の処理時間を短縮することができる。
以下、本発明の実施態様を列挙する。
[実施態様1]
画像から被写体の顔領域を抽出する顔検知手段において、
画像データおよび前記画像データに関連する付属情報とから、画像領域内の合焦領域情報を取得する手段と、
前記合焦領域情報に基づいて該画像領域内での顔検知領域を決定する手段と、
顔検知処理を実行する手段と、
を備えることを特徴とする顔検知装置。
[実施態様2]
前記合焦領域情報に対応する被写体距離情報を取得する手段と、
前記被写体距離情報に基づいて、前記合焦領域情報に優先度を決定する手段と、
前記優先度に基づいて顔検知領域を決定する手段と、
を備えることを特徴とする実施態様1記載の顔検知装置。
[実施態様3]
画像から被写体の顔領域を抽出する顔検知装置において、
画像データおよび前記画像データに関連する付属情報とから、撮影時のアシストモード情報を取得する手段と、
前記アシストモード情報に基づいて顔検知領域を決定し、顔検知処理を実行する手段と、
を備えることを特徴とする顔検知装置。
[実施態様4]
実施態様1〜3に記載の顔検知装置を含む画像処理装置と、デジタルスチルカメラと、表示部とからなる画像処理システム。
[実施態様5]
前記顔検知領域を決定する手段は、前記合焦領域情報である「測距枠数」および「使用した測距枠」に基づき、前記顔検知領域の座標値を算出する手段であることを特徴とする実施態様1〜2のいずれかに記載の顔検知装置。
[実施態様6]
前記顔検知領域を決定する手段は、前記合焦領域情報である「座標値」に基づき、前記顔検知領域の座標値を算出する手段であることを特徴とする実施態様1〜2のいずれかに記載の顔検知装置。
[実施態様7]
前記優先度を決定する手段は、前記被写体距離情報のうち被写体距離の近距離に位置するものほど優先度を高く決定することを特徴とする実施態様2に記載の顔検知装置。
[実施態様8]
前記アシストモード情報は、撮影条件を示す文字列情報であって、前記文字列情報に基づき前記顔検知領域を決定する手段を具備し、前記顔検知領域を決定する手段は、前記アシストモードで表示されたガイド表示中、人物撮影を指定する領域を前記顔検知領域とする手段であることを特徴とする実施態様3に記載の顔検知装置。
[実施態様9]
画像から被写体の顔領域を抽出する顔検知方法において、
画像データおよび前記画像データに関連する付属情報とから、画像領域内の合焦領域情報を取得するステップと、
前記合焦領域情報に基づいて該画像領域内での顔検知領域を決定するステップと、
該顔検知領域において顔検知処理を実行するステップと、
を有することを特徴とする顔検知方法。
以下、添付図面を参照しながら本発明の好適な実施例を詳細に説明する。
[実施例1]
本発明の顔検知手段は、例えば図1に示すような画像処理システムに適用される。
図1の画像処理システム100は、デジタルスチルカメラ(以下、DSCと記す)101、画像処理装置104、表示部115を含む構成からなる。
DSC101は、撮影時の条件を設定する撮影条件設定部102と撮影動作時に撮影画像データを記録する記録部103から構成される。
撮影条件設定部102は、撮影動作に必要な各種の撮影条件の設定を行う。ユーザーはDSC101に設けられたボタンを操作することにより撮影シーン、ホワイトバランスモード、フラッシュ発光/非発光などの各種条件を設定可能である。
記録部103は、撮影画像データに加えて撮影時の条件を付属情報として含む画像データを作成して記録保持する。
なお、記録媒体はDSC101に内蔵されているメモリでも良いし、着脱可能な外部メディアのようなものでも良い。
前記画像データを記録する際の画像ファイルフォーマットは、例えばExif(Exchangeable Image File Format)に準拠し、図2に示すような撮影条件データである付属情報を記録するタグ領域201と撮影画像データを記録する画像データ領域202から構成される。
タグ領域201において、撮影条件データは先頭から所定のオフセット位置から記録され、例えば図中のTagNo.=0〜6の内容を含む。
TagNo.=0は、撮影シーンタイプに関する情報である。DSCにおいて「風景」モードで撮影した場合、TagNo.=0には「風景モード」であることを示す値が格納される。ここで、撮影シーンタイプは上記に限定されるものでなく、「標準」、「人物」、「夜景」といった別の指定も可能である。
TagNo.=1は、ホワイトバランスに関する情報である。DSCにおいて「ホワイトバランス自動」で撮影した場合、TagNo.=1にはホワイトバランスを自動設定したことを示す値が格納される。ホワイトバランスがマニュアル設定の場合には、マニュアル設定であることを示す値が格納される。
TagNo.=2は、露出モードに関する情報である。DSCにおいて「露出自動」で撮影した場合、TagNo.=2にはパラメータ露出を自動制御設定にしたことを示す値が格納される。「露出マニュアル」や「オートブラケット」といった設定の場合には、それらを示す値が格納される。
TagNo.=3は、フラッシュに関する情報である。DSCにおいて「フラッシュ発光」で撮影した場合、TagNo.=3にはフラッシュを発光したことを示す値が格納される。その他、フラッシュ発光の「自動発光モード」や「赤目軽減モード」等、詳細な情報を示す値が格納されることもある。
TagNo.=4は、合焦領域に関する情報である。DSCにおいて撮影時の合焦制御に使用した「測距枠数」、「使用した測距枠」、「測距枠毎の被写体距離」の情報を示す値が格納される。
撮影時の合焦制御については、本発明の主旨ではないため詳細な説明は省略するが、例えば予め設けられた合焦評価領域について撮影画像のぼけ量を算出し、該ぼけ量が最小となるようにレンズ位置を制御する。このような合焦制御については、例えば上記特許文献1に記載されている。
また、図3に示すようにユーザー操作により合焦評価位置301を自在に移動し、該合焦評価位置に基づいて合焦評価領域を決定し、合焦制御する方法も知られている。
前記合焦評価領域の決定には、人物またはそれに近いものを主要被写体とすることが多く、特にユーザー操作により合焦評価領域を決定する場合は、ユーザーは人物に合焦するように合焦評価領域を決定する傾向がある。
図4はDSCの背面に配置された液晶モニタ401の表示画面例である。DSCが予め備える測距枠は、例えば図に示すような枠402により示され、実際の合焦制御に使用された測距枠は強調された枠403により示される。
TagNo.=5は、DSCのメーカ名を示す情報であり、メーカ名を示す文字列情報が格納される。
TagNo.=6は、DSCの型名を示す情報であり、型名を示す文字列情報が格納される。
図1に戻って、画像処理装置104は、例えばパーソナルコンピュータからなり所定のアプリケーションソフトウェアの起動により、DSC101から画像データを取得し、補正処理を施して表示部115に出力処理する。このため、画像処理装置104は入力部105、データ解析部106、補正処理決定部112、補正処理実行部113、および出力部114を備えており、各部105〜114の機能は前記アプリケーションの起動により実現される。
入力部105は、DSC101が画像処理装置104に接続されるとそれを自動的に認識し、画像データの読み込みを開始する。なお、ユーザー指示を受け付けた後に画像データを読み込むような構成でも構わない。
データ解析部106は、画像データに付加された付属情報を取得する付属情報取得部107と、画像データからヒストグラムを作成して画像の特徴を解析するヒストグラム解析部108と、本発明の特徴である顔検知処理部109とから構成される。
付属情報取得部107は、撮影時に取得した撮影条件データで、例えば撮影シーンタイプ、ホワイトバランス、露出モード、フラッシュ、合焦領域等に関する情報を取得する。
ヒストグラム解析部108は、画像データに対してヒストグラムを作成し、統計的手法を用いて画像の特徴量を算出する。特徴量とは、例えば、画像の平均輝度、輝度分散、および平均彩度を示す。
顔検知処理部109は、画像データに対して、顔検知処理を実行するための領域を決定する決定部110と、該決定部の結果に基づいて顔検知処理を実行する実行部111とから構成される。
決定部110は、前記付属情報に含まれる合焦領域情報に基づいて該画像領域内での顔検知領域を決定し、後述する実行部111で実行可能なように設定する。詳細な説明については後述する。
実行部111は前記設定された領域について顔検知処理を実行する。顔検知処理については様々な方法が提案されているが、例えば一方の眼を検出し、該一方の眼に基づいて両眼対候補を生成して顔パターンを認識する構成により顔検知する。
補正処理決定部112は、前記データ解析部106で得られた解析結果に基づいて画像補正アルゴリズムを決定する。例えば、付属情報取得部107と顔検知処理部109から補正処理内容と補正手順を決定し、ヒストグラム解析部108から画像の輝度分布の特徴を取得して前記補正処理内容それぞれに適した補正パラメータを算出する。補正処理内容としては、階調補正処理、コントラスト補正処理、カラーバランス処理、彩度補正処理、輪郭強調処理等が挙げられる。
補正処理実行部113は、前記補正処理決定部112で決定された画像補正アルゴリズムに従い画像データに対して画像補正処理を施す。
出力部114は、前記補正処理実行部113により補正処理された画像データを表示部に表示可能な形態へと変換し、表示部115へと出力する。
表示部115は、前記出力部114より入力された画像を所望の形態で出力表示する。
次に、本実施例における画像処理装置104の動作について、図5のフローチャートを参照しながら説明する。
ステップ501では、DSC101が接続されると画像処理装置104は画像データの読み込みを開始する。
ステップ502では、ステップ501で読み込んだ画像データに対してヒストグラムを作成し、特徴量を算出する。特徴量とは、前述の通り平均輝度や輝度分散等を示す。
ステップ503では、ステップ501で読み込んだ画像データから撮影時の条件を示す付属情報を取得する。
前記付属情報は撮影後にアプリケーション等を用いて書き込むことも可能である。
ステップ504では、ステップ503で取得した付属情報のうち、合焦領域情報に基づいて顔検知領域を設定する。後述のステップ505〜506で顔検知できずに再度該ステップに戻った場合は、既に設定した顔検知領域以外の領域を顔検知領域として再設定する。例えば、1度目の顔検知領域は合焦領域の範囲内とし、2度目は前記合焦領域を除く領域を顔検知領域として画像の左上から顔検知処理を開始する。
ステップ505では、ステップ504で設定された顔検知領域に基づいて顔検知処理を実行する。但し、人物「あり」と判定した場合、すなわち顔が検知された場合は、その時点で該ステップを終了し、ステップ506へ進む。
ステップ506では、ステップ505で人物「あり」と判定されたか、もしくは画像全体の顔検知処理が終了した場合にステップ507へ進む。それに対して、人物「なし」で、画像全体に対して顔検知処理を実行していない場合は、ステップ504へ進み、再度顔検知領域を設定する。
ステップ507では、ステップ503〜506で取得した撮影時の付属情報と顔検知の結果に基づいて補正処理内容を選択し、ステップ502で取得した画像特徴量に基づいて補正処理量を決定する。
補正処理内容選択では、付属情報に含まれる撮影シーンタイプ、ホワイトバランス、露出モード、フラッシュ等の組み合わせに基づいて、階調補正処理、コントラスト補正処理、カラーバランス処理、彩度補正処理、輪郭強調処理等のどの処理を行うかを選択する。
本実施例の画像処理装置104は、ステップ505の結果で人物「あり」と判定され、かつ、撮影シーンタイプが「標準」の場合には画像データを撮影シーンタイプ「人物」と認識して補正処理内容を決定する。これは、できるだけ被写体にあった補正処理を適用するためである。
また、撮影シーンタイプの内容に関わらず、顔検知の結果、人物「あり」と判定された場合には常に人物用の補正処理を適用するような構成にしても構わない。
補正処理内容が決定すると、次に付属情報、および画像特徴量から補正目標値を決定し、補正実行時のパラメータを算出する。
前記補正目標値は、付属情報の組み合わせによって決まるそれぞれの処理内容毎に予め定めておくもので、好ましくは、画像処理装置内にテーブルとして保持しておく。もしくは、特徴量から数式で算出するようにしても良い。
前記補正実行時のパラメータは、補正目標値から算出するもので、例えば階調補正におけるガンマ値の算出は以下の数式から算出可能である。該数式は図6から導くことができる。
Figure 2005215750
上記式において、Xmaxは入力信号の最大値、Ymaxは出力信号の最大値、Xは適当な中間レベルの入力信号、Yは適当な中間レベルの出力信号である。
ステップ508では、ステップ507により決定した補正処理内容とパラメータに従って、画像補正処理を実行する。
次に、ステップ504の顔検知領域設定処理の一例として、合焦領域情報に基づく顔検知領域の設定方法について図7のフローチャートを用いて説明する。
ステップ701では、ステップ503(図5参照)で取得した付属情報のうち合焦領域情報を取得する。本実施例において、合焦領域情報とは、「測距枠数」および「使用した測距枠」である。
ステップ702では、取得した合焦領域情報の「測距枠数」から測距枠位置を求め、「使用した測距枠」により実際に合焦制御に使用した領域を顔検知領域と定め、各座標値を算出する。
例えば「測距枠数=3」から図8に示すような3つの測距枠位置を求め、「使用した測距枠=中央」により図8に示す強調された枠801の領域を顔検知領域とする。
ここで、前記3つの測距枠位置は前述したタグ領域201に含まれるメーカ名、型名から求めることが可能で、好ましくは、各DSCのメーカ名、型名ごとに測距枠位置情報を補正処理装置内に保持しておく。
もしくは「測距枠数」から画像データを分割して測距枠位置を概算し、「使用した測距枠」から顔検知領域を決定する。例えば、図9に示すように「測距枠数=9」、「使用した測距枠=中央」では、測距枠数に基づいて画像データの領域を分割し(破線901)、「使用した測距枠」から顔検知領域(斜線部)902を決定することが可能である。
また、図10に示すように、顔検知領域が予め表示装置内104で定めているサイズとなるように測距枠サイズ1001の上下左右方向にオフセット値1002をプラス、もしくはマイナスしてサイズ変更することも可能である。
なお、前記顔検知領域は撮影画像データの解像度に対する比率を用いて決定することで、撮影時の画像サイズに対して柔軟に対応することが可能である。
以上の処理により顔検知領域と定められた位置に対して、顔検知の開始位置802、横幅803、高さ804のそれぞれを算出する。
ステップ703では、ステップ702で算出した顔検知領域を顔検知処理で実行可能なように設定する。
本実施例によれば、DSCで撮影する際、人物である可能性が高いものに対して合焦制御していることを利用し、合焦領域情報に基づいて顔検知領域を決定することにより顔検知を効率良く実行することができる。
さらに、顔検知の効率化により画像補正処理全体の処理時間短縮が可能となる。
すなわち、本実施例によれば、画像データおよび前記画像データに関連する付属情報とから、画像領域内の合焦領域情報を取得する手段と、前記合焦領域情報に基づいて該画像領域内での顔検知領域を決定する手段と、顔検知処理を実行する手段により顔検知を行う。
[実施例2]
実施例2は、実施例1で説明した顔検知領域の設定に際して、合焦領域情報のうち「使用した測距枠」が複数ある場合の顔検知領域の設定方法に係るものである。
実施例2のシステム構成を図11に示す。図11において、実施例1で説明したものと共通のものについては同じ付番で示し、異なるものについてのみ説明する。
実施例2の画像処理システム1100は、DSC101、画像処理装置1101、表示部115を含む構成からなる。
実施例2におけるデータ解析部1102は、実施例1とは異なる顔検知処理部1103を備えている。
顔検知処理部1103のうち、顔検知領域を決定する決定部1104は、実施例1で示した「測距枠数」、「使用した測距枠」に加え、「測距枠ごとの被写体距離」情報に基づいて顔検知領域を決定することにより、「使用した測距枠」が複数ある場合でも対応可能となっている。
次に、本実施例2の特徴である、顔検知領域の設定方法について図12を参照して説明する。図12は、図5のステップ504の顔検知領域設定処理の第2の例を示している。
ステップ1201では、ステップ503(図5参照)で取得した付属情報のうち合焦領域に関する情報を取得する。合焦領域に関する情報とは、「測距枠数」、「使用した測距枠」、および「測距枠ごとの被写体距離」である。
ステップ1202では、取得した合焦領域情報の「測距枠数」から測距枠位置を求め、「使用した測距枠」により実際に合焦制御に使用した領域を顔検知候補領域と定める。さらに、本実施例2の特徴として「測距枠ごとの被写体距離」に基づいて前記顔検知候補領域に優先度をつける。
例えば「測距枠数=9」から図13に示すような測距枠位置1301を求め、「使用した測距枠=左、中央、右、右上」により強調された枠の領域1302を顔検知候補領域とする。さらに前記使用された測距枠中、「測距枠ごとの被写体距離」が「右上<右<左<中央」であった場合には、前記被写体距離に基づいて顔検知候補領域の優先度を決定する。
すなわち、上記例によれば、まず最初に、被写体距離が最小である右上の測距枠位置を顔検知領域として指定して次のステップに進み、ステップ506(図5参照)で解析終了(人物「あり」の判定、もしくは画像全体の解析終了)でなければ、次は測距枠位置の右を顔検知領域として次のステップに進む。もし、ステップ506で再び解析終了でなければ、左、中央の順で同様に処理を実行する。
ステップ1203では、ステップ1202で算出された顔検知領域情報を顔検知処理で使用可能なように設定する。
上記の通り本実施例2によれば、DSCでの撮影時に人物を主被写体として合焦制御している可能性が高いことと、人物が風景より近距離に位置する可能性が高いことを利用し、合焦情報に基づいて顔検知領域を決定することで効率良く顔検知できる。
すなわち、本実施例2によれば、画像データおよび前記画像データに関連する付属情報とから、画像の合焦領域情報を取得する手段と、前記合焦領域情報に対応する被写体距離情報を取得する手段と、前記被写体距離情報に基づいて、前記合焦領域情報に優先度を決定する手段と、前記優先度に基づいて顔検知領域を決定し、顔検知処理を実行する手段により顔検知を行う。
[実施例3]
本実施例3は、合焦領域情報以外の撮影条件データに基づいて顔検知領域を設定する方法に係るものである。
本実施例3のシステム構成を図14に示す。実施例1で説明したものと共通のものについては同じ付番で示し、異なるものについてのみ説明する。
本実施例3のDSC1401において、撮影条件設定部1402は、実施例1のDSC101で可能な撮影シーンタイプの設定に加えて、さらに詳細なアシストモードを設定できる構成になっている。
例えば、図15はDSC1401の背面に配置された液晶モニタ1501の表示画面例である。撮影者は液晶モニタ1501に表示されたガイド表示1502に従って撮影を行う。
本実施例3でのガイド表示1502は、画面右に人物の型、左背景に建物等を撮影する際の水平位置確認のための補助線表示を示している。
図16は実際の撮影時のイメージ図である。ユーザーは前記ガイド表示1502に従って撮影している様子が分かる。
撮影された画像データは実施例1と同様のフォーマットで記録されるが、タグ領域201(図2参照)にはアシストモードを使用したことと、アシストモードの種類を含めてアシストモード情報として記録される。
例えば、図15、16のアシストモードであれば「左背景」を示す文字列が記録される。
本実施例3の画像処理装置1403において、データ解析部1404は、実施例1の構成とは異なる付属情報取得部1405と、顔検知処理部1406を備える。付属情報取得部1405は、実施例1で取得した合焦領域情報の変わりに、前記アシストモード情報を取得する。
顔検知処理部1406は、実施例1とは異なる決定部1407を備え、該決定部1407により前記付属情報に含まれるアシストモード情報に基づいて該画像領域内での顔検知領域を決定する。
次に、本実施例3における画像処理装置1403の動作について、図17のフローチャートを参照しながら説明する。実施例1と同様のものについては簡単に説明する。
ステップ1701では、DSC1401が接続されると画像処理装置1403は画像データの読み込みを開始する。
ステップ1702では、ステップ1701で読み込んだ画像データに対してヒストグラムを作成し、特徴量を算出する。
ステップ1703では、ステップ1701で読み込んだ画像データから撮影時、もしくは撮影後に付加された付属情報を取得する。ここで、本実施例3では実施例1および実施例2で取得した合焦領域情報の代わりに、アシストモード情報を取得する。
ステップ1704では、ステップ1703で取得した付属情報のうち、アシストモード情報に基づいて顔検知領域を設定する。後述のステップ1705〜1706で顔検知できずに再度該ステップに戻った場合は、既に設定した顔検知領域以外の領域を顔検知領域として再設定する。
ステップ1705では、ステップ1704で設定された顔検知領域に基づいて顔検知処理を実行する。但し、顔が検知されて人物「あり」と判定した場合は、その時点で該ステップを終了し、ステップ1706へ進む。
ステップ1706では、ステップ1705で人物「あり」と判定されたか、もしくは画像全体の顔検知処理が終了した場合にはステップ1707へ進む。
人物「なし」で、画像全体に対して顔検知を実行していない場合は、ステップ1704へ進み、再度顔検知領域を設定する。
ステップ1707では、ステップ1702〜1706により取得した撮影時の付属情報に基づいて補正処理内容を選択し、画像特徴量、および顔検知結果に基づいて補正処理量を決定する。
補正処理内容が決定すると、次に付属情報、および画像特徴量から補正目標値を決定し、補正実行時のパラメータを算出する。
ステップ1708では、ステップ1707により決定した補正処理内容とパラメータに従って、画像補正処理を実行する。
次に、実施例3の特徴である、ステップ1704における顔検知領域の設定方法について図18のフローチャートを用いて説明する。
ステップ1801では、ステップ1703(図17参照)で取得した付属情報のうちアシストモードに関する情報を取得する。
ステップ1802では、取得したアシストモード情報から人物の顔のある可能性の高い領域を顔検知領域と定め、各座標値を算出する。
例えば「アシストモード=左背景」から図19に示すような顔検知領域(斜線部)1901を定める。
ここで、前記顔検知領域は前述したタグ領域201(図2参照)に含まれるメーカ名、型名から算出可能で、好ましくは、DSCのメーカ毎のアシストモード情報とアシストモードに対する顔検知領域を補正処理装置内に保持しておく。
なお、本実施例3では大まかな位置(斜線部1901)を顔検知領域として指定したが、より厳密に例えばアシスト表示内の人物型の顔領域を最初の顔検知領域と設定する構成にしても構わない。
ステップ1803では、ステップ1802で算出された顔検知領域情報を顔検知処理で使用可能なように設定する。
上記の通り実施例3によれば、アシストモードでは、表示されたガイド表示に従って人物の顔が写っている可能性が高いことを利用し、ガイド表示中の人物の位置情報に基づいて顔検知領域を決定することで効率良く処理できる。すなわち、本実施例3によれば、画像データおよび前記画像データに関連する付属情報とから、撮影時のアシストモード情報を取得する手段と、前記アシストモード情報に基づいて顔検知領域を決定し、顔検知処理を実行する手段により顔検知を行う。
[実施例4]
実施例4は、実施例1で説明した合焦領域に関する情報が「座標値」により示される場合に係るものである。
実施例4におけるシステム構成を図20に示し、実施例1で説明したものと共通のものについては同じ付番で示し、異なるものについてのみ説明する。
本実施例4において、DSCは撮影時の条件の1つである合焦領域に関する情報を「座標値」により示す。
すなわち、実施例1で示した付属情報であるTagNo.=4には合焦制御に使用した領域の中央に相当する座標値(X,Y)が格納される。
実施例4におけるデータ解析部2001は、実施例1とは異なる顔検知処理部2002を備えている。
顔検知処理部2002うち、顔検知領域を決定する決定部2003は、前記「座標値」に基づき顔検知領域を決定する。
以下、本実施例4における顔検知領域の設定方法について説明する。
画像処理装置はDSCにより格納された付属情報から前記合焦制御に使用した領域の座標値を取得する。
次に、取得した座標値を中心とする正方領域を算出し、該正方領域を顔検知領域として決定する。
前記正方領域は、表示装置内で予め定めているサイズとなるように算出され、撮影画像データの解像度に対する比率に比例して決定することで、撮影時の画像サイズに対して柔軟に対応することが可能である。
なお、前記正方領域に代えて、取得した座標値を中心とした半径Rの円、または図8〜10に符号801、902、1001で示すような長方形の領域などの領域を用いてもよい。
以上の処理により顔検知領域を設定し、顔検知処理を実行する。
上記の通り本実施例4によれば、付属情報である合焦制御に使用した領域の座標値から顔検知領域を決定することで顔検知処理を効率良く実行できる。
本発明の一実施例に係る顔検知手段を適用した画像処理システムの構成を示すブロック図である。 図1におけるDSC(デジタルスチルカメラ)の画像ファイルフォーマットを説明するための図である。 図1におけるDSCにおいてユーザー操作により合焦評価領域を移動させている様子を説明する図である。 図1におけるDSCの背面に配置された液晶モニタの表示画面例を説明する為の図である。 図1の画像処理装置の動作を説明するためのフローチャートである。 図5における補正処理時のガンマ値の算出を説明する図である。 図5における顔検知領域設定時の詳細動作を説明するフローチャートである。 測距枠と画像データの関係を示す図である。 測距枠数に基づいて分割し、測距位置を用いて顔検知領域を決定することを説明する図である。 測距枠にオフセット値を足して顔検知領域とすることを説明する図である。 本発明の第2の実施例に係る顔検知手段を適用した画像処理システムの構成を示すブロック図である。 図11のシステムにおける顔検知領域設定時の動作を説明するフローチャートである。 図11のシステムにおける測距枠と画像データの関係を示す図である。 本発明の第3の実施例に係る顔検知手段を適用した画像処理システムの構成を示すブロック図である。 図14のシステムにおけるアシストモード使用時のDSCの背面に配置された液晶モニタに表示されたガイド表示を説明する図である。 アシストモードを使用して撮影した場合の、液晶モニタの画面表示例を説明する図である。 図14のシステムにおける画像処理装置の動作を説明するためのフローチャートである。 図14のシステムにおける顔検知領域設定時の動作を説明するフローチャートである。 図14のシステムにおける、顔検知領域を説明する図である。 本発明の第4の実施例に係る顔検知手段を適用した画像処理システムの構成を示すブロック図である。
符号の説明
100 画像処理システム
104 画像処理装置
109 顔検知処理部
402 測距枠
403 実際に合焦制御に使用した測距領域

Claims (11)

  1. 画像データおよび該画像データに関連する付属情報に基づいて該画像から被写体の顔領域を抽出する顔検知装置において、
    前記付属情報に基づいて前記画像の画像領域内での顔検知領域を決定する手段と、
    決定された顔検知領域内で顔検知処理を実行する手段と、
    を備えることを特徴とする顔検知装置。
  2. 前記顔検知領域を決定する手段は、前記付属情報から合焦領域情報を取得する手段を備え、該合焦領域情報に基づいて前記顔検知領域を決定することを特徴とする請求項1に記載の顔検知装置。
  3. 前記該合焦領域情報が「測距枠数」および「使用した測距枠」を含むことを特徴とする請求項2に記載の顔検知装置。
  4. 前記該合焦領域情報が合焦領域に関する「座標値」を含み、前記顔検知領域を決定する手段は、該「座標値」に基づいて、前記顔検知領域の座標値を算出することを特徴とする請求項2または3に記載の顔検知装置。
  5. 前記合焦領域情報が被写体距離情報を含み、前記顔検知領域を決定する手段は、前記顔検知領域を複数の領域候補の中から選択する場合の優先度を前記被写体距離情報に基づいて決定することを特徴とする請求項2〜4のいずれか1つに記載の顔検知装置。
  6. 前記顔検知領域を決定する手段は、前記被写体距離が短いほど優先度を高く決定することを特徴とする請求項5に記載の顔検知装置。
  7. 前記顔検知領域を決定する手段は、前記付属情報から撮影時のアシストモード情報を取得する手段を備え、該アシストモード情報に基づいて前記顔検知領域を決定することを特徴とする請求項1に記載の顔検知装置。
  8. 前記アシストモード情報は、撮影条件を示す文字列情報であり、前記顔検知領域を決定する手段は、前記文字列情報に基づき前記アシストモードで表示されたガイド表示中、人物撮影を指定する領域を前記顔検知領域に決定することを特徴とする請求項7に記載の顔検知装置。
  9. 請求項1〜8のいずれか1つに記載の顔検知装置を含む画像処理装置と、デジタルスチルカメラと、表示部とからなることを特徴とする画像処理システム。
  10. 画像データおよび該画像データに関連する付属情報に基づいて該画像から被写体の顔領域を抽出する顔検知方法において、
    前記付属情報の少なくとも一部を取得する第1ステップと、
    第1ステップで取得された情報に基づいて前記画像の画像領域内での顔検知領域を決定する第2ステップと、
    該顔検知領域において顔検知処理を実行する第3ステップと、
    を有することを特徴とする顔検知方法。
  11. 前記付属情報は、前記第1ステップで取得される情報として、前記画像領域内の合焦領域情報および撮影時のアシストモード情報の少なくとも一方を含むことを特徴とする請求項10に記載の顔検知方法。
JP2004018245A 2004-01-27 2004-01-27 顔検知装置および顔検知方法 Pending JP2005215750A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004018245A JP2005215750A (ja) 2004-01-27 2004-01-27 顔検知装置および顔検知方法
US11/038,022 US7734098B2 (en) 2004-01-27 2005-01-21 Face detecting apparatus and method
KR1020050006966A KR100777496B1 (ko) 2004-01-27 2005-01-26 얼굴검지장치 및 방법
CN2008100953933A CN101286198B (zh) 2004-01-27 2005-01-27 特征检测装置和特征检测方法
CNB2005100058056A CN100395769C (zh) 2004-01-27 2005-01-27 脸部检测装置和脸部检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004018245A JP2005215750A (ja) 2004-01-27 2004-01-27 顔検知装置および顔検知方法

Publications (1)

Publication Number Publication Date
JP2005215750A true JP2005215750A (ja) 2005-08-11

Family

ID=34835819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004018245A Pending JP2005215750A (ja) 2004-01-27 2004-01-27 顔検知装置および顔検知方法

Country Status (4)

Country Link
US (1) US7734098B2 (ja)
JP (1) JP2005215750A (ja)
KR (1) KR100777496B1 (ja)
CN (2) CN100395769C (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1953679A2 (en) 2007-02-05 2008-08-06 Ricoh Company, Ltd. Imaging apparatus and photographic subject detection method thereof
JP2008197153A (ja) * 2007-02-08 2008-08-28 Canon Inc 焦点調節装置、撮像装置及び、焦点調節方法
JP2009014850A (ja) * 2007-07-02 2009-01-22 Fujifilm Corp 撮影装置
JP2010056884A (ja) * 2008-08-28 2010-03-11 Nikon Corp 画像処理装置および電子カメラ並びに画像振り分けプログラム
US7847855B2 (en) 2006-12-27 2010-12-07 Fujifilm Corporation Image capturing apparatus and focusing method with focus evaluation
JP2011077694A (ja) * 2009-09-29 2011-04-14 Aiphone Co Ltd インターホン装置
US8031228B2 (en) 2006-02-22 2011-10-04 Sanyo Electric Co., Ltd. Electronic camera and method which adjust the size or position of a feature search area of an imaging surface in response to panning or tilting of the imaging surface
US8144944B2 (en) 2007-08-14 2012-03-27 Olympus Corporation Image sharing system and method
KR101417818B1 (ko) 2008-05-19 2014-07-09 삼성전자주식회사 디지털 영상 처리기에서 장면 인식 장치 및 방법

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060182433A1 (en) * 2005-02-15 2006-08-17 Nikon Corporation Electronic camera
US8218080B2 (en) * 2005-12-05 2012-07-10 Samsung Electronics Co., Ltd. Personal settings, parental control, and energy saving control of television with digital video camera
US8848057B2 (en) * 2005-12-05 2014-09-30 Samsung Electronics Co., Ltd. Home security applications for television with digital video cameras
JP2007157063A (ja) * 2005-12-08 2007-06-21 Sony Corp 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
EP2405646A1 (en) * 2006-03-23 2012-01-11 Nikon Corporation Camera and image processing program
JP4910462B2 (ja) * 2006-04-14 2012-04-04 株式会社ニコン カメラ
JP4819001B2 (ja) * 2006-07-25 2011-11-16 富士フイルム株式会社 撮影装置および方法並びにプログラム、画像処理装置および方法並びにプログラム
JP5044321B2 (ja) 2006-09-13 2012-10-10 株式会社リコー 撮像装置および被写体検出方法
KR101310230B1 (ko) * 2007-01-17 2013-09-24 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
EP1972992B1 (en) * 2007-02-27 2018-02-14 Nikon Corporation Image-capturing device
JP4804398B2 (ja) * 2007-03-30 2011-11-02 三洋電機株式会社 撮像装置及び撮影方法
JP4315215B2 (ja) * 2007-05-18 2009-08-19 カシオ計算機株式会社 撮像装置、及び顔検出方法、顔検出制御プログラム
KR101477182B1 (ko) * 2007-06-01 2014-12-29 삼성전자주식회사 단말 및 그의 이미지 촬영 방법
JP4994311B2 (ja) * 2007-06-18 2012-08-08 富士フイルム株式会社 顔検出方法、顔検出装置及びデジタルカメラ
JP2009010777A (ja) * 2007-06-28 2009-01-15 Sony Corp 撮像装置、撮影制御方法、プログラム
JP4961282B2 (ja) * 2007-07-03 2012-06-27 キヤノン株式会社 表示制御装置及びその制御方法
KR101480401B1 (ko) * 2007-12-10 2015-01-08 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
KR101510101B1 (ko) * 2008-01-30 2015-04-10 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
JP4539729B2 (ja) * 2008-02-15 2010-09-08 ソニー株式会社 画像処理装置、カメラ装置、画像処理方法、およびプログラム
JP4869270B2 (ja) * 2008-03-10 2012-02-08 三洋電機株式会社 撮像装置及び画像再生装置
KR20100001272A (ko) * 2008-06-26 2010-01-06 삼성디지털이미징 주식회사 셀프 촬영 안내 기능을 구비한 디지털 영상 처리 장치 및그 동작 방법
JP5210244B2 (ja) * 2008-08-13 2013-06-12 キヤノン株式会社 映像制御装置及び映像制御装置を制御する制御方法
KR20100027700A (ko) * 2008-09-03 2010-03-11 삼성디지털이미징 주식회사 촬영 방법 및 장치
JP2012003576A (ja) 2010-06-18 2012-01-05 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
KR101896386B1 (ko) * 2011-11-22 2018-09-11 삼성전자주식회사 화이트 밸런스 조절장치 및 방법
US8854481B2 (en) * 2012-05-17 2014-10-07 Honeywell International Inc. Image stabilization devices, methods, and systems
CN104641275B (zh) * 2012-09-11 2017-12-12 索尼公司 成像控制装置、成像设备和成像控制装置执行的控制方法
JP2014203407A (ja) * 2013-04-09 2014-10-27 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム並びに記憶媒体
CN104346136B (zh) * 2013-07-24 2019-09-13 腾讯科技(深圳)有限公司 一种图片处理的方法及装置
JP6249825B2 (ja) * 2014-03-05 2017-12-20 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
CN106454289B (zh) 2016-11-29 2018-01-23 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106454054B (zh) 2016-11-29 2019-03-19 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106341670B (zh) 2016-11-29 2017-09-22 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106504218B (zh) 2016-11-29 2019-03-12 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN109635770A (zh) * 2018-12-20 2019-04-16 上海瑾盛通信科技有限公司 活体检测方法、装置、存储介质及电子设备

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5128711A (en) * 1989-04-28 1992-07-07 Fuji Photo Film Co., Ltd. Apparatus for recording position information of principal image and method of detecting principal image
US5289227A (en) 1992-01-22 1994-02-22 Fuji Photo Film Co., Ltd. Method of automatically controlling taking exposure and focusing in a camera and a method of controlling printing exposure
JPH05196857A (ja) 1992-01-22 1993-08-06 Fuji Photo Film Co Ltd カメラの焦点制御及び露出制御方法
JP3649468B2 (ja) 1995-05-31 2005-05-18 株式会社日立製作所 撮影機能付き電子アルバムシステム
US6088539A (en) * 1997-12-24 2000-07-11 Canon Kabushiki Kaisha Optical apparatus with focus adjusting function and focus adjustment control circuit
US7038715B1 (en) * 1999-01-19 2006-05-02 Texas Instruments Incorporated Digital still camera with high-quality portrait mode
JP3725996B2 (ja) 1999-06-10 2005-12-14 シャープ株式会社 画像処理装置
JP4161471B2 (ja) 1999-06-15 2008-10-08 富士フイルム株式会社 電子カメラ及びカメラシステム
US6813395B1 (en) * 1999-07-14 2004-11-02 Fuji Photo Film Co., Ltd. Image searching method and image processing method
JP3897087B2 (ja) 1999-11-16 2007-03-22 富士フイルム株式会社 画像処理装置、画像処理方法、および記録媒体
JP2001195582A (ja) 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
EP1126412B1 (en) 2000-02-16 2013-01-30 FUJIFILM Corporation Image capturing apparatus and distance measuring method
US6940545B1 (en) 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
JP2001330882A (ja) 2000-05-24 2001-11-30 Canon Inc 被写体認識機能付きカメラ
DE60124647T2 (de) 2000-09-26 2007-03-08 Fuji Photo Film Co., Ltd., Minami-Ashigara Vorrichtung und Verfahren zur Abstandsmessung
US6697502B2 (en) * 2000-12-14 2004-02-24 Eastman Kodak Company Image processing method for detecting human figures in a digital image
JP2003143444A (ja) * 2001-11-06 2003-05-16 Canon Inc 撮像装置及びその制御方法、プログラム並びに記憶媒体
JP4053764B2 (ja) 2001-11-22 2008-02-27 コニカミノルタオプト株式会社 被写体抽出装置及び撮影装置
JP2003259296A (ja) 2002-03-05 2003-09-12 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
US6895181B2 (en) * 2002-08-27 2005-05-17 Olympus Corporation Camera and distance measuring method thereof
EP1422668B1 (en) * 2002-11-25 2017-07-26 Panasonic Intellectual Property Management Co., Ltd. Short film generation/reproduction apparatus and method thereof
CN100478979C (zh) * 2002-11-26 2009-04-15 中国科学院计算技术研究所 利用身材信息辅助人脸信息的身份识别方法
CN1282943C (zh) * 2002-12-30 2006-11-01 佳能株式会社 图像处理方法及装置
US20040151376A1 (en) * 2003-02-05 2004-08-05 Konica Minolta Holdings, Inc. Image processing method, image processing apparatus and image processing program
US20040207743A1 (en) * 2003-04-15 2004-10-21 Nikon Corporation Digital camera system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8031228B2 (en) 2006-02-22 2011-10-04 Sanyo Electric Co., Ltd. Electronic camera and method which adjust the size or position of a feature search area of an imaging surface in response to panning or tilting of the imaging surface
US7847855B2 (en) 2006-12-27 2010-12-07 Fujifilm Corporation Image capturing apparatus and focusing method with focus evaluation
EP1953679A2 (en) 2007-02-05 2008-08-06 Ricoh Company, Ltd. Imaging apparatus and photographic subject detection method thereof
JP2008197153A (ja) * 2007-02-08 2008-08-28 Canon Inc 焦点調節装置、撮像装置及び、焦点調節方法
US8208803B2 (en) 2007-02-08 2012-06-26 Canon Kabushiki Kaisha Focus adjusting device, image pickup apparatus, and focus adjustment method
JP2009014850A (ja) * 2007-07-02 2009-01-22 Fujifilm Corp 撮影装置
US8144944B2 (en) 2007-08-14 2012-03-27 Olympus Corporation Image sharing system and method
KR101417818B1 (ko) 2008-05-19 2014-07-09 삼성전자주식회사 디지털 영상 처리기에서 장면 인식 장치 및 방법
JP2010056884A (ja) * 2008-08-28 2010-03-11 Nikon Corp 画像処理装置および電子カメラ並びに画像振り分けプログラム
JP2011077694A (ja) * 2009-09-29 2011-04-14 Aiphone Co Ltd インターホン装置

Also Published As

Publication number Publication date
CN101286198B (zh) 2010-09-29
CN101286198A (zh) 2008-10-15
US7734098B2 (en) 2010-06-08
KR100777496B1 (ko) 2007-11-20
KR20050077274A (ko) 2005-08-01
CN100395769C (zh) 2008-06-18
CN1648934A (zh) 2005-08-03
US20050179780A1 (en) 2005-08-18

Similar Documents

Publication Publication Date Title
JP2005215750A (ja) 顔検知装置および顔検知方法
JP7145208B2 (ja) デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体
TWI425828B (zh) 攝影裝置、圖像區域之判定方法以及電腦可讀取之記錄媒體
US7978253B2 (en) Image pickup device using blur processing and control method thereof
JP5036599B2 (ja) 撮像装置
JP4834725B2 (ja) 赤目補正において虹彩色を組み込む方法及び装置
JP2008271241A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
KR20130018330A (ko) 촬상 장치, 화상 처리 방법 및 프로그램을 기록하기 위한 기록 매체
JP2010093422A (ja) 撮像装置
US9900523B2 (en) Image processing apparatus which performs image processing on photographic subject
WO2018228466A1 (zh) 对焦区域显示方法、装置及终端设备
CN102542251B (zh) 被摄体检测装置以及被摄体检测方法
JP2015012482A (ja) 画像処理装置及び画像処理方法
JP4866317B2 (ja) 撮像装置及び撮像装置の制御方法
JP2007329620A (ja) 撮影装置と映像信号処理プログラム
CN108289170B (zh) 能够检测计量区域的拍照装置、方法及计算机可读介质
JP5691617B2 (ja) 被写体特定装置、および被写体追尾装置
JP2009081636A (ja) 画像記録装置及び撮影方法
JP4760496B2 (ja) 画像データ生成装置、画像データ生成方法
JP2009152725A (ja) 自動追跡装置及び方法
JP5029765B2 (ja) 画像データ生成装置、画像データ生成方法
JP6223502B2 (ja) 画像処理装置、画像処理方法、プログラム、それを記憶した記憶媒体
JP2006287517A (ja) カメラ装置、撮影方法並びに撮影プログラム
JP2010226485A (ja) 画像加工装置およびデジタルカメラ
JP2010050874A (ja) 画像処理装置、画像処理方法及びデジタルスチルカメラ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081225

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20081225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090325

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090602