JP4906034B2 - 撮影装置および方法並びにプログラム - Google Patents

撮影装置および方法並びにプログラム Download PDF

Info

Publication number
JP4906034B2
JP4906034B2 JP2005142689A JP2005142689A JP4906034B2 JP 4906034 B2 JP4906034 B2 JP 4906034B2 JP 2005142689 A JP2005142689 A JP 2005142689A JP 2005142689 A JP2005142689 A JP 2005142689A JP 4906034 B2 JP4906034 B2 JP 4906034B2
Authority
JP
Japan
Prior art keywords
face
image
area
exposure amount
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005142689A
Other languages
English (en)
Other versions
JP2006319870A (ja
Inventor
祐和 亀山
渡 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2005142689A priority Critical patent/JP4906034B2/ja
Priority to US11/434,171 priority patent/US7565073B2/en
Publication of JP2006319870A publication Critical patent/JP2006319870A/ja
Application granted granted Critical
Publication of JP4906034B2 publication Critical patent/JP4906034B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、被写体を撮影して被写体の画像を取得する撮影装置および方法、並びに撮影プログラムに関するものである。
写真画像に含まれる人間の顔を理想的な色で再現するために、その写真画像から顔を抽出し、顔のコントラストを補正する画像処理が行われている。
例えば、画像の各画素の画素値をYUV色空間の画素値に変換し、YUV色空間において予め定められた肌色を表す肌色空間に含まれる画素値を有する画素を肌色の画素と見なすことにより画像から肌色領域を検出し、さらに輝度平均値等の肌色領域の特徴量を用いて顔領域を決定し、顔領域における肌色情報に基づいて、露光の状況を判定して階調を補正する手法が提案されている(特許文献1参照)。
一方、デジタルカメラにおいては、撮影により取得した画像に対して、デジタルカメラ内部において階調処理、色補正処理、濃度補正処理、およびAWB処理等の画像処理を施して、所望とする画質を有する画像を得るようにしている。また、撮影時にはAE処理を行って適切な露出量により撮影を行うようにしている。ここで、AE処理を行う場合には、例えば、レリーズボタンを押下する前に取得される入力スルー画像を複数の領域に分割し、分割により得られた複数の領域の重みづけ平均輝度を被写体の輝度としたり、画像の中央部を重点的に測光したり、フォーカス点の輝度を被写体輝度とする等により被写体の輝度を測定し、その測定結果に基づいて露出量を決定し、決定した露出量により撮影を行うようにしている。
ここで、上記特許文献1に記載されたような顔領域を検出する手法をデジタルカメラのAE処理に適用し、レリーズボタンを押下する前に取得される入力スルー画像から顔領域を検出し、検出した顔領域に基づいて露出量を決定し、決定した露出量により撮影を行うようにすれば、撮影しようとする画像に含まれる顔領域に応じて、適切に露出を制御することができる。
特開2000−188768号公報
しかしながら、特許文献1における顔領域の検出の手法においては、例えば肌色領域に影がかかっていたり、背景領域が肌色に近似していたりすると、肌色領域と背景領域の境界が検出できないため、肌色領域を正確に検出できなかった。例えば、肌色領域に影がかかっている場合、影のかかっていない部分のみを肌色領域として検出してしまうため、影のかかっていない部分にのみ基づいて階調を補正することとなり、その結果、補正された画像のコントラストが強くなりすぎる傾向があった。したがって、上記特許文献1の手法をデジタルカメラに適用した場合、適切に露出量を決定できないという問題がある。
本発明は上記事情に鑑みなされたものであり、肌色領域に基づいた、より精度の高い露出量の決定を可能にすることを目的とする。
本発明による撮影装置は、人間の顔が表された複数の画像に対して所定の統計処理を行うことによって得られた、少なくとも人間の顔の輪郭形状を表す統計的特徴量を含む1以上の統計的特徴量によって前記顔を表現するモデルに、入力スルー画像中の顔候補領域を適応させることによって、該入力スルー画像中の顔領域を検出する顔検出手段と、
前記検出された顔領域に基づいて静止画像撮像時の露出量を決定する露出量決定手段と、
前記決定された露出量により前記静止画像の撮像を行う撮像手段とを備えたことを特徴とするものである。
本発明による撮影方法は、人間の顔が表された複数の画像に対して所定の統計処理を行うことによって得られた、少なくとも人間の顔の輪郭形状を表す統計的特徴量を含む1以上の統計的特徴量によって前記顔を表現するモデルに、入力スルー画像中の顔候補領域を適応させることによって、該入力スルー画像中の顔領域を検出し、
前記検出された顔領域に基づいて静止画像撮像時の露出量を決定し、
前記決定された露出量により前記静止画像の撮像を行うことを特徴とするものである。
本発明による撮影プログラムは、コンピュータに上記の撮影方法を実行させる(上記各手段として機能させる)ものである。
次に、本発明による撮影装置、方法、およびプログラムの詳細について説明する。
本発明による「顔を表現するモデル」の具体的実現手法としては、AAM(Active Appearance Models)の手法を利用することが考えられる。AAMは、モデルに基づいて画像の内容の解釈を試みるアプローチの1つであり、例えば、顔を解釈の対象とする場合、学習対象となる複数の画像中の顔部分の形状や、形状を正規化した後の輝度の情報に対して主成分分析を行うことによって顔の数学モデルを生成し、新たな入力スルー画像中の顔部分を、数学モデルにおける各主成分と各主成分に対する重みづけパラメータで表現し、顔画像を再構成する手法である(T.F.クーツ(Cootes), G.J.エドワーズ(Edwards), C.J.テイラー(Taylor)、「動的見えモデル(Active Appearance Models)」、第5回計算機視覚欧州会議報(In Proc. 5th European Conference on Computer Vision)、ドイツ、シュプリンガー(Springer)、1998年、vol.2、p.p.484-498;以下、参考文献1とする)。
「複数の画像」は、実際に人間の顔を撮影することにより取得された画像であってもよく、シミュレーションにより生成された画像であってもよい。
「所定の統計処理」としては、顔領域を、顔領域を表す画素の数よりも少ない次元数の統計的特徴量に圧縮して表すことができる次元圧縮処理が好ましい。具体例としては主成分分析等の多変量解析手法が考えられる。また、「所定の統計処理」として主成分分析を行った場合、「統計的特徴量」とは、主成分分析によって得られる複数の主成分を意味する。
「統計的特徴量」には、少なくとも顔の輪郭形状の情報が表現されている必要がある。顔領域を高精度に検出するためである。
また、「顔の輪郭形状を表す統計的特徴量」は、1つの統計的特徴量であってもよいし、複数の統計的特徴量であってもよい。
「入力スルー画像」とは、静止画像を撮像する指示がなされる前に撮像手段により撮像されている画像である。具体的には、デジタルカメラにおいてレリーズボタンを押下する前には、デジタルカメラのモニタに動画像のように画像が表示されるが、その動画像を構成する1つのフレームが入力スルー画像に対応するものとなる。
「入力スルー画像中の顔候補領域」は、自動的に検出するようにしてもよいし、手動で検出するようにしてもよい。また、本発明は、入力スルー画像中の前記顔候補領域を検出する処理(手段)をさらに有していてもよいし、入力スルー画像から前記顔候補領域の部分を予め検出しておいてもよい。
「顔領域に基づいて静止画像撮像時の露出量を決定する」とは、顔領域が適切な輝度を有する画像が得られるように露出量を決定することであり、具体的には、顔領域を重点的に測光する、あるいは顔領域のみを測光する等により顔領域の輝度を測定し、その測定結果に基づいて露出量を決定するようにすればよい。
また、本発明におけるモデルを人間の顔の属性毎に複数準備しておき、入力スルー画像中の顔候補領域の属性を表す情報を取得し、取得された属性に応じてモデルを選択する処理(手段)を付加し、選択されたモデルに入力スルー画像中の顔候補領域を適応させることによって、顔領域を検出するようにしてもよい。
ここで、「属性」とは、例えば、性別や年齢、人種等が考えられる。また、個人を特定する情報であってもよい。この場合には、属性毎のモデルは個人毎のモデルを意味する。
この「属性」の具体的取得方法としては、画像に対する公知の認識処理(例えば、特開平11−175724号公報記載)や、GPS情報等の画像の付帯情報からの推定・取得が考えられる。
「顔を表現するモデルに、入力スルー画像中の顔候補領域を適応させる」とは、入力スルー画像中の顔候補領域をモデルによって表現するための演算処理等を意味する。具体的には、上記のAAMの手法を用いた場合を例にすると、数学モデルにおける各主成分に対する重みづけパラメータの値を求めることを意味する。
本発明の撮影方法および装置並びにプログラムによれば、人間の顔の輪郭形状を表す統計的特徴量に着目し、人間の顔の輪郭形状を表す統計的特徴量を含む1以上の統計的特徴量によって顔を表現するモデルに、入力スルー画像中の顔候補領域を適応させることによって、入力スルー画像中の顔領域を検出し、検出した顔領域に基づいて静止画像撮像時の露出量を決定し、決定された露出量により静止画像の撮像を行うようにしたものである。
このため、顔候補領域に影がかかっていたり、背景領域が肌色に近似していても、入力スルー画像から正確に顔領域を検出することができる。したがって、顔以外の背景領域の影響が少ない、入力スルー画像中の顔領域内の輝度を高精度に反映した露出量の決定が可能になり、より色再現性の高い静止画像を撮影できるようになる。
また、入力スルー画像中の顔候補領域を検出する処理(手段)を付加した場合には、顔候補領域の自動検出が可能になり、操作性が向上する。
また、本発明におけるモデルを顔の属性毎に複数備えるとともに、入力スルー画像中の顔候補領域の属性を取得し、取得された属性に応じたモデルを選択する処理(手段)を付加し、選択されたモデルに入力スルー画像中の顔候補領域を適応させることによって顔領域を検出するようにした場合、入力スルー画像中の顔領域を、より適切なモデルに適応させることが可能になるため、処理精度が向上し、より高品質の画像が得られる。
以下、図面を参照しつつ、本発明の実施の形態について説明する。
図1は、本発明の実施形態となるデジタルカメラの構成を模式的に表したものである。図に示すように、このデジタルカメラは、レンズ、絞り、シャッター、CCD等からなり、被写体の撮像を行う撮像部71、撮像部71のCCDに蓄積された電荷によるアナログ信号をデジタル化して、デジタル画像データP0を得るA/D変換部72、画像データP0等に対して各種画像処理を行う画像処理部73、メモリカードに記録する画像データの圧縮処理やメモリカードから読み込んだ圧縮形式の画像データに対する伸長処理を行う圧縮/伸長部74、ストロボ等からなり、ストロボ発光を行うストロボ部75、各種操作ボタン等からなり、撮影条件や画像処理条件等の設定を行う操作部76、画像データが記録されるメモリカードとのインターフェースとなるメディア記録部77、液晶ディスプレイ等からなり、スルー画像や撮影された画像、各種設定メニュー等を表示する表示部78、前記各部による処理の制御を行う制御部70、制御プログラムや画像データ等を記憶する内部メモリ79、およびAE処理を行うAE処理部80を有している。
制御部70は内部メモリ79に記憶された制御プログラムの実行により、デジタルカメラの各部と連携して、画像の撮影、入力、補正、加工、出力のフローを制御したり、画像の補正や加工のための画像処理の演算を行ったりするものである。本発明による露出量決定処理は、制御部70の制御によりAE処理部80で行われる。
次に、このデジタルカメラの操作と処理の流れについて説明する。
まず、撮影者によるデジタルカメラのスイッチオンの操作によって、撮像部71がレンズに入射した被写体光をCCDの光電面に結像させ、光電変換の後、アナログ画像信号を出力し、A/D変換部72が、出力されたアナログ画像信号をデジタル画像信号に変換し、デジタルスルー画像データPsとして表示部78に表示する。なお、デジタルスルー画像データPsは、CCDを構成するすべての素子が出力した信号を適宜間引きつつ、所定のフレームレートにより連続して撮像を行うことにより生成されるものであり、デジタルスルー画像データPsの画像(以下、画像データとその画像データによる画像を同じ符号で表す)を表示部78に連続して表示することにより、動画像のように被写体が再生されることとなる。
次にAE処理部80が、撮像時における露出量を決定する処理を行う。ここで、露出量決定処理は、制御部70が、内部メモリ79に記憶されている露出量決定用の制御プログラムを起動し、内部メモリ79に予め記憶されている数学モデルMを用いた後述する露出量決定処理をAE処理部80に行わせることによって実現される。
その後、撮影者によるシャッターの全押し操作によって、決定された露出量により撮像部71において撮像が行われる。すなわち、撮像部71がレンズに入射した被写体光をCCDの光電面に結像させ、光電変換の後、アナログ画像信号を出力し、A/D変換部72が、出力されたアナログ画像信号をデジタル画像信号に変換し、デジタル画像データP0として出力する。
次に、画像処理部73において、制御部70で実行される画像処理プログラムにより、予めデジタルカメラに設定されているセットアップ条件に基づいて、公知の階調補正処理、色補正処理、濃度補正処理、ホワイトバランス調整処理、シャープネス補正、ノイズ軽減・除去等の処理が行われ、処理済みの画像データP1が出力される。
ここで、画像P1が表示部78により液晶ディスプレイに表示される。図2(a)は、ディスプレイ55に表示される画面の一例である。撮影者は、表示されたサムネイル画像を確認し、画質の手動補正が必要なものや、画像の加工の注文があるものを、操作部76の操作ボタンの操作によって選択すると(図2(a)では左上の画像DSCF0001を選択)、図2(b)に一例を示すように、選択されたサムネイル画像が拡大されて表示部78に表示されるとともに、その画像に対する手動補正や加工の処理内容を選択するボタンが表示される。撮影者は、表示されたボタンの中から所望のものを操作部76の操作によって選択し、必要に応じて、選択された処理内容のさらに詳細な設定等を行う。画像処理部73は、選択された処理内容に応じた画像処理を行い、処理済みの画像データP2を出力する。
なお、表示部78への画面表示、操作部76による入力の受付、手動補正や加工の画像処理等は、制御部70で実行されている制御プログラムによって制御される。
そして、圧縮/伸長部74が画像データP2をJPEG等の圧縮形式に基づく圧縮処理を行い、メディア記録部77経由でこのデジタルカメラに装填されたメモリカードに圧縮後の画像データを書き込む。
なお、手動補正や加工処理は、メモリカードに一旦記録された画像に対しても行えるようにしてもよい。具体的には、メモリカードに記憶されている画像データを圧縮/伸長部74が伸長した後、伸長済みの画像データによる画像を表示部78の液晶ディスプレイに表示し、撮影者が、前記と同様の操作によって所望の画像処理を選択し、画像処理部73が、選択された画像処理を行う。
ここで、AE処理部80によって行われる本発明による露出量決定処理の詳細について以下に説明する。図3は、この露出量決定処理の詳細を表すブロック図である。図に示したように、スルー画像Ps中の顔候補領域F0を検出する顔候補検出部31と、人間の顔が表された複数のサンプル画像に基づいてAAM(前記の参考文献1参照)の手法によって生成された数学モデルMに、検出された顔候補領域F0を適応させることによって、スルー画像Psにおける顔領域F1を検出する顔検出部32と、検出された顔領域F1に基づいて露出量E0を決定する露出量決定部33とによって、露出量決定処理が実現される。なお、これらの処理は内部メモリ79に記憶された制御プログラムによって行われる。
この数学モデルMは、図4のフローチャートに基づいて生成されたものであり、上記のプログラムとともに予め内部メモリ79に記憶されている。以下では、この数学モデルMの生成過程について説明する。
まず、人間の顔が表された複数の顔画像(サンプル画像)の各々に対して、図5に示すように、顔形状を表す特徴点を設定する(ステップ#1)。顔形状とは顔の輪郭形状および顔を構成する目、鼻および口等の部品の形状を含む。ここでは、特徴点の数は122箇所とする(ただし、図5では簡潔に表現するため60箇所しか表していない)。各特徴点は、例えば、1番目の特徴点は左目の左端、38番目の特徴点は眉の間の中央というように、顔のどの部位を示すものであるかが予め定められている。また、各特徴点は、手作業によって設定してもよいし、認識処理によって自動的に設定するようにしてもよいし、自動的に設定後、必要に応じて手作業で修正するようにしてもよい。
次に、各サンプル画像中に設定された特徴点に基づいて、顔の平均形状を算出する(ステップ#2)。具体的には、各サンプル画像における、同じ部位を示す特徴点毎の位置座標の平均を求める。
さらに、各サンプル画像における顔形状を表す特徴点とその平均形状の位置座標に基づいて主成分分析を行う(ステップ#3)。その結果、任意の顔形状は次式(1)によって近似することができる。
Figure 0004906034
ここで、Sは顔形状の各特徴点の位置座標を並べて表現される形状ベクトル(x1,y1,・・・,x122,y122)であり、S0は平均顔形状における各特徴点の位置座標を並べて表現される平均顔形状ベクトル、piは主成分分析によって得られた顔形状についての第i主成分を表す固有ベクトル、biは各固有ベクトルpiに対する重みづけ係数を表す。図6は、主成分分析によって得られた上位2つの主成分の固有ベクトルp1、p2に対する重みづけ係数b1、b2の値を変化させた場合の顔形状の変化の様子を模式的に表したものである。変化の幅は、サンプル画像の各々の顔形状を上式(1)で表した場合における重みづけ係数b1、b2の値の標準偏差sdに基づいて、−3sdから+3sdまでの間であり、各主成分についての3つの顔形状の真ん中のものは平均値の場合である。この例では、主成分分析の結果、第1主成分としては顔の輪郭形状に寄与する成分が抽出されており、重みづけ係数b1を変化させることによって、細長い顔(−3sd)から丸顔(+3sd)まで顔形状が変化することがわかる。同様に、第2主成分としては口の開閉状態と顎の長さに寄与する成分が抽出されており、重みづけ係数b2を変化させることによって、口が開いた状態で顎の長い顔(−3sd)から口が閉じられた状態で顎が短い顔(+3sd)まで顔の形状が変化することがわかる。なお、iの値が小さいほど、形状に対する説明力が高い、すなわち、顔形状への寄与が大きいことを意味する。
次に、各サンプル画像をステップ#2で得られた平均顔形状に変換(ワーピング)する(ステップ#4)。具体的には、各特徴点について、各サンプル画像と平均顔形状との間でのシフト量を算出し、そのシフト量に基づいて、式(2)から(5)の2次元5次多項式により各サンプル画像の画素毎の平均顔形状へのシフト量を算出し、各サンプル画像を画素毎に平均顔形状へワーピングする。
Figure 0004906034
ここで、x,yは各サンプル画像中の各特徴点の座標、x′,y′はワーピングされる平均顔形状上の座標、Δx,Δyは平均形状へのシフト量、nは次数、aij,bijは係数である。なお、多項式近似の係数は最小自乗法を用いて求める。このとき、ワーピング後の座標が整数ではなく小数点以下を含む位置に移動する画素については、4近傍から1次近似で画素値を求める。つまり、ワーピング後の座標を囲む4つの画素に対して、ワーピング後の座標から各画素の座標までの距離に比例して画素値をそれぞれ分配するようにする。図7は、3つのサンプル画像について、各々の画像中の顔形状を平均顔形状に変換した状態を表したものである。
さらに、平均顔形状に変換後のサンプル画像毎の各画素のR,G,B三原色の画素値を変数として主成分分析を行う(ステップ#5)。その結果、任意の顔画像の平均顔形状下でのR,G,B三原色の画素値は次式(6)によって近似することができる。
Figure 0004906034
ここで、Aは平均顔形状下での各画素のR,G,B三原色の各々の画素値を並べて表現されるベクトル(r1, g1, b1, r2, g2, b2,・・・,rm, gm, bm)(r、g、bは各々R,G,Bの三原色の画素値、1からmは各画素を識別する添え字、mは平均顔形状での総画素数)であるが、ベクトルの成分の並び順は上記の順に限定されず、例えば、(r1,r2,・・・,rm,g1,g2,・・・,gm,b1,b2,・・・,bm)のような順であってもよい。また、A0は平均顔形状における各サンプル画像の画素毎のR,G,B三原色の各々の画素値の平均値を並べて表現される平均ベクトル、qiは主成分分析によって得られた顔のR,G,B三原色の画素値についての第i主成分を表す固有ベクトル、λiは各固有ベクトルqiに対する重みづけ係数を表す。なお、主成分の順位iの値が小さいほど、R,G,B三原色の画素値に対する説明力が高い、すなわち、R,G,B三原色の画素値への寄与が大きいことを意味する。
図8は、主成分分析によって得られた主成分のうち第i1、第i2の主成分を表す固有ベクトルqi1、qi2に対する重みづけ係数λi1、λi2の値を変化させた場合の顔の画素値の変化の様子を模式的に表したものである。変化の幅は、サンプル画像の各々の顔の画素値を上式(6)で表した場合における重みづけ係数λi1、λi2の値の標準偏差sdに基づいて、−3sdから+3sdまでの間であり、各主成分についての3つの顔画像の中央のものは平均値の場合である。この例では、主成分分析の結果、第i1主成分としてはヒゲの有無に寄与する成分が抽出されており、重みづけ係数λi1を変化させることによって、ヒゲの濃い顔(−3sd)からヒゲのない顔(+3sd)まで変化することがわかる。同様に、第i2主成分としては顔にかかる影の状態に寄与する成分が抽出されており、重みづけ係数λi2を変化させることによって、顔の右側に影がかかった顔(−3sd)から左側に影がかかった顔(+3sd)まで変化することがわかる。なお、各主成分がどのような要素に寄与しているかは人間の解釈によって決定される。
本実施形態では、サンプル画像として、人間の顔が表された複数の顔画像を用いているので、顔の輪郭形状の相違に寄与する成分が第1主成分として抽出されるものとすると、第1主成分の固有ベクトルq1に対する重みづけ係数λ1の値を変化させた場合、例えば、画像P1中の顔候補領域F0の輪郭形状が、細長い顔から丸顔まで顔形状が変化する。なお、顔の輪郭形状の相違に寄与する主成分が必ずしも第1主成分として抽出されている必要はない。顔の輪郭形状の相違に寄与する成分が第K主成分(K≠1)として抽出されている場合には、以下の説明の「第1」を「第K」に置き換えて考えることができる。また、顔の輪郭形状の相違が1つの主成分のみによって表現される必要はなく、複数の主成分が顔の輪郭形状の相違を説明することもありうる。
以上のステップ#1から#5までの処理によって、顔の数学モデルMが生成される。すなわち、この数学モデルMは、顔形状を表す複数の固有ベクトルpiと、平均顔形状下での顔の画素値を表す固有ベクトルqiによって表現されるものであり、各固有ベクトルの合計数が、顔画像を形成する画素数よりも大幅に少ない、次元圧縮されたものとなっている。なお、上記参考文献1記載の実施例では、約10,000画素により形成される顔画像に対して122の特徴点を設定して上記の処理を行うことによって、顔形状についての23の固有ベクトルと顔の画素値についての114の固有ベクトルで表される顔画像の数学モデルが生成され、各固有ベクトルに対する重みづけ係数を変化させることによって、約98%の顔形状や画素値のバリエーションを表現できることが示されている。
次に、この数学モデルMを利用したAAMの手法に基づく露出量決定処理の流れについて、図3を参照しながら説明する。
まず、顔候補検出部31が、スルー画像データPsを読み込み、スルー画像Ps中の顔候補領域F0を検出する。具体的には、特表2004−527863号公報(参考文献2)に記載されているような固有顔表現と画像自体との相関スコアを用いる方法の他、知識ベース、特徴抽出、肌色検出,テンプレートマッチング、グラフマッチング、統計的手法(ニューラルネットワーク、SVM、HMM)等の様々な公知の手法を用いることができる。なお、スルー画像Psが表示部78に表示された際に、操作部76の操作により、手作業で顔候補領域F0を指定するようにしてもよいし、自動検出の結果を手作業で修正するようにしてもよい。
次に、顔検出部32は、顔候補領域F0を数学モデルMに適応させる処理を行う。具体的には、上記式(1),(6)の上位の主成分の固有ベクトルpi、qiに対する重みづけ係数bi、λiから順に係数の値を変化させながら、上記式(1),(6)に基づいて画像を再構成し、再構成された画像と顔候補領域F0との差異が最小となるときの重みづけ係数bi、λiを求める(詳細は、参考文献2参照)。このときの重みづけ係数λiのうち顔の輪郭形状を表す重みづけ係数λiがパラメータである。そして、重みづけ係数λ1に基づいて顔候補領域F0上における顔の輪郭形状を設定し、顔の輪郭形状により囲まれる領域を顔領域F1として検出する。
なお、重みづけ係数bi、λiの値は、モデル生成時のサンプル画像を上記(1),(6)で表したときのbi、λiの分布の標準偏差sdに基づき、例えば−3sdから+3sdまでの範囲の値のみを許容し、その範囲を超える場合には、上記の分布における平均値を設定するようにすることが好ましい。これにより、モデルの誤適応を回避することができる。
また、上記の説明では、顔の輪郭形状を表す主成分が1つだけであることを前提としたが、複数ある場合には、それら複数の主成分に対する重みづけ係数(例えば、λ1,λ2,・・・,λJ)の値の組合せに基づいて顔の輪郭形状を決定すればよい。すなわち、パラメータ(Cとする)を次式(7)のように、各重みづけ係数の線形結合として求めるようにしてもよい(αiは、重みづけ係数λiに対応する主成分の顔の輪郭形状に対する寄与度を表す係数)。
Figure 0004906034
露出量決定部33は、顔検出部32が検出した顔領域F1に基づいて、撮像時の露出量を決定する。具体的には顔領域F1を重点的に測光する、あるいは顔領域F1のみを測光する等して顔領域F1の輝度を測定し、その測定結果に基づいて露出量E0を決定する。
以上のように、本発明の実施形態となる露出量決定処理は、顔候補検出部31が検出したスルー画像Ps中の顔候補領域F0を、人間の顔が表された複数のサンプル画像に基づいてAAMの手法によって生成された数学モデルMに適応させることによって、スルー画像Ps中の顔領域F1を検出し、露出量決定部33が、顔領域F1に基づいて露出量E0を決定するようにしたものである。このため、顔候補領域F0に影がかかっていたり、背景領域が肌色に近似していても、スルー画像Psから正確に顔領域F1を検出することができる。したがって、顔以外の背景領域の影響が少ない、スルー画像Ps中の顔領域F1内の輝度を高精度に反映した露出量の決定が可能になり、より色再現性の高い画像を撮影することができる。
なお、上記の実施形態では、数学モデルMが1つだけ存在するようにしていたが、人種別、年齢別、性別等の属性別に複数の数学モデルMi(i=1,2,・・・)を生成しておいてもよい。図9は、この場合の露出量決定処理の詳細を表すブロック図である。図に示したように、スルー画像Psに基づいて、画像中の被写体の属性情報AKを取得する属性取得部34と、取得した属性情報AKに基づいて、その属性を有する被写体を表すサンプル画像のみから生成された数学モデルMKを選択するモデル選択部35とを有している点で、上記の実施形態(図3)とは異なる。
ここで、複数の数学モデルMiは、例えば、同じ人種、年代、性別等を有する被写体を表すサンプル画像のみから前述の方法(図4参照)に基づいて各々生成されたものであり、サンプル画像における共通の属性を表す属性情報Aiと関連づけられて記憶されている。
属性取得部34は、スルー画像Psに対する公知の認識処理(例えば、特開平11−175724号公報記載)を行うことによって、被写体の属性を判定し、属性情報AKを取得してもよいし、撮影時に被写体の属性を操作部76から入力することにより取得するようにしてもよい。また、撮影場所のGPS情報があれば、そのGPS情報に対応する国や地域を特定することができるので、撮影する被写体の人種をある程度推定することができることに着目し、GPS情報と人種情報を関連づける参照テーブルを予め用意しておき、デジタルカメラにGPS機能を搭載し、撮影時にGPS情報を取得し、取得したGPS情報に基づいて前記の参照テーブルを参照し、そのGPS情報に関連づけられた人種情報を被写体の人種として推定することが考えられる。
モデル選択部35は、属性取得部34によって得られた属性情報AKと関連づけられた数学モデルMKを取得し、顔検出部32は、顔候補領域F0を数学モデルMKに適応させる。
このように、複数の属性に応じた数学モデルMiを予め用意しておき、モデル選択部35が、属性取得部34で取得した属性AKと関連づけられた数学モデルMKを選択し、顔検出部32が、選択された数学モデルMKに顔候補領域F0を適応させるようにした場合には、数学モデルMKには属性AKの違いに起因する顔形状や輝度のバリエーションを説明する固有ベクトルは存在しないので、顔の輪郭形状を決定する他の要因を表す固有ベクトルにのみ基づいて顔領域F1を検出することが可能になる。したがって、スルー画像Ps中の顔領域F1内の輝度をより高精度に反映した露出量の決定が可能になり、より色再現性の高い画像を撮影することができる。
なお、処理精度の向上の観点からは、属性別の数学モデルをさらに特化させ、被写体の個人別の数学モデルを構築しておくことが好ましい。この場合には、スルー画像Psと個人を特定する情報とを関連づけておく必要がある。
ここで、個々のデジタルカメラによる撮影の被写体となる人物はある程度限定されることが多いことから、そのデジタルカメラで主に被写体となる人物の顔についての個人別の数学モデルを生成するようにすれば、顔の個人差による変動のないモデルを生成できるため、その人物の顔に対する露出量決定処理をきわめて高い精度で行うことが可能になる。
また、上記の実施形態では、数学モデルは予め内部メモリ79に記憶されているものとしているが、人種別の数学モデルを予め準備しておき、そのデジタルカメラの出荷先の国や地域によって、記憶する数学モデルを変えることも処理精度の向上の観点からは好ましい。
また、上記の実施形態では、顔形状とR,G,B三原色の画素値についての別個の重みづけ係数bi、λiによって、個別の顔画像を表現していたが、顔形状とR,G,B三原色の画素値のバリエーションには相関性があることから、重みづけ係数bi、λiを結合して得られるベクトル(b1,b2,・・・,bi,・・・,λ1,λ2,・・・,λi,・・・)に対してさらに主成分分析を行うことにより、次式(8),(9)に示したように、顔形状とR,G,B三原色の画素値の両方を制御する新しいアピアランスパラメータcを得ることができる。
Figure 0004906034
ここで、アピアランスパラメータcとベクトルQSによって平均顔形状からの形状の変動分が表現され、アピアランスパラメータcとベクトルQAによって顔の画素値の平均からの画素値の変動分要素が表現される。
このモデルを用いた場合には、顔検出部32は、アピアランスパラメータcの値を変化させながら、上記式(9)に基づいて平均顔形状下での顔の画素値を求め、さらに、上記式(8)に基づいて平均顔形状からの変換を行うことによって、顔画像を再構成し、再構成された画像と顔領域F1との差異が最小となるときのアピアランスパラメータcを求めることになる。
本発明の実施形態となるデジタルカメラの構成を模式的に示した図 本発明の実施形態となるデジタルカメラの表示部に表示される画面の一例を示す図 本発明の一態様となる露出量決定処理の詳細を表すブロック図 本発明における顔の数学モデルを生成する処理の流れを表すフローチャート 顔の特徴点の設定例を表す図 顔形状に対する主成分分析によって得られた主成分の固有ベクトルに対する重みづけ係数の値を変化させた場合の顔形状の変化の様子を模式的に表した図 サンプル画像中の顔形状を平均顔形状に変換し、平均顔形状下での輝度の様子を表した図 顔の画素値に対する主成分分析によって得られた主成分の固有ベクトルに対する重みづけ係数の値を変化させた場合の顔の画素値の変化の様子を模式的に表した図 本発明の一態様となる露出量決定処理の発展的態様を表すブロック図
符号の説明
31 顔候補検出部
32 顔検出部
33 露出量決定部
34 属性取得部
35 モデル選択部
70 制御部
71 撮像部
72 A/D変換部
73 画像処理部
74 圧縮/伸長部
75 ストロボ部
76 操作部
77 メディア記録部
78 表示部
79 内部メモリ
80 AE処理部

Claims (4)

  1. 入力スルー画像中の顔候補領域の人種、年齢および/または性別を取得し、人間の顔が表された複数の画像に対して所定の統計処理を行うことによって得られた、少なくとも人間の顔の輪郭形状を表す統計的特徴量を含む1以上の統計的特徴量によって前記顔を表現するモデルであって、人種、年齢および/または性別毎に顔が表現された複数のモデルから、前記取得された人種、年齢および/または性別に応じたモデルを選択する選択手段と、
    前記選択されたモデルに前記顔候補領域を適応させることによって、該入力スルー画像中の顔領域を検出する顔検出手段と、
    前記検出された顔領域に基づいて静止画像撮像時の露出量を決定する露出量決定手段と、
    前記決定された露出量により前記静止画像の撮像を行う撮像手段とを備えたことを特徴とする撮影装置。
  2. 前記入力スルー画像から前記顔候補領域を検出する顔候補検出手段をさらに備えたことを特徴とする請求項1項記載の撮影装置。
  3. 入力スルー画像中の顔候補領域の人種、年齢および/または性別を取得し、人間の顔が表された複数の画像に対して所定の統計処理を行うことによって得られた、少なくとも人間の顔の輪郭形状を表す統計的特徴量を含む1以上の統計的特徴量によって前記顔を表現するモデルであって、人種、年齢および/または性別毎に顔が表現された複数のモデルから、前記取得された人種、年齢および/または性別に応じたモデルを選択し、
    前記選択されたモデルに前記顔候補領域を適応させることによって、該入力スルー画像中の顔領域を検出し、
    前記検出された顔領域に基づいて静止画像撮像時の露出量を決定し、
    前記決定された露出量により前記静止画像の撮像を行うことを特徴とする撮影方法。
  4. コンピュータを、
    入力スルー画像中の顔候補領域の人種、年齢および/または性別を取得し、人間の顔が表された複数の画像に対して所定の統計処理を行うことによって得られた、少なくとも人間の顔の輪郭形状を表す統計的特徴量を含む1以上の統計的特徴量によって前記顔を表現するモデルであって、人種、年齢および/または性別毎に顔が表現された複数のモデルから、前記取得された人種、年齢および/または性別に応じたモデルを選択する選択手段と、
    前記選択されたモデルに前記顔候補領域を適応させることによって、該入力スルー画像中の顔領域を検出する顔検出手段と、
    前記検出された顔領域に基づいて静止画像撮像時の露出量を決定する露出量決定手段と、
    前記決定された露出量により前記静止画像の撮像を行う撮像手段として機能させることを特徴とする撮影プログラム。
JP2005142689A 2005-05-16 2005-05-16 撮影装置および方法並びにプログラム Expired - Fee Related JP4906034B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005142689A JP4906034B2 (ja) 2005-05-16 2005-05-16 撮影装置および方法並びにプログラム
US11/434,171 US7565073B2 (en) 2005-05-16 2006-05-16 Photography apparatus, photography method, and photography program for obtaining an image of a subject

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005142689A JP4906034B2 (ja) 2005-05-16 2005-05-16 撮影装置および方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2006319870A JP2006319870A (ja) 2006-11-24
JP4906034B2 true JP4906034B2 (ja) 2012-03-28

Family

ID=37462878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005142689A Expired - Fee Related JP4906034B2 (ja) 2005-05-16 2005-05-16 撮影装置および方法並びにプログラム

Country Status (2)

Country Link
US (1) US7565073B2 (ja)
JP (1) JP4906034B2 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7729563B2 (en) 2002-08-28 2010-06-01 Fujifilm Corporation Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US20110102553A1 (en) * 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
JP2006345319A (ja) * 2005-06-09 2006-12-21 Canon Inc 撮像装置及びその制御方法
CN2804798Y (zh) * 2005-06-21 2006-08-09 吴东明 一种带磁性装置的水平尺
JP2007233247A (ja) * 2006-03-03 2007-09-13 Fujifilm Corp 焦点調節量決定装置、方法、およびプログラム、ならびに撮像装置
US7965875B2 (en) 2006-06-12 2011-06-21 Tessera Technologies Ireland Limited Advances in extending the AAM techniques from grayscale to color images
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
JP2008070611A (ja) * 2006-09-14 2008-03-27 Casio Comput Co Ltd 撮像装置、露出条件調整方法及びプログラム
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
EP2115662B1 (en) 2007-02-28 2010-06-23 Fotonation Vision Limited Separating directional lighting variability in statistical face modelling based on texture space decomposition
KR101247147B1 (ko) 2007-03-05 2013-03-29 디지털옵틱스 코포레이션 유럽 리미티드 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출
EP2153374B1 (en) * 2007-05-24 2014-10-01 FotoNation Limited Image processing method and apparatus
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
JP5282306B2 (ja) * 2007-11-01 2013-09-04 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び撮像装置
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
JP5547730B2 (ja) 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
WO2010136593A2 (en) 2009-05-29 2010-12-02 Tessera Technologies Ireland Limited Methods and apparatuses for foreground, top-of-the-head separation from background
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
CN104394326A (zh) * 2014-11-10 2015-03-04 广东欧珀移动通信有限公司 一种测光方法及终端
CN104469179B (zh) * 2014-12-22 2017-08-04 杭州短趣网络传媒技术有限公司 一种将动态图片结合到手机视频中的方法
JP6817590B1 (ja) * 2020-07-27 2021-01-20 パナソニックIpマネジメント株式会社 撮像装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04257830A (ja) * 1991-02-12 1992-09-14 Nikon Corp カメラの閃光調光制御装置
US6151073A (en) * 1996-03-28 2000-11-21 Fotonation, Inc. Intelligent camera flash system
JP2000188768A (ja) 1998-12-22 2000-07-04 Victor Co Of Japan Ltd 自動階調補正方法
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
JP4483042B2 (ja) * 2000-07-12 2010-06-16 コニカミノルタホールディングス株式会社 影成分除去装置および影成分除去方法
JP4218348B2 (ja) * 2003-01-17 2009-02-04 オムロン株式会社 撮影装置
JP2004320285A (ja) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk デジタルカメラ
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7315630B2 (en) * 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US7821570B2 (en) * 2005-11-30 2010-10-26 Eastman Kodak Company Adjusting digital image exposure and tone scale
JP2007233247A (ja) * 2006-03-03 2007-09-13 Fujifilm Corp 焦点調節量決定装置、方法、およびプログラム、ならびに撮像装置

Also Published As

Publication number Publication date
US7565073B2 (en) 2009-07-21
JP2006319870A (ja) 2006-11-24
US20060268150A1 (en) 2006-11-30

Similar Documents

Publication Publication Date Title
JP4906034B2 (ja) 撮影装置および方法並びにプログラム
JP4519708B2 (ja) 撮影装置および方法並びにプログラム
JP4795718B2 (ja) 画像処理装置および方法並びにプログラム
JP4767718B2 (ja) 画像処理方法および装置ならびにプログラム
JP4799101B2 (ja) 画像処理方法および装置ならびにプログラム
US8107764B2 (en) Image processing apparatus, image processing method, and image processing program
JP2006350498A (ja) 画像処理装置および方法並びにプログラム
JP2007006182A (ja) 画像処理装置および方法並びにプログラム
US7848588B2 (en) Method and apparatus for judging direction of blur and computer-readable recording medium storing a program therefor
JP4752941B2 (ja) 画像合成装置及びプログラム
US9135726B2 (en) Image generation apparatus, image generation method, and recording medium
US8350918B2 (en) Image capturing apparatus and control method therefor
JP2007094549A (ja) 画像処理方法および装置ならびにプログラム
JP2010045613A (ja) 画像識別方法および撮像装置
JP2007233247A (ja) 焦点調節量決定装置、方法、およびプログラム、ならびに撮像装置
JP2010045770A (ja) 画像処理装置及び画像処理方法
US20100188520A1 (en) Imaging device and storage medium storing program
JP2006295303A (ja) 画像処理方法および装置ならびにプログラム
KR101549824B1 (ko) 피부색 보정 방법 및 장치, 이를 이용한 디지털 촬영 장치
JP2007066227A (ja) 画像処理装置および方法並びにプログラム
JP2006350769A (ja) 画像処理装置および方法並びにプログラム
JP5272775B2 (ja) 電子スチルカメラ
JP4632417B2 (ja) 撮像装置、及びその制御方法
US20100220207A1 (en) Image editing apparatus, image capturing apparatus and medium storing image editing program
JP4661957B2 (ja) 画像マッチング装置、およびカメラ

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4906034

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees