JP2005020446A - Device and program for photographing image - Google Patents

Device and program for photographing image Download PDF

Info

Publication number
JP2005020446A
JP2005020446A JP2003183266A JP2003183266A JP2005020446A JP 2005020446 A JP2005020446 A JP 2005020446A JP 2003183266 A JP2003183266 A JP 2003183266A JP 2003183266 A JP2003183266 A JP 2003183266A JP 2005020446 A JP2005020446 A JP 2005020446A
Authority
JP
Japan
Prior art keywords
image
evaluation
images
partial
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003183266A
Other languages
Japanese (ja)
Other versions
JP4449354B2 (en
Inventor
Kenichi Hibino
健一 日比野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003183266A priority Critical patent/JP4449354B2/en
Publication of JP2005020446A publication Critical patent/JP2005020446A/en
Application granted granted Critical
Publication of JP4449354B2 publication Critical patent/JP4449354B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image photographing device that reduces the time and effort of a user to designate an image and selects an image whose object photographing state is satisfactory. <P>SOLUTION: A plurality of the images photographed by operating an operation part 13 are temporarily stored in an image memory part 16. Partial images of the plurality of stored images are extracted from the images by using a template about the object on the memory part 14. A photographed state of each partial image extracted on the basis of the template is calculated as an evaluation point and recorded in the memory part 14. An image evaluation point is calculated from the evaluation point of each partial image and recorded in the memory part 14. The specified number of images is selected on the basis of the evaluation point of each image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明が属する技術分野】
本発明は、画像撮影装置に関し、特に、撮影画像に対する評価を行う機能を備えた画像撮影装置に関する。
【0002】
【従来の技術】
従来技術として、光学的見地から撮影条件や撮影環境を評価し、最適な画像が得られるような設定を選択する画像撮影装置がある。かかる画像撮影装置では、例えば人物写真を撮影するのであれば画面構成を、夜景を撮影するのであればシャッタ速度やホワイトバランスを、風景や自然が対象であれば彩度や色調を、それぞれ自動設定することができる。
【0003】
他の画像撮影装置としては、集合写真を撮影する際に、画像を人単位で記録することができる画像撮影装置がある。この画像撮影装置においては、全ての人物について複数枚ずつ、画像の撮影を行う。全ての人物について撮影が済んだ後、ユーザがそれぞれの人について最適と思われる画像を選択すると、それらを合成して一の画像として作成することができる(例えば、特許文献1参照)。
【0004】
一方、現在開示されている撮影画像に対する技術として、顔の部分に対する認証システムがある(例えば、特許文献2及び3)。これらのシステムにおいては、画像から人の肌・顔・目を認識して抽出すること及び顔の向きを判断することが可能である。
【0005】
【特許文献1】
特開2001−251550号公報(第3頁、第3図)
【特許文献2】
特開2002−049912号公報(第3−4頁、第2−5図、第8−10図)
【特許文献3】
特開2002−288670号公報(第3−4頁、第6図)
【0006】
【発明が解決しようとする課題】
上記のような自動設定を行う画像撮影装置においては、光学的には「良質な」画像を得ることができる。しかし、例えば集合写真のように、人物が複数画像に含まれている場合は、光学的には良好と言えても、必ずしもユーザにとって「良い」画像とは言えない。ユーザにとっては、人物が画像中でどのように写っているのかが、どちらかと言えば、画像の良し悪しを判断する基準となっているためである。
【0007】
特許文献1の画像撮影装置は、ユーザにとっての「良い」画像を合成する手段を備えている。しかし、ユーザが人物ごとの最適と思われる画像を全て指定・選択する必要があり、これはユーザにとっては手間を要する作業である。
本発明は、前述の人物の顔の部分に対する認証システムを利用することにより、ユーザが指定するのに要する労力を軽減させ、人物の撮影状態が良好である画像を画像撮影装置が選択することを実現した画像撮影装置を提供することを目的としている。
【0008】
【課題を解決するための手段】
請求項1によると、連続して複数の画像を撮影する画像撮影装置において、複数の画像を記憶する記憶手段と、前記記憶手段が記憶した複数の画像について、被写体に関するテンプレートを用いて画像から部分画像を抽出する抽出手段と、前記テンプレートに基づいて抽出した部分画像ごとの撮影状態を評価点として算出し、各部分画像についての評価点に基づいて画像の評価値を算出する評価手段と、前記評価手段により得られた画像ごとの評価値に基づいて、特定数の画像を選出する選出手段とを備えることを特徴とする画像撮影装置が提供される。
【0009】
被写体に関するテンプレートに基づいて画像中の部分画像を抽出し、抽出した部分画像に関し、画像中で良い状態で捉えられているか否かを判断する。このため、予め多くの画像を撮影しておき、ユーザが後になって画像を選択することが不要となり、客観的に被写体の写りがよい画像を提供することができる。したがって、ユーザは簡単な操作によって、良質な画像を得ることが可能となる。
【0010】
請求項2によると、請求項1の画像撮影装置において、前記記憶手段は、1回のシャッタボタンの操作で連続的に撮影された複数枚の画像を、一時的に記憶することを特徴とする画像撮影装置が提供される。
1回で連続的に撮影した複数の画像を一時的に記憶させておくことにより、ユーザが撮影の度に画像評価を行う必要がない。
【0011】
請求項3によると、請求項1または2の画像撮影装置において、前記抽出手段は、画像内に撮影されている全ての人物部分を前記部分画像として抽出することを特徴とする画像撮影装置が提供される。
大勢で撮影を行う場合等であっても、ユーザは、1画像を撮影するごとに画像中の一人一人の撮影状態を確認する必要がない。
【0012】
請求項4によると、請求項1または2の画像撮影装置において、前記抽出手段は、画像の中心部に近い位置に撮影されている複数の人物部分を前記画像部分として抽出することを特徴とする画像撮影装置が提供される。
画像の中心に近い位置で撮影されている特定数の人物のみを評価の対象とするため、特定の人物を画像の中心として画像撮影を行う際、評価対象を画像の中心となる人物に絞ることができる。
【0013】
請求項5によると、請求項3または4の画像撮影装置において、前記評価手段は、前記抽出された各人物部分ごとに、評価の重みを設定し、該人物部分に設定された評価の重みを加味して評価することを特徴とする画像撮影装置が提供される。
【0014】
特定の人物を画像の中心として画像撮影を行う際、特定の人物の撮影状態が良好な画像ほど評価値は高くなる。このため、特定の人物の撮影状態が好適な画像を得ることができる。
請求項6によると、請求項1または2の画像撮影装置において、前記抽出手段は、画像の撮影範囲の中心部から所定の範囲内の、人物部分を前記部分画像として抽出することを特徴とする画像撮影装置が提供される。
【0015】
撮影範囲の中心部から所定の範囲内で撮影されている人物のみを評価の対象とするため、評価対象を撮影範囲の中心近くで撮影されている人物に絞ることができる。
請求項7によると、請求項1乃至6のいずれかの画像撮影装置において、前記部分画像は人の顔部であり、前記評価手段は、該顔部の向きを含む条件に基づいて評価点を算出することを特徴とする画像撮影装置が提供される。
【0016】
顔の部分に対する認証システムの技術を利用して作成された被写体のテンプレートに基づいて、画像中の部分画像を抽出する。抽出した部分画像に関し、顔の向きを含む条件に基づき、画像中で良い状態で捉えられているか否かを評価点として、テンプレートを基に判断する。評価点を基に画像全体としての評価値を算出するため、ユーザが最適と思われる画像を選択する必要がなく、客観的に人物の写りがよい画像を画像格納領域に保存させることができる。
【0017】
請求項8によると、請求項1乃至7のいずれかの画像撮影装置において、前記抽出手段は、部分画像が人の顔部であり、前記評価手段が、該顔部中において目部が開いている度合を含む条件に基づいて、評価点を算出することを特徴とする画像撮影装置が提供される。
【0018】
目の開き度合を含む条件を、画像中における人の撮影状態を判断する基準として評価点を算出することによって、人の顔の写りの良さを評価の対象とすることができる。
請求項9によると、請求項1乃至8のいずれかの画像撮影装置において、前記選出手段は、前記評価値を比較することによって各画像の評価順位を決定することを特徴とする画像撮影装置が提供される。
【0019】
総合的に評価順位を決定するため、大勢で撮影した場合でも人物ごとの偏りなく画像評価することができる。
請求項10によると、請求項9の画像撮影装置において、前記選出手段は、画像に前記部分画像が複数含まれる場合には、該部分画像の数に対し、該部分画像のうち前記評価点が良好な部分画像の数が占める割合の高い順に各画像の評価順位を決定することを特徴とする画像撮影装置が提供される。
【0020】
画像中の各人物の撮影状態に関し、良好であると判断された人物数が多い画像に高い評価値を与える。撮影後複数の画像から保存する画像を選択する際、撮影状態が良好である人物の数が多いほど好ましい、とされる場合等に適している。
請求項11によると、請求項1乃至10のいずれかの画像撮影装置において、1回のシャッタボタン操作に対し1画像を撮影し、撮影した画像をそのまま前記記憶手段に記憶する第1のモードと、1回のシャッタボタン操作に対して複数の画像を撮影し、前記記憶手段に記憶する第2のモードとを有する撮影手段をさらに備えたことを特徴とする画像撮影装置が提供される。
【0021】
通常の画像撮影を行いたいときは第1のモード、1回のシャッタボタンの操作で撮影した複数の画像から撮影状態の良い画像を自動的にあるいは簡便に選択したいときは第2のモードを選択して撮影することができる。
請求項12によると、連続して複数の画像を撮影する画像撮影装置内で実行されるプログラムであって、複数の画像を記憶し、記憶された複数の画像について、被写体に関するテンプレートを用いて画像から部分画像を抽出し、前記テンプレートに基づいて抽出した部分画像ごとの撮影状態を評価点として算出し、各部分画像についての評価点に基づいて画像の評価値を算出し、得られた画像ごとの評価値に基づいて、特定数の画像を選出することを特徴とするプログラムが提供される。
【0022】
【発明の実施の形態】
以下に、第1の実施例を示す。
図1は本実施形態における画像撮影装置の内部構成を示す図である。
同図において、画像撮影装置は、CPU11、カメラ撮影部12、操作部13、メモリ部14、表示部15、画像メモリ部16及び記録媒体17を有し、これらがバス20を介して接続されて相互にデータの授受が行える構成となっている。
【0023】
CPU11は中央演算処理部であり、メモリ部14に予め格納されている制御プログラムを実行することでこの画像撮影装置全体の動作を制御する。
カメラ撮影部12は、画像の撮影処理を司る部分で、CPU11からシャッタボタンの押下を通知されると、撮像レンズを介してCCD(Charge Coupled Device )等の撮像素子上に結像された被写体像を、光電変換して電気信号変えた後A/D変換を行い、デジタル画像データにする。
【0024】
操作部13は、ユーザの操作指示を受け付ける操作ボタン等で、電源キー、シャッタボタン、種々の設定を行う為の設定ボタン等から構成されている。ユーザがこの操作部13を操作すると操作内容がCPU11に通知され、CPU11はその操作内容に基づいて他の要素の制御処理を行う。
【0025】
メモリ部14は、CPUによって実行されるプログラム等を記憶するROMやCPU11がワークメモリとして用いるRAM等から構成されており、後述のテンプレート、顔評価テーブル及び画像評価テーブルが格納されている。またこのメモリ部14上の領域に、後述するカウンタメモリが設けられる。
【0026】
表示部15は、液晶モニタやそのドライバ等から構成されており、画像撮影時に撮影画像を表示したり、後述する撮影した複数の画像のうち、特定数の画像をユーザ選択させるために画像を順に表示したり等、種々の情報をユーザに表示するものである。
【0027】
画像メモリ部16は、フラッシュメモリ等で構成される書き換え可能な不揮発性のメモリで、撮影した画像の画像データを記憶するものである。なお、図2の画像メモリ部16内部の構造の概念図が示すように、画像メモリ部16は、画像格納領域21と、画像作業領域22とから構成される。画像格納領域21は、画像を記録するのに用いられる。画像作業領域22は、撮影した複数の画像を仮記憶させておくのに用いられる。
【0028】
記録媒体17は、メモリカード等の画像撮影装置から着脱可能な可搬記録媒体で、この画像撮影装置に装着されるとバス20に接続される。画像メモリ部16に記録された画像データは、この記録媒体17に転送される。そしてこの記録媒体17内の画像データは、後日情報処理装置によって読み出され、保存される。
【0029】
本実施形態の画像撮影装置は、ユーザによる操作部13の操作指示に基づいて、CPU11がメモリ部14のRAMをワークメモリとして用いながらメモリ部14内のプログラムを実行することによって、画像撮影装置の他の構成要素を制御して後述する各種処理を実現する。
【0030】
かかる画像撮影装置が、画像を撮影・保存する処理の流れを、図3及び図4を用いて説明する。
図3及び図4は、画像撮影装置で行われる動作処理を示すフローチャートである。同図の処理は、図1のCPU11がメモリ部14に記憶されている制御プログラムを実行することによって実現される。
【0031】
図3のステップ301(S301とする。以下、ステップに関し同様に表記する。)では、画像撮影装置は、図1のシャッタボタンの操作を待ち受けしている状態にある。シャッタボタンの操作がない場合は、S310のモード切り替えの操作を随時受け付け可能な状態にある。
【0032】
ユーザによるモードの切り替え操作を検知した場合(S310でYESの場合)、処理はS311へと進む。S311では、現在設定されているモードが集合写真モードであるか否かの判断を行う。なお、集合写真モードとは、シャッタボタン操作時に複数枚の画像を連続的に撮影し、撮影された画像のうち撮影状態が良好な画像を抽出して記録するモードであり、通常モードとは、シャッタボタン操作時に撮影された画像をそのまま記録するモードである。
【0033】
S311でYESの場合、処理はS312へと進み、モードを通常モードに設定する(S312)。NOの場合、処理はS313へと進み、モードを集合写真モードに設定する(S313)。S312/S313で、モード設定の処理は終了する。
【0034】
モード設定処理後、処理はS301へと戻る。モードの切り替え操作がない場合(S310でNOの場合)は、モード設定の処理は実行されずに、S301のシャッタボタン操作待ち受けの状態に戻る。
このように、シャッタボタンの操作があるまで、画像撮影装置は、S310からS312またはS313までのモード切り替えの処理を常に行うことができる状態にある。この状態の下、シャッタボタンの操作が認識されると(S301でYESの場合)、処理はS302へと進み、画像撮影の処理が実行される。
【0035】
撮影処理においてはまず、撮影が集合写真モードで行われるか否かの判断を行う(S302)。S302でNOの場合、すなわち撮影モードが通常モードに設定されている場合は、処理はS308へと進む。
通常モードでは、S308にて画像の撮影が行われる。1画像の撮影が完了すると、撮影された画像は、S309にて図2の画像格納領域21に格納される。
【0036】
S302でYES,すなわち撮影モードが集合写真モードに設定されている場合は、処理はS303へと進む。集合写真モードでの撮影においてはまず、連続撮影枚数をカウントするためのカウンタをリセットする(S303)。
S304で画像の撮影を行う。集合写真モードの撮影では、予め設定されている一定の時間間隔で連続して画像の撮影を行う。S305で、撮影した画像をまず図2の画像作業領域22に一時記憶させる。通常モードでの撮影とは異なり、画像データを図2の画像格納領域21に直接格納しない。画像作業領域に一時記憶させた後、カウンタに1加算する(S306)。
【0037】
S307では、シャッタボタン押下の操作が継続されているかの判断を行う。S307でYESの場合は、ユーザがシャッタボタンを押下し続けていると判断され、処理はS304へと戻る。シャッタボタンの押下を認識しなくなるまでS304乃至S307の処理を繰り返す。
【0038】
S307でNOの場合は、ユーザはシャッタボタンの押下を中止したと判断され、処理は図4のS401へと進む。S401では、カウンタの値が10以上であるかどうかを判断する。カウンタの値が10未満の場合(NOの場合)、処理はS402へと進む。
【0039】
S402では、画像の撮影を行う。撮影した画像を図2の画像作業領域22に一時記憶させる(S403)。一時記憶を行った後、カウンタに1加算を行い(S404)、処理は、カウンタの値の判断(S401)へと戻る。
このように、集合写真モードの撮影においては、カウンタの値、すなわち画像の撮影枚数が10枚以上であり、かつ、ユーザがシャッタボタンを押下する操作が終了した、と認識されるまで、画像の撮影を継続する。すなわち、集合写真モードでは少なくとも連続して10枚の画像の撮影を行い、ユーザがシャッタボタンを押下している間は、画像を撮影し続ける。
【0040】
集合写真モードでの画像の撮影処理が終了した後、図2の画像作業領域22に一時保存している画像の評価処理を、1画像ごとに実行する。画像の評価処理について、図5の、画像の評価処理を示すフローチャートを用いて説明する。
図5は、画像撮影装置で行われる動作処理を示すフローチャートである。同図の処理も、図1のCPU11がメモリ部14に記憶されている制御プログラムを実行することによって実現される。
【0041】
S501で、図2の画像作業領域22に一時記憶させた画像のうち、1画像を読み出す。まず画像データ中から、肌の色に関するデータを抽出する。次に、図1のメモリ部14から読み出した人の顔部のテンプレートに基づき、肌の色に関するデータが抽出された箇所から、顔部をすべて抽出する(S502)。なお、顔部の抽出に用いるテンプレートとは、正面から見た顔、横顔等、人の顔部の典型的な型を指し、S502では、これと肌の色に関するデータが抽出された箇所の形状とを比較する。形状がマッチングするものを、顔部として抽出する。
【0042】
図6(a)は、ステップS503、S504で用いられる画像から抽出した顔部に対する評価を行うための顔評価テーブルの例を示す図である。同図のように、画像から抽出された顔部はそれぞれ顔部No.が付され、例えば、顔の向き、体の隠れ度合、目の開き度合等に基づいて算出される。これは、集合写真等においては、より多くの人が、目を開けた状態で正面を向き、身体も周囲に遮られることなく写っていることが、一般的に良い状態であると判断されることに基づき、評価の基準としているものである。
【0043】
これら評価のポイントもまた、顔部や目部等のテンプレートに基づいて判断され、結果を数値化して評価する。例えば、図6(a)中の顔の「向き」に関しては、正面を向いていると判断されると3点、横向きであると判断されると1点、その他の向きと判断されると0点、というように点数が、図1のメモリ部14上の顔評価テーブルに書き込まれる(ステップS504)。
【0044】
図7に、画像の評価値算出の例を示す。図7の画像701は、撮影された画像である。図7の画像701のデータ中から、まず、人の肌の色に関するデータを抽出する。肌の色に関するデータが抽出された箇所について、抽出箇所が丸い形状をしている箇所を更に抽出し、これとテンプレートの顔の型とのマッチングを行う。テンプレートは、例えば、正面向き(回転角0度)の顔、横向き(回転角±30度、±60度等)の顔等がデータとしてメモリ部14に格納されている。このテンプレートを基に、顔部の個数、顔の向きを判断する。図7の画像702では、テンプレートマッチングの結果、人の顔部であると評価されたものを白色の線で囲ってある(画像702中の703)。この例では、顔部の数が703−1〜703−10の10個、正面を向いている顔の数が703−4〜703−8の5個及び横向きの顔の数が703−1〜703−3、703−9及び703−10の5個と判断されている。このため、図6(a)の顔評価テーブルの「方向」に関する評価点は、3×5+1×5=20点と算出される。この、図7の例の場合、下図中の人物A及び人物Bは顔が抽出されていない。これらの人物の顔が抽出されること、あるいは横向きと判断された人物が正面向きで撮影され、正面向きであると判断されることで、評価点は更に上がることになる。
【0045】
隠れ度、開眼度についても同様にテンプレートに基づいて点数を算出する。隠れ度については、例えば、身体がほぼ全面的に画像に写っていると判断されると3点、2分の1以上4分の3未満が写っていれば1点、2分の1未満しか身体が画像に表れていないときは0点というように採点する。開眼度については、例えば、開眼度が良好であると判断されれば2点、開眼度が悪いと判断されれば0点、というように採点する。隠れ度、開眼度についても同様に、各点数を図6(a)の顔評価テーブルに記録する。
【0046】
顔部の評価点を算出したら、その値を、図6(a)の顔評価テーブルの、その顔部に対応する顔部No.の位置の合計点の欄に書き込む(S504)。合計点を書き込んだ後、抽出した全ての顔部についての評価が完了したかどうか判断する(S505)。未完了の場合(S505でNOの場合)は、処理はS503へと戻り、次の顔No.についての評価点の算出を行う。
【0047】
S505でYESの場合、すなわち1画像中の全ての顔部についての評価が完了した場合は、処理はS506へと進む。S506では、各顔部No.の評価値の和を計算する。これをその画像の総合評価点として、図1のメモリ部14上の、図6(b)の画像評価テーブルに、仮画像No.と対応させて値を書き込む。総合評価点を書き込むと、処理はS508へと進む。
【0048】
S508では、画像作業領域22内の全画像についての総合評価点の算出及び画像評価テーブルへの書き込みが終了したか判断する。NOの場合は、処理はS501へと戻り、全画像について総合評価点の算出値の画像評価テーブルへの書き込みが終了するまで上記の評価処理を繰り返す。YESの場合は、画像の評価処理を終了し、画像の選出処理へと進む。
【0049】
図8の、1回のシャッタボタン操作で撮影された複数の画像のうち、最適な画像を選出する画像の選出処理について以下に示す。同図の処理も、図1のCPU11がメモリ部14に記憶されている制御プログラムを実行することによって実現される。
【0050】
図1のメモリ部14から画像評価テーブルの総合評価値を読み出し、総合評価値の大きいものから順に、仮画像No.をソートする(S801)。仮画像No.を並び替えた結果、総合評価値が最大の画像を選択し、画像撮影装置の表示部15に表示させる(S802)。
【0051】
S803では、画像を選出するに当たって、ユーザが画像を指定することが可能と設定されているかどうかを判断する。NOの場合、画像撮影装置が、総合評価値に基づいて、自動的に最適な画像を選出する。このため、S802で選択された画像が必然的に保存されることとなり、処理は後述のS807へと進む。
【0052】
S803でYES、すなわちユーザの画像指定が可能な場合、処理はS804へと進む。S804では、表示された画像の保存に対して、OKであるとの判断をユーザから受けると(YESの場合)、後述の、S807の画像の保存処理が実行される。NOの場合は、処理はS805へ進む。
【0053】
S805では、ユーザからの次の画像を表示するよう指示を待ち受ける。NO、つまりユーザからの次候補表示の指示がない場合は、処理は前記のS804へと戻る。次候補表示の指示があった場合、処理はS806へと進む。
S806では、S801で総合評価値の大きいものから順にソートした仮画像No.のうち、次候補の画像を選択し、図1の、画像撮影装置の表示部15に表示させる。ユーザに次候補の画像を表示させた後、再び処理はS804へと戻り、ユーザの指示を待ち受ける。S804で、ユーザが保存したい画像に対してOKを指示すると、処理はS807へと進む。モニタに表示されている画像に対してOKであるとのコマンドをユーザ側から受けるまで、総合評価値の大きいものから順にモニタに表示させていく。
【0054】
S807では、選択された画像を図2の画像格納領域21に書き込む。画像格納領域21に画像の保存が完了した後、画像作業領域内の全ての画像データを削除し(S808)、処理は図3の、シャッタボタンの操作を待ち受ける状態に戻る(S301)。なお、本実施例においては一の画像を選択して記録することとしたが、これに限られることはない。複数の画像を選択して記録することとしても良い。
【0055】
以上、第1の実施例に係る画像撮影装置は、集合写真を撮影する際、1回のシャッタボタン操作で複数の画像を仮記憶させ、その中から、写っている人が画像中でどのように捉えられているかの観点から、最も好適な画像を総合評価値として、数値化させる。この仮記憶させた複数の画像についての総合評価値を比較することによって、画像撮影装置が、自動的に最適と判断する画像を保存すること、及びユーザにとって簡便な画像の選択肢を提供することが可能となる。ユーザは、シャッターチャンスを見計らうことや、多くの画像を記録させておき、後から撮影状態の良い画像を選別すること及び撮影の度に画像を確認し、良い状態の画像を撮影できるまで何度も撮影し直すことが不要となる。
【0056】
次に、第2の実施例を示す。
第2の実施例は、画像の評価を行うに際し、重み付けを行うものである。これにより特定の人やエリアを重視した画像評価を行うことができる。
第2の実施例に係る画像撮影装置の機構の基本的な構成は第1の実施例と同様であり、図1に示すように、CPU11、カメラ撮影部12、操作部13、メモリ部14、表示部15、画像メモリ部16及び記録媒体17を有し、これらがバス20を介して接続されて相互にデータの授受が行える構成となっている。メモリ部14は、図2の通り、画像格納領域21と、画像作業領域22とから構成される。
【0057】
画像を撮影・評価する処理のうち、撮影処理については、第1の実施例と同様で、流れは図3及び図4の通りであるので、ここでは割愛する。第2実施例の評価処理においては、画像全体を一律に評価の対象とするのではなく、一定の範囲に重点を置いて評価する方法をとる点で第1の実施例の評価処理とは異なっている。
【0058】
以下、図9の、画像の評価処理を示すフローチャートを用いて、第2の実施例に係る評価の処理について説明する。図9は、画像撮影装置で行われる動作処理を示すフローチャートである。同図の処理は図1のCPU11がメモリ部14に記憶されている制御プログラムを実行することによって実現される。
【0059】
S901で、図2の画像作業領域22に一時記憶させた画像のうち、1画像を読み出す。次に、画像の評価値を算出するに当たり、エリアを優先させるのか人物を優先させるのかの判断を行う(S902)。なお、エリア優先では、撮影範囲の中心部から所定の範囲内で撮影されている人物部分を評価対象の人物として抽出する。人物優先では、撮影範囲の中心部から所定の人数の範囲内で認識された人物部分を、評価対象の人物として抽出する。
【0060】
S902の判断結果がYES、すなわちユーザがエリア優先を選択した場合は、処理はS903へと進む。S903では、図1のメモリ部14に格納されている人の顔部のテンプレートを用いて、画像中で、特定のエリア内の人物の顔のみを抽出する。例えば、図10(a)の画像101では、斜線部のエリアDからは、顔部の抽出を行わない。エリアA、B及びC内のみから抽出する。以後の処理では、この特定のエリアA、B及びCから抽出された顔のみについて評価を行う。
【0061】
S902の判断結果がNO、すなわちユーザがエリア優先を選択しなかった場合は、中心に移っている人物優先処理を行い、処理はS904へと進む。S904では、図1のメモリ部14に格納されている人の顔部のテンプレートを用いて、画像のうち、中心から近い人物の顔を評価対象として抽出する。例えば、図10(b)の画像102では、抽出する顔部の個数を指定し、画像の中心から顔部の抽出を行い、一定の個数までで抽出作業を終了させる、というように行う。この場合、例えば、図10(b)の画像102の斜線部分からは画像の抽出を行わない。以後の処理では、画像102の人物抽出エリア内から抽出された顔のみについて評価を行う。
【0062】
S903あるいはS904の特定の顔を抽出し、各々に顔部No.を割り当てた後、処理はS905へと進む。S905では、抽出した顔部ごとに、重みを設定する。エリア優先の抽出を行った場合、例えば、図10(a)の画像101中で、エリアAは重み4、エリアBは重み2、エリアCは重み1、というように設定する。画像の中心付近の人物から優先させて抽出を行った場合、例えば、中心からある一定の個数の顔部までは、中心から離れた箇所から抽出された顔部よりも重みをつける、というように設定する。
【0063】
S906では、抽出した顔部それぞれに対して顔の向きや目の開き度合等から評価点の算出を行う。算出方法の詳細については、第1の実施例で挙げた方法と同様であり、ここでは省略する。
重み付き評価点を、算出した評価点に重みを乗算して算出する(S907)。この重み付きの評価点を、顔部No.と対応させて、図1のメモリ部14に格納されている、顔評価テーブルに書き込む(S908)。
【0064】
図11(a)に、第2の実施例における顔評価テーブルの例を示す。第2の実施例で用いられる顔評価テーブルは、図6(a)の第1の実施例における顔評価テーブルと比較すると、抽出した顔部の重みがさらに記録されており、評価点も、この重みを用いて重み付けを行い算出されている。
【0065】
S909で、抽出した全ての顔部についての評価が完了しているか判断する。NOの場合、処理はS906へと戻り、残りの顔部No.に対応する重み付き評価点を順に算出し、顔評価テーブルに書き込む。全ての顔部についての評価が完了すると、処理はS910へと進む。
【0066】
S910では、重み付き評価点の平均点を計算する。例えば、(平均点)=(各顔部の重み付き評価点の総和)/(顔部の数)の式で求められる。S910で求めた平均点を、図1のメモリ部14に格納されている図11(b)の画像評価テーブルに、仮画像No.と対応させて書き込む。
【0067】
画像評価テーブルへの書き込みが完了後、図2の画像作業領域22内の全画像について評価が完了したかを判断する(S912)。未完了の場合(S912でNOの場合)は、処理はS901へと戻り、残りの仮画像No.に対応する平均点を算出し、画像評価テーブルに順次書き込む。全ての画像について評価が完了すると(S912でYESの場合)、評価処理は終了する。
【0068】
評価処理の後は画像選出処理が行われる。これは、図8を用いて示した第1の実施例に係る選出処理と同様の手順で行われる。ただし、図8の評価値として、図11(b)の画像評価テーブルに記憶されている平均点を用いる。
以上、第2の実施例について説明したが、かかる画像撮影装置により、画像中の特定の箇所に写っている人物が、画像中でどのように捉えられているかに重点を置いて、最も好適な画像が提供される。集合写真のように、大勢で写す場合であっても、特定の箇所、人物等に重点を置いて撮影したい場合に特に好適である。
【0069】
なお、以上実施例に沿って画像撮影装置について説明したが、本願は、これらに限定されるものではない。例えば、画像の選出処理においては、抽出した人の顔部の数に対し、評価点が高い顔部の数が高い割合で占めている画像から順に選出することとしても良い。また、例えば、本実施例では顔の向き、体の隠れ具合、目の開き具合とし、顔のテンプレートによって評価を行ったが、評価方法、テンプレートの種類によっては、人以外の対象についても好適な画像をユーザに提供することができる。
【0070】
また、上記実施例では、一連の処理を実行する手段を備えた画像記録装置について説明したが、一連の処理を実行させるプログラムとして提供することもできる。
【0071】
【発明の効果】
以上示したように、本発明によれば、被写体に関するテンプレートに基づいて画像中の部分画像を抽出し、抽出した部分画像に関し、画像中で良い状態で捉えられているか否かを判断する。このため、予め多くの画像を撮影しておき、ユーザが後になって画像を選択することが不要となり、客観的に被写体の写りがよい画像を提供することができる。したがって、ユーザは簡単な操作によって、良質な画像を得ることが可能となる。
【図面の簡単な説明】
【図1】本実施例における画像撮影装置のブロック図である。
【図2】本実施例に係る画像撮影装置のメモリ内部の構造を示す概念図である。
【図3】本実施例に係る画像の撮影処理を示すフローチャート(その1)である。
【図4】本実施例に係る画像の撮影処理を示すフローチャート(その2)である。
【図5】第1の実施例に係る画像の評価処理を示すフローチャートである。
【図6】(a)は第1の実施例に係る顔評価テーブルの例、(b)は第1の実施例に係る画像評価テーブルの例を示す図である。
【図7】画像の評価値算出の例を示す図である。
【図8】本実施例に係る画像の選出処理を示すフローチャートである。
【図9】第2の実施例に係る画像の評価処理を示すフローチャートである。
【図10】(a)及び(b)は、第2の実施例で、画像の評価値を算出する際に負荷する重みの一例を示す図である。
【図11】(a)は第2の実施例に係る顔評価テーブルの例、(b)は第2の実施例に係る画像評価テーブルの例を示す図である。
【符号の説明】
11 CPU
12 カメラ撮影部
13 操作部
14 メモリ部
15 表示部
16 画像メモリ部
17 記録媒体
20 バス
21 画像格納領域
22 画像作業領域
[0001]
[Technical field to which the invention belongs]
The present invention relates to an image capturing device, and more particularly to an image capturing device having a function of evaluating a captured image.
[0002]
[Prior art]
As a conventional technique, there is an image photographing apparatus that evaluates photographing conditions and photographing environments from an optical standpoint and selects settings for obtaining an optimal image. In such an image capturing device, for example, a screen configuration is automatically set for taking a human photograph, a shutter speed and white balance are set for shooting a night scene, and a saturation and a color tone are automatically set for landscapes and nature, respectively. can do.
[0003]
As another image photographing device, there is an image photographing device capable of recording an image in units of people when taking a group photo. In this image photographing apparatus, a plurality of images are photographed for every person. After all the persons have been photographed, if the user selects an image that seems to be optimal for each person, they can be combined and created as one image (see, for example, Patent Document 1).
[0004]
On the other hand, there is an authentication system for a face portion as a currently disclosed technique for a captured image (for example, Patent Documents 2 and 3). In these systems, it is possible to recognize and extract a person's skin, face, and eyes from an image and to determine the orientation of the face.
[0005]
[Patent Document 1]
JP 2001-251550 A (3rd page, FIG. 3)
[Patent Document 2]
JP 2002-049912 A (page 3-4, FIG. 2-5, FIG. 8-10)
[Patent Document 3]
JP 2002-288670 A (page 3-4, FIG. 6)
[0006]
[Problems to be solved by the invention]
In the image capturing apparatus that performs the automatic setting as described above, an optically “good” image can be obtained. However, when a person is included in a plurality of images as in a group photo, for example, it is not necessarily a “good” image for the user even though it is optically good. This is because, for the user, how the person is reflected in the image is rather a criterion for judging whether the image is good or bad.
[0007]
The image capturing apparatus of Patent Document 1 includes means for synthesizing a “good” image for the user. However, it is necessary for the user to designate and select all images that are considered to be optimal for each person, which is a troublesome operation for the user.
The present invention reduces the labor required for the user to specify by using the authentication system for the face portion of the person described above, and allows the image shooting apparatus to select an image in which the shooting state of the person is good. An object of the present invention is to provide an realized image photographing apparatus.
[0008]
[Means for Solving the Problems]
According to claim 1, in the image photographing device for photographing a plurality of images in succession, the storage means for storing the plurality of images, and the plurality of images stored by the storage means are part of the image using the template relating to the subject. An extraction means for extracting an image; an imaging means for each partial image extracted based on the template is calculated as an evaluation point; an evaluation means for calculating an evaluation value of the image based on the evaluation score for each partial image; An image photographing apparatus is provided, comprising: selection means for selecting a specific number of images based on the evaluation value for each image obtained by the evaluation means.
[0009]
A partial image in the image is extracted based on the template related to the subject, and it is determined whether or not the extracted partial image is captured in a good state in the image. For this reason, it is not necessary to take a large number of images in advance and the user needs to select an image later, and it is possible to provide an image in which the subject is objectively captured. Therefore, the user can obtain a high-quality image by a simple operation.
[0010]
According to a second aspect of the present invention, in the image photographing device according to the first aspect, the storage unit temporarily stores a plurality of images continuously photographed by one operation of the shutter button. An image capture device is provided.
By temporarily storing a plurality of images taken continuously at one time, it is not necessary for the user to perform image evaluation each time the image is taken.
[0011]
According to a third aspect of the present invention, in the image photographing device according to the first or second aspect, there is provided the image photographing device, wherein the extracting means extracts all human parts photographed in the image as the partial images. Is done.
Even when shooting in large numbers, the user does not need to check the shooting state of each person in the image every time one image is shot.
[0012]
According to a fourth aspect of the present invention, in the image photographing device according to the first or second aspect, the extracting means extracts a plurality of human parts photographed at positions close to the center of the image as the image parts. An image capture device is provided.
Since only a specific number of people photographed at positions close to the center of the image are subject to evaluation, when taking an image with a specific person as the center of the image, the evaluation target is narrowed down to the person who is the center of the image. Can do.
[0013]
According to claim 5, in the image photographing device according to claim 3 or 4, the evaluation means sets an evaluation weight for each extracted person part, and sets the evaluation weight set for the person part. There is provided an image photographing apparatus characterized by evaluation in consideration.
[0014]
When shooting an image with a specific person as the center of the image, the evaluation value is higher for an image in which the shooting state of the specific person is better. Therefore, it is possible to obtain an image in which the shooting state of a specific person is suitable.
According to a sixth aspect of the present invention, in the image photographing device according to the first or second aspect, the extracting means extracts a person portion within a predetermined range from the center of the photographing range of the image as the partial image. An image capture device is provided.
[0015]
Since only a person photographed within a predetermined range from the center of the photographing range is set as an evaluation target, the evaluation target can be narrowed down to a person photographed near the center of the photographing range.
According to a seventh aspect of the present invention, in the image photographing device according to any one of the first to sixth aspects, the partial image is a human face portion, and the evaluation means calculates an evaluation score based on a condition including the orientation of the face portion. An image photographing apparatus characterized by calculating is provided.
[0016]
A partial image in the image is extracted based on a subject template created using the technology of the authentication system for the face portion. With respect to the extracted partial image, a determination is made based on the template based on the condition including the face orientation and whether or not the image is captured in a good state in the image. Since the evaluation value of the entire image is calculated based on the evaluation points, it is not necessary for the user to select an image that seems to be optimal, and an image with a good image of a person can be objectively stored in the image storage area.
[0017]
According to Claim 8, in the image photographing device according to any one of Claims 1 to 7, the extraction means includes a partial image of a human face, and the evaluation means has an open eye in the face. An image photographing apparatus is provided that calculates an evaluation score based on a condition including the degree of the image.
[0018]
By calculating the evaluation score using the condition including the degree of opening of the eye as a reference for determining the shooting state of the person in the image, the goodness of the person's face can be evaluated.
According to a ninth aspect of the present invention, in the image photographing device according to any one of the first to eighth aspects, the selecting means determines the evaluation rank of each image by comparing the evaluation values. Provided.
[0019]
Since the evaluation order is comprehensively determined, image evaluation can be performed without bias for each person even when a large number of photographs are taken.
According to claim 10, in the image photographing device according to claim 9, when the image includes a plurality of the partial images, the selection unit determines the evaluation score of the partial images with respect to the number of the partial images. There is provided an image photographing apparatus characterized in that the evaluation order of each image is determined in descending order of the ratio of the number of good partial images.
[0020]
Regarding the shooting state of each person in the image, a high evaluation value is given to an image having a large number of persons determined to be good. When selecting an image to be stored from a plurality of images after shooting, it is suitable for a case where it is preferable that the number of persons in good shooting state is more preferable.
According to an eleventh aspect, in the image photographing device according to any one of the first to tenth aspects, a first mode is obtained in which one image is photographed in response to one shutter button operation, and the photographed image is stored in the storage unit as it is. An image photographing apparatus is provided, further comprising photographing means having a second mode for photographing a plurality of images in response to one shutter button operation and storing the images in the storage means.
[0021]
Select the first mode when you want to perform normal image shooting. Select the second mode when you want to automatically or easily select images with good shooting conditions from multiple images shot with a single shutter button operation. And can shoot.
According to a twelfth aspect of the present invention, there is provided a program that is executed in an image capturing device that continuously captures a plurality of images, stores the plurality of images, and uses the template relating to the subject for the stored plurality of images. A partial image is extracted from the image, the shooting state of each partial image extracted based on the template is calculated as an evaluation point, the evaluation value of the image is calculated based on the evaluation point for each partial image, and each obtained image A program is provided that selects a specific number of images based on the evaluation value.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
The first embodiment is shown below.
FIG. 1 is a diagram illustrating an internal configuration of an image capturing apparatus according to the present embodiment.
In the figure, the image photographing apparatus has a CPU 11, a camera photographing unit 12, an operation unit 13, a memory unit 14, a display unit 15, an image memory unit 16 and a recording medium 17, which are connected via a bus 20. The data can be exchanged between each other.
[0023]
The CPU 11 is a central processing unit, and controls the overall operation of the image capturing apparatus by executing a control program stored in advance in the memory unit 14.
The camera photographing unit 12 is a part that performs image photographing processing. When the CPU 11 is notified of pressing of the shutter button, a subject image formed on an image pickup device such as a CCD (Charge Coupled Device) via the image pickup lens. Is converted into an electric signal by photoelectric conversion and A / D conversion is performed to obtain digital image data.
[0024]
The operation unit 13 is an operation button or the like that receives a user operation instruction, and includes a power key, a shutter button, a setting button for performing various settings, and the like. When the user operates the operation unit 13, the operation content is notified to the CPU 11, and the CPU 11 performs control processing of other elements based on the operation content.
[0025]
The memory unit 14 includes a ROM that stores programs executed by the CPU, a RAM that the CPU 11 uses as a work memory, and the like, and stores a template, a face evaluation table, and an image evaluation table, which will be described later. A counter memory, which will be described later, is provided in the area on the memory unit 14.
[0026]
The display unit 15 is composed of a liquid crystal monitor, a driver thereof, and the like. The display unit 15 displays images taken at the time of image shooting, or sequentially selects the images to allow a user to select a specific number of images from among a plurality of images taken later. Various information such as display is displayed to the user.
[0027]
The image memory unit 16 is a rewritable nonvolatile memory composed of a flash memory or the like, and stores image data of a captured image. As shown in the conceptual diagram of the internal structure of the image memory unit 16 in FIG. 2, the image memory unit 16 includes an image storage area 21 and an image work area 22. The image storage area 21 is used for recording an image. The image work area 22 is used to temporarily store a plurality of captured images.
[0028]
The recording medium 17 is a portable recording medium that can be attached to and detached from the image capturing apparatus such as a memory card. When the recording medium 17 is attached to the image capturing apparatus, it is connected to the bus 20. The image data recorded in the image memory unit 16 is transferred to the recording medium 17. Then, the image data in the recording medium 17 is read and stored by the information processing apparatus at a later date.
[0029]
In the image photographing apparatus of the present embodiment, the CPU 11 executes a program in the memory unit 14 while using the RAM of the memory unit 14 as a work memory on the basis of an operation instruction of the operation unit 13 by the user. Various components to be described later are realized by controlling other components.
[0030]
The flow of processing for capturing and storing an image by such an image capturing apparatus will be described with reference to FIGS.
3 and 4 are flowcharts showing the operation processing performed in the image capturing apparatus. The processing shown in FIG. 1 is realized by the CPU 11 shown in FIG. 1 executing a control program stored in the memory unit 14.
[0031]
In step 301 of FIG. 3 (referred to as S301. Hereinafter, the steps are similarly described), the image capturing apparatus is in a state of waiting for an operation of the shutter button of FIG. When there is no operation of the shutter button, the mode switching operation of S310 can be accepted at any time.
[0032]
If a mode switching operation by the user is detected (YES in S310), the process proceeds to S311. In S311, it is determined whether or not the currently set mode is the group photo mode. The group photo mode is a mode in which a plurality of images are continuously captured when the shutter button is operated, and an image with a good shooting state is extracted from the captured images and recorded. The normal mode is In this mode, an image captured when the shutter button is operated is recorded as it is.
[0033]
If YES is obtained in S311, the process proceeds to S312 and the mode is set to the normal mode (S312). If NO, the process proceeds to S313, and the mode is set to the group photo mode (S313). In S312 / S313, the mode setting process ends.
[0034]
After the mode setting process, the process returns to S301. If there is no mode switching operation (NO in S310), the mode setting process is not executed and the process returns to the state of waiting for the shutter button operation in S301.
As described above, until the shutter button is operated, the image capturing apparatus can always perform the mode switching process from S310 to S312 or S313. If an operation of the shutter button is recognized under this state (YES in S301), the process proceeds to S302, and an image capturing process is executed.
[0035]
In the photographing process, first, it is determined whether or not photographing is performed in the group photograph mode (S302). If NO in S302, that is, if the shooting mode is set to the normal mode, the process proceeds to S308.
In the normal mode, an image is taken in S308. When shooting of one image is completed, the shot image is stored in the image storage area 21 of FIG. 2 in S309.
[0036]
If YES in S302, that is, if the shooting mode is set to the group photo mode, the process proceeds to S303. In photographing in the group photo mode, first, a counter for counting the number of continuous shots is reset (S303).
In step S304, an image is taken. In group photo mode shooting, images are continuously shot at predetermined time intervals. In step S305, the photographed image is first temporarily stored in the image work area 22 shown in FIG. Unlike the shooting in the normal mode, the image data is not directly stored in the image storage area 21 in FIG. After being temporarily stored in the image work area, 1 is added to the counter (S306).
[0037]
In S307, it is determined whether the operation of pressing the shutter button is continued. If YES in S307, it is determined that the user continues to press the shutter button, and the process returns to S304. The processes from S304 to S307 are repeated until it is not recognized that the shutter button has been pressed.
[0038]
If NO in S307, it is determined that the user has stopped pressing the shutter button, and the process proceeds to S401 in FIG. In S401, it is determined whether the value of the counter is 10 or more. If the value of the counter is less than 10 (NO), the process proceeds to S402.
[0039]
In S402, an image is taken. The captured image is temporarily stored in the image work area 22 of FIG. 2 (S403). After temporary storage, 1 is added to the counter (S404), and the process returns to the determination of the counter value (S401).
Thus, in group photo mode shooting, the counter value, that is, the number of images to be shot is 10 or more, and the image is read until it is recognized that the user has finished pressing the shutter button. Continue shooting. That is, in the group photograph mode, at least 10 images are continuously captured, and images are continuously captured while the user presses the shutter button.
[0040]
After the image shooting process in the group photo mode is completed, the image evaluation process temporarily stored in the image work area 22 of FIG. 2 is executed for each image. The image evaluation process will be described with reference to the flowchart of FIG. 5 showing the image evaluation process.
FIG. 5 is a flowchart showing an operation process performed in the image photographing apparatus. The processing in FIG. 10 is also realized by the CPU 11 in FIG. 1 executing a control program stored in the memory unit 14.
[0041]
In S501, one image is read out of the images temporarily stored in the image work area 22 of FIG. First, data relating to skin color is extracted from the image data. Next, based on the template of the human face read from the memory unit 14 in FIG. 1, all the face parts are extracted from the location where the data relating to the skin color is extracted (S502). Note that the template used for face extraction refers to a typical shape of a human face such as a face and a profile as seen from the front, and in S502, the shape of the portion from which data relating to the skin color is extracted. And compare. What matches the shape is extracted as a face.
[0042]
FIG. 6A is a diagram illustrating an example of a face evaluation table for performing evaluation on the face portion extracted from the images used in steps S503 and S504. As shown in the figure, each face part extracted from the image has a face part No. And is calculated based on, for example, the orientation of the face, the degree of hiding of the body, the degree of opening of the eyes, and the like. In group photos, etc., it is generally judged that it is a good condition that more people are facing the front with their eyes open and the body is also unobstructed by the surroundings. Based on this, it is the standard for evaluation.
[0043]
These evaluation points are also determined based on templates such as a face part and an eye part, and the result is digitized and evaluated. For example, regarding the “orientation” of the face in FIG. 6A, it is 3 points if it is determined to be facing the front, 1 point if it is determined to be sideways, and 0 if it is determined to be the other direction. The score is written in the face evaluation table on the memory unit 14 in FIG. 1 (step S504).
[0044]
FIG. 7 shows an example of image evaluation value calculation. An image 701 in FIG. 7 is a captured image. First, data relating to human skin color is extracted from the data of the image 701 in FIG. With respect to the part where the data relating to the skin color is extracted, a part where the extracted part has a round shape is further extracted, and this is matched with the face type of the template. As the template, for example, a face facing forward (rotation angle 0 degree), a face facing sideways (rotation angle ± 30 degrees, ± 60 degrees, etc.) and the like are stored in the memory unit 14 as data. Based on this template, the number of face parts and the face orientation are determined. In the image 702 of FIG. 7, the result of template matching that is evaluated as a human face is surrounded by a white line (703 in the image 702). In this example, the number of face parts is 703-1 to 703-10, the number of faces facing the front is 703-4 to 703-8, and the number of face faces is 703-1 to It is determined that there are five of 703-3, 703-9, and 703-10. Therefore, the evaluation score for “direction” in the face evaluation table of FIG. 6A is calculated as 3 × 5 + 1 × 5 = 20 points. In the case of the example of FIG. 7, the faces of the person A and the person B in the following figure are not extracted. If the faces of these persons are extracted, or the person determined to be in the landscape orientation is photographed in the front direction and determined to be in the front direction, the evaluation score is further increased.
[0045]
Similarly, the score for the degree of hiding and the degree of eye opening is calculated based on the template. Concerning the degree of occlusion, for example, if it is determined that the body is almost completely reflected in the image, it is 3 points, and if it is 2 or more and less than 3/4, it is only 1 point or less than 1/2. When the body does not appear in the image, the score is 0 points. As for the degree of eye opening, for example, the score is 2 points if it is determined that the degree of eye opening is good, and 0 points if it is determined that the degree of eye opening is bad. Similarly, the degree of hiding and the degree of eye opening are recorded in the face evaluation table of FIG.
[0046]
When the evaluation score of the face portion is calculated, the value is assigned to the face No. corresponding to the face portion in the face evaluation table of FIG. Is written in the column of total points of the positions (S504). After writing the total points, it is determined whether or not the evaluation has been completed for all the extracted face portions (S505). If not completed (NO in S505), the process returns to S503, and the next face No. The evaluation score for is calculated.
[0047]
In the case of YES in S505, that is, in the case where the evaluation for all the face parts in one image is completed, the process proceeds to S506. In S506, each face No. Calculate the sum of the evaluation values. With this as the overall evaluation score of the image, the temporary image No. is stored in the image evaluation table of FIG. 6B on the memory unit 14 of FIG. Write a value corresponding to. When the comprehensive evaluation score is written, the process proceeds to S508.
[0048]
In step S <b> 508, it is determined whether calculation of comprehensive evaluation points for all images in the image work area 22 and writing to the image evaluation table have been completed. In the case of NO, the process returns to S501, and the above evaluation process is repeated until writing of the calculated value of the comprehensive evaluation score to the image evaluation table is completed for all images. In the case of YES, the image evaluation process ends, and the process proceeds to an image selection process.
[0049]
An image selection process for selecting an optimum image among a plurality of images taken by one shutter button operation in FIG. 8 will be described below. The processing in FIG. 10 is also realized by the CPU 11 in FIG. 1 executing a control program stored in the memory unit 14.
[0050]
The comprehensive evaluation values of the image evaluation table are read from the memory unit 14 in FIG. Are sorted (S801). Provisional image No. As a result of the rearrangement, the image having the maximum comprehensive evaluation value is selected and displayed on the display unit 15 of the image capturing apparatus (S802).
[0051]
In S803, when selecting an image, it is determined whether or not the user is allowed to designate an image. In the case of NO, the image capturing device automatically selects an optimal image based on the comprehensive evaluation value. For this reason, the image selected in S802 is inevitably stored, and the process proceeds to S807 described later.
[0052]
If YES in S803, that is, if the user can specify an image, the process proceeds to S804. In S804, when it is determined from the user that the displayed image is saved (YES), an image saving process in S807, which will be described later, is executed. In the case of NO, the process proceeds to S805.
[0053]
In step S805, an instruction from the user to display the next image is awaited. If NO, that is, if there is no next candidate display instruction from the user, the process returns to S804. If there is an instruction to display the next candidate, the process proceeds to S806.
In step S806, the temporary image Nos. Sorted in descending order of the overall evaluation value in step S801. Among these, the next candidate image is selected and displayed on the display unit 15 of the image capturing apparatus in FIG. After displaying the next candidate image to the user, the process returns to S804 again and waits for the user's instruction. In S804, when the user instructs OK for the image to be saved, the process proceeds to S807. Until the command indicating that the image displayed on the monitor is OK is received from the user side, the image is displayed on the monitor in descending order of the comprehensive evaluation value.
[0054]
In S807, the selected image is written into the image storage area 21 in FIG. After the image is stored in the image storage area 21, all the image data in the image work area is deleted (S808), and the process returns to the state of waiting for the operation of the shutter button in FIG. 3 (S301). In this embodiment, one image is selected and recorded. However, the present invention is not limited to this. A plurality of images may be selected and recorded.
[0055]
As described above, the image capturing apparatus according to the first embodiment temporarily stores a plurality of images by one operation of the shutter button when taking a group photo. From the viewpoint of whether the image is captured, the most suitable image is digitized as a comprehensive evaluation value. By comparing the comprehensive evaluation values for the plurality of temporarily stored images, the image capturing apparatus can automatically store an image that is determined to be optimal, and provide a simple image option for the user. It becomes possible. Until the user is able to capture a good chance, or to record a large number of images, select an image in good shooting state later, check the image every time it is shot, and shoot a good image There is no need to re-shoot many times.
[0056]
Next, a second embodiment is shown.
In the second embodiment, weighting is performed when an image is evaluated. As a result, it is possible to perform image evaluation focusing on a specific person or area.
The basic configuration of the mechanism of the image photographing apparatus according to the second embodiment is the same as that of the first embodiment. As shown in FIG. 1, the CPU 11, the camera photographing unit 12, the operation unit 13, the memory unit 14, The display unit 15, the image memory unit 16, and the recording medium 17 are connected via a bus 20 so that data can be exchanged between them. As shown in FIG. 2, the memory unit 14 includes an image storage area 21 and an image work area 22.
[0057]
Of the processes for photographing and evaluating images, the photographing process is the same as in the first embodiment, and the flow is as shown in FIGS. The evaluation process of the second embodiment is different from the evaluation process of the first embodiment in that the entire image is not subject to evaluation uniformly but an evaluation is made with an emphasis on a certain range. ing.
[0058]
Hereinafter, the evaluation process according to the second embodiment will be described with reference to the flowchart of FIG. 9 showing the image evaluation process. FIG. 9 is a flowchart showing an operation process performed in the image photographing apparatus. The processing shown in FIG. 1 is realized by the CPU 11 shown in FIG. 1 executing a control program stored in the memory unit 14.
[0059]
In step S901, one image is read out of the images temporarily stored in the image work area 22 in FIG. Next, in calculating the evaluation value of the image, it is determined whether to give priority to the area or to give priority to the person (S902). Note that, in area priority, a person portion photographed within a predetermined range from the center of the photographing range is extracted as a person to be evaluated. In person priority, a person portion recognized within a predetermined number of people from the center of the shooting range is extracted as a person to be evaluated.
[0060]
If the determination result in S902 is YES, that is, if the user selects area priority, the process proceeds to S903. In step S903, only the face of a person in a specific area is extracted from the image using the template of the human face stored in the memory unit 14 of FIG. For example, in the image 101 in FIG. 10A, the face portion is not extracted from the hatched area D. Extract only from areas A, B and C. In the subsequent processing, only the faces extracted from the specific areas A, B, and C are evaluated.
[0061]
If the determination result in S902 is NO, that is, if the user has not selected area priority, the person priority process that has moved to the center is performed, and the process proceeds to S904. In S904, the face of the person close to the center is extracted as an evaluation target from the image using the template of the person's face stored in the memory unit 14 of FIG. For example, in the image 102 of FIG. 10B, the number of face parts to be extracted is designated, the face parts are extracted from the center of the image, and the extraction operation is finished up to a certain number. In this case, for example, no image is extracted from the hatched portion of the image 102 in FIG. In the subsequent processing, only the face extracted from the person extraction area of the image 102 is evaluated.
[0062]
The specific face of S903 or S904 is extracted, and the face part No. After allocating, the process proceeds to S905. In S905, a weight is set for each extracted face part. When the area priority extraction is performed, for example, in the image 101 of FIG. 10A, the area A is set to weight 4, the area B is set to weight 2, the area C is set to weight 1, and so on. If extraction is performed with priority given to people near the center of the image, for example, a certain number of faces from the center are weighted more than faces extracted from locations away from the center. Set.
[0063]
In step S906, an evaluation score is calculated for each of the extracted face parts from the face orientation, the degree of eye opening, and the like. The details of the calculation method are the same as those described in the first embodiment, and are omitted here.
A weighted evaluation score is calculated by multiplying the calculated evaluation score by a weight (S907). This weighted evaluation score is assigned to the face No. Are written in the face evaluation table stored in the memory unit 14 of FIG. 1 (S908).
[0064]
FIG. 11A shows an example of a face evaluation table in the second embodiment. Compared with the face evaluation table in the first embodiment of FIG. 6A, the face evaluation table used in the second embodiment further records the weight of the extracted face part. It is calculated by weighting using the weight.
[0065]
In step S909, it is determined whether evaluation has been completed for all the extracted face portions. If NO, the process returns to S906 and the remaining face No. The weighted evaluation points corresponding to are sequentially calculated and written in the face evaluation table. When the evaluation for all the face portions is completed, the process proceeds to S910.
[0066]
In S910, an average score of weighted evaluation points is calculated. For example, (average score) = (total sum of weighted evaluation points of each face) / (number of faces). The average score obtained in S910 is stored in the image evaluation table in FIG. 11B stored in the memory unit 14 in FIG. Write in correspondence with.
[0067]
After the writing to the image evaluation table is completed, it is determined whether the evaluation has been completed for all the images in the image work area 22 of FIG. 2 (S912). If it is not completed (NO in S912), the process returns to S901, and the remaining temporary image No. The average points corresponding to are calculated and sequentially written in the image evaluation table. When the evaluation is completed for all images (YES in S912), the evaluation process ends.
[0068]
After the evaluation process, an image selection process is performed. This is performed in the same procedure as the selection process according to the first embodiment shown in FIG. However, the average score stored in the image evaluation table of FIG. 11B is used as the evaluation value of FIG.
As described above, the second embodiment has been described. However, with such an image capturing device, it is most preferable to place an emphasis on how a person in a specific location in an image is captured in the image. Images are provided. Even when a large number of photographs are taken, such as a group photo, it is particularly suitable for a case where it is desired to shoot with an emphasis on a specific part, person or the like.
[0069]
In addition, although the image capturing device has been described along the embodiments, the present application is not limited to these. For example, in the image selection process, images may be selected in order from an image that occupies a high ratio of the number of face parts having a high evaluation score with respect to the number of extracted face parts of the person. In addition, for example, in this embodiment, the face orientation, the body hiding condition, and the eye opening condition are used, and the evaluation is performed based on the face template. Images can be provided to the user.
[0070]
In the above-described embodiment, the image recording apparatus including a unit that executes a series of processes has been described. However, the image recording apparatus may be provided as a program that executes a series of processes.
[0071]
【The invention's effect】
As described above, according to the present invention, a partial image in an image is extracted based on a template related to a subject, and it is determined whether or not the extracted partial image is captured in a good state in the image. For this reason, it is not necessary to take a large number of images in advance and the user needs to select an image later, and it is possible to provide an image in which the subject is objectively captured. Therefore, the user can obtain a high-quality image by a simple operation.
[Brief description of the drawings]
FIG. 1 is a block diagram of an image photographing apparatus in the present embodiment.
FIG. 2 is a conceptual diagram illustrating an internal structure of a memory of the image capturing apparatus according to the present embodiment.
FIG. 3 is a flowchart (part 1) illustrating an image capturing process according to the embodiment.
FIG. 4 is a flowchart (part 2) illustrating an image capturing process according to the embodiment.
FIG. 5 is a flowchart illustrating image evaluation processing according to the first embodiment;
6A is an example of a face evaluation table according to the first embodiment, and FIG. 6B is a diagram illustrating an example of an image evaluation table according to the first embodiment.
FIG. 7 is a diagram illustrating an example of calculating an evaluation value of an image.
FIG. 8 is a flowchart illustrating image selection processing according to the embodiment.
FIG. 9 is a flowchart illustrating image evaluation processing according to the second embodiment;
FIGS. 10A and 10B are diagrams illustrating examples of weights to be loaded when calculating an evaluation value of an image according to the second embodiment.
11A is a diagram illustrating an example of a face evaluation table according to the second embodiment, and FIG. 11B is a diagram illustrating an example of an image evaluation table according to the second embodiment.
[Explanation of symbols]
11 CPU
12 Camera shooting part
13 Operation part
14 Memory part
15 Display section
16 Image memory
17 Recording media
20 buses
21 Image storage area
22 Image work area

Claims (12)

連続して複数の画像を撮影する画像撮影装置において、
複数の画像を記憶する記憶手段と、
前記記憶手段が記憶した複数の画像について、被写体に関するテンプレートを用いて画像から部分画像を抽出する抽出手段と、
前記テンプレートに基づいて抽出した部分画像ごとの撮影状態を評価点として算出し、各部分画像についての評価点に基づいて画像の評価値を算出する評価手段と、
前記評価手段により得られた画像ごとの評価値に基づいて、特定数の画像を選出する選出手段と
を備えることを特徴とする画像撮影装置。
In an image capturing apparatus that continuously captures a plurality of images,
Storage means for storing a plurality of images;
Extracting means for extracting a partial image from an image using a template related to a subject for a plurality of images stored by the storage means;
An evaluation unit that calculates a shooting state for each partial image extracted based on the template as an evaluation point, and calculates an evaluation value of the image based on the evaluation point for each partial image;
An image photographing apparatus comprising: a selection unit that selects a specific number of images based on an evaluation value for each image obtained by the evaluation unit.
前記記憶手段は、1回のシャッタボタンの操作で連続的に撮影された複数枚の画像を、一時的に記憶することを特徴とする請求項1記載の画像撮影装置。2. The image photographing apparatus according to claim 1, wherein the storage unit temporarily stores a plurality of images continuously photographed by one operation of a shutter button. 前記抽出手段は、画像内に撮影されている全ての人物部分を前記部分画像として抽出することを特徴とする請求項1または2に記載の画像撮影装置。The image capturing apparatus according to claim 1, wherein the extracting unit extracts all the human parts captured in the image as the partial images. 前記抽出手段は、画像の中心部に近い位置に撮影されている複数の人物部分を前記画像部分として抽出することを特徴とする請求項1または2に記載の画像撮影装置。The image capturing apparatus according to claim 1, wherein the extracting unit extracts a plurality of person portions photographed at positions close to a center portion of the image as the image portions. 前記評価手段は、前記抽出された各人物部分ごとに、評価の重みを設定し、該人物部分に設定された評価の重みを加味して評価することを特徴とする請求項3または4に記載の画像撮影装置。5. The evaluation unit according to claim 3, wherein the evaluation unit sets an evaluation weight for each of the extracted person parts, and evaluates the evaluation part in consideration of the evaluation weights set for the person part. Image shooting device. 前記抽出手段は、画像の撮影範囲の中心部から所定の範囲内の、人物部分を前記部分画像として抽出することを特徴とする請求項1または2に記載の画像撮影装置。The image capturing apparatus according to claim 1, wherein the extraction unit extracts a person portion within a predetermined range from a central portion of an image capturing range as the partial image. 前記部分画像は人の顔部であり、前記評価手段は、該顔部の向きを含む条件に基づいて評価点を算出することを特徴とする請求項1乃至6のいずれか1項に記載の画像撮影装置。The said partial image is a person's face part, The said evaluation means calculates an evaluation score based on the conditions containing the direction of this face part, The Claim 1 characterized by the above-mentioned. Image shooting device. 前記抽出手段は、部分画像が人の顔部であり、前記評価手段が、該顔部中において目部が開いている度合を含む条件に基づいて、評価点を算出することを特徴とする請求項1乃至7のいずれか1項に記載の画像撮影装置。The extraction means is characterized in that the partial image is a human face, and the evaluation means calculates an evaluation score based on a condition including a degree of opening of an eye in the face. Item 8. The image capturing device according to any one of Items 1 to 7. 前記選出手段は、前記評価値を比較することによって各画像の評価順位を決定することを特徴とする請求項1乃至8のいずれか1項に記載の画像撮影装置。The image photographing apparatus according to claim 1, wherein the selection unit determines an evaluation rank of each image by comparing the evaluation values. 前記選出手段は、画像に前記部分画像が複数含まれる場合には、該部分画像の数に対し、該部分画像のうち前記評価点が良好な部分画像の数が占める割合の高い順に各画像の評価順位を決定することを特徴とする請求項9記載の画像撮影装置。When the image includes a plurality of the partial images, the selection unit determines the number of the partial images in descending order of the ratio of the partial images having the good evaluation score among the partial images. The image capturing apparatus according to claim 9, wherein an evaluation order is determined. 1回のシャッタボタン操作に対し1画像を撮影し、撮影した画像をそのまま前記記憶手段に記憶する第1のモードと、1回のシャッタボタン操作に対して複数の画像を撮影し、前記記憶手段に記憶する第2のモードとを有する撮影手段をさらに備えたことを特徴とする請求項1乃至10のいずれか1項に記載の画像撮影装置。A first mode in which one image is captured for one shutter button operation, and the captured image is stored in the storage unit as it is, and a plurality of images are captured in response to one shutter button operation, and the storage unit The image photographing apparatus according to claim 1, further comprising a photographing unit having a second mode stored therein. 連続して複数の画像を撮影する画像撮影装置内で実行されるプログラムであって、
複数の画像を記憶し、
記憶された複数の画像について、被写体に関するテンプレートを用いて画像から部分画像を抽出し、
前記テンプレートに基づいて抽出した部分画像ごとの撮影状態を評価点として算出し、各部分画像についての評価点に基づいて画像の評価値を算出し、
得られた画像ごとの評価値に基づいて、特定数の画像を選出する
ことを特徴とするプログラム。
A program that is executed in an image capturing apparatus that continuously captures a plurality of images,
Memorize multiple images,
For a plurality of stored images, extract a partial image from the image using a template related to the subject,
The shooting state for each partial image extracted based on the template is calculated as an evaluation point, the evaluation value of the image is calculated based on the evaluation point for each partial image,
A program for selecting a specific number of images based on the obtained evaluation value for each image.
JP2003183266A 2003-06-26 2003-06-26 Image photographing apparatus and program Expired - Fee Related JP4449354B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003183266A JP4449354B2 (en) 2003-06-26 2003-06-26 Image photographing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003183266A JP4449354B2 (en) 2003-06-26 2003-06-26 Image photographing apparatus and program

Publications (2)

Publication Number Publication Date
JP2005020446A true JP2005020446A (en) 2005-01-20
JP4449354B2 JP4449354B2 (en) 2010-04-14

Family

ID=34183418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003183266A Expired - Fee Related JP4449354B2 (en) 2003-06-26 2003-06-26 Image photographing apparatus and program

Country Status (1)

Country Link
JP (1) JP4449354B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036584A (en) * 2005-07-26 2007-02-08 Canon Inc Image output apparatus and image output method
JP2008131405A (en) * 2006-11-21 2008-06-05 Sony Corp Imaging unit, image processing unit, image processing methods for the units, and program making computer execute the method
JP2008182544A (en) * 2007-01-25 2008-08-07 Sony Corp Image storage device, and image storage method
JP2008234509A (en) * 2007-03-23 2008-10-02 Fujifilm Corp Image evaluation device, method and program
JP2009237899A (en) * 2008-03-27 2009-10-15 Advanced Telecommunication Research Institute International Image processing apparatus
JP2009237617A (en) * 2008-03-25 2009-10-15 Seiko Epson Corp Detection of face area in image
JP2009237616A (en) * 2008-03-25 2009-10-15 Seiko Epson Corp Detection of face area in image
JP2009267696A (en) * 2008-04-24 2009-11-12 Canon Inc Image processing apparatus, control method for the same, and program
JP2010028588A (en) * 2008-07-22 2010-02-04 Sony Corp Imaging apparatus, processing method thereof, and program
US7693413B2 (en) 2005-07-21 2010-04-06 Sony Corporation Camera system, information processing device, information processing method, and computer program
JP2011015054A (en) * 2009-06-30 2011-01-20 Nikon Corp Digital camera
JP2011103128A (en) * 2010-11-29 2011-05-26 Seiko Epson Corp Image selection device and image selection method
JP2011118944A (en) * 2011-03-11 2011-06-16 Seiko Epson Corp Image processing device, printer, image processing method, and computer program
WO2011089872A1 (en) 2010-01-22 2011-07-28 パナソニック株式会社 Image management device, image management method, program, recording medium, and integrated circuit
US8090158B2 (en) 2006-09-28 2012-01-03 Fujifilm Corporation Image evaluation apparatus, method, and program
WO2012011213A1 (en) * 2010-07-21 2012-01-26 パナソニック株式会社 Image management device, image management method, program, recording medium, and integrated circuit for image management
US8284264B2 (en) 2006-09-19 2012-10-09 Fujifilm Corporation Imaging apparatus, method, and program
US8644613B2 (en) 2005-08-31 2014-02-04 Seiko Epson Corporation Image selection device and image selection method
US8711265B2 (en) 2008-04-24 2014-04-29 Canon Kabushiki Kaisha Image processing apparatus, control method for the same, and storage medium

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7693413B2 (en) 2005-07-21 2010-04-06 Sony Corporation Camera system, information processing device, information processing method, and computer program
JP4630749B2 (en) * 2005-07-26 2011-02-09 キヤノン株式会社 Image output apparatus and control method thereof
JP2007036584A (en) * 2005-07-26 2007-02-08 Canon Inc Image output apparatus and image output method
US8644613B2 (en) 2005-08-31 2014-02-04 Seiko Epson Corporation Image selection device and image selection method
US8284264B2 (en) 2006-09-19 2012-10-09 Fujifilm Corporation Imaging apparatus, method, and program
US8090158B2 (en) 2006-09-28 2012-01-03 Fujifilm Corporation Image evaluation apparatus, method, and program
JP2008131405A (en) * 2006-11-21 2008-06-05 Sony Corp Imaging unit, image processing unit, image processing methods for the units, and program making computer execute the method
US8385607B2 (en) 2006-11-21 2013-02-26 Sony Corporation Imaging apparatus, image processing apparatus, image processing method and computer program
JP2008182544A (en) * 2007-01-25 2008-08-07 Sony Corp Image storage device, and image storage method
JP2008234509A (en) * 2007-03-23 2008-10-02 Fujifilm Corp Image evaluation device, method and program
US8457365B2 (en) 2007-03-23 2013-06-04 Fujifilm Corporation Device, method and computer readable recording medium containing program for evaluating image
JP2009237617A (en) * 2008-03-25 2009-10-15 Seiko Epson Corp Detection of face area in image
JP2009237616A (en) * 2008-03-25 2009-10-15 Seiko Epson Corp Detection of face area in image
JP2009237899A (en) * 2008-03-27 2009-10-15 Advanced Telecommunication Research Institute International Image processing apparatus
JP2009267696A (en) * 2008-04-24 2009-11-12 Canon Inc Image processing apparatus, control method for the same, and program
US8711265B2 (en) 2008-04-24 2014-04-29 Canon Kabushiki Kaisha Image processing apparatus, control method for the same, and storage medium
JP2010028588A (en) * 2008-07-22 2010-02-04 Sony Corp Imaging apparatus, processing method thereof, and program
JP2011015054A (en) * 2009-06-30 2011-01-20 Nikon Corp Digital camera
WO2011089872A1 (en) 2010-01-22 2011-07-28 パナソニック株式会社 Image management device, image management method, program, recording medium, and integrated circuit
WO2012011213A1 (en) * 2010-07-21 2012-01-26 パナソニック株式会社 Image management device, image management method, program, recording medium, and integrated circuit for image management
JP5723367B2 (en) * 2010-07-21 2015-05-27 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image management apparatus, image management method, program, recording medium, and integrated circuit for image management
JP2011103128A (en) * 2010-11-29 2011-05-26 Seiko Epson Corp Image selection device and image selection method
JP2011118944A (en) * 2011-03-11 2011-06-16 Seiko Epson Corp Image processing device, printer, image processing method, and computer program

Also Published As

Publication number Publication date
JP4449354B2 (en) 2010-04-14

Similar Documents

Publication Publication Date Title
JP4449354B2 (en) Image photographing apparatus and program
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP4645685B2 (en) Camera, camera control program, and photographing method
TWI343208B (en)
JP4980779B2 (en) Imaging apparatus, method and program
JP5164327B2 (en) Imaging apparatus and program
CN101325658B (en) Imaging device, imaging method and computer program
JP4663699B2 (en) Image display device and image display method
US8077216B2 (en) Image pickup apparatus with a human face detecting function, method and program product for detecting a human face
US20090040324A1 (en) Imaging apparatus, imaging system, and imaging method
CN101262561B (en) Imaging apparatus and control method thereof
JP5293206B2 (en) Image search apparatus, image search method and program
JP2006203600A (en) Imaging apparatus, image processor, image processing system, and image processing method and program
JP2007324965A (en) Digital camera, photography control method, and image output system
KR101046041B1 (en) Imaging device
JP2007142565A (en) Imaging apparatus and method thereof
JP4621992B2 (en) Imaging apparatus and imaging method
JP2008245093A (en) Digital camera, and control method and control program of digital camera
JP5206422B2 (en) Composition selection device and program
JP2008054031A (en) Digital camera and display control method
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2008103850A (en) Camera, image retrieval system, and image retrieving method
JP5170217B2 (en) Camera, camera control program, and photographing method
JP5217843B2 (en) Composition selection apparatus, composition selection method and program
JP5640377B2 (en) Image processing apparatus, camera, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

R150 Certificate of patent or registration of utility model

Ref document number: 4449354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees