JP5510999B2 - 撮像装置及びプログラム - Google Patents

撮像装置及びプログラム Download PDF

Info

Publication number
JP5510999B2
JP5510999B2 JP2009268805A JP2009268805A JP5510999B2 JP 5510999 B2 JP5510999 B2 JP 5510999B2 JP 2009268805 A JP2009268805 A JP 2009268805A JP 2009268805 A JP2009268805 A JP 2009268805A JP 5510999 B2 JP5510999 B2 JP 5510999B2
Authority
JP
Japan
Prior art keywords
shooting
subject
image
condition
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009268805A
Other languages
English (en)
Other versions
JP2011114554A (ja
Inventor
優子 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2009268805A priority Critical patent/JP5510999B2/ja
Publication of JP2011114554A publication Critical patent/JP2011114554A/ja
Application granted granted Critical
Publication of JP5510999B2 publication Critical patent/JP5510999B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、被写体の撮影状態に応じて撮影タイミングを制御可能な撮像装置及びプログラムに関する。
近年、撮像装置において人物撮影時には、より好ましい撮影結果を得られるように被写体の撮影状態として笑顔を検出して自動的に撮影するようにした技術が公知となっているが、その技術を更に発展させたものとして、従来では、例えば、被写体撮像時において、寒さなどの快適さに応じて笑顔検出の基準値を補正することにより、適切に笑顔を検出可能とした技術が開示されている(特許文献1参照)。
特開2009−129389号公報
しかしながら、上述した先行技術にあっては、より良い笑顔を検出して撮影することができるが、どのような笑顔がベストであるかは人によってまちまちであり、また、笑顔が最も好ましい表情とは限らず、怒ったような表情や、口元を引き締めたような顔など、笑顔以外の表情が自分のベストな表情(キメ顔と呼ばれる表情)であると考えている場合もある。このようにキメ顔は、人によって大きく異なるため、笑顔を検出して撮影を行ったとしても、必ずしもキメ顔のときに撮影されるとは限らなかった。
本発明の課題は、被写体の個々に適したタイミングで撮影を制御できるようにすることである。
上述した課題を解決するために請求項1記載の発明は、複数の被写体の個々に対応して、被写体の撮影タイミングを判別するための情報として、その被写体の周囲の環境に関する情報を撮影条件として記憶する撮影条件記憶手段と、撮影レンズを通して取得した画像に対する画像認識により当該取得した画像内に含まれている被写体が前記撮影条件記憶手段内のどの被写体であるかを特定する被写体特定手段と、この被写体特定手段により被写体が特定された場合に、その時点での周囲環境を検出することにより得られた検出結果を撮影状況として取得する取得手段と、この取得手段により取得した撮影状況が、前記被写体特定手段により特定された被写体に対応して前記撮影条件記憶手段に記憶されている撮影条件に合致するか否かを判別する判別手段と、前記被写体特定手段により特定された被写体に対する撮影タイミングを前記判別手段による判別結果に応じて制御する制御手段と、を備えることを特徴とする。
請求項1に従属する発明として、前記撮影条件は、被写体の撮影タイミングを判別するための情報を複数の要素で表した情報であり、前記取得手段は、前記撮影条件に対応して複数の要素からなる撮影状況を取得し、前記判別手段は、撮影状況が撮影条件に合致するか否かを前記要素毎に判別する、ようにしたことを特徴とする請求項2記載の発明であってもよい。
請求項1に従属する発明として、撮影済み画像を記憶する画像記憶手段と、この画像記憶手段に記憶されている撮影済み画像に対する画像認識により前記撮影条件を生成する撮影条件生成手段を更に備え、前記撮影条件記憶手段は、前記撮影済み画像内の被写体に対応して、前記撮影条件生成手段により生成された撮影条件を記憶する、ようにしたことを特徴とする請求項3記載の発明であってもよい。
請求項3に従属する発明として、前記画像記憶手段に記憶されている複数の撮影済み画像のうち、各撮影済み画像に対する画像認識により所定の被写体が含まれている撮影済み画像を抽出する抽出手段を更に備え、前記撮影条件生成手段は、前記抽出手段により抽出された撮影済み画像に対する画像認識により当該撮影済み画像内の被写体に対応する撮影条件を生成する、ようにしたことを特徴とする請求項4記載の発明であってもよい。
請求項3に従属する発明として、前記画像記憶手段に記憶されている複数の撮影済み画像のうち、ユーザ操作により任意の撮影済み画像を選択する選択手段を更に備え、前記撮影条件生成手段は、前記選択手段により選択された撮影済み画像に対する画像認識により当該撮影済み画像内の被写体に対応する撮影条件を生成する、ようにしたことを特徴とする請求項5記載の発明であってもよい。
請求項1に従属する発明として、前記撮影条件は、被写体の撮影タイミングを判別するための情報として、前記被写体の周囲の環境に関する情報に代えて、その被写体の外観に関する情報であり、前記取得手段は、撮影レンズを通して取得した画像に対する画像認識により得られた認識結果を撮影状況として取得する、ようにしたことを特徴とする請求項6記載の発明であってもよい。
請求項1に従属する発明として、前記撮影条件は、被写体の撮影タイミングを判別するための情報として、前記被写体の周囲の環境に関する情報に代えて、その被写体が発声する音声に関する情報であり、前記取得手段は、被写体から発声された音声を認識することにより得られた認識結果を撮影状況として取得する、ようにしたことを特徴とする請求項7記載の発明であってもよい。
請求項1に従属する発明として、前記撮影条件は、被写体の撮影タイミングを判別するための情報として、前記被写体の周囲の環境に関する情報に代えて、その被写体の外観に関する情報であり、前記取得手段は、撮影レンズを通して取得した画像に対する画像認識により得られた認識結果を撮影状況として取得し、前記判別手段は、前記取得手段により取得した撮影状況と前記撮影条件記憶手段に記憶されている撮影条件とを比較することによりその撮影状況が撮影条件に合致するまでに要する時間を予測し、前記制御手段は、前記判別手段による予測結果に応じて撮影タイミングを制御する、ようにしたことを特徴とする請求項記載の発明であってもよい。
請求項1に従属する発明として、撮影レンズを通して取得した画像に対する画像認識により当該画像に収まっている被写体の範囲を検出する範囲検出手段を更に備え、前記撮影条件は、被写体の撮影タイミングを判別するための情報として、前記被写体の周囲の環境に関する情報に代えて、その被写体の外観に関する情報であり、前記撮影条件記憶手段は、被写体の部分の外観に関する情報を第1撮影条件として記憶すると共に、この被写体の全体又は略全体の外観に関する情報を第2撮影条件として記憶し、前記判別手段は、前記範囲検出手段により検出された被写体の範囲に応じて前記1撮影条件、第2撮影条件のいずれかを選択すると共に、前記取得手段により取得した撮影状況が、前記選択した前記1撮影条件、第2撮影条件のいずれかに合致するか否かを判別する、ようにしたことを特徴とする請求項9記載の発明であってもよい。
請求項1に従属する発明として、前記制御手段は、前記判別手段による判別結果に応じて静止画像の撮影時にシャッタを切るタイミングを制御する、ようにしたことを特徴とする請求項10記載の発明であってもよい。
請求項1に従属する発明として、前記制御手段は、前記判別手段による判別結果に応じて動画像の撮影時に、動画撮影を開始するタイミング及び動画撮影を停止するタイミングを制御する、ようにしたことを特徴とする請求項11記載の発明であってもよい。
請求項1に従属する発明として、前記制御手段は、前記判別手段による判別結果に応じて撮影タイミングであることを報知する、ようにしたことを特徴とする請求項12記載の発明であってもよい。
また、上述した課題を解決するために請求項13記載の発明は、コンピュータに対して、複数の被写体の個々に対応して、被写体の撮影被写体の撮影タイミングを判別するための情報として、その被写体の周囲の環境に関する情報を撮影条件として記憶されている状態において、撮影レンズを通して取得した画像に対する画像認識により当該取得した画像内に含まれている被写体が前記記憶されているどの被写体であるかを特定する機能と、前記被写体が特定された場合に、その時点での周囲環境を検出することにより得られた検出結果を撮影状況として取得する機能と、前記取得した撮影状況が、前記特定された被写体に対応して前記記憶されている撮影条件に合致するか否かを判別する機能と、前記特定された被写体に対する撮影タイミングを前記判別した結果に応じて制御する機能と、を実現させるためのプログラムを特徴とする。

本発明によれば、被写体の個々に適したタイミングで撮影を制御することができ、被写体の好みに応じた適切な撮影が可能となる。
撮像装置の基本的な構成要素を示したブロック図。 (1)〜(4)は、撮影条件判別フラグF1、予測撮影フラグF2、ユーザ設定フラグF3、撮影確認フラグF4を説明するための図。 (1)〜(3)は、被写体管理テーブルTBを説明するための図。 電源オンに応じて実行開始される撮像装置の全体動作の概要を示したフローチャート。 図4の動作に続くフローチャート。 図5の動作に続くフローチャート。 撮影条件設定処理(図4のステップA21、図5のステップA35)を詳述するためのフローチャート。 予測撮影処理(図4のステップA16)を詳述するためのフローチャート。
以下、図1〜図8を参照して本発明の実施形態を説明する。
図1は、撮像装置の基本的な構成要素を示したブロック図である。
撮像装置は、デジタルカメラ(コンパクトカメラ、一眼レフカメラ)である。制御部1は、二次電池を備えた電源部2からの電力供給によって動作し、記憶部3内の各種のプログラムに応じてこの撮像装置の全体動作を制御するもので、この制御部1にはCPU(中央演算処理装置)やメモリなどが設けられている。記憶部3は、ROM、RAMなどの内部メモリで、プログラム領域とデータ領域とを有し、このプログラム領域には、後述する図4〜図8に示す動作手順に応じて本実施形態を実現するためのプログラムが格納されている。
また、記憶部3のデータ領域には、フラグ情報(後述する撮影条件判別フラグF1、予測撮影フラグF2、ユーザ設定フラグF3、撮影確認フラグF4など)、タイマ情報(後述する予測撮影用タイマTM)、この撮像装置の動作に必要な各種の情報が一時記憶されているほか、撮影された撮影済み画像を画像ファイルとして保存する画像フォルダPFを有している。また、記憶部3のデータ領域には、後述するが、複数の被写体の個々に対応して、被写体の撮影タイミングを判別するための情報を撮影条件として記憶する被写体管理テーブルTBなどが設けられている。なお、記憶部3は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しない所定の外部サーバ上にあってもよい。
操作部4は、図示しないが、シャッタキー、再生キーなど、各種の押し釦式のキーを備え、制御部1は、操作部4からの操作信号に応じた処理を行う。なお、この実施形態においては操作部4の各キーを押しボタン型のキー(ハードキー)としたが、勿論、タッチスクリーン上のタッチキー(ソフトキー)で構成したものであってもよい。表示部5は、例えば、高精細液晶や有機EL(Electro Luminescence)などを使用したもので、画像の撮影時にはモニタ画面(ファインダ画面)として利用される。
撮像部6は、デジタルカメラを構成するもので、静止画撮影のほかに動画撮影も可能な構成で、静止画撮影モードと動画撮影モードとの切り替えが可能となっている。そして、撮像部6は、撮影レンズ6a、絞り機構6b、CCDあるいはCMOSなどの撮像素子6c、光学系駆動部6dなどのほか、図示省略したが、照明用のフラッシュ、アナログ処理回路、信号処理回路、圧縮伸張回路などを備え、オートフォーカス機能(AF機能)、露出調整機能(AE機能)、光学ズーム機能などを制御するようにしている。AF機能は、撮影レンズ6aから被写体までの距離を測定して焦点合わせを行う自動焦点合わせ機能で、この測定距離に応じて光学系駆動部6dは、撮影レンズ6aの位置を制御して焦点合わせを行う。露出調整機能(AE機能)は、絞りとシャッタスピードを設定内容に従って調整することによって露出値の調整を行うもので、周囲の明るさを光量センサによって検出する方式に限らず、撮像素子6cからの画像データを基に輝度を検出する方式など、任意の方式であってもよい。
制御部1は、撮影レンズ6aを通して取得したモニタ画像を表示部5にファインダ画面として表示させるほか、後で詳述するが、取得したモニタ画像に対して画像認識を行うことによりそのモニタ画像内に含まれている被写体(この実施形態では人物)は誰であるかを特定するようにしている。また、制御部1は、被写体撮影の直前に被写体が特定された場合に、その時点における被写体の撮影状態を表す情報を撮影状況として取得すると共に、この取得した撮影状況が被写体管理テーブルTBに記憶されている撮影条件に合致するか否かを判別し、その判別結果に応じて被写体の撮影タイミングを制御するようにしている。ここで、上述の撮影条件及び撮影状況は、被写体の外観に関する情報(姿に関する情報及び顔の表情に関する情報)、被写体から発声された音声に関する情報、被写体の周囲の環境に関する情報のいずれかを示している。
画像認識部7は、撮影レンズ6aを通して取得したモニタ画像内に含まれている被写体を画像認識するもので、制御部1は、この画像認識部7により認識された被写体の認識結果(被写体の外観に関する情報:被写体の姿、顔の表情)を被写体の撮影状態を表す撮影状況として取得する。音声認識部8は、被写体の撮影時にマイクロホン8aから入力された被写体の音声(被写体が発声した音声に関する情報:特定音、特定の言葉)を認識するもので、制御部1は、この音声認識部8により認識された被写体の認識結果を被写体の撮影状態を表す撮影状況として取得する。
撮影環境検出部9は、周囲の環境(被写体を撮影する際の周囲の環境に関する情報:明るさ、屋内/屋外、位置)を検出するもので、制御部1は、この撮影環境検出部9により検出された周囲の環境(明るさ、屋内/屋外、位置)を被写体の撮影状態を表す撮影状況として取得する。この撮影環境検出部9は、周囲の明るさを検出する明るさセンサ機能と、ゲート通過に応じて屋内か屋外かを検出する非接触ICカード機能と、現在の位置(経緯度情報)を検出するGPS機能(Global Positioning System)とを有する構成となっている。
図2は、撮影条件判別フラグF1、予測撮影フラグF2、ユーザ設定フラグF3、撮影確認フラグF4を説明するための図である。
図2(1)は、撮影条件判別フラグF1を示した図である。この撮影条件判別フラグF1は、被写体撮影の直前に取得した撮影状況が被写体管理テーブルTBに記憶されている撮影条件に合致するか否かを判別する場合に、画像認識部7による認識結果を撮影状況として使用して判別を行うか、音声認識部8による認識結果を撮影状況として使用して判別を行うか、撮影環境検出部9による検出結果を撮影状況として使用して判別を行うかを示すフラグである。すなわち、図示の例において、撮影条件判別フラグF1の値が“0”のときには、画像認識部7による認識結果を使用して判別を行う場合を示し、“1”のときには、音声認識部8による認識結果を使用して判別を行う場合を示し、“2”のときには、撮影環境検出部9による検出結果を使用して判別を行う場合を示している。
図2(2)は、予測撮影フラグF2を示した図である。この予測撮影フラグF2は、撮影レンズ6aを通して逐次取得したモニタ画像に対して画像認識を行い、モニタ画像内の被写体が良好な状態(例えば、ポーズや顔の表情)になるまでに要する時間を予測したり、被写体撮影時にマイクロホン8aから入力された被写体の音声を認識する音声認識を行い、その音声を発してから被写体が良好な状態になるまでに要する時間を予測したりして、その予測時間を予測撮影用タイマTMにセットしたか否かを示すフラグである。なお、この予測撮影用タイマTMは、セットされた予測時間を逐次減算するタイマで、その時間計測動作が開始されてから予測時間の経過後にタイムアウトとなる。図示の例において、予測撮影フラグF2の値が“0”のときには、予測撮影用のタイマに予測時間がセットされていない状態であることを示し、また、“1”のときには、予測撮影用のタイマに予測時間がセットされている状態であることを示している。
図2(3)は、ユーザ設定フラグF3を示した図である。このユーザ設定フラグF3は、被写体管理テーブルTBに撮影条件を設定する際に、撮影条件を自動設定するのか、ユーザ操作によって任意に設定するのかを示すフラグである。ここで、図示の例において、ユーザ設定フラグF3の値が“0”のときには、撮影条件を自動設定することを示し、また、“1”のときには、ユーザ操作によって任意設定することを示している。なお、自動設定する場合には、画像認識部7による認識結果を撮影条件として自動設定したり、音声認識部8による認識結果を撮影条件として自動設定したり、撮影環境検出部9による検出結果を撮影条件として自動設定したりする。
図2(4)は、撮影確認フラグF4を示した図である。この撮影確認フラグF4は、被写体撮影の直前の取得した撮影状況が被写体管理テーブルTBに記憶されている撮影条件に合致した際に自動的に撮影動作を開始するか、ユーザに対して撮影条件に合致したことを確認報知するのかを示すフラグである。ここで、図示の例において、撮影確認フラグF4の値が“0”のときには、撮影条件に合致すると判別した際に自動的に撮影動作を開始することを示し、また、“1”のときには、撮影条件に合致したことをユーザに対して確認報知を行うことを示している。
図3は、被写体管理テーブルTBを説明するための図である。
被写体管理テーブルTBは、複数の被写体の個々に対応して、被写体の撮影タイミングを判別するための情報を撮影条件として記憶するもので、その内容は、上述のように自動設定されたり、ユーザ操作によって任意に設定されたりしたもので、撮影条件判別フラグF1に対応して3種類の撮影条件を記憶する構成となっている。すなわち、図3(1)は、撮影条件判別フラグF1が“0”(画像認識結果を使用して判別を行う場合)に対応する被写体管理テーブルTBの内容を示し、「被写体特定用画像」、「顔の角度」、「目の開閉度」、「目線」、「口の開閉度」、「口角状態」、「身体の向き」、「手足の位置状態」、「ポーズ」、「ユーザ設定フラグ」の各項目を有する構成となっている。
「被写体特定用画像」は、被写体(人物)の特徴から誰を撮影するのかを特定するために予め登録された被写体画像(比較対象の登録画像)であり、制御部1は、この登録画像とモニタ画像とを比較することによって、例えば、顔の輪郭、目・口・鼻・額などの形・位置・大きさ、メガネの有無・種類、身長、肉付き、髪型、手足などの各部位のバランス、推定年齢を個別に判断したり、総合的に判断したりしながら被写体として誰を撮影するのかを特定するようにしている。なお、「被写体特定用画像」は、被写体を撮影した画像自体(画像パターン)に限らず、被写体の特徴を詳細に記した被写体の特徴情報であってもよい。
「顔の角度」、「目の開閉度」、「目線」、「口の開閉度」、「口角状態」は、被写体の顔の表情に関する情報で、例えば、被写体にとって最良の表情(キメ顔など)を示す情報(撮影条件)である。「身体の向き」、「手足の位置状態」、「ポーズ」は、身体(姿)に関する情報で、例えば、被写体にとって最良の姿勢(キメポーズなど)を示す情報(撮影条件)である。なお、「顔の角度」、「目の開閉度」、…、「手足の位置状態」、「ポーズ」の要素毎に、複数の情報(撮影条件)を記憶可能な構成となっている。
ここで、被写体撮影の直前の取得した撮影状況が被写体管理テーブルTBに記憶されている撮影条件に合致するか否かを判別する場合に、顔の表情に関する撮影条件(第1撮影条件)、身体(姿)に関する撮影条件(第2撮影条件)のいずれかを使用してその判別を行うが、その際、モニタ画像内に収まっているか被写体の範囲を検出し、その範囲が被写体の上半身よりも上の部分であれば(被写体の顔の表情を重視する場合)には、顔の表情に関する撮影条件(第1撮影条件)を使用し、また、その範囲が被写体の全身又は略全身であれば(被写体の姿を重視する場合)には、身体に関する撮影条件(第2撮影条件)を使用するようにしている。
この撮影条件は、良好な表情や身体の状態(例えば、静止画撮影であれば、ベストショット、動画撮影であれば、ベストシーン)を示す情報である。この実施形態においては、被写体の静止画撮影の直前に取得したモニタ画像内における被写体の顔の各部位を分析することにより得られた撮影状況と、上述の撮影条件として記憶されている「顔の角度」、「目の開閉度」、「目線」、「口の開閉度」、「口角状態」とを比較することにより、それらが合致(類似も含む)するか否かを総合的に判別し、その総合判断の結果、例えば、全ての要素の合致を検出した際に、シャッタを切って撮影を開始させるようにしている。なお、「顔の角度」、「目の開閉度」、「目線」、「口の開閉度」、「口角状態」の全てが合致する場合に限らず、その2以上の組み合わせが合致するか否かを判別したり、その個々に合致するか否かを判別したりするようにしてもよい。
同様に、被写体の静止画撮影の直前に取得したモニタ画像内の被写体の全身分析することにより得られた撮影状況と、上述の撮影条件として記憶されている「身体の向き」、「手足の位置状態」、「ポーズ」とを比較することにより、それらが合致(類似も含む)するか否かを総合的に判別し、総合判断の結果、例えば、全ての要素の合致を検出した際に、シャッタを切って撮影を開始させるようにしている。なお、「身体の向き」、「手足の位置状態」、「ポーズ」の全てが合致する場合に限らず、その2以上の組み合わせが合致するか否かを判別したり、その個々に合致するか否かを判別したりするようにしてもよい。
また、動画の撮影時における撮影条件の合致(類似)判断は、静止画撮影時における合致(類似)判断よりも緩和して行うようにしている。従って、被写体管理テーブルTBは、静止画撮影用の撮影条件を記憶するほかに、動画撮影用の撮影条件を記憶する構成となっている。例えば、静止画撮影用の「目の開閉度」が“80%以上”、「口の開閉度」が“50%〜80%”であるのに対し、動画撮影用の「目の開閉度」は、“30%以上”、「口の開閉度」が“20%〜100%”となっている。「ユーザ設定フラグ」は、上述のようにユーザ操作によって撮影条件を設定するのか否かを示すフラグである。
図3(2)は、撮影条件判別フラグF1が“1”(音声認識結果を使用して判別を行う場合)に対応する被写体管理テーブルTBの内容を示し、「被写体特定用画像」、「掛け声」、「ユーザ設定フラグ」の各項目を有する構成となっている。「被写体特定用画像」は、図3(1)で説明した登録画像であり、「掛け声」は、例えば、被写体が撮影開始を合図する際に発声する掛け声(特定音、特定の言葉)であり、複数記憶可能な構成となっている。ここで、制御部1は、被写体の撮影時にマイクロホン8aから入力された被写体の音声(掛け声)を音声認識部8により認識した結果を撮影取得して、この撮影状況と撮影条件としての「掛け声」とを比較することにより、それらが合致(類似も含む)するか否かを判別し、合致した際に撮影を開始させるようにしている。「ユーザ設定フラグ」は、上述のようにユーザ操作により撮影条件を任意に設定するのか否かを示すフラグである。
図3(3)は、撮影条件判別フラグF1が“2”(撮影環境を使用して判別を行う場合)に対応する被写体管理テーブルTBの内容を示し、「被写体特定用画像」、「明るさ」、「屋内/室内」、「位置」、「ユーザ設定フラグ」の各項目を有する構成となっている。「被写体特定用画像」は、図3(1)で説明した登録画像であり、「明るさ」、「屋内/室内」、「位置」は、被写体を撮影する際の周囲の環境に関する情報であり、「明るさ」、「屋内/室内」、「位置」の要素毎に複数記憶可能な構成となっている。
ここで、制御部1は、撮影環境検出部9から取得した周囲環境を撮影直前の撮影状況として取得して、この撮影状況と撮影条件の「明るさ」、「屋内/室内」、「位置」とを比較することにより、そのいずれかに合致(類似も含む)するか否かを判別し、そのいずれかに合致した際に撮影を開始させるようにしている。なお、「明るさ」、「屋内/室内」、「位置」の個々のいずれかに合致するか否かを判別する場合に限らず、その2以上の組み合わせに合致するか否かを判別したり、その全てに合致するか否かを判別したりするようにしてもよい。「ユーザ設定フラグ」は、上述のようにユーザ操作により撮影条件を設定するのか否かを示すフラグである。
次に、実施形態における撮像装置の動作概念を図4〜図8に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体のほかに、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。
図4〜図6は、電源オンに応じて実行開始される撮像装置の全体動作の概要を示したフローチャートである。
先ず、制御部1は、電源オンに応じて所定のメモリの内容をクリアしたり、予測撮影フラグF2を初期値“0”としたりする初期化処理を実行した後(図4のステップA1)、静止画撮影モードに切り替えられたかを調べたり(ステップA2)、動画撮影モードに切り替えられたかを調べたり(図5のステップA24)、画像閲覧操作が行われたかを調べたり(図6のステップA43)、設定変更操作が行われたかを調べたり(図6のステップA51)、その他の操作が行われたかを調べたりする(図6のステップA53)。
いま、設定変更操作が行われたときには(図6のステップA51でYES)、撮影条件判別フラグF1、撮影確認フラグF4などをユーザ操作によって任意に設定する設定更新処理を行った後(ステップA52)、図4のステップA2に戻る。また、静止画撮影モードと動画撮影モードとの切り替え操作など、その他の操作が行われたときには(図6のステップA53でYES)、操作に応じた処理として、撮影モードの切り替え処理などを行った後(ステップA54)、図4のステップA2に戻る。
また、画像閲覧操作が行われたかときには(図6のステップA43でYES)、画像フォルダPFに保存されている撮影済み画像を読み出して一覧表示(サムネイル表示)させ、その一覧表示画面の中からユーザ操作で任意の撮影済み画像が選択指定されると(ステップA44)、撮影条件をユーザ操作により任意に設定することを指示する撮影条件設定操作が行われたかを調べたり(ステップA45)、画像閲覧の終了を指示する操作が行われたかを調べたりする(ステップA50)。ここで、撮影条件設定操作が行われたときには(ステップA45でYES)、ユーザ操作により選択された撮影済み画像(閲覧画像)に対する画像認識を実行させ、被写体管理テーブルTB内に同一被写体が記憶されているか、つまり、画像認識された被写体が被写体管理テーブルTB内に記憶されているか(被写体を特定することができた)を調べる(ステップA46)。
その結果、被写体管理テーブルTB内に同一被写体が記憶されていて被写体を特定することができたときには(ステップA46でYES)、その被写体に対応する被写体管理テーブルTBの内容をユーザ設定の撮影条件に代えるために、その被写体に対応して既に設定されている全ての撮影条件を削除する(ステップA47)。そして、その被写体に対応する撮影条件を被写体管理テーブルTB内に記憶させる(ステップ48)。この場合、ユーザ操作により選択された撮影済み画像(閲覧画像)を画像認識することによって、「顔の角度」、「目の開閉度」、…、「手足の位置状態」、「ポーズ」の要素毎に撮影条件を生成して、被写体管理テーブルTB内に記憶させる。
このようにユーザ選択した撮影済み画像に対する画像認識により撮影条件を自動生成して記憶させる場合に限らず、ユーザ操作によって入力指定された撮影条件を被写体管理テーブルTB内に記憶させるようにしてもよい。このようにして記憶した撮影条件の自動更新を禁止するために、それに対応する「ユーザ設定フラグ」を“1”とする(ステップA49)。以下、画像閲覧の終了操作が行われるまで(ステップA50)、上述のステップA44に戻るが、画像閲覧終了操作が行われると(ステップA50でYES)、図4のステップA2に戻る。
一方、静止画撮影モードに切り替えられたときには(図4のステップA2でYES)、予測撮影フラグF2の値は“0”であるかを調べるが(ステップA3)、最初の電源オン直後では、予測撮影フラグF2の値は“0”、つまり、予測撮影用のタイマに予測時間がセットされていない状態であるから(ステップA3でYES)、次のステップA4に移り、画像認識部7、音声認識部8、撮影環境検出部9を動作させることによって画像認識、音声認識、撮影環境検出を開始させる。この場合、画像認識部7は、撮影レンズ6aを通して取得したモニタ画像内に含まれている被写体を画像認識する動作を開始し、音声認識部8は、被写体の撮影時にマイクロホン8aから入力された被写体の音声を認識する動作を開始し、撮影環境検出部9は、明るさセンサ機能、非接触ICカード機能、GPS機能によって周囲の環境(明るさ、屋内/屋外、位置)を検出する動作を開始する。
そして、制御部1は、撮影レンズ6aを通して取得したモニタ画像を表示部5にファインダ画面として表示させるほか、このモニタ画像を被写体特定用として取得する(ステップA5)。そして、撮影条件判別フラグF1の値に対応する被写体管理テーブルTBの内容を参照し(ステップA6)、画像認識された被写体と、被写体管理テーブルTB内に記憶されている「被写体特定用画像(登録画像)」とを比較することによって、モニタ画像内の被写体は被写体管理テーブルTBに記憶されている被写体であるか(被写体を特定することができたか)を調べる(ステップA7)。
ここで、被写体管理テーブルTBに記憶されている被写体でなければ(ステップA7でNO)、被写体を特定することができない場合であるからステップA17に移り、シャッタ操作が行われたかを調べたり、静止画撮影モードを解除するために終了操作が行われたかを調べたりする(ステップA18)。ここで、シャッタ操作及び静止画撮影モードの終了操作が行われなければ(ステップA18でNO)、上述のステップA3に戻る。また、静止画撮影モードの終了操作が行われたときには(ステップA18でYES)、上述のステップA2に戻るが、シャッタ操作が行われたときには(ステップA17でYES)、シャッタを切って撮影を実行させる(ステップA19)。そして、その撮影画像を画像フォルダPFに保存させた後(ステップA20)、後述する撮影条件設定処理の実行に移る(ステップA21)。
図7は、撮影条件設定処理(図4のステップA21など)を詳述するためのフローチャートである。
先ず、制御部1は、撮影条件判別フラグF1の値に対応する被写体管理テーブルTBを参照し(図7のステップB1)、モニタ画像内の被写体に対応付けてその撮影条件が記憶されているかを調べるが(ステップB2)、いま、モニタ画像内の被写体が被写体管理テーブルTBに記憶されておらず、それに対応する撮影条件も記憶されていない場合には(ステップB2でNO)、次のステップB7に移り、撮影条件判別フラグF1の値に対応する撮影状況を取得する。
すなわち、撮影条件判別フラグF1の値が“0”のときには、画像認識部7による認識結果を撮影状況として取得し、“1”のときには、音声認識部8による認識結果を撮影状況として取得し、“2”のときには、撮影環境検出部9による検出結果を撮影状況として取得する。そして、モニタ画像内から被写体(人物)に相当する画像部分を抽出し(ステップB8)、この抽出画像を「被写体特定用画像」として撮影条件判別フラグF1の値に対応する被写体管理テーブルTB内に新規記憶させると共に(ステップB9)、上述のようにして取得した撮影状況を、その「被写体特定用画像」に対応する撮影条件として新規記憶させる(ステップB10)。その後、図4のステップA3に戻る。
一方、撮影条件判別フラグF1の値に対応する被写体管理テーブルTBを参照した結果、この被写体管理テーブルTBに記憶されている被写体であれば(図4のステップA7でYES)、被写体を特定することができた場合であるから、撮影条件判別フラグF1の値に対応する撮影状況を取得する(ステップA8)。すなわち、撮影条件判別フラグF1の値が“0”のときには、画像認識部7による認識結果を撮影状況として取得し、“1”のときには、音声認識部8による認識結果を撮影状況として取得し、“2”のときには、撮影環境検出部9による検出結果を撮影状況として取得する。このように被写体撮影の直前に取得した撮影状況に基づいて撮影条件判別フラグF1の値に対応する被写体管理テーブルTBを参照し、取得した撮影状況が被写体管理テーブルTBに記憶されている撮影条件に合致するかを調べる(ステップA9)。
ここで、撮影条件判別フラグF1の値が“0”のときには、図3(1)に示した被写体管理テーブルTBを参照し、“1”のときには、図3(2)に示した被写体管理テーブルTBを参照し、“2”のときには、図3(3)に示した被写体管理テーブルTBを参照することによって撮影条件に合致するかを調べる。その際、図3(1)に示した被写体管理テーブルTBの内容のうち、モニタ画像内に被写体の顔や上半身が収まっているような場合(被写体の顔の表情を重視する場合)には、顔の表情に関する撮影条件を参照し、また、モニタ画像内に被写体の全身が収まっているような場合(被写体の姿を重視する場合)には、身体に関する撮影条件を参照してその判別を行う。
その結果、取得した撮影状況が被写体管理テーブルTBに記憶されている撮影条件に合致するときには(ステップA9でYES)、撮影確認フラグF4を参照し、それが“1”か、つまり、撮影条件に合致した際にユーザに合致したことを報知することが指定されているか否かを調べる(ステップA10)。その結果、撮影確認フラグF4が“0”であれば(ステップA10でNO)、上述のステップA19に移って自動的に撮影を実行させる。その後、撮影画像を画像フォルダPFに保存させた後(ステップA20)、撮影条件設定処理に移る(ステップA21)。また、撮影確認フラグF4が“1”のときには(ステップA10でYES)、アラーム音、点滅表示、メッセージ表示、バイブレーションなどの任意の報知手段により、ユーザに対して撮影条件に合致したことを確認報知する処理を行う(ステップA11)。
そして、この確認報知に応答して、撮影実行を肯定するOK操作が行われたかを調べ(ステップA12)、OK操作が行われなければ(ステップA12でNO)、上述のステップA3に戻るが、OK操作が行われたときには(ステップA12でYES)、上述のステップA19に移って撮影を実行させる。その後、撮影画像を画像フォルダPFに保存させてから(ステップA20)、撮影条件設定処理に移る(ステップA21)。
この場合、図7の撮影条件設定処理においては、撮影条件判別フラグF1の値に対応する被写体管理テーブルTBを参照し(図7のステップB1)、モニタ画像内の被写体に対応付けてその撮影条件が記憶されているかを調べるが(ステップB2)、いま、撮影条件が既に記憶されていれば(ステップB2でYES)、ユーザ設定フラグF3を参照して、その値は“0”か、つまり、撮影条件を自動設定するのかを調べ(ステップB3)、その値が“1”であれば(ステップB3でNO)、ユーザ操作によって撮影条件を設定する場合であるから、この時点で図4のステップA3に戻る。
ユーザ設定フラグF3の値が“0”のときには(ステップB3でYES)、撮影条件判別フラグF1の値に対応する撮影状況を取得する(ステップB4)。すなわち、撮影条件判別フラグF1の値が“0”のときには、画像認識部7による認識結果を撮影状況として取得する。この場合、「顔の角度」、「目の開閉度」、…、「手足の位置状態」、「ポーズ」の要素毎に撮影状況として取得する。また、撮影条件判別フラグF1の値が“1”のときには、音声認識部8による認識結果を撮影状況として取得し、“2”のときには、撮影環境検出部9による検出結果を撮影状況として要素毎「明るさ」、「屋内/室内」、「位置」に取得する。そして、図4のステップA7で特定された被写体に基づいて被写体管理テーブルTBを検索し(ステップB5)、取得した撮影状況に基づいてその被写体に対応する撮影条件を生成して被写体管理テーブルTB内に追加記憶させる(ステップB6)。これによって、被写体管理テーブルTBには被写体撮影を行う毎に、新たな撮影条件が順次蓄積されることになる。
また、取得した撮影状況が被写体管理テーブルTBに記憶されている撮影条件に合致しなかったときには(図4のステップA9でNO)、シャッタ操作が行われたかを調べたり(ステップA13)、静止画撮影モードが解除されて終了したかを調べたりする(ステップA14)。いま、シャッタ操作が行われたときには(ステップA13でYES)、シャッタを切って撮影を実行させる(ステップA19)。そして、撮影画像を画像フォルダPFに保存させた後(ステップA20)、撮影条件設定処理に移る(ステップA21)。
この場合、図7の撮影条件設定処理においては、図4のステップA7で特定された被写体に対応してその撮影条件が記憶されていれば(図7のステップB2でYES)、上述の処理に移り(ステップB3〜B6)、その撮影条件が記憶されていなければ(ステップB2でNO)、上述した処理に移る(ステップB7〜B10)。
このような静止画撮影モードにおいて、静止画撮影モードの解除操作が行われたときには(図4のステップA14でYES)、上述のステップA2に戻るが、シャッタ操作及び静止画撮影モードの解除操作も行われなければ(ステップA14でNO)、撮影条件判別フラグF1を参照し、その値は“2”ではないか、つまり、撮影環境検出部9による検出結果を使用して判別を行った場合かを調べ(ステップA15)、撮影条件判別フラグF1の値が“2”でなければ(ステップA15でYES)、後述する予測撮影処理に移るが(ステップA16)、その値が“2”であれば(ステップA15でNO)、予測撮影には周囲環境を撮影条件とすることは不向きであるとして、この予測撮影処理(ステップA16)をキャンセルした後、上述のステップA3に戻る。
図8は、予測撮影処理(図4のステップA16)を詳述するためのフローチャートである。
先ず、制御部1は、撮影条件判別フラグF1の値が“0”又は“1”に対応する撮影状況を取得した後(図8のステップC1)、図4のステップA7で特定された被写体に基づいて被写体管理テーブルTBを検索し、その被写体に対応付けられている各撮影条件を読み出す(ステップC2)。そして、取得した撮影状況と、読み出した各撮影条件とを比較しながら被写体が良好な状態になるまでの時間を予測するための予測処理を行う(ステップC3)。
例えば、静止画撮影用の「目の開閉度」に対応して、目の開き具合が微妙に変化している多数の撮影条件が目の開き具合に応じた順に並べられて記憶されている場合に、つまり、目が徐々に開くような並び順に記憶されている場合に、取得した撮影状況がどの位置に記憶されている撮影条件に該当しているかによって、良好な状態になるまでに要する時間を予測する。また、音声の場合には、例えば、“ハイポーズ”の最初の音“ハ”を認識してから最後の音を検出するまでに要する時間を予測する。
このように要素毎に多数の撮影条件が規則性をもって順次記憶されている場合に、取得した撮影状況がその規則性に沿ったものであれば、予測可能となるが、規則性から外れていれば、予測不能となる。ここで、予測不能であれば(ステップC4でNO)、その時点で図4のステップA3に戻るが、予測可能であれば(ステップC4でYES)、シャッタを切るまでの時間の予測時間を算出し(ステップC5)、この算出時間を予測撮影用タイマTMにセットしてタイマ動作を開始させる(ステップC6)。そして、予測撮影用タイマTMに時間をセットしたことを示すために予測撮影フラグF2を“1”とした後(ステップC7)、図4のステップA3に戻る。
このようにして予測撮影フラグF2が“0”から“1”に変化したときには、図4のステップA3ではNOと判断されるため、次のステップA22に移り、タイマ時間が経過したか、つまり、予測撮影用タイマTMがタイムアウトとなったかを調べ、タイマ時間が経過するまでステップA3に戻る。ここで、タイマ時間の経過を検出すると(ステップA22でYES)、予測撮影フラグF2を“0”とした後(ステップA23)、シャッタを切って撮影を実行させる(ステップA19)。そして、撮影画像を画像フォルダPFに格納させた後(ステップA20)、撮影条件設定処理に移る(ステップA21)。
他方、動画撮影モードに切り替えられたときには(図5のステップA24でYES)、画像認識部7、音声認識部8、撮影環境検出部9を動作させて画像認識、音声認識、撮影環境検出を開始させる(ステップA25)。この場合、画像認識部7は、撮影レンズ6aを通して取得したモニタ画像(動画の中から抽出した静止画像)内に含まれている被写体を画像認識する動作を開始し、音声認識部8は、被写体の撮影時にマイクロホン8aから入力された被写体の音声を認識する動作を開始し、撮影環境検出部9は、明るさセンサ機能、非接触ICカード機能、GPS機能によって周囲の環境(明るさ、屋内/屋外、位置)を検出する動作を開始する。
そして、制御部1は、撮影レンズ6aを通して取得したモニタ画像を表示部5にファインダ画面として表示させるほか、このモニタ画像(動画内から抽出した静止画像)を被写体特定用画像として取得する(ステップA26)。そして、撮影条件判別フラグF1の値に対応する被写体管理テーブルTBの内容を参照し(ステップA27)、この被写体管理テーブルTB内の「被写体特定用画像」とモニタ画像とを比較し、モニタ画像内の被写体は被写体管理テーブルTBに記憶されている被写体であるか(被写体を特定することができたか)を調べる(ステップA28)。
ここで、被写体管理テーブルTBに記憶されている被写体でなければ(ステップA28でNO)、被写体を特定することができない場合であるから、録画開始操作が行われたかを調べたり(ステップA36)、動画撮影モードを解除するために終了操作が行われたかを調べたりする(ステップA37)。いま、録画開始操作及び動画撮影モードの終了操作が行われなければ(ステップA37でNO)、上述のステップA25に戻るが、動画撮影モードの終了操作が行われたときには(ステップA37でYES)、図4のステップA2に戻る。また、録画開始操作が行われたときには(ステップA36でYES)、動画撮影を開始させて、動画を画像フォルダPFに逐次格納させる(ステップA41)。その後、撮影停止操作が行われるまで録画を継続する(ステップA42)。ここで、撮影停止操作が行われると(ステップA42でYES)、動画撮影を停止させた後(ステップA34)、図7の撮影条件設定処理に移る(ステップA35)。
また、撮影条件判別フラグF1の値に対応する被写体管理テーブルTBを参照した結果、この被写体管理テーブルTBに記憶されている被写体であれば(図5のステップA28でYES)、被写体を特定することができた場合であるから、撮影条件判別フラグF1の値に対応する撮影況を取得する(ステップA29)。すなわち、撮影条件判別フラグF1の値が“0”のときには、画像認識部7による認識結果を撮影状況として取得し、“1”のときには、音声認識部8による認識結果を撮影状況として取得し、“2”のときには、撮影環境検出部9による検出結果を撮影状況として取得する。そして、被写体撮影の直前に取得した撮影状況に基づいて撮影条件判別フラグF1の値に対応する被写体管理テーブルTBを参照し、取得した撮影状況が被写体管理テーブルTBに記憶されている撮影条件に合致するかを調べる(ステップA30)。
いま、取得した撮影状況が被写体管理テーブルTBに記憶されている撮影条件に合致していなければ(ステップA30でNO)、動画の撮影中であるかを調べたり(ステップA38)、録画開始操作が行われたかを調べたり(ステップA39)、動画撮影モードを解除するために終了操作が行われたかを調べたりする(ステップA40)。ここで、動画撮影中ではなく(ステップA38でNO)、録画撮影開始操作及び動画撮影モードの終了操作が行われなければ(ステップA39、A40でNO)、上述のステップA25に戻るが、録画開始操作が行われたときには(ステップA39でYES)、動画撮影を開始させた後(ステップA41)、撮影停止操作が行われるまで録画を継続する(ステップA42)。ここで、撮影停止操作が行われると(ステップA42でYES)、その操作に応答して撮影動作を停止させる(ステップA34)。その後、図7の撮影条件設定処理を実行した後(ステップA35)、上述のステップA25に戻る。また、動画撮影モードの終了操作が行われたときには(ステップA40でYES)、図4のステップA2に戻る。
また、取得した撮影状況が被写体管理テーブルTBに記憶されている撮影条件に合致したことを検出したときには(ステップA30でYES)、撮影中ではないことを条件に(ステップA31でNO)、動画撮影を開始させる(ステップA32)。そして、上述のステップA30に戻るが、この場合、引き続いて撮影条件が合致していることを検出したときには(ステップA30でYES)、上述のステップA31で撮影中であることが検出されるため、次のステップA33に移り、以下、撮影停止操作が行われるまで(ステップA33でNO)、上述のステップA30に戻る。
ここで、撮影停止操作が行われたときには(ステップA33でYES)、動画撮影動作を停止させた後(ステップA34)、図7の撮影条件設定処理に移る(ステップA35)。その後、上述のステップA25に戻る。
一方、また、撮影条件が合致していないことが検出された場合に(ステップA30でNO)、動画の撮影中であれば(ステップA38でYES)、この時点で撮影動作を停止させる(ステップA34)。つまり、動画の撮影中に撮影条件に合致しなくたった時点で撮影動作を自動停止させる。その後、図7の撮影条件設定処理を実行した後(ステップA35)、上述のステップA25に戻る。
以上のように、実施形態において制御部1は、被写体が特定された時点での撮影状況が、その被写体に対応して記憶されている撮影条件に合致するか否かを判別し、その判別結果に応じて撮影タイミングを制御するようにしたので、被写体の個々に適したタイミングで撮影を制御することができ、被写体の好みに応じた適切な撮影が可能となる。
撮影条件は、被写体の撮影タイミングを判別するための情報を複数の要素で表した情報であり、制御部1は、この撮影条件に対応して複数の要素からなる撮影状況を取得し、撮影状況が撮影条件に合致するか否かを要素毎に判別するようにしたので、例えば、顔の表情の撮影条件を「顔の角度」、「目の開閉度」、「目線」、「口の開閉度」、「口角状態」とすることで、撮影状況が撮影条件に合致するか否かを総合的に判別することができ、より好みに応じた撮影が可能となる。
撮影済み画像に対する画像認識により撮影条件を生成して被写体管理テーブルTBに記憶するようにしたので、撮影条件の自動記憶が可能となる。
複数の撮影済み画像のうち、ユーザ操作により任意に選択した撮影済み画像に対する画像認識により撮影条件を生成して被写体管理テーブルTBに記憶するようにしたので、ユーザの所望する撮影済み画像から撮影条件を生成させることができ、ユーザの好みに応じた撮影条件とすることが可能となる。
撮影条件は、被写体の外観に関する情報であり、制御部1は、モニタ画像に対する画像認識により得られた認識結果を撮影状況として取得して、撮影条件(被写体の外観に関する情報)と合致するかを判別するようにしたので、例えば、「顔の角度」、「目の開閉度」、「目線」、「口の開閉度」、「口角状態」、「身体の向き」、「手足の位置状態」、「ポーズ」を要素として、撮影タイミングを制御することができる。
撮影条件は、被写体が発声する音声に関する情報であり、制御部1は、被写体から発声された音声を認識することにより得られた認識結果を撮影状況として取得して、撮影条件(被写体が発声する音声に関する情報)と合致するかを判別するようにしたので、例えば、被写体が撮影開始を合図する際に発声する掛け声(特定音、特定の言葉)を要素として、撮影タイミングを制御することができる。
撮影条件は、被写体の周囲の環境に関する情報であり、制御部1は、周囲環境を検出することにより得られた検出結果を撮影状況として取得して、撮影条件(被写体の周囲の環境に関する情報)と合致するかを判別するようにしたので、例えば、「明るさ」、「屋内/室内」、「位置」を要素として、撮影タイミングを制御することができる。
撮影条件は、被写体の外観に関する情報であり、制御部1は、モニタ画像に対する画像認識により得られた認識結果を撮影状況として取得すると共に、この撮影状況と撮影条件(被写体の外観に関する情報)とを比較することによりその撮影状況が撮影条件に合致するまでに要する時間を予測して撮影タイミングを制御するようにしたので、例えば、被写体の動きが速くてもタイミングを外すことなく、被写体の好みに応じた適切な撮影が可能となる。
モニタ画像に対する画像認識によりモニタ画像内に被写体の顔や上半身が収まっているような場合(被写体の顔の表情を重視する場合)には、顔の表情に関する撮影条件を使用し、モニタ画像内に被写体の全身が収まっているような場合(被写体の姿を重視する場合)には、身体に関する撮影条件を使用して、撮影状況が撮影条件に合致するか否かを判別するようにしたので、被写体をどのように撮影するかに合わせて適切な撮影条件を使用してその判別を行うことができる。
静止画撮影時にシャッタを切るタイミングを制御するようにしたので、ベストショットと呼ばれる最良の静止画像を得ることができる。
動画像の撮影時に動画撮影を開始するタイミング及び動画撮影を停止するタイミングを制御するようにしたので、ベストシーンと呼ばれる最良の動画像を得ることができ、不要なシーンを部分的に消去する編集作業も不要となる。
撮影タイミングをユーザに報知するようにしたので、ユーザにあっては、この報知に応答して撮影実行を指示することができ、適切なタイミングでの撮影が可能となる。
なお、上述した実施形態においては、複数の撮影済み画像のうち、ユーザ操作により任意に選択した撮影済み画像に対する画像認識により撮影条件を生成して被写体管理テーブルTBに記憶するようにしたが、複数の撮影済み画像のうち、所定の被写体(例えば、人物)が含まれている撮影済み画像を抽出して画像認識を行うことにより撮影条件を生成して被写体管理テーブルTBに記憶するようにしてもよい。すなわち、ユーザ操作によって画像を選択するのに代わって自動的に画像を選択(抽出)するようにすれば、ユーザ操作が一切不要となり、利便性を高めることができる。
上述した実施形態においては、予測撮影時にタイマ時間の経過に応じてシャッタを切るようにしたが、タイマ時間が経過するまでの間にフォーカス調整及び露出調整を行うようにしてもよい。また、上述した実施形態においては、予測撮影を静止画撮影の場合に行うようにしたが、動画撮影の場合にも適用可能である。
上述した実施形態においては、撮影条件判別フラグF1の値に応じて画像認識結果、音声認識結果、周囲環境検出結果のいずれを撮影状況として取得するようにしたが、例えば、画像認識結果と音声認識結果との組み合わせを撮影状況として取得したり、音声認識結果と周囲環境検出結果との組み合わせなどを撮影状況として取得したりするようにしてもよい。この場合、撮影条件も被写体の外観に関する情報と音声に関する情報との組み合わせ、音声に関する情報と周囲環境に関する情報との組み合わせなどとしてもよい。
また、上述した実施形態においては、撮像装置を例示したが、これに限らず、例えば、撮像機能付きの携帯電話機・PDA・音楽プレイヤー・それらの複合機などであってもよい。
また、上述した実施形態において示した“装置”や“機”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。
1 制御部
3 記憶部
4 操作部
5 表示部
6 撮像部
6a 撮影レンズ
7 画像認識部
8 音声認識部
8a マイクロホン
9 撮影環境検出部
F1 撮影条件判別フラグ
F2 予測撮影フラグ
F3 ユーザ設定フラグ
F4 撮影確認フラグ
PF 画像フォルダ
TB 被写体管理テーブル
TM 予測撮影用タイマ

Claims (13)

  1. 複数の被写体の個々に対応して、被写体の撮影タイミングを判別するための情報として、その被写体の周囲の環境に関する情報を撮影条件として記憶する撮影条件記憶手段と、
    撮影レンズを通して取得した画像に対する画像認識により当該取得した画像内に含まれている被写体が前記撮影条件記憶手段内のどの被写体であるかを特定する被写体特定手段と、
    この被写体特定手段により被写体が特定された場合に、その時点での周囲環境を検出することにより得られた検出結果を撮影状況として取得する取得手段と、
    この取得手段により取得した撮影状況が、前記被写体特定手段により特定された被写体に対応して前記撮影条件記憶手段に記憶されている撮影条件に合致するか否かを判別する判別手段と、
    前記被写体特定手段により特定された被写体に対する撮影タイミングを前記判別手段による判別結果に応じて制御する制御手段と、
    を備えることを特徴とする撮像装置。
  2. 前記撮影条件は、被写体の撮影タイミングを判別するための情報を複数の要素で表した情報であり、
    前記取得手段は、前記撮影条件に対応して複数の要素からなる撮影状況を取得し、
    前記判別手段は、撮影状況が撮影条件に合致するか否かを前記要素毎に判別する、
    ようにしたことを特徴とする請求項1記載の撮像装置。
  3. 撮影済み画像を記憶する画像記憶手段と、
    この画像記憶手段に記憶されている撮影済み画像に対する画像認識により前記撮影条件を生成する撮影条件生成手段を更に備え、
    前記撮影条件記憶手段は、前記撮影済み画像内の被写体に対応して、前記撮影条件生成手段により生成された撮影条件を記憶する、
    ようにしたことを特徴とする請求項1記載の撮像装置。
  4. 前記画像記憶手段に記憶されている複数の撮影済み画像のうち、各撮影済み画像に対する画像認識により所定の被写体が含まれている撮影済み画像を抽出する抽出手段を更に備え、
    前記撮影条件生成手段は、前記抽出手段により抽出された撮影済み画像に対する画像認識により当該撮影済み画像内の被写体に対応する撮影条件を生成する、
    ようにしたことを特徴とする請求項3記載の撮像装置。
  5. 前記画像記憶手段に記憶されている複数の撮影済み画像のうち、ユーザ操作により任意の撮影済み画像を選択する選択手段を更に備え、
    前記撮影条件生成手段は、前記選択手段により選択された撮影済み画像に対する画像認識により当該撮影済み画像内の被写体に対応する撮影条件を生成する、
    ようにしたことを特徴とする請求項3記載の撮像装置。
  6. 前記撮影条件は、被写体の撮影タイミングを判別するための情報として、前記被写体の周囲の環境に関する情報に代えて、その被写体の外観に関する情報であり、
    前記取得手段は、撮影レンズを通して取得した画像に対する画像認識により得られた認識結果を撮影状況として取得する、
    ようにしたことを特徴とする請求項1記載の撮像装置。
  7. 前記撮影条件は、被写体の撮影タイミングを判別するための情報として、前記被写体の周囲の環境に関する情報に代えて、その被写体が発声する音声に関する情報であり、
    前記取得手段は、被写体から発声された音声を認識することにより得られた認識結果を撮影状況として取得する、
    ようにしたことを特徴とする請求項1記載の撮像装置。
  8. 前記撮影条件は、被写体の撮影タイミングを判別するための情報として、前記被写体の周囲の環境に関する情報に代えて、その被写体の外観に関する情報であり、
    前記取得手段は、撮影レンズを通して取得した画像に対する画像認識により得られた認識結果を撮影状況として取得し、
    前記判別手段は、前記取得手段により取得した撮影状況と前記撮影条件記憶手段に記憶されている撮影条件とを比較することによりその撮影状況が撮影条件に合致するまでに要する時間を予測し、
    前記制御手段は、前記判別手段による予測結果に応じて撮影タイミングを制御する、
    ようにしたことを特徴とする請求項1記載の撮像装置。
  9. 撮影レンズを通して取得した画像に対する画像認識により当該画像に収まっている被写体の範囲を検出する範囲検出手段を更に備え、
    前記撮影条件は、被写体の撮影タイミングを判別するための情報として、前記被写体の周囲の環境に関する情報に代えて、その被写体の外観に関する情報であり、
    前記撮影条件記憶手段は、被写体の部分の外観に関する情報を第1撮影条件として記憶すると共に、この被写体の全体又は略全体の外観に関する情報を第2撮影条件として記憶し、
    前記判別手段は、前記範囲検出手段により検出された被写体の範囲に応じて前記1撮影条件、第2撮影条件のいずれかを選択すると共に、前記取得手段により取得した撮影状況が、前記選択した前記1撮影条件、第2撮影条件のいずれかに合致するか否かを判別する、
    ようにしたことを特徴とする請求項1記載の撮像装置。
  10. 前記制御手段は、前記判別手段による判別結果に応じて静止画像の撮影時にシャッタを切るタイミングを制御する、
    ようにしたことを特徴とする請求項1記載の撮像装置。
  11. 前記制御手段は、前記判別手段による判別結果に応じて動画像の撮影時に、動画撮影を開始するタイミング及び動画撮影を停止するタイミングを制御する、
    ようにしたことを特徴とする請求項1記載の撮像装置。
  12. 前記制御手段は、前記判別手段による判別結果に応じて撮影タイミングであることを報知する、
    ようにしたことを特徴とする請求項1記載の撮像装置。
  13. コンピュータに対して、
    複数の被写体の個々に対応して、被写体の撮影被写体の撮影タイミングを判別するための情報として、その被写体の周囲の環境に関する情報を撮影条件として記憶されている状態において、撮影レンズを通して取得した画像に対する画像認識により当該取得した画像内に含まれている被写体が前記記憶されているどの被写体であるかを特定する機能と、
    前記被写体が特定された場合に、その時点での周囲環境を検出することにより得られた検出結果を撮影状況として取得する機能と、
    前記取得した撮影状況が、前記特定された被写体に対応して前記記憶されている撮影条件に合致するか否かを判別する機能と、
    前記特定された被写体に対する撮影タイミングを前記判別した結果に応じて制御する機能と、
    を実現させるためのプログラム。
JP2009268805A 2009-11-26 2009-11-26 撮像装置及びプログラム Active JP5510999B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009268805A JP5510999B2 (ja) 2009-11-26 2009-11-26 撮像装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009268805A JP5510999B2 (ja) 2009-11-26 2009-11-26 撮像装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2011114554A JP2011114554A (ja) 2011-06-09
JP5510999B2 true JP5510999B2 (ja) 2014-06-04

Family

ID=44236576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009268805A Active JP5510999B2 (ja) 2009-11-26 2009-11-26 撮像装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5510999B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105120144A (zh) * 2015-07-31 2015-12-02 小米科技有限责任公司 图像拍摄方法和装置
CN105120191A (zh) * 2015-07-31 2015-12-02 小米科技有限责任公司 视频录制方法和装置
JP6589900B2 (ja) * 2017-01-27 2019-10-16 京セラドキュメントソリューションズ株式会社 映像処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4743823B2 (ja) * 2003-07-18 2011-08-10 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法
JP4492273B2 (ja) * 2004-09-22 2010-06-30 株式会社ニコン 撮像装置およびプログラム
JP2006115406A (ja) * 2004-10-18 2006-04-27 Omron Corp 撮像装置
JP5050465B2 (ja) * 2006-09-21 2012-10-17 カシオ計算機株式会社 撮像装置、撮影制御方法、およびプログラム
JP2009163422A (ja) * 2007-12-28 2009-07-23 Canon Inc 画像処理装置、画像処理方法、及び画像処理プログラム

Also Published As

Publication number Publication date
JP2011114554A (ja) 2011-06-09

Similar Documents

Publication Publication Date Title
US7672580B2 (en) Imaging apparatus and method for controlling display device
JP4757173B2 (ja) 撮像装置及びその制御方法及びプログラム
JP4702418B2 (ja) 撮影装置、画像領域の存否判定方法及びプログラム
US8164644B2 (en) Method and apparatus for generating media signal by using state information
JP5713055B2 (ja) 撮像装置、撮像方法及びプログラム
US9549111B2 (en) Image capturing apparatus and control program product with speed detection features
TW201038063A (en) Digital camera and image capturing method
JP4605039B2 (ja) 自動撮影方法及び自動撮影装置並びに自動撮影プログラム
KR20100027700A (ko) 촬영 방법 및 장치
JP2009117975A (ja) 撮影装置および撮影方法
JP5510999B2 (ja) 撮像装置及びプログラム
JP2005045600A (ja) 画像撮影装置およびプログラム
JP5880135B2 (ja) 検出装置、検出方法及びプログラム
JP2010178259A (ja) デジタルカメラ
JP2014186580A (ja) 認証装置、撮像装置、認証用データの登録方法、プログラム、および、記憶媒体
JP5109864B2 (ja) 電子スチルカメラ
US10269389B2 (en) Video processing apparatus, video processing method, and program
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
JP2014150348A (ja) 撮影装置
JP2005045601A (ja) 画像撮影装置およびプログラム
JP5796737B2 (ja) 撮像装置及び撮像方法並びにプログラム
JP2013007851A (ja) 撮像装置
JP2010161644A (ja) 電子カメラ
JP5967422B2 (ja) 撮像装置及び撮像処理方法並びにプログラム
JP2015126369A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140320

R150 Certificate of patent or registration of utility model

Ref document number: 5510999

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350