JP2017135453A - 撮像装置、処理実行方法及びプログラム - Google Patents
撮像装置、処理実行方法及びプログラム Download PDFInfo
- Publication number
- JP2017135453A JP2017135453A JP2016011553A JP2016011553A JP2017135453A JP 2017135453 A JP2017135453 A JP 2017135453A JP 2016011553 A JP2016011553 A JP 2016011553A JP 2016011553 A JP2016011553 A JP 2016011553A JP 2017135453 A JP2017135453 A JP 2017135453A
- Authority
- JP
- Japan
- Prior art keywords
- face
- detected
- captured image
- person
- execution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】撮影された画像に人物の顔が含まれているか否かの判別に、ユーザによる判別を反映させること。【解決手段】撮像装置1は、顔検出処理部52と、通信制御部57・画像処理部56と、を備える。顔検出処理部52は、ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像部16−1により取得される撮像画像内に、人物の顔が検出されているか否かを判別する。通信制御部57・画像処理部56は、撮影が実行されたことを契機として、顔検出処理部52による判別結果に応じて、撮影された画像に異なる処理を実行する。【選択図】図3
Description
本発明は、撮像装置、処理実行方法及びプログラムに関する。
従来より、撮影装置により撮影された画像を撮影した撮影装置だけではなく、他の外部装置でも活用することが行われている。特許文献1では、他の外部装置でも活用するために画像が撮影されると自動的に外部装置に送信する技術が開示されている。
しかしながら、上述した特許文献1に開示された技術では、撮影された画像を全て送信することによる通信負荷や受信する外部装置の記憶容量への影響が懸念されるため、人物の顔が含まれる画像のみを送信することが考えられる。ユーザは人物の顔が含まれていると判別して撮影指示を行った場合であっても、実際に撮影処理が行われるタイミングとは時間差があるため、人物の顔の向きが変わるなどして撮影された画像を、装置が人物の顔が含まれない画像と判別して、送信されない場合があるという問題がある。
本発明は、このような状況に鑑みてなされたものであり、撮影される画像に人物の顔が含まれているか否かの判別に、ユーザによる判別を反映させることを目的とする。
上記目的を達成するため、本発明の一態様の撮像装置は、
ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別手段と、
撮影が実行されたことを契機として、前記判別手段による判別結果に応じて、撮影された画像に異なる処理を実行する実行手段と、
を備えることを特徴とする。
ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別手段と、
撮影が実行されたことを契機として、前記判別手段による判別結果に応じて、撮影された画像に異なる処理を実行する実行手段と、
を備えることを特徴とする。
本発明によれば、撮影される画像に人物の顔が含まれているか否かの判別に、ユーザによる判別を反映させることができる。
以下、本発明の実施形態について、図面を用いて説明する。
<第1の実施形態>
図1は、本発明の一実施形態に係る撮影システムSのシステム構成を示すシステム構成図である。
図1は、本発明の一実施形態に係る撮影システムSのシステム構成を示すシステム構成図である。
撮影システムSは、図1に示すように、撮像装置1と携帯端末2とを備える。
撮像装置1と携帯端末2との間では、第1通信方式である低消費電力で近距離無線通信のBLE(Bluetooth low energy,「Bluetooth」は登録商標)(商標)と、第2通信方式である大容量データ通信可能な近距離無線高速通信のWi−Fi(Wireless Fidelity)の2種類の通信方式で通信を行う。BLEは、常時接続しており、一方のWi−Fiでは、大容量のデータをやり取りする際に、BLE経由で撮像装置1からの接続指示に基づいて接続を確立するように構成される。
本実施形態においては、Wi−Fi通信経由で、撮像装置1で撮影された画像を携帯端末2に自動送信する。
撮像装置1と携帯端末2との間では、第1通信方式である低消費電力で近距離無線通信のBLE(Bluetooth low energy,「Bluetooth」は登録商標)(商標)と、第2通信方式である大容量データ通信可能な近距離無線高速通信のWi−Fi(Wireless Fidelity)の2種類の通信方式で通信を行う。BLEは、常時接続しており、一方のWi−Fiでは、大容量のデータをやり取りする際に、BLE経由で撮像装置1からの接続指示に基づいて接続を確立するように構成される。
本実施形態においては、Wi−Fi通信経由で、撮像装置1で撮影された画像を携帯端末2に自動送信する。
図2は、本発明の一実施形態に係る撮影システムSの撮像装置1及び携帯端末2のハードウェアの構成を示すブロック図である。
以下、まず、撮像装置1のハードウェアの構成について説明し、次いで、携帯端末2のハードウェアの構成について説明する。なお、撮像装置1のハードウェアの構成については、符号の末尾に「−1」を付すものとし、携帯端末2のハードウェアの構成については、符号の末尾に「−2」を付すものとする。
以下、まず、撮像装置1のハードウェアの構成について説明し、次いで、携帯端末2のハードウェアの構成について説明する。なお、撮像装置1のハードウェアの構成については、符号の末尾に「−1」を付すものとし、携帯端末2のハードウェアの構成については、符号の末尾に「−2」を付すものとする。
撮像装置1は、例えば、デジタルカメラとして構成される。
撮像装置1は、図2に示すように、CPU(Central Processing Unit)11−1と、ROM(Read Only Memory)12−1と、RAM(Random Access Memory)13−1と、バス14−1と、入出力インターフェース15−1と、撮像部16−1と、入力部17−1と、出力部18−1と、記憶部19−1と、第1通信部20−1と、第2通信部21−1と、ドライブ22−1と、を備えている。
撮像装置1は、図2に示すように、CPU(Central Processing Unit)11−1と、ROM(Read Only Memory)12−1と、RAM(Random Access Memory)13−1と、バス14−1と、入出力インターフェース15−1と、撮像部16−1と、入力部17−1と、出力部18−1と、記憶部19−1と、第1通信部20−1と、第2通信部21−1と、ドライブ22−1と、を備えている。
CPU11−1は、ROM12−1に記録されているプログラム、又は、記憶部19−1からRAM13−1にロードされたプログラムに従って各種の処理を実行する。
RAM13−1には、CPU11−1が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU11−1、ROM12−1及びRAM13−1は、バス14−1を介して相互に接続されている。このバス14−1にはまた、入出力インターフェース15−1も接続されている。入出力インターフェース15−1には、撮像部16−1、入力部17−1、出力部18−1、記憶部19−1、第1通信部20−1、第2通信部21−1及びドライブ22−1が接続されている。
撮像部16−1は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16−1の出力信号として出力される。
このような撮像部16−1の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11−1や図示しない画像処理部等に適宜供給される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16−1の出力信号として出力される。
このような撮像部16−1の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11−1や図示しない画像処理部等に適宜供給される。
入力部17−1は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18−1は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19−1は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
第1通信部20−1は、低速であるが省電力であり常時接続に適した第1通信方式で外部装置(本実施形態においては、携帯端末2)との間で行う通信を制御する。本実施形態においては、第1通信方式は、BLEの通信規格に基づいた通信方式を用いる。
第2通信部21−1は、高速でありファイルの送受信に適した第2通信方式で外部装置(本実施形態においては、携帯端末2)との間で行う通信を制御する。本実施形態においては、第2通信方式は、無線LANのうちWi−Fiの通信規格に基づいた通信方式を用いる。
ドライブ22−1には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31−1が適宜装着される。ドライブ22−1によってリムーバブルメディア31−1から読み出されたプログラムは、必要に応じて記憶部19−1にインストールされる。また、リムーバブルメディア31−1は、記憶部19−1に記憶されている画像のデータ等の各種データも、記憶部19−1と同様に記憶することができる。
携帯端末2は、例えば、スマートフォンとして構成される。
なお、携帯端末2において、撮像装置1と同様であるハードウェアの構成については、説明を省略する。即ち、撮像装置1のCPU11−1乃至リムーバブルメディア31−1と、CPU11−2乃至リムーバブルメディア31−2とは同様であるため、説明を省略する。
なお、携帯端末2において、撮像装置1と同様であるハードウェアの構成については、説明を省略する。即ち、撮像装置1のCPU11−1乃至リムーバブルメディア31−1と、CPU11−2乃至リムーバブルメディア31−2とは同様であるため、説明を省略する。
以上のように構成される撮影システムSでは、撮像装置1において、シャッタキーの半押し時(撮影仮指示時)に顔が検出された場合に、撮影した画像を携帯端末2に自動送信を行う機能を有する。このため、半押し時におけるユーザの認識で撮影が行われるために、仮に撮影指示時や撮影処理時に顔が画角内にない状態(顔が検出されない状態)であっても、ユーザの認識と異なる処理が行われない。具体的には、画像の自動送信を想定して、顔が検出されるようなアングルで半押しの操作をユーザが行った場合に、顔の向きが変わるなどして顔が検出されなくなった状態で撮影処理が行われた場合であっても、期待する画像の自動送信が行われなくなってしまうことがなく、ユーザの認識通りに画像の自動送信が行われる。
また、撮像装置1では、顔検出の有無に応じて、画像の自動送信の他にも、撮影した画像に対して美顔処理等の画像処理を実行する機能を有する。
即ち、撮像装置1では、例えば、顔検出がされた場合に、撮影した画像を携帯端末2に自動送信するようにしたり、撮影した画像に対して美顔処理等の画像処理を実行したりする。
即ち、撮像装置1では、例えば、顔検出がされた場合に、撮影した画像を携帯端末2に自動送信するようにしたり、撮影した画像に対して美顔処理等の画像処理を実行したりする。
さらに、撮像装置1では、撮影指示前には顔が検出されていた場合に、撮影指示時点において、顔が検出されていない状態となっていても、顔検出枠を顔が検出された時点の位置に表示する機能を有する。
これにより、ユーザが、顔が検出されているという認識の下で撮影指示を行っていた場合に、顔が検出されている状態で行う動作を実行することで、ユーザの顔が認識されていたという認識と、撮影に伴う処理の結果とを一致させることができ、ユーザの利便性を向上させることができる。
これにより、ユーザが、顔が検出されているという認識の下で撮影指示を行っていた場合に、顔が検出されている状態で行う動作を実行することで、ユーザの顔が認識されていたという認識と、撮影に伴う処理の結果とを一致させることができ、ユーザの利便性を向上させることができる。
図3は、図2の撮像装置1の機能的構成のうち、撮影処理を実行するための機能的構成を示す機能ブロック図である。
撮影処理とは、撮影指示において撮影処理を行う一連の処理である。撮影処理においては、撮影指示前の顔検出の有無に応じて、撮影する画像に対する動作を変えて、撮影指示前に顔が検出された場合には、当該顔が検出された位置に対応して顔枠を表示し続けたり、撮影した画像を携帯端末2への自動送信を行ったりする。
撮影処理とは、撮影指示において撮影処理を行う一連の処理である。撮影処理においては、撮影指示前の顔検出の有無に応じて、撮影する画像に対する動作を変えて、撮影指示前に顔が検出された場合には、当該顔が検出された位置に対応して顔枠を表示し続けたり、撮影した画像を携帯端末2への自動送信を行ったりする。
撮像装置1で撮影処理を実行する場合には、図3に示すように、CPU11−1において、撮像制御部51と、顔検出処理部52と、表示制御部53と、入力検出部54と、設定処理部55と、画像処理部56と、通信制御部57と、が機能する。
また、記憶部19−1の一領域には、画像記憶部71が設定される。
画像記憶部71には、撮像部16−1で撮影された画像のデータが記憶される。
画像記憶部71には、撮像部16−1で撮影された画像のデータが記憶される。
撮像制御部51は、撮影処理を実行するように撮像部16−1を制御する。
具体的には、撮像制御部51は、撮影処理の開始に伴って、ライブビュー撮影を行うように撮像部16−1を制御する。ライブビュー撮影により、撮像部16−1からライブビュー画像が逐次出力される。
また、撮像制御部51は、顔が検出された場合に、当該状態での撮影の設定(露出設定やフォーカス調整位置、等)をロックするように撮像部16−1を制御する。
また、撮像制御部51は、ユーザによる入力部17−1を介した撮影指示操作(本実施形態においては、後述する入力検出部54により検出されるシャッタキーの全押し操作)に基づいて、撮影処理を実行するように撮像部16−1を制御する。また、撮像制御部51は、撮像部16−1から画像(以下、「撮影画像」ともいう。)を取得する。
具体的には、撮像制御部51は、撮影処理の開始に伴って、ライブビュー撮影を行うように撮像部16−1を制御する。ライブビュー撮影により、撮像部16−1からライブビュー画像が逐次出力される。
また、撮像制御部51は、顔が検出された場合に、当該状態での撮影の設定(露出設定やフォーカス調整位置、等)をロックするように撮像部16−1を制御する。
また、撮像制御部51は、ユーザによる入力部17−1を介した撮影指示操作(本実施形態においては、後述する入力検出部54により検出されるシャッタキーの全押し操作)に基づいて、撮影処理を実行するように撮像部16−1を制御する。また、撮像制御部51は、撮像部16−1から画像(以下、「撮影画像」ともいう。)を取得する。
顔検出処理部52は、画像に含まれる被写体から顔を検出する。
具体的には、顔検出処理部52は、ライブビュー画像に含まれる被写体から人物の顔を検出する。人物の顔検出は、例えば、間引きされているライブビュー画像に対して行い、公知の技術を用いる。
また、顔検出処理部52は、顔を検出したか否かの判定を行う。
具体的には、顔検出処理部52は、ライブビュー画像に含まれる被写体から人物の顔を検出する。人物の顔検出は、例えば、間引きされているライブビュー画像に対して行い、公知の技術を用いる。
また、顔検出処理部52は、顔を検出したか否かの判定を行う。
表示制御部53は、画像を表示するように出力部18−1を制御する。
具体的には、表示制御部53は、ライブビュー画像を表示し、ライブビュー画像上に、顔が検出された旨の識別表示となる枠(以下、「顔枠」という。)を表示するように出力部18−1を制御する。詳細には、表示制御部53は、顔が検出された場合には、顔に対応する位置に顔枠を表示し、さらに、顔を検出しない状態であっても、シャッタキーの半押し時に顔が検出されていた場合には、最後に顔枠が表示されていた位置に顔枠を表示するように出力部18−1を制御する。
具体的には、表示制御部53は、ライブビュー画像を表示し、ライブビュー画像上に、顔が検出された旨の識別表示となる枠(以下、「顔枠」という。)を表示するように出力部18−1を制御する。詳細には、表示制御部53は、顔が検出された場合には、顔に対応する位置に顔枠を表示し、さらに、顔を検出しない状態であっても、シャッタキーの半押し時に顔が検出されていた場合には、最後に顔枠が表示されていた位置に顔枠を表示するように出力部18−1を制御する。
入力検出部54は、入力部17−1に対する操作を検出する。具体的には、入力検出部54は、シャッタキーとして構成される入力部17−1に対する半押し操作や全押し操作を検出する。
設定処理部55は、撮影に関する各種の設定や撮影画像の設定を行う。
具体的には、設定処理部55は、画像の自動送信設定のフラグをオン/オフしたり、撮影の設定をロックしたりする。設定処理部55は、例えば、半押し操作時に顔が検出されていた場合に、画像の自動送信設定のフラグをオンしたり、全押し操作時にシャッタキーを離した場合に、画像の自動送信設定のフラグをオフしたりする。
具体的には、設定処理部55は、画像の自動送信設定のフラグをオン/オフしたり、撮影の設定をロックしたりする。設定処理部55は、例えば、半押し操作時に顔が検出されていた場合に、画像の自動送信設定のフラグをオンしたり、全押し操作時にシャッタキーを離した場合に、画像の自動送信設定のフラグをオフしたりする。
画像処理部56は、画像に対して、人物の顔を美化する画像処理である美顔処理を実行する。美顔処理は、種々の手法を用いることができ、公知の技術を採用することができる。
具体的には、画像処理部56は、シャッタキーの半押し時に顔が検出されていた場合には、撮影画像に顔がない状態であっても、美顔処理を実行する。即ち、画像処理部56は、自動送信の対象となった画像に対して、美顔処理を実行する。
具体的には、画像処理部56は、シャッタキーの半押し時に顔が検出されていた場合には、撮影画像に顔がない状態であっても、美顔処理を実行する。即ち、画像処理部56は、自動送信の対象となった画像に対して、美顔処理を実行する。
通信制御部57は、携帯端末2との間で通信を行うように第1通信部20−1及び第2通信部21−1を制御する。通信制御部57は、第1通信部20−1でBLEを介して、Wi−Fiでの通信を携帯端末2との間で確立したりするように第2通信部21−1を制御し、Wi−Fi通信が確立した状態において、撮影画像を送信するように第2通信部21−1を制御する。
具体的には、通信制御部57は、携帯端末2に撮影画像をWi−Fi経由で自動送信するように第2通信部21−1を制御する。通信制御部57は、シャッタキーの半押し時に顔を検出していた場合に、全押し時に顔が検出されなくても、撮影画像を自動送信するように第2通信部21−1を制御する。
なお、本実施形態においては、撮影画像の自動送信の有無をフラグで管理する。
具体的には、通信制御部57は、携帯端末2に撮影画像をWi−Fi経由で自動送信するように第2通信部21−1を制御する。通信制御部57は、シャッタキーの半押し時に顔を検出していた場合に、全押し時に顔が検出されなくても、撮影画像を自動送信するように第2通信部21−1を制御する。
なお、本実施形態においては、撮影画像の自動送信の有無をフラグで管理する。
図4は、図3の機能的構成を有する図2の撮像装置1が実行する撮影処理の流れを説明するフローチャートである。
撮影処理は、ユーザによる入力部17への撮影処理開始の操作により開始される。また、撮影処理の実行にあたり、通信制御部57は、携帯端末2との間でBLE通信を行うように第1通信部20−1を制御し、第1通信部20−1において携帯端末2との間でのWi−Fi通信が確立可能な状態となっている。また、撮像制御部51は、ライブビュー撮影を実行するように撮像部16−1を制御する。その結果、撮像部16−1からライブビュー画像が逐次出力される。
撮影処理は、ユーザによる入力部17への撮影処理開始の操作により開始される。また、撮影処理の実行にあたり、通信制御部57は、携帯端末2との間でBLE通信を行うように第1通信部20−1を制御し、第1通信部20−1において携帯端末2との間でのWi−Fi通信が確立可能な状態となっている。また、撮像制御部51は、ライブビュー撮影を実行するように撮像部16−1を制御する。その結果、撮像部16−1からライブビュー画像が逐次出力される。
ステップS11において、顔検出処理部52は、ライブビュー画像からの顔検出を開始する。
ステップS12において、顔検出処理部52は、顔を検出したか否かを判定する。
顔を検出した場合には、ステップS12においてYESと判定されて、処理はステップS14に進む。
これに対して、顔を検出していない場合には、ステップS12においてNOと判定されて、処理はステップS13に進む。
顔を検出した場合には、ステップS12においてYESと判定されて、処理はステップS14に進む。
これに対して、顔を検出していない場合には、ステップS12においてNOと判定されて、処理はステップS13に進む。
ステップS13において、表示制御部53は、顔が検出されていないため、ライブビュー表示において顔枠を非表示にするように出力部18−1を制御する。その後、処理はステップS15に進む。
ステップS14において、表示制御部53は、顔が検出されたため、該当する場所に顔枠を表示するように出力部18−1を制御する。また、表示制御部53は、直近に顔が検出されていた場合には、最後に顔を検出した場所に顔枠を表示するように出力部18−1を制御する。
ステップS15において、入力検出部54は、入力部17−1に対して、シャッタキーの半押し操作がされたか否かを判定する。
半押しされた場合には、ステップS15においてYESと判定されて、処理はステップS16に進む。
これに対して、半押されていない場合には、ステップS15においてNOと判定されて、処理はステップS12に戻る。
半押しされた場合には、ステップS15においてYESと判定されて、処理はステップS16に進む。
これに対して、半押されていない場合には、ステップS15においてNOと判定されて、処理はステップS12に戻る。
ステップS16において、顔検出処理部52は、顔を検出したか否かを判定する。
顔を検出していない場合には、ステップS16においてNOと判定されて、処理はステップS18に進む。
これに対して、顔を検出した場合には、ステップS16においてYESと判定されて、処理はステップS17に進む。
この時点で、顔検出処理部52による顔の検出は停止する。
顔を検出していない場合には、ステップS16においてNOと判定されて、処理はステップS18に進む。
これに対して、顔を検出した場合には、ステップS16においてYESと判定されて、処理はステップS17に進む。
この時点で、顔検出処理部52による顔の検出は停止する。
ステップS17において、設定処理部55は、これから撮影される画像に対して自動送信を行う旨のフラグ(以下、「転送フラグ」という。)をオンする。即ち、設定処理部55は、シャッタキーの半押し状態において顔検出された場合に転送フラグをオンにする。したがって、実際の撮影時においては、顔の有無にかかわらず、シャッタキーの半押し状態のときの顔の有無で自動送信の有無が決定されることになる。
ステップS18において、設定処理部55は、撮影設定ロックする。即ち、設定処理部55は、シャッタキーの半押しが入力検出部54により検出された時点での、顔検出の有無により異なる撮影条件の設定を、シャッタキーの半押し状態においてロックする。したがって、実際の撮影時においては、顔の有無にかかわらず、シャッタキーの半押し状態のときの顔の有無の撮影設定が反映されることになる。
ステップS19において、設定処理部55は、転送フラグがオンであるか否かを判定する。
転送フラグがオンである場合には、ステップS19においてYESと判定されて、処理はステップS21に進む。
これに対して、転送フラグがオンでない場合には、ステップS19においてNOと判定されて、処理はステップS20に進む。
転送フラグがオンである場合には、ステップS19においてYESと判定されて、処理はステップS21に進む。
これに対して、転送フラグがオンでない場合には、ステップS19においてNOと判定されて、処理はステップS20に進む。
ステップS20において、表示制御部53は、顔が検出されていないため、ライブビュー表示において顔枠を非表示にするように出力部18−1を制御する。
これにより、ユーザは、顔が検出されていないことによる撮影が行われると認識することになる。
これにより、ユーザは、顔が検出されていないことによる撮影が行われると認識することになる。
ステップS21において、表示制御部53は、顔が検出されていたため、該当する場所に顔枠を表示するように出力部18−1を制御する。また、表示制御部53は、直近に顔が検出されていた場合には、最後に顔を検出した場所に顔枠を表示するように出力部18−1を制御する。
これにより、ユーザは、顔が検出されたことによる撮影が行われると認識することになる。
これにより、ユーザは、顔が検出されたことによる撮影が行われると認識することになる。
ステップS22において、入力検出部54は、入力部17−1に対して、シャッタキーの全押し操作がされたか否かを判定する。
全押しされた場合には、ステップS22においてYESと判定されて、処理はステップS24に進む。
半押しを維持したままで全押しされていない場合には、ステップS22においてNO(半押し)と判定されて、処理は待機状態となる。
これに対して、シャッタキーの操作を解除して離した場合には、ステップS22においてNO(離した)と判定されて、処理はステップS23に進む。
全押しされた場合には、ステップS22においてYESと判定されて、処理はステップS24に進む。
半押しを維持したままで全押しされていない場合には、ステップS22においてNO(半押し)と判定されて、処理は待機状態となる。
これに対して、シャッタキーの操作を解除して離した場合には、ステップS22においてNO(離した)と判定されて、処理はステップS23に進む。
ステップS23において、設定処理部55は、転送フラグをオフする。その後、処理はステップS11に戻る。
ステップS24において、撮像制御部51は、撮影処理を実行するように撮像部16−1を制御する。撮影処理の結果、撮像部16−1から撮影画像が出力される。
ステップS25において、設定処理部55は、転送フラグがオンされているか否かを判定する。
転送フラグがオンされていない場合には、ステップS25においてNOと判定されて、ステップS26に進む。
転送フラグがオンされていない場合には、ステップS25においてNOと判定されて、ステップS26に進む。
ステップS26において、撮像部16−1から出力され、美顔処理が実行されない通常の撮影画像が画像記憶部71に記憶される。その後、撮影処理は終了する。
これに対して、転送フラグがオンされている場合には、ステップS25においてYESと判定されて、処理はステップS27に進む。
ステップS27において、画像処理部56は、撮像部16−1から出力された撮影画像に対して美顔処理を実行し、美顔処理が実行された撮影画像が、画像記憶部71に記憶される。
ステップS28において、通信制御部57は、転送フラグに基づいて、美顔処理が実行された撮影画像を携帯端末2に転送するように第2通信部21−1を制御する。その後、撮影処理は終了する。
<変形例>
本例では、上述した実施形態に加えて、人物の顔に該当する人物を特定し、人物に応じて異なる処理(例えば、男性の場合は自動送信するが美顔処理はせず、人物ごとに自動送信の実行有無、等)を実行する。
本例では、上述した実施形態に加えて、人物の顔に該当する人物を特定し、人物に応じて異なる処理(例えば、男性の場合は自動送信するが美顔処理はせず、人物ごとに自動送信の実行有無、等)を実行する。
図3に示すように、記憶部19の一領域には、人物情報記憶部72が設けられる。
人物情報記憶部72には、被写体において人物を特定可能な情報が記憶される。具体的には、人物情報記憶部72には、人物のIDに性別と人物の顔の特徴情報を対応付けたテーブルが記憶される。
人物情報記憶部72には、被写体において人物を特定可能な情報が記憶される。具体的には、人物情報記憶部72には、人物のIDに性別と人物の顔の特徴情報を対応付けたテーブルが記憶される。
顔検出処理部52は、入力検出部54によりシャッタキーの半押し操作が検出されたタイミングで人物の顔検出と合わせて、人物情報記憶部72を参照して、被写体の顔から人物が特定できるか否かを判定する。顔検出処理部52は、人物が特定できた場合は、対応する人物IDを記憶する。
また、顔検出処理部52は、人物情報記憶部72を参照して、特定した人物が女性であるか否かを判定する。
また、顔検出処理部52は、人物情報記憶部72を参照して、特定した人物が女性であるか否かを判定する。
図5は、図3の機能的構成を有する図2の撮像装置1が実行する撮影処理の他の流れを説明するフローチャートである。なお、図5のステップS51〜ステップS57、ステップS60〜ステップS68の処理は、図4のステップS11〜ステップS17、ステップS18〜26の処理内容と同じであるため、説明を省略する。
ステップS58において、顔検出処理部52は、人物情報記憶部72を参照して、顔を検出した対象において人物を特定したか否かを判定する。
人物を特定した場合には、ステップS58においてYESと判定されて、処理はステップS59に進む。
これに対して、人物を特定しなかった場合には、ステップS58においてNOと判定されて、処理はステップS60に進む。
人物を特定した場合には、ステップS58においてYESと判定されて、処理はステップS59に進む。
これに対して、人物を特定しなかった場合には、ステップS58においてNOと判定されて、処理はステップS60に進む。
ステップS59において、顔検出処理部52は、特定した人物に対する人物IDを記憶する。その後、処理はステップS60に進む。
ステップS69において、顔検出処理部52は、人物情報記憶部72を参照し、記憶した人物IDに基づいて、特定した人物が女性であるか否かを判定する。
特定した人物が女性の場合、或いは人物が特定できなかった場合には、ステップS69においてYESと判定されて、処理はステップS70に進む。ステップS70において、撮像部16−1から出力された、自動送信の対象となる撮影画像に美顔処理が施される。その後、処理はステップS71に進む。ステップS71において、美顔処理が施された撮影画像は画像記憶部71に記憶される。その後、処理はステップS72に進み、携帯端末2への美顔処理が施された撮影画像の自動送信が行われる。
これに対して、特定した人物が女性でない場合、即ち、特定した人物が男性である場合には、ステップS69においてNOと判定されて、処理はステップS71に進む。ステップS71において、撮像部16−1から出力された撮影画像は画像記憶部71に記憶される。その後、処理はステップS72に進み、携帯端末2への美顔処理が施されていない通常の撮影画像の自動送信が行われる。
特定した人物が女性の場合、或いは人物が特定できなかった場合には、ステップS69においてYESと判定されて、処理はステップS70に進む。ステップS70において、撮像部16−1から出力された、自動送信の対象となる撮影画像に美顔処理が施される。その後、処理はステップS71に進む。ステップS71において、美顔処理が施された撮影画像は画像記憶部71に記憶される。その後、処理はステップS72に進み、携帯端末2への美顔処理が施された撮影画像の自動送信が行われる。
これに対して、特定した人物が女性でない場合、即ち、特定した人物が男性である場合には、ステップS69においてNOと判定されて、処理はステップS71に進む。ステップS71において、撮像部16−1から出力された撮影画像は画像記憶部71に記憶される。その後、処理はステップS72に進み、携帯端末2への美顔処理が施されていない通常の撮影画像の自動送信が行われる。
なお、上述の変形例では、テーブルに人物IDごとに、更に人物ごとに実行する処理(自動送信の実行有無、美顔処理の強度、等)を記憶し、人物が特定できた場合には、テーブルを参照して、人物ごとの処理を実行するようにしてもよい。
また、上述の変形例では、人物が特定できなかった場合に、美顔処理を施すようにしているが、美顔処理を施さないようにしてもよい。
したがって、撮像装置1では、シャッタキーの半押し操作時点で、人物の顔が検出されている場合は、全押し操作までの間に人物の顔が検出されなくなったとしても、全押し操作により撮影される画像に人物の顔が含まれているものとして処理する。また、撮像装置1では、シャッタキーの半押し操作時点で、人物の顔が検出されている場合は、全押し操作までの間に人物の顔が検出されなくなったとしても、それまで表示していた人物の顔の検出枠を維持する。
その結果、撮像装置1では、ユーザの操作時点の結果として顔の検出の有無から、その後の処理を異なるようにし、処理の実行時点の結果ではなく、ユーザの操作時点の結果に基づいて、その後の処理を行う。その結果、撮像装置1においては、撮影される画像に人物の顔が含まれているか否かの判別に、ユーザによる判別を反映させることができる。
その結果、撮像装置1では、ユーザの操作時点の結果として顔の検出の有無から、その後の処理を異なるようにし、処理の実行時点の結果ではなく、ユーザの操作時点の結果に基づいて、その後の処理を行う。その結果、撮像装置1においては、撮影される画像に人物の顔が含まれているか否かの判別に、ユーザによる判別を反映させることができる。
従来より、撮像装置1においては、顔検出を使用して、顔に合わせた露出制御、顔に対しての画像処理、顔を判断した撮影後の動作(例えば、顔を検出していたら所定の場所へ転送する)等の技術があった。
しかしながら、顔検出はフレーム単位で行うことが多く、キャプチャのタイミングでたまたま顔の検出に失敗すると、それまで顔の検出に成功していても、顔が検出されなかったものとみなしてその後の処理をしてしまう。このため見た目も含めて動作の整合が取れなくなる(例えば、顔検出した画像を特定の場所へ転送するときに、撮影のタイミングでたまたま顔が検出できない場合、その画像が転送されなくなる)という問題があった。また、顔検出の精度が今後向上したとしても、人物の顔が後ろ向きになってしまったような場合に、人物の顔として検出してよいか否かの判別が装置には困難であるという問題もある。
しかしながら、顔検出はフレーム単位で行うことが多く、キャプチャのタイミングでたまたま顔の検出に失敗すると、それまで顔の検出に成功していても、顔が検出されなかったものとみなしてその後の処理をしてしまう。このため見た目も含めて動作の整合が取れなくなる(例えば、顔検出した画像を特定の場所へ転送するときに、撮影のタイミングでたまたま顔が検出できない場合、その画像が転送されなくなる)という問題があった。また、顔検出の精度が今後向上したとしても、人物の顔が後ろ向きになってしまったような場合に、人物の顔として検出してよいか否かの判別が装置には困難であるという問題もある。
そこで、本実施形態の撮像装置1においては、RECモードで顔を検出した状態で撮影しても、撮影の瞬間に顔を見失うと、顔を検出されていないと判定されてしまうことがある。それを回避するために、シャッタキーを半押ししたタイミングで顔検出を行い、顔が検出された場合は、シャッタキーを全押しして撮影処理が実行されたタイミングで顔が検出されなくても、顔がいるものとみなして撮影後の動作を行う。
即ち、撮像装置1では、顔検出の判断について、シャッタキーの半押しと全押しによる撮影処理のタイミングで判断するときにシャッタキーの半押しのタイミングでの判断を優先する。シャッタキーの半押しのタイミングでの判断を優先することにより、全押しのタイミングでたまたま顔の検出に失敗しても、半押しのタイミングの判断が優先されることで、見た目の動作の整合性を保持することができる。
即ち、撮像装置1では、顔検出の判断について、シャッタキーの半押しと全押しによる撮影処理のタイミングで判断するときにシャッタキーの半押しのタイミングでの判断を優先する。シャッタキーの半押しのタイミングでの判断を優先することにより、全押しのタイミングでたまたま顔の検出に失敗しても、半押しのタイミングの判断が優先されることで、見た目の動作の整合性を保持することができる。
<第2の実施形態>
上述した実施形態では、シャッタキーの半押し時における顔の検出の有無に応じた処理(撮影設定や自動送信設定)を、全押し後の処理(撮影設定や自動送信設定)に反映させるように構成した。
本実施形態では、シャッタキーの全押し操作時点における顔の検出の有無に応じて、撮影画像において顔が含まれないものであっても、顔の検出の有無に応じた処理(撮影設定や自動送信設定)を反映させるように構成する。シャッタキーの全押し時点で、例えば、人物の顔が検出されている(人物の顔の検出枠が表示されている)場合は、実際に本撮影される画像に人物の顔が検出されなくなったとしても、本撮影される画像に人物の顔が含まれているものとして処理する。
上述した実施形態では、シャッタキーの半押し時における顔の検出の有無に応じた処理(撮影設定や自動送信設定)を、全押し後の処理(撮影設定や自動送信設定)に反映させるように構成した。
本実施形態では、シャッタキーの全押し操作時点における顔の検出の有無に応じて、撮影画像において顔が含まれないものであっても、顔の検出の有無に応じた処理(撮影設定や自動送信設定)を反映させるように構成する。シャッタキーの全押し時点で、例えば、人物の顔が検出されている(人物の顔の検出枠が表示されている)場合は、実際に本撮影される画像に人物の顔が検出されなくなったとしても、本撮影される画像に人物の顔が含まれているものとして処理する。
図6は、第2の実施形態における撮影処理の他の流れを説明するフローチャートである。なお、図6のステップS91〜ステップS95、ステップS98、ステップS102〜ステップS105の処理は、図4のステップS11〜ステップS15、ステップS23、ステップS25〜ステップS28の処理内容と同じであるため説明を省略する。
ステップS96において、設定処理部55は、半押し操作を検出したら撮影設定をロックする。
ステップS97において、入力検出部54は、入力部17−1に対して、シャッタキーの全押し操作がされたか否かを判定する。
シャッタキーが全押しされた場合には、ステップS97においてYESと判定されて、処理はステップS98に進む。
半押しを維持したままで全押しされていない場合には、ステップS97においてNO(半押し)と判定されて、処理は待機状態となる。
これに対して、シャッタキーの操作を解除して離した場合には、ステップS97においてNO(離した)と判定されて、処理はステップS98に進み、その後、ステップS91に戻る。
シャッタキーが全押しされた場合には、ステップS97においてYESと判定されて、処理はステップS98に進む。
半押しを維持したままで全押しされていない場合には、ステップS97においてNO(半押し)と判定されて、処理は待機状態となる。
これに対して、シャッタキーの操作を解除して離した場合には、ステップS97においてNO(離した)と判定されて、処理はステップS98に進み、その後、ステップS91に戻る。
ステップS99において、顔検出処理部52は、顔を検出したか否かを判定する。
顔を検出していない場合には、ステップS99においてNOと判定されて、処理はステップS101に進む。
これに対して、顔を検出した場合には、ステップS99においてYESと判定されて、処理はステップS100に進む。
顔を検出していない場合には、ステップS99においてNOと判定されて、処理はステップS101に進む。
これに対して、顔を検出した場合には、ステップS99においてYESと判定されて、処理はステップS100に進む。
ステップS100において、設定処理部55は、転送フラグをオンする。即ち、設定処理部55は、シャッタキーの全押し状態において顔検出された場合に転送フラグをオンにする。したがって、顔検出処理部52による顔検出とは異なるタイミングで実行される実際の本撮影時においては、顔の有無にかかわらず、シャッタキーの全押し状態のときの顔の有無で自動送信の有無が決定されることになる。その後、撮影処理が行われる。そして、転送フラグがオンの場合には、美顔処理が撮影画像に施されて、画像記憶部71に記憶されて、その後自動送信が行われる。また、転送フラグのオフの場合には、美顔処理を施さずに撮影画像が画像記憶部71に記憶される。
以上のように構成される撮像装置1は、顔検出処理部52と、通信制御部57と、画像処理部56と、を備える。
顔検出処理部52は、ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像部16−1により取得される撮像画像内に、人物の顔が検出されているか否かを判別する。
通信制御部57・画像処理部56は、撮影が実行されたことを契機として、顔検出処理部52による判別結果に応じて、撮影された画像に異なる処理を実行する。
これにより、撮像装置1においては、撮影された画像に人物の顔が含まれているか否かの判別に、ユーザによる判別を反映させることでき、更に処理負荷を軽減できる。
顔検出処理部52は、ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像部16−1により取得される撮像画像内に、人物の顔が検出されているか否かを判別する。
通信制御部57・画像処理部56は、撮影が実行されたことを契機として、顔検出処理部52による判別結果に応じて、撮影された画像に異なる処理を実行する。
これにより、撮像装置1においては、撮影された画像に人物の顔が含まれているか否かの判別に、ユーザによる判別を反映させることでき、更に処理負荷を軽減できる。
通信制御部57・画像処理部56は、撮影が実行されたことを契機として、顔検出処理部52により、ユーザによる所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、撮影された画像を人物の顔が検出されている画像とした処理を実行する一方、判別されなかった場合に、当該撮影された画像を人物の顔が検出されていない画像とした処理を実行する。
これにより、撮像装置1においては、人物の顔の検出の有無に応じて、撮影された画像に対する処理を変えることができる。
これにより、撮像装置1においては、人物の顔の検出の有無に応じて、撮影された画像に対する処理を変えることができる。
通信制御部57は、撮影が実行されたことを契機として、顔検出処理部52により、ユーザによる所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、撮影された画像を他の装置に送信する処理を実行する一方、判別されなかった場合に、当該撮影された画像を当該他の装置に送信する処理を実行しない。
これにより、撮像装置1においては、ユーザの所定の操作結果の認識から期待される処理(撮影された画像の自動送信)を、処理時点での状態にかかわらず行うことができる。
これにより、撮像装置1においては、ユーザの所定の操作結果の認識から期待される処理(撮影された画像の自動送信)を、処理時点での状態にかかわらず行うことができる。
画像処理部56は、撮影が実行されたことを契機として、顔検出処理部52により、ユーザによる所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、撮影された画像に対して人物の顔を美化する画像処理を実行する一方、判別されなかった場合に、当該撮影された画像に対して当該人物の顔を美化する画像処理を実行しない。
これにより、撮像装置1においては、ユーザの所定の操作結果の認識から期待される処理(美化する画像処理)を、処理時点での状態にかかわらず行うことができる。
これにより、撮像装置1においては、ユーザの所定の操作結果の認識から期待される処理(美化する画像処理)を、処理時点での状態にかかわらず行うことができる。
また、撮像装置1は、半押し操作と全押し操作とが可能な入力部17−1を、更に備える。
顔検出処理部52は、ユーザによる入力部17−1の半押し操作が検出された時点で、撮像画像内に、人物の顔が検出されているか否かを判別する。
通信制御部57・画像処理部56は、ユーザによる入力部17−1の全押し操作が検出されたことを契機として、撮像画像から生成される撮影画像に異なる処理を実行する。
これにより、撮像装置1においては、半押し操作時点での認識と一致する処理結果となるために、実際の状態にかかわらず、ユーザの意図する処理を実行することができる。
顔検出処理部52は、ユーザによる入力部17−1の半押し操作が検出された時点で、撮像画像内に、人物の顔が検出されているか否かを判別する。
通信制御部57・画像処理部56は、ユーザによる入力部17−1の全押し操作が検出されたことを契機として、撮像画像から生成される撮影画像に異なる処理を実行する。
これにより、撮像装置1においては、半押し操作時点での認識と一致する処理結果となるために、実際の状態にかかわらず、ユーザの意図する処理を実行することができる。
また、撮像装置1は、顔検出処理部52による判別結果を、出力部18−1に識別可能に表示する制御を行う表示制御部53を、更に備える。
これにより、撮像装置1においては、判別結果をユーザが目視で認識することができる。
これにより、撮像装置1においては、判別結果をユーザが目視で認識することができる。
表示制御部53は、撮像画像内に人物の顔が検出されている場合に、出力部18−1の人物の顔に該当する部分を識別可能に表示する制御を、更に行う。
また、表示制御部53は、顔検出処理部52により、ユーザによる所定の操作が検出された時点で、人物の顔が検出されていると判別された以降は、撮像画像内に人物の顔が検出されない場合であっても、出力部18−1の人物の顔に該当していた部分を識別可能に表示する制御を行う。
これにより、撮像装置1においては、所定の操作時点のユーザの認識に一致した表示を行うことができる。
また、表示制御部53は、顔検出処理部52により、ユーザによる所定の操作が検出された時点で、人物の顔が検出されていると判別された以降は、撮像画像内に人物の顔が検出されない場合であっても、出力部18−1の人物の顔に該当していた部分を識別可能に表示する制御を行う。
これにより、撮像装置1においては、所定の操作時点のユーザの認識に一致した表示を行うことができる。
顔検出処理部52は、ユーザによる所定の操作が検出された時点で、撮像画像内に検出されている人物の顔に該当する人物が特定できるか否かを、更に判別する。
通信制御部57・画像処理部56は、撮影が実行されたことを契機として、顔検出処理部52による判別結果に応じて、撮影された画像に異なる処理を、更に実行する。
これにより、撮像装置1においては、判別結果に応じた処理を実行することができる。
通信制御部57・画像処理部56は、撮影が実行されたことを契機として、顔検出処理部52による判別結果に応じて、撮影された画像に異なる処理を、更に実行する。
これにより、撮像装置1においては、判別結果に応じた処理を実行することができる。
通信制御部57・画像処理部56は、撮影が実行されたことを契機として、顔検出処理部52により、検出されている人物の顔に該当する人物が特定できると判別された場合に、特定される人物に応じて、撮影された画像に異なる処理を、更に実行する。
これにより、撮像装置1においては、特定した人物に応じた判別結果に応じた処理を実行することができる。
これにより、撮像装置1においては、特定した人物に応じた判別結果に応じた処理を実行することができる。
顔検出処理部52は、ユーザによる撮影の指示に応じて本撮影を実行する際に、本撮影前に撮像部16−1により取得される撮像画像内に、人物の顔が検出されているか否かを判定する。
通信制御部57・画像処理部56は、顔検出処理部52による判別結果に応じて、本撮影された画像に異なる処理を実行する。
これにより、撮像装置1においては、本撮影された画像に人物の顔が含まれているか否かの判別に、ユーザによる判別を反映させることでき、更に処理負荷を軽減できる。また、撮影指示操作時点での認識と一致する処理結果となるために、実際の状態にかかわらず、ユーザの意図する処理を実行することができる。
通信制御部57・画像処理部56は、顔検出処理部52による判別結果に応じて、本撮影された画像に異なる処理を実行する。
これにより、撮像装置1においては、本撮影された画像に人物の顔が含まれているか否かの判別に、ユーザによる判別を反映させることでき、更に処理負荷を軽減できる。また、撮影指示操作時点での認識と一致する処理結果となるために、実際の状態にかかわらず、ユーザの意図する処理を実行することができる。
通信制御部57・画像処理部56は、顔検出処理部52により、ユーザによる撮影の指示に応じて本撮影を実行する際に、人物の顔が検出されていると判別された場合に、本撮影された画像を人物の顔が検出されている画像とした処理を実行する一方、判別されなかった場合に、当該本撮影された画像を人物の顔が検出されていない画像とした処理を実行する。
これにより、撮像装置1においては、人物の顔の検出の有無に応じて、本撮影された画像に対する処理を変えることができる。
これにより、撮像装置1においては、人物の顔の検出の有無に応じて、本撮影された画像に対する処理を変えることができる。
通信制御部57は、顔検出処理部52により、ユーザによる撮影の指示に応じて本撮影を実行する際に、人物の顔が検出されていると判別された場合に、本撮影された画像を他の装置に送信する処理を実行する一方、判別されなかった場合に、当該本撮影された画像を当該他の装置に送信する処理を実行しない。
これにより、撮像装置1においては、ユーザの所定の操作結果の認識から期待される処理(撮影された画像の自動送信)を、処理時点での状態にかかわらず行うことができる。
これにより、撮像装置1においては、ユーザの所定の操作結果の認識から期待される処理(撮影された画像の自動送信)を、処理時点での状態にかかわらず行うことができる。
表示制御部53は、顔検出処理部52による判別結果を、出力部18−1に識別可能に表示する制御を行う。
通信制御部57は、表示制御部53により、撮像画像内に人物の顔が検出されていると識別可能に表示されている場合に、本撮影された画像を他の装置に送信する処理を実行する。
これにより、撮像装置1においては、表示状態に応じた処理(画像の自動送信)を実行することができる。
通信制御部57は、表示制御部53により、撮像画像内に人物の顔が検出されていると識別可能に表示されている場合に、本撮影された画像を他の装置に送信する処理を実行する。
これにより、撮像装置1においては、表示状態に応じた処理(画像の自動送信)を実行することができる。
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
上述の実施形態では、転送フラグを立てた後も顔検出処理部52による人物の顔検出処理を継続してもよい。これにより、ユーザがシャッタキーの半押しを解除しても速やかに人物の顔検出処理を行うことができる。
また、上述の実施形態では、転送フラグが立っている状態で撮影され、自動送信された画像に人物の顔が含まれていることを示す情報を付加して記録するように構成することができる。これにより、以降、記録済みの画像を画像からの人物の顔の検出が不要となる。
また、上述の実施形態では、人物の顔が検出されているか否か、或いは特定される人物に応じて、撮像装置内の撮影画像を保存する領域(フォルダ)を異ならせるようにしてもよい。
また、上述の実施形態では、所定の操作は、シャッタキーと独立した、例えば、[AEL]キーのような操作キーによる操作であってもよい。
また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、撮影処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
例えば、本発明は、撮影処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM12や、図2の記憶部19に含まれるハードディスク等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段などより構成される全体的な装置を意味するものとする。
また、本明細書において、システムの用語は、複数の装置や複数の手段などより構成される全体的な装置を意味するものとする。
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別手段と、
撮影が実行されたことを契機として、前記判別手段による判別結果に応じて、撮影された画像に異なる処理を実行する実行手段と、
を備えることを特徴とする撮像装置。
[付記2]
前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、前記撮影された画像を人物の顔が検出されている画像とした処理を実行する一方、判別されなかった場合に、当該撮影された画像を人物の顔が検出されていない画像とした処理を実行する、
ことを特徴とする付記1に記載の撮像装置。
[付記3]
前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、前記撮影された画像を他の装置に送信する処理を実行する一方、判別されなかった場合に、当該撮影された画像を当該他の装置に送信する処理を実行しない、
ことを特徴とする付記2に記載の撮像装置。
[付記4]
前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、前記撮影された画像に対して人物の顔を美化する画像処理を実行する一方、判別されなかった場合に、当該撮影された画像に対して当該人物の顔を美化する画像処理を実行しない、
ことを特徴とする付記2又は3に記載の撮像装置。
[付記5]
半押し操作と全押し操作とが可能な操作手段を、更に備え、
前記判別手段は、ユーザによる前記操作手段の前記半押し操作が検出された時点で、前記撮像画像内に、人物の顔が検出されているか否かを判別し、
前記実行手段は、ユーザによる前記操作手段の前記全押し操作が検出されたことを契機として、前記撮像画像から生成される撮影画像に異なる処理を実行する、
ことを特徴とする付記1乃至4の何れか1つに記載の撮像装置。
[付記6]
前記判別手段による判別結果を、表示手段に識別可能に表示する制御を行う表示制御手段を、更に備える、
ことを特徴とする付記1乃至5の何れか1つに記載の撮像装置。
[付記7]
前記表示制御手段は、
前記撮像画像内に人物の顔が検出されている場合に、前記表示手段の人物の顔に該当する部分を識別可能に表示する制御を、更に行い、
前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された以降は、前記撮像画像内に人物の顔が検出されない場合であっても、前記表示手段の人物の顔に該当していた部分を識別可能に表示する制御を行う、
ことを特徴とする付記6に記載の撮像装置。
[付記8]
前記判別手段は、ユーザによる前記所定の操作が検出された時点で、前記撮像画像内に検出されている人物の顔に該当する人物が特定できるか否かを、更に判別し、
前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段による判別結果に応じて、前記撮影された画像に異なる処理を、更に実行する、
ことを特徴とする付記1乃至7の何れか1つに記載の撮像装置。
[付記9]
前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、検出されている人物の顔に該当する人物が特定できると判別された場合に、特定される人物に応じて、撮影された画像に異なる処理を、更に実行する、
ことを特徴とする付記8に記載の撮像装置。
[付記10]
ユーザによる撮影の指示に応じて本撮影を実行する際に、本撮影前に撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判定する判別手段と、
前記判別手段による判別結果に応じて、本撮影された画像に異なる処理を実行する実行手段と、
を備えることを特徴とする撮像装置。
[付記11]
前記実行手段は、前記判別手段により、ユーザによる撮影の指示に応じて本撮影を実行する際に、人物の顔が検出されていると判別された場合に、前記本撮影された画像を人物の顔が検出されている画像とした処理を実行する一方、判別されなかった場合に、当該本撮影された画像を人物の顔が検出されていない画像とした処理を実行する、
ことを特徴とする付記10に記載の撮像装置。
[付記12]
前記実行手段は、前記判別手段により、ユーザによる撮影の指示に応じて前記本撮影を実行する際に、人物の顔が検出されていると判別された場合に、前記本撮影された画像を他の装置に送信する処理を実行する一方、判別されなかった場合に、当該本撮影された画像を当該他の装置に送信する処理を実行しない、
ことを特徴とする付記11に記載の撮像装置。
[付記13]
前記判別手段による判別結果を、表示手段に識別可能に表示する制御を行う表示制御手段を、更に備え、
前記実行手段は、前記表示制御手段により、前記撮像画像内に人物の顔が検出されていると識別可能に表示されている場合に、前記本撮影された画像を前記他の装置に送信する処理を実行する、
ことを特徴とする付記12に記載の撮像装置。
[付記14]
撮像装置で実行される処理実行方法であって、
ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別処理と、
撮影が実行されたことを契機として、前記判別処理による判別結果に応じて、撮影された画像に異なる処理を実行する実行処理と、
を含むことを特徴とする処理実行方法。
[付記15]
撮像装置で実行される処理実行方法であって、
ユーザによる撮影の指示に応じて本撮影を実行する際に、本撮影前に撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別処理と、
前記判別処理による判別結果に応じて、本撮影された画像に異なる処理を実行する実行処理と、
を含むことを特徴とする処理実行方法。
[付記16]
撮像装置を制御するコンピュータに、
ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別機能と、
撮影が実行されたことを契機として、前記判別機能による判別結果に応じて、撮影された画像に異なる処理を実行する実行機能と、
を実現させることを特徴とするプログラム。
[付記17]
撮像装置を制御するコンピュータに、
ユーザによる撮影の指示に応じて本撮影を実行する際に、本撮影前に撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別機能と、
前記判別機能による判別結果に応じて、本撮影された画像に異なる処理を実行する実行機能と、
を実現させることを特徴とするプログラム。
[付記1]
ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別手段と、
撮影が実行されたことを契機として、前記判別手段による判別結果に応じて、撮影された画像に異なる処理を実行する実行手段と、
を備えることを特徴とする撮像装置。
[付記2]
前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、前記撮影された画像を人物の顔が検出されている画像とした処理を実行する一方、判別されなかった場合に、当該撮影された画像を人物の顔が検出されていない画像とした処理を実行する、
ことを特徴とする付記1に記載の撮像装置。
[付記3]
前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、前記撮影された画像を他の装置に送信する処理を実行する一方、判別されなかった場合に、当該撮影された画像を当該他の装置に送信する処理を実行しない、
ことを特徴とする付記2に記載の撮像装置。
[付記4]
前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、前記撮影された画像に対して人物の顔を美化する画像処理を実行する一方、判別されなかった場合に、当該撮影された画像に対して当該人物の顔を美化する画像処理を実行しない、
ことを特徴とする付記2又は3に記載の撮像装置。
[付記5]
半押し操作と全押し操作とが可能な操作手段を、更に備え、
前記判別手段は、ユーザによる前記操作手段の前記半押し操作が検出された時点で、前記撮像画像内に、人物の顔が検出されているか否かを判別し、
前記実行手段は、ユーザによる前記操作手段の前記全押し操作が検出されたことを契機として、前記撮像画像から生成される撮影画像に異なる処理を実行する、
ことを特徴とする付記1乃至4の何れか1つに記載の撮像装置。
[付記6]
前記判別手段による判別結果を、表示手段に識別可能に表示する制御を行う表示制御手段を、更に備える、
ことを特徴とする付記1乃至5の何れか1つに記載の撮像装置。
[付記7]
前記表示制御手段は、
前記撮像画像内に人物の顔が検出されている場合に、前記表示手段の人物の顔に該当する部分を識別可能に表示する制御を、更に行い、
前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された以降は、前記撮像画像内に人物の顔が検出されない場合であっても、前記表示手段の人物の顔に該当していた部分を識別可能に表示する制御を行う、
ことを特徴とする付記6に記載の撮像装置。
[付記8]
前記判別手段は、ユーザによる前記所定の操作が検出された時点で、前記撮像画像内に検出されている人物の顔に該当する人物が特定できるか否かを、更に判別し、
前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段による判別結果に応じて、前記撮影された画像に異なる処理を、更に実行する、
ことを特徴とする付記1乃至7の何れか1つに記載の撮像装置。
[付記9]
前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、検出されている人物の顔に該当する人物が特定できると判別された場合に、特定される人物に応じて、撮影された画像に異なる処理を、更に実行する、
ことを特徴とする付記8に記載の撮像装置。
[付記10]
ユーザによる撮影の指示に応じて本撮影を実行する際に、本撮影前に撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判定する判別手段と、
前記判別手段による判別結果に応じて、本撮影された画像に異なる処理を実行する実行手段と、
を備えることを特徴とする撮像装置。
[付記11]
前記実行手段は、前記判別手段により、ユーザによる撮影の指示に応じて本撮影を実行する際に、人物の顔が検出されていると判別された場合に、前記本撮影された画像を人物の顔が検出されている画像とした処理を実行する一方、判別されなかった場合に、当該本撮影された画像を人物の顔が検出されていない画像とした処理を実行する、
ことを特徴とする付記10に記載の撮像装置。
[付記12]
前記実行手段は、前記判別手段により、ユーザによる撮影の指示に応じて前記本撮影を実行する際に、人物の顔が検出されていると判別された場合に、前記本撮影された画像を他の装置に送信する処理を実行する一方、判別されなかった場合に、当該本撮影された画像を当該他の装置に送信する処理を実行しない、
ことを特徴とする付記11に記載の撮像装置。
[付記13]
前記判別手段による判別結果を、表示手段に識別可能に表示する制御を行う表示制御手段を、更に備え、
前記実行手段は、前記表示制御手段により、前記撮像画像内に人物の顔が検出されていると識別可能に表示されている場合に、前記本撮影された画像を前記他の装置に送信する処理を実行する、
ことを特徴とする付記12に記載の撮像装置。
[付記14]
撮像装置で実行される処理実行方法であって、
ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別処理と、
撮影が実行されたことを契機として、前記判別処理による判別結果に応じて、撮影された画像に異なる処理を実行する実行処理と、
を含むことを特徴とする処理実行方法。
[付記15]
撮像装置で実行される処理実行方法であって、
ユーザによる撮影の指示に応じて本撮影を実行する際に、本撮影前に撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別処理と、
前記判別処理による判別結果に応じて、本撮影された画像に異なる処理を実行する実行処理と、
を含むことを特徴とする処理実行方法。
[付記16]
撮像装置を制御するコンピュータに、
ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別機能と、
撮影が実行されたことを契機として、前記判別機能による判別結果に応じて、撮影された画像に異なる処理を実行する実行機能と、
を実現させることを特徴とするプログラム。
[付記17]
撮像装置を制御するコンピュータに、
ユーザによる撮影の指示に応じて本撮影を実行する際に、本撮影前に撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別機能と、
前記判別機能による判別結果に応じて、本撮影された画像に異なる処理を実行する実行機能と、
を実現させることを特徴とするプログラム。
1・・・撮像装置,2・・・携帯端末,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・第1通信部,21・・・第2通信部,22・・・ドライブ,31・・・リムーバブルメディア,51・・・撮像制御部,52・・・顔検出処理部,53・・・表示制御部,54・・・入力検出部,55・・・設定処理部,56・・・画像処理部,57・・・通信制御部,71・・・画像記憶部,72・・・人物情報記憶部,S・・・撮影システム
Claims (17)
- ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別手段と、
撮影が実行されたことを契機として、前記判別手段による判別結果に応じて、撮影された画像に異なる処理を実行する実行手段と、
を備えることを特徴とする撮像装置。 - 前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、前記撮影された画像を人物の顔が検出されている画像とした処理を実行する一方、判別されなかった場合に、当該撮影された画像を人物の顔が検出されていない画像とした処理を実行する、
ことを特徴とする請求項1に記載の撮像装置。 - 前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、前記撮影された画像を他の装置に送信する処理を実行する一方、判別されなかった場合に、当該撮影された画像を当該他の装置に送信する処理を実行しない、
ことを特徴とする請求項2に記載の撮像装置。 - 前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された場合に、前記撮影された画像に対して人物の顔を美化する画像処理を実行する一方、判別されなかった場合に、当該撮影された画像に対して当該人物の顔を美化する画像処理を実行しない、
ことを特徴とする請求項2又は3に記載の撮像装置。 - 半押し操作と全押し操作とが可能な操作手段を、更に備え、
前記判別手段は、ユーザによる前記操作手段の前記半押し操作が検出された時点で、前記撮像画像内に、人物の顔が検出されているか否かを判別し、
前記実行手段は、ユーザによる前記操作手段の前記全押し操作が検出されたことを契機として、前記撮像画像から生成される撮影画像に異なる処理を実行する、
ことを特徴とする請求項1乃至4の何れか1項に記載の撮像装置。 - 前記判別手段による判別結果を、表示手段に識別可能に表示する制御を行う表示制御手段を、更に備える、
ことを特徴とする請求項1乃至5の何れか1項に記載の撮像装置。 - 前記表示制御手段は、
前記撮像画像内に人物の顔が検出されている場合に、前記表示手段の人物の顔に該当する部分を識別可能に表示する制御を、更に行い、
前記判別手段により、ユーザによる前記所定の操作が検出された時点で、人物の顔が検出されていると判別された以降は、前記撮像画像内に人物の顔が検出されない場合であっても、前記表示手段の人物の顔に該当していた部分を識別可能に表示する制御を行う、
ことを特徴とする請求項6に記載の撮像装置。 - 前記判別手段は、ユーザによる前記所定の操作が検出された時点で、前記撮像画像内に検出されている人物の顔に該当する人物が特定できるか否かを、更に判別し、
前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段による判別結果に応じて、前記撮影された画像に異なる処理を、更に実行する、
ことを特徴とする請求項1乃至7の何れか1項に記載の撮像装置。 - 前記実行手段は、前記撮影が実行されたことを契機として、前記判別手段により、検出されている人物の顔に該当する人物が特定できると判別された場合に、特定される人物に応じて、撮影された画像に異なる処理を、更に実行する、
ことを特徴とする請求項8に記載の撮像装置。 - ユーザによる撮影の指示に応じて本撮影を実行する際に、本撮影前に撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判定する判別手段と、
前記判別手段による判別結果に応じて、本撮影された画像に異なる処理を実行する実行手段と、
を備えることを特徴とする撮像装置。 - 前記実行手段は、前記判別手段により、ユーザによる撮影の指示に応じて本撮影を実行する際に、人物の顔が検出されていると判別された場合に、前記本撮影された画像を人物の顔が検出されている画像とした処理を実行する一方、判別されなかった場合に、当該本撮影された画像を人物の顔が検出されていない画像とした処理を実行する、
ことを特徴とする請求項10に記載の撮像装置。 - 前記実行手段は、前記判別手段により、ユーザによる撮影の指示に応じて前記本撮影を実行する際に、人物の顔が検出されていると判別された場合に、前記本撮影された画像を他の装置に送信する処理を実行する一方、判別されなかった場合に、当該本撮影された画像を当該他の装置に送信する処理を実行しない、
ことを特徴とする請求項11に記載の撮像装置。 - 前記判別手段による判別結果を、表示手段に識別可能に表示する制御を行う表示制御手段を、更に備え、
前記実行手段は、前記表示制御手段により、前記撮像画像内に人物の顔が検出されていると識別可能に表示されている場合に、前記本撮影された画像を前記他の装置に送信する処理を実行する、
ことを特徴とする請求項12に記載の撮像装置。 - 撮像装置で実行される処理実行方法であって、
ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別処理と、
撮影が実行されたことを契機として、前記判別処理による判別結果に応じて、撮影された画像に異なる処理を実行する実行処理と、
を含むことを特徴とする処理実行方法。 - 撮像装置で実行される処理実行方法であって、
ユーザによる撮影の指示に応じて本撮影を実行する際に、本撮影前に撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別処理と、
前記判別処理による判別結果に応じて、本撮影された画像に異なる処理を実行する実行処理と、
を含むことを特徴とする処理実行方法。 - 撮像装置を制御するコンピュータに、
ユーザによる撮影の実行を伴わない所定の操作が検出された時点で、撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別機能と、
撮影が実行されたことを契機として、前記判別機能による判別結果に応じて、撮影された画像に異なる処理を実行する実行機能と、
を実現させることを特徴とするプログラム。 - 撮像装置を制御するコンピュータに、
ユーザによる撮影の指示に応じて本撮影を実行する際に、本撮影前に撮像手段により取得される撮像画像内に、人物の顔が検出されているか否かを判別する判別機能と、
前記判別機能による判別結果に応じて、本撮影された画像に異なる処理を実行する実行機能と、
を実現させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016011553A JP2017135453A (ja) | 2016-01-25 | 2016-01-25 | 撮像装置、処理実行方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016011553A JP2017135453A (ja) | 2016-01-25 | 2016-01-25 | 撮像装置、処理実行方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017135453A true JP2017135453A (ja) | 2017-08-03 |
Family
ID=59503753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016011553A Pending JP2017135453A (ja) | 2016-01-25 | 2016-01-25 | 撮像装置、処理実行方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017135453A (ja) |
-
2016
- 2016-01-25 JP JP2016011553A patent/JP2017135453A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9288386B2 (en) | Imaging apparatus and image synthesizing method | |
US9584713B2 (en) | Image capturing apparatus capable of specifying an object in image data based on object detection, motion detection and/or object recognition, communication apparatus communicating with image capturing apparatus, and control method therefor | |
JP4561803B2 (ja) | 撮像装置、画像データの交換方法およびプログラム | |
EP3062513B1 (en) | Video apparatus and photography method thereof | |
JP5030022B2 (ja) | 撮像装置及びそのプログラム | |
JP2015005860A (ja) | 撮像装置、撮像方法及びプログラム | |
JP2011141374A (ja) | オートフォーカス制御方法 | |
US9413940B2 (en) | Digital electronic apparatus and method of controlling continuous photographing thereof | |
JP2017011451A (ja) | 検出装置、検出方法及びプログラム | |
JP2017157936A (ja) | 撮像装置、送信制御方法及びプログラム | |
CA2775421C (en) | Apparatus and method for controlling a camera in an electronic device | |
JP2011172089A (ja) | 電子機器 | |
JP2010041309A (ja) | 撮像装置、携帯電話端末、撮像方法、プログラム及び記録媒体 | |
JP6474042B2 (ja) | 撮影システム | |
JP2017135453A (ja) | 撮像装置、処理実行方法及びプログラム | |
JP6809090B2 (ja) | 撮像装置、撮影システム、電源管理方法及びプログラム | |
JP2016144162A (ja) | 撮影装置、送信制御方法及びプログラム | |
JP6468827B2 (ja) | 撮像装置、撮像装置の制御方法、プログラム | |
JP7365793B2 (ja) | 撮像装置およびその制御方法、プログラム | |
JP6446842B2 (ja) | 撮像装置、撮影制御システム、撮影制御方法及びプログラム | |
US10194082B2 (en) | Image pickup apparatus that shoots moving image for predetermined time period at the time of shooting still image, control method for the image pickup apparatus, and storage medium | |
JP2019110546A (ja) | 撮影システム | |
JP5413621B2 (ja) | 撮像装置及びそのプログラム | |
JP5644976B2 (ja) | 電子機器及び電子機器用プログラム | |
JP2005236794A (ja) | デジタルカメラ |