JP2016039625A - 検出装置、検出方法及びプログラム - Google Patents

検出装置、検出方法及びプログラム Download PDF

Info

Publication number
JP2016039625A
JP2016039625A JP2014238570A JP2014238570A JP2016039625A JP 2016039625 A JP2016039625 A JP 2016039625A JP 2014238570 A JP2014238570 A JP 2014238570A JP 2014238570 A JP2014238570 A JP 2014238570A JP 2016039625 A JP2016039625 A JP 2016039625A
Authority
JP
Japan
Prior art keywords
detection
predetermined
unit
subject
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014238570A
Other languages
English (en)
Other versions
JP6024728B2 (ja
Inventor
勉 下野
Tsutomu Shimono
勉 下野
将幸 遠藤
Masayuki Endo
将幸 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014238570A priority Critical patent/JP6024728B2/ja
Priority to US14/804,036 priority patent/US9779290B2/en
Priority to KR1020150102709A priority patent/KR20160018354A/ko
Priority to CN201510477962.0A priority patent/CN105376477B/zh
Publication of JP2016039625A publication Critical patent/JP2016039625A/ja
Application granted granted Critical
Publication of JP6024728B2 publication Critical patent/JP6024728B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • H04N23/531Constructional details of electronic viewfinders, e.g. rotatable or detachable being rotatable or detachable

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】被写体の状態の検出に際して誤検出を減らす。
【解決手段】撮像装置100において、表示パネル8aに表示される撮像画像内の検出領域Tにおける状態を検出する検出手段(検出部4d)と、当該撮像画像から被写体を判別する判別部4bと、判別部4bにより検出領域Tの領域外に所定被写体が判別された場合に、当該所定の被写体に係る情報を取得する取得部4cと、取得部4cにより取得された所定の被写体に係る情報に基づき、検出領域Tの状態の検出を制御する制御手段(検出部4d)と、を備えるようにする。
【選択図】図1

Description

本発明は、検出装置、検出方法及びプログラムに関する。
従来、デジタルカメラ等の撮像装置に設けられる機能として、撮影画面内の指定エリアで被写体の動きを検出して自動的にシャッタを切る自動撮影機能(以下、モーションシャッタという)が知られている(例えば、特許文献1参照)。
特開2005−333420号公報
ところで、モーションシャッタは、被写体となる人の意思を有する動作(例えば、手の動きなど)を指定エリア内で検出することにより実現することを想定している。しかしながら、上記特許文献1に開示されているモーションシャッタでは、指定エリア内に、被写体とは別の人が写り込んでしまったり木の枝が風で揺れて写りこんでしまったりした場合であっても、被写体となる人の意思を有する動作と区別することができず、誤検出してしまうという問題があった。
本発明は、このような問題に鑑みてなされたものであり、被写体の状態の検出に際して誤検出を減らすことを目的とする。
上記課題を解決するため、本発明に係る検出装置は、
撮像画像内の所定の領域における状態を検出する検出手段と、
前記撮像画像から被写体を判別する判別手段と、
前記判別手段により前記所定の領域外に所定の被写体が判別された場合に、当該所定の被写体に係る情報を取得する取得手段と、
前記取得手段により取得された所定の被写体に係る情報に基づき、前記検出手段による前記所定の領域における状態の検出を制御する制御手段と、
を備えることを特徴としている。
本発明によれば、被写体の状態の検出に際して誤検出を減らすことができる。
本発明を適用した実施形態1の撮像装置の概略構成を示すブロック図である。 図1の撮像装置を模式的に示す斜視図である。 図1の撮像装置の検出条件テーブルの一例を示す図である。 図1の撮像装置によるモーションシャッタ処理に係る動作の一例を示すフローチャートである。 図4のモーションシャッタ処理における検出処理1に係る動作の一例を示すフローチャートである。 図4のモーションシャッタ処理における検出処理2に係る動作の一例を示すフローチャートである。 図4のモーションシャッタ処理に係るライブビュー画像の一例を模式的に示す図である。 検出領域内における物体の動きの一例を説明するための図である。 実施形態2における検出処理1に係る動作の一例を示すフローチャートである。 実施形態2における検出処理2に係る動作の一例を示すフローチャートである。 実施形態2の変形例における検出処理1に係る動作の一例を示すフローチャートである。 実施形態2の変形例における検出処理2に係る動作の一例を示すフローチャートである。 実施形態3におけるモーションシャッタ処理に係る動作の一例を示すフローチャートである。
〔実施形態1〕
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明の検出装置を適用した実施形態1の撮像装置100の概略構成を示すブロック図である。また、図2(a)は、図1の撮像装置100を模式的に示す斜視図であり、図2(b)は、撮像装置100の表示パネル8aを180°回動させた状態を模式的に示す斜視図である。
図1に示すように、本実施形態の撮像装置100は、中央制御部1と、メモリ2と、撮像部3と、撮像制御部4と、画像データ生成部5と、記憶部6と、画像記録部7と、表示部8と、操作入力部9とを備えている。
また、中央制御部1、メモリ2、撮像部3、撮像制御部4、画像データ生成部5、記憶部6、画像記録部7及び表示部8は、バスライン10を介して接続されている。
また、撮像装置100は、図2(a)及び図2(b)に示すように、撮像部3(特に、レンズ部3a;後述)を具備する装置本体部100Aに表示部8の表示パネル8aが所定の回動機構(例えば、ヒンジ機構等)を介して取りつけられている。具体的には、表示パネル8aは、光軸X方向に略直交する一の軸(例えば、水平方向の軸等)周りに略180°回動自在に装置本体部100Aに軸支されている。つまり、表示パネル8aを装置本体部100Aに対して相対的に略180°回動させることで、表示パネル8aの表示方向を撮像部3の撮像方向と略等しくするように、すなわち、表示パネル8aをレンズ部3aの露出面と同様に被写体側に臨むように配置することができるようになっている(図2(b)参照)。そして、表示パネル8aをレンズ部3aの露出面と同じ側とした状態では、ユーザが表示パネル8aに表示されるユーザ自身を含む画像を視認しながら、所謂、自分撮りを行うことができる。
なお、表示パネル8aは、例えば、装置本体部100Aに対して光軸X方向に略直交する垂直方向の軸周りに略180°回動自在に軸支されていても良く、この場合も、表示パネル8aをレンズ部3aの露出面と同じ側とした状態では、所謂、自分撮りを行うことができる。
中央制御部1は、撮像装置100の各部を制御するものである。具体的には、中央制御部1は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1や撮像制御部4等の各部によって処理されるデータ等を一時的に記憶するものである。
撮像部(撮像手段)3は、被写体を撮像する。具体的には、撮像部3は、レンズ部3aと、電子撮像部3bとを備えている。
レンズ部3aは、例えば、レンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CMOS(Complementary Metal-oxide Semiconductor)やCCD(Charge Coupled Device)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
撮像制御部4は、撮像部3による被写体の撮像を制御する。
撮像制御部4は、図示は省略するが、タイミング発生器、ドライバなどを備えている。撮像制御部4は、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像を読み出して画像データ生成部5に出力させる。また、撮像制御部4は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行う。
また、本実施形態において、撮像制御部4は、状態判定部4aと、判別部4bと、取得部4cと、検出部4dと、開始制御部4eとを具備している。
なお、撮像制御部4の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
状態判定部4aは、当該撮像装置100の状態を判定する。
すなわち、状態判定部4aは、撮像部3により撮像されて表示部8に表示される被写体の画像を当該被写体自身に視認させることが可能な所定の状態(所謂、自分撮りの状態)であるか否かを判定する。
具体的には、状態判定部4aは、撮像部3による被写体の撮像の際に、撮像部3の撮像方向(レンズ部3aの露出方向)と表示パネル8aの表示方向が略等しくなっている状態であるか否かを判定する。例えば、状態判定部4aは、装置本体部100Aに対して表示パネル8aが略180°回動したことを機械的に検出するスイッチ(図示略)の検出信号や、表示パネル8aの重力方向に対する傾きを検出するセンサ(例えば、加速度センサ等;図示略)の検出信号の入力に基づいて、撮像部3の撮像方向と表示パネル8aの表示方向が略等しくなっているか否かを判定する。
そして、状態判定部4aは、撮像部3の撮像方向と表示パネル8aの表示方向が略等しくなっていると判定した場合に、撮像部3により撮像されて表示部8に表示される被写体の画像を当該被写体自身に視認させることが可能な所定の状態であると特定する。
判別部(判別手段)4bは、表示パネル8aに表示されるライブビュー画像L(図7(a)参照)から被写体を判別する。
本実施形態において、判別部4bは、所定の顔検出処理を行い、逐次表示されるライブビュー画像L内から人の顔が含まれる顔領域F(図7(a)参照)を検出する。顔領域Fが検出された場合、判別部4bは、被写体として人を判別したこととなる。また、判別部4bは、顔領域Fを検出した場合、顔領域Fの画像データを顔画像データファイル6a(後述)に記憶されている特定の人物の顔に係る顔画像データと照合し、被写体として判別された人が特定の人物であるか判別する。そして、顔領域Fの画像データと特定の人物の顔に係る顔画像データとが一致した場合、判別部4bは、被写体として特定の人物を判別したこととなる。
なお、上述した顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
取得部(取得手段)4cは、判別部4bにより被写体として人が判別された場合に、当該人に係る情報を取得する。
本実施形態において、取得部4cは、判別部4bにより被写体として人が判別された場合に、当該人に係る情報として、当該人のフォーカス距離、すなわち撮像装置100から被写体として判別された人までの距離に係るフォーカス距離情報を取得する。このフォーカス距離情報は、被写体として判別された人に対して撮像制御部4によるAF制御が行われた際に取得されるようになっている。
また、取得部4cは、判別部4bにより被写体として人が判別された場合に、当該人に係る情報として、当該人の特徴色に係る特徴色情報を取得する。
本実施形態において、取得部4cは、人の特徴色として、当該人の肌の色に係る特徴色情報を取得する。具体的には、取得部4cは、判別部4bにより検出された顔領域F(図7(a)参照)から標準的な肌色及び当該肌色と近似する色(近似色)の領域のみを抽出、つまり、髪の毛、眉毛、目、唇等の領域を除外し、抽出された領域における色の平均値(RGB値)を算出する。そして、取得部4cは、この平均値、すなわち顔の肌色のRGB値に係るデータ(人の肌の色に係る特徴色情報)を取得する。なお、上述の平均値を算出する場合、抽出された領域における色相値(°)から算出するようにしても良い。
また、本実施形態において、取得部4cは、人の特徴色として、当該人の衣服の色に係る特徴色情報を取得する。具体的には、取得部4cは、判別部4bにより判別された人の領域のうち顔領域Fとは異なる肌色領域H(図7(a)参照)の上側に隣接する所定面積以上の領域を抽出し、抽出された領域におけるRGB値を算出する。そして、取得部4cは、このRGB値、すなわち衣服と推測される領域の色のRGB値に係るデータ(人の衣服の色に係る特徴色情報)を取得する。なお、判別部4bにより判別された人の領域内に複数の肌色領域が含まれている場合は、当該人の顔領域Fにより近い肌色領域を対象とするようにする。また、人の衣服の色に係る特徴色情報は、RGB値に係るデータに限らず、色相値(°)に係るデータであっても良い。
また、取得部4cは、判別部4bにより被写体として人が判別された場合に、当該人に係る情報として、当該人の顔の大きさから推測される手の大きさに係る手寸法情報を取得する。
具体的には、取得部4cは、判別部4bにより判別された人の顔領域Fの縦方向の長さと、手の大きさを算出するための所定の比率とを乗算することによって、当該人の顔領域Fから推測される手の大きさに係る手寸法情報を取得する。ここで、手の大きさは、例えば中指の先から手の平のつけ根までの長さ(pixels)で表す。
また、取得部4cは、判別部4bにより被写体として判別された人が特定の人物である場合に、当該特定の人物と対応付けられて予め記憶されている特定情報を取得する。
具体的には、取得部4cは、判別部4bにより判別された人の顔領域Fの画像データと、記憶部6(後述)に記憶されている特定の人物の顔に係る顔画像データと、が一致する場合に、検出条件テーブル6b(後述)から当該特定の人物と対応付けられた検出条件Aに係る情報を特定情報として取得する。図3に示すように、例えば、判別部4bにより被写体として特定の人物aが判別された場合、取得部4cは、特定の人物aと対応付けられた検出条件A(検出領域(所定の領域)T(図7参照)内における手の上下方向の動作)に係る情報を特定情報として取得する。
検出部(検出手段、制御手段)4dは、取得部4cにより取得された人に係る情報に基づき検出条件を設定し、当該検出条件の下、表示パネル8aに表示されるライブビュー画像L内の検出領域(所定の領域)T(図7参照)において、被写体の状態変化を検出する。なお、検出領域Tの位置及び範囲は、適宜任意に変更可能であり、例えば、ユーザによる操作部の所定の操作に基づいて指定することができ、表示パネル8aの表示画面全体を検出領域として指定することができるようにしても良い。また、判別部4bが被写体として人を判別する領域を検出領域(所定の領域)Tの領域外とすることで、検出領域Tにおいて被写体の状態変化をより精度高く検出することが可能となる。
後述する記憶部6に含まれる、図3に示す検出条件テーブル6bは、検出部4dによって被写体の状態変化を検出する際の検出条件を定義したものである。
検出条件テーブル6bにおいて、検出条件1〜4及び検出条件Aが定義されている。
具体的には、検出条件1では、被写体フォーカス距離から所定の距離の範囲内(被写体フォーカス距離(m)±s(m))であることとされている。ここで、所定の距離とは、ライブビュー画像Lの奥行方向における距離をいい、所定の距離として、被写体となる人の手が届き得る距離(例えば、1m)が設定される。
検出条件2では、判別部4bにより被写体として判別された人の肌の色と同色又は類似色の範囲内(顔の肌色のRGB値±t)であることとされている。
検出条件3では、手の大きさと略同一の範囲内(手の大きさ(pixels)±v(pixels))であることとされている。
検出条件4では、判別部4bにより被写体として判別された人の衣服の色と同色又は類似色の範囲内(衣服の色のRGB値±p)であることとされている。
検出条件Aでは、例えば、特定の人物aの場合、検出領域T内における上から下への動作(特定情報)が検出されること、また、特定の人物bの場合、検出領域T内における下から上への動作(特定情報)が検出されること、また、特定の人物cの場合、検出領域T内における上→下→上の動作(特定情報)が検出されること、また、特定の人物dの場合、検出領域T内における下→上→下の動作(特定情報)が検出されること、…等とされている。
検出部4dは、図3に示す検出条件テーブル6bを参照し、先ず、検出条件1の条件内容に、取得部4cにより取得された具体的なフォーカス距離情報を当てはめることによって、検出条件1(被写体フォーカス距離から所定の距離の範囲内(被写体フォーカス距離(m)±s(m))であること)を設定する。なお、「s」の値は、適宜任意に変更可能であり、例えば、ユーザによる操作部の所定の操作に基づいて指定することができる。また、「s」の値は絶対数ではなく比率(%)としても良い。
続けて、検出部4dは、図3に示す検出条件テーブル6bの検出条件2の条件内容に、取得部4cにより取得された具体的な顔の肌色のRGB値に係るデータを当てはめることによって、検出条件2(判別部4bにより被写体として判別された人の肌の色と同色又は類似色の範囲内(顔の肌色のRGB値±t)であること)を設定する。なお、検出条件2の条件内容として、「顔の肌色のRGB値±t」の代わりに「顔の肌の色の色相値±u(°)」を用いても良い。また、「t」,「u」の値は、上述の「s」の値と同様、適宜任意に変更可能である。また、「t」,「u」の値は絶対数ではなく比率(%)としても良い。
続けて、検出部4dは、図3に示す検出条件テーブル6bの検出条件3の条件内容に、取得部4cにより取得された具体的な手の大きさに係る手寸法情報を当てはめることによって、検出条件3(手の大きさと略同一の範囲内(手の大きさ(pixels)±v(pixels))であること)を設定する。なお、「v」の値は、上述の「s」の値と同様、適宜任意に変更可能である。また、「v」の値は絶対数ではなく比率(%)としても良い。
続けて、検出部4dは、図3に示す検出条件テーブル6bの検出条件4の条件内容に、取得部4cにより取得された具体的な衣服と推測される領域の色のRGB値に係るデータを当てはめることによって、検出条件4(判別部4bにより被写体として判別された人の衣服の色と同色又は類似色の範囲内(衣服の色のRGB値±p)であること)を設定する。なお、検出条件4の条件内容として、「衣服の色のRGB値±p」の代わりに「衣服の色の色相値±q(°)」を用いても良い。また、「p」,「q」の値は、上述の「s」の値と同様、適宜任意に変更可能である。また、「p」,「q」の値は絶対数ではなく比率(%)としても良い。
次に、検出部4dは、図7(a)に示すように、逐次表示されるライブビュー画像L内で開始指標MがOSD(On Screen Display)表示されている検出領域T内の画素値の変動に基づいて、画像の変化を検出する。そして、図7(b)及び図7(c)に示すように、画像の変化が検出された場合、検出部4dは、このとき検出領域Tに存する物体が上述の検出条件1を満たすか否か、すなわち、当該物体が被写体フォーカス距離から所定の距離の範囲内にあるか否かを判定する。ここで、当該物体までの距離の測定は、例えば、撮像制御部4によって当該物体に対するAF制御を行うことにより行う。そして、検出条件1を満たすと判定された場合(例えば、図7(b)の場合)、検出部4dは、検出条件2〜4のうちの何れか一つの条件を満たすか否か、すなわち、当該物体の色が判別部4bにより被写体として判別された人の肌の色と同色又は類似色の範囲内であるか否か、当該物体の大きさが手の大きさと略同一の範囲内であるか否か、当該物体の色が判別部4bにより被写体として判別された人の衣服の色と同色又は類似色の範囲内であるか否かを判定する。そして、検出条件2〜4のうちの何れか一つの条件を満たすと判定された場合、検出部4dは、判別部4bにより判別された人(被写体)に動きがあるものとして判断する。一方、検出条件1を満たさないと判定された場合(例えば、図7(c)の場合)、又は、検出条件1を満たしているものの検出条件2〜4の何れの条件も満たしていないと判定された場合、検出部4dは、判別部4bにより判別された人(被写体)に動きがないものとして判断する。
また、判別部4bにより被写体として判別された人が特定の人物であり、取得部4cにより特定情報が取得されている場合、検出部4dは、上述の検出条件1〜4を設定するとともに、当該特定情報に基づき検出条件Aを取得(設定)する。そして、検出条件1を満たすとともに検出条件2〜4の何れか一つの条件を満たし、さらに検出条件Aを満たすと判定された場合、検出部4dは、判別部4bにより判別された特定の人物(被写体)に動きがあるものとして判断する。一方、検出条件1を満たさないと判定された場合、検出条件1を満たしているものの検出条件2〜4の何れの条件も満たしていないと判定された場合、又は、検出条件1を満たすとともに検出条件2〜4の何れか一つの条件を満たすものの検出条件Aを満たさないと判定された場合、検出部4dは、判別部4bにより判別された特定の人物(被写体)に動きがないものとして判断する。
開始制御部(実行手段)4eは、撮像部3による被写体の撮像画像の撮影処理を実行する。
本実施形態において、開始制御部4eは、判別部4bにより判別された人又は特定の人物に動きがあると検出部4dにより判断された場合、撮像部3による被写体の撮像画像の撮影処理を実行する。
具体的には、判別部4bにより被写体として人が判別されたものの、当該人が特定の人物であると判別されなかった場合、開始制御部(実行手段)4cは、検出条件1を満たすとともに、検出条件2〜4のうちの何れか一つの条件を満たすと検出部4dにより判定されたときに、撮像部3による被写体の撮像画像の撮影処理を実行する。一方、判別部4bにより被写体として特定の人物が判別された場合、開始制御部4eは、検出条件1を満たすとともに、検出条件2〜4のうちの何れか一つの条件を満たし、さらに検出条件Aを満たすと検出部4dにより判定されたときに、撮像部3による被写体の撮像画像の撮影処理を実行する。
画像データ生成部5は、電子撮像部3bから転送されたフレーム画像のアナログ値の信号に対してRGBの色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
また、画像データ生成部5は、生成した画像データをバッファメモリとして使用されるメモリ2や画像記録部7に転送する。
記憶部6は、読み書き可能な不揮発性のメモリであり、例えば、フラッシュメモリやEEPROM(Electrically Erasable and Programmable Read Only Memory)である。この記憶部6には、顔画像データファイル6a、検出条件テーブル6b等が格納されている。
顔画像データファイル6aには、特定の人物a,b,c,d…の名前と、当該特定の人物a,b,c,d…の顔画像データ等が対応付けられて記憶されている。本実施形態では、判別部4bで検出された顔領域Fの画像データと顔画像データファイル6aに記憶されている顔画像データを判別部4bによって照合することにより、判別部4bで判別された人を特定可能となっている。
検出条件テーブル6bは、上述したように検出部4dによって被写体の状態変化を検出する際の検出条件を定義したものである。
画像記録部7は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されている。また、画像記録部7は、画像データ生成部5の符号化部(図示略)により所定の符号化方式で符号化された各種の画像の画像データを記録する。
本実施形態では、画像記録部7は、例えば、開始制御部4eにより撮影処理を実行した際に撮像された画像の画像データ等を記録する。
なお、画像記録部7は、例えば、記録媒体(図示略)が着脱自在に構成され、装着された記録媒体からのデータの読み出しや記録媒体に対するデータの書き込みを制御する構成であっても良い。
表示部8は、静止画像や動画像を表示する。具体的には、表示部8は、表示パネル8aと、表示制御部8bとを具備している。
表示パネル8aは、表示領域内に画像を表示する。具体的には、表示パネル8aは、静止画撮像モードや動画撮像モードにて、撮像部3による被写体の撮像により生成された複数の画像フレームを所定の再生フレームレートで逐次更新しながらライブビュー画像Lを表示する。
なお、表示パネル8aとしては、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
表示制御部8bは、メモリ2や画像記録部7から読み出され復号された所定サイズの画像データに基づいて、所定の画像を表示パネル8aの表示画面に表示させる制御を行う。具体的には、表示制御部8bは、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部1の制御下にてメモリ2から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから読み出して、これらのデータを元にビデオ信号を発生して表示パネル8aに出力する。
また、表示制御部8bは、本実施形態において、撮像部3の撮像方向と表示パネル8aの表示方向が略等しくなっていると状態判定部4aにより判定されると、撮像部3により撮像されて画像データ生成部5により生成された複数の画像フレームを所定の再生フレームレートで逐次更新しながらライブビュー画像Lを表示パネル8aに表示させるとともに、所定の格納手段(例えば、メモリ2等)に格納されている、撮像開始を指示する開始指標M等の画像データを読み出して取得し、ライブビュー画像Lに重畳させてOSD(On Screen Display)表示させる(図7(a)参照)。
操作入力部9は、装置本体に対して各種指示を入力するためのものである。
具体的には、操作入力部9は、例えば、シャッタボタン、動作モードや機能等の選択指示に係る上下左右のカーソルボタン、決定ボタン等を具備する操作部(図示略)を備えている。
そして、ユーザにより操作部の各種ボタンが操作されると、操作入力部9は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部9から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像等)を各部に実行させる。
なお、操作入力部9は、表示部8の表示パネル8aと一体となって設けられたタッチパネル(図示略)を有して構成されていても良い。
<モーションシャッタ処理>
次に、本実施形態の撮像装置100によるモーションシャッタ処理について図4を参照して説明する。
図4は、モーションシャッタ処理に係る動作の一例を示すフローチャートである。
図4に示すように、先ず、状態判定部4aは、撮像部3の撮像方向と表示パネル8aの表示方向が略等しくなっている状態であるか否かを判定する(ステップS1)。すなわち、状態判定部4aは、装置本体部100Aに対して表示パネル8aが略180°回動した状態とされているか否かを判定する。
ステップS1にて、撮像部3の撮像方向と表示パネル8aの表示方向が略等しくなっていると判定されると(ステップS1;YES)、表示制御部8bは、撮像部3により撮像されて画像データ生成部5により生成された複数の画像フレームを所定の再生フレームレートで逐次更新しながらライブビュー画像Lを表示パネル8aに表示させるとともに、所定の格納手段(例えば、メモリ2等)に格納されている、撮像開始を指示する開始指標M等の画像データを読み出して取得し、ライブビュー画像Lに重畳させてOSD表示させる(ステップS2;図7(a)参照)。一方、ステップS1にて、撮像部3の撮像方向と表示パネル8aの表示方向が略等しくなっていないと判定されると(ステップS1;NO)、モーションシャッタ処理を終了する。
次に、判別部4bは、所定の顔検出処理を行い、表示パネル8aに表示されているライブビュー画像Lから被写体を判別する(ステップS3)。
そして、所定時間内に被写体として人が判別されないと(ステップS4;No)、モーションシャッタ処理を終了する。一方、所定時間内に被写体として人が判別されると(ステップS4;YES)、判別部4bは、被写体として判別されて人が特定の人物であるか否か判定する(ステップS5)。
ステップS5にて、被写体として判別された人が特定の人物であるか否かを所定時間内に判別することができない場合(ステップS5;NO)、検出処理1(ステップS6)、撮影処理(ステップS8)を実行し、モーションシャッタ処理を終了する。なお、検出処理1については、後述する。
一方、ステップS5にて、被写体として判別された人が特定の人物であるか否かを所定時間内に判別することができた場合(ステップS5;YES)、検出処理2(ステップS7)、撮影処理(ステップS8)を実行し、モーションシャッタ処理を終了する。なお、検出処理2については、後述する。
<検出処理1>
次に、検出処理1について、図5を参照して詳細に説明する。
図5は、検出処理1に係る動作の一例を示すフローチャートである。
図5に示すように、先ず、検出部4dは、検出条件テーブル6bの検出条件1の条件内容に、取得部4cにより取得された具体的なフォーカス距離情報を当てはめることによって、検出条件1を設定する(ステップS11)。
次に、検出部4dは、検出条件テーブル6bの検出条件2の条件内容に、取得部4cにより取得された具体的な顔の肌色のRGB値に係るデータを当てはめることによって、検出条件2を設定する(ステップS12)。
次に、検出部4dは、検出条件テーブル6bの検出条件3の条件内容に、取得部4cにより取得された具体的な手の大きさに係る手寸法情報を当てはめることによって、検出条件3を設定する(ステップS13)。
次に、検出部4dは、検出条件テーブル6bの検出条件4の条件内容に、取得部4cにより取得された具体的な衣服と推測される領域の色のRGB値に係るデータを当てはめることによって、検出条件4を設定する(ステップS14)。
次に、検出部4dは、ライブビュー画像L内で開始指標MがOSD表示されている検出領域T内の画素値の変動に基づいて、検出領域T内で物体の動きが検出されたか否かを判定する(ステップS15)。
ステップS15にて、検出領域T内で物体の動きが検出されないと判定された場合(ステップS15;NO)、検出部4dは、ステップS15の処理を繰り返し実行する。一方、ステップS15にて、検出領域T内で物体の動きが検出されたと判定された場合(ステップS15;YES)、検出部4dは、検出条件1を満たすか、すなわち、当該物体が被写体フォーカス距離から所定の距離の範囲内にあるか否かを判定する(ステップS16)。
ステップS16にて、検出条件1を満たしていないと判定された場合(ステップS16;NO)、検出部4dは、ステップS15の処理へ戻り、引き続き、検出領域T内で物体の動きが検出されたか否かを判定する(ステップS15)。一方、ステップS16にて、検出条件1を満たしたと判定された場合(ステップS16;Yes)、検出部4dは、検出条件2を満たすか否か、すなわち、当該物体の色が判別部4bにより被写体として判別された人の肌の色と同色又は類似色の範囲内であるか否かを判定する(ステップS17)。
ステップS17にて、検出条件2を満たしたと判定された場合(ステップS17;Yes)、検出処理1を終了する。一方、ステップS17にて、検出条件2を満たしていないと判定された場合(ステップS17;NO)、検出部4dは、検出条件3を満たすか否か、すなわち、当該物体の大きさが手の大きさと略同一の範囲内であるか否かを判定する(ステップS18)。
ステップS18にて、検出条件3を満たしたと判定された場合(ステップS18;Yes)、検出処理1を終了する。一方、ステップS18にて、検出条件3を満たしていないと判定された場合(ステップS18;NO)、検出部4dは、検出条件4を満たすか否か、すなわち、当該物体の色が判別部4bにより被写体として判別された人の衣服の色と同色又は類似色の範囲内であるか否かを判定する(ステップS19)。
ステップS19にて、検出条件4を満たしたと判定された場合(ステップS19;Yes)、検出処理1を終了する。一方、ステップS19にて、検出条件4を満たしていないと判定された場合(ステップS19;NO)、ステップS15へ戻り、検出部4dは、引き続き、検出領域T内で物体の動きが検出されたか否かを判定する(ステップS15)。なお、所定時間が経過しても検出処理1が終了されない場合は、モーションシャッタ処理を終了させる。
<検出処理2>
次に、検出処理2について、図6を参照して詳細に説明する。
図6は、検出処理2に係る動作の一例を示すフローチャートである。検出処理2では、ステップS25の検出条件Aを取得する処理、及び、ステップS31の検出条件Aを満たすか否かの判定処理以外は、上述の検出処理1と同様の処理が実行されるようになっている。
図6に示すように、検出部4dは、検出処理1と同様、検出条件1〜4を設定する(ステップS21〜ステップS24)。次に、検出部4dは、取得部4cにより取得された特定情報に基づく検出条件Aを取得する(ステップS25)。
次に、検出部4dは、検出処理1と同様、ライブビュー画像L内で開始指標MがOSD表示されている検出領域T内の画素値の変動に基づいて、検出領域T内で物体の動きが検出されたか否かを判定する(ステップS26)。
ステップS26にて、検出領域T内で物体の動きが検出されないと判定された場合(ステップS26;NO)、検出部4dは、ステップS26の処理を繰り返し実行する。一方、ステップS26にて、検出領域T内で物体の動きが検出されたと判定された場合(ステップS26;YES)、検出部4dは、検出条件1を満たすか否かを判定する(ステップS27)。
ステップS27にて、検出条件1を満たしていないと判定された場合(ステップS27;NO)、検出部4dは、ステップS26の処理へ戻り、引き続き、検出領域T内で物体の動きが検出されたか否かを判定する(ステップS26)。一方、ステップS27にて、検出条件1を満たしたと判定された場合(ステップS27;Yes)、検出部4dは、検出条件2を満たすか否かを判定する(ステップS28)。
ステップS28にて、検出条件2を満たしたと判定された場合(ステップS28;Yes)、ステップS31へ移行する。一方、ステップS28にて、検出条件2を満たしていないと判定された場合(ステップS28;NO)、検出部4dは、検出条件3を満たすか否かを判定する(ステップS29)。
ステップS29にて、検出条件3を満たしたと判定された場合(ステップS29;Yes)、ステップS31へ移行する。一方、ステップS29にて、検出条件3を満たしていないと判定された場合(ステップS29;NO)、検出部4dは、検出条件4を満たすか否かを判定する(ステップS30)。
ステップS30にて、検出条件4を満たしたと判定された場合(ステップS30;Yes)、ステップS31へ移行する。一方、ステップS30にて、検出条件4を満たしていないと判定された場合(ステップS30;NO)、ステップS26へ戻り、検出部4dは、それ以降の処理を実行する。
次に、ステップS31にて、検出部4dは、検出条件Aを満たすか否かを判定する(ステップS31)。ここで、検出条件Aを満たしたと判定された場合(ステップS31;Yes)、検出処理2を終了する。一方、検出条件Aを満たしていないと判定された場合(ステップS31;NO)、ステップS26へ戻り、検出部4dは、それ以降の処理を実行する。なお、所定時間が経過しても検出処理2が終了されない場合は、モーションシャッタ処理を終了させる。
以上のように、本実施形態の撮像装置100によれば、モーションシャッタ処理によって被写体である人を撮像する場合(例えば、自分撮りを行う場合)、ライブビュー画像L内で開始指標MがOSD表示されている検出領域T内において、当該人に係る情報に基づき検出条件を設定し、当該検出条件の下、所定の物体の状態変化を検出することとなる。
従って、検出領域T内に検出条件を満たさない人や物が写り込んでしまった場合に、当該人や物の状態変化が検出されてしまうことを防止することができるので、当該検出条件を満たす所定の物体の状態変化のみを適切に検出することができるようになる。
具体的には、本実施形態では、被写体として判別された人のフォーカス距離に係るフォーカス距離情報に基づき検出条件1(被写体フォーカス距離から所定の距離の範囲内にあること)を設定し、当該検出条件1の下、所定の物体の状態変化を検出することとなる。
従って、被写体フォーカス距離から所定の距離の範囲内に無い物体の状態変化を検出対象から除外することができるので、例えば、被写体となる人の後方を別の人や車等が通り過ぎたことによる誤検出を防止することができるようになる。
また、本実施形態では、被写体として判別された人の肌の色に係る特徴色情報に基づき検出条件2(被写体として判別された人の肌の色と同色又は類似色の範囲内であること)を更に設定し、当該検出条件2の下、所定の物体の状態変化を検出することとなる。
従って、上述の検出条件1を満たす物体であっても、当該物体の色が被写体として判別された人の肌の色と同色又は類似色の範囲内でない場合、当該物体の状態変化を検出対象から除外することができるので、誤検出をより確実に防止することができるようになる。
また、本実施形態では、被写体として判別された人の顔の大きさから推測される手の大きさに係る手寸法情報に基づき検出条件3(手の大きさと略同一の範囲内であること)を更に設定し、当該検出条件3の下、所定の物体の状態変化を検出することとなる。
従って、上述の検出条件1を満たす物体であっても、当該物体の大きさが被写体として判別された人の手の大きさと略同一の範囲内でない場合、当該物体の状態変化を検出対象から除外することができるので、誤検出をより確実に防止することができるようになる。
また、本実施形態では、被写体として判別された人の衣服の色に係る特徴色情報に基づき検出条件4(被写体として判別された人の衣服の色と同色又は類似色の範囲内であること)を更に設定し、当該検出条件4の下、所定の物体の状態変化を検出することとなる。
従って、上述の検出条件1を満たす物体であっても、当該物体の色が被写体として判別された人の衣服の色と同色又は類似色の範囲内でない場合、当該物体の状態変化を検出対象から除外することができるので、誤検出をより確実に防止することができるようになる。
また、本実施形態では、被写体として判別された人が特定の人物である場合に、この特定の人物と対応付けられて予め記憶されている特定情報に基づき検出条件A(例えば、特定の人物aの場合、検出領域T内における上から下への動作が検出されること)を更に設定し、当該検出条件Aの下、所定の物体の状態変化を検出することとなる。
従って、上述の検出条件1、及び、検出条件2〜4の何れか一つの条件を満たす物体の状態変化であっても、当該物体の動きが検出条件Aを満たさない場合、当該物体の状態変化を検出対象から除外することができるので、誤検出をより一層確実に防止することができるようになる。
また、本実施形態では、ライブビュー画像L内の検出領域Tの位置は、被写体として判別された人の位置とは関係なく設定されることとなる。
従って、ユーザ所望の位置に検出領域Tを設定することが可能となるので、ユーザ所望の位置で所定の物体の状態変化を検出することができ、被写体となる人は所望の姿勢で撮影を行うことができるようになる。
〔実施形態2〕
次に、実施形態2の撮像装置200について説明する。なお、基本的には、実施形態1の撮像装置100と同様の構成を有しており、以下、同様の構成を有する部分については同じ符号を付して説明を省略し、主に異なる部分について説明する。
実施形態2の撮像装置200は、フォーカス距離情報及び焦点距離情報に基づき、モーション検出(検出処理1(図9参照)、検出処理2(図10参照))を行う際の閾値(動作検出感度)を変化させることを特徴とする。
以下、本実施形態の検出部4dについて説明する。
本実施形態の検出部4dは、撮像装置200から判別部4bにより被写体として判別された人までの距離(フォーカス距離)に係るフォーカス距離情報、及び、この人に対してAF制御を実行したときのレンズ部3aのレンズの焦点距離に係る焦点距離情報に基づき、ライブビュー画像L内の検出領域Tにおいて状態を検出する際の閾値を設定する。
具体的には、検出部4dは、上述のフォーカス距離の値の逆数と、上述の焦点距離の値と、所定の係数とを掛け合わせた値を閾値として設定する。そして、検出部4dは、撮像部3により撮像される複数の画像フレーム間の検出領域Tにおける画素値(輝度、色)の変化量が上記閾値以上である場合に、ライブビュー画像L内の検出領域Tにおいて状態変化があったと判断する。
例えば、図8(b)に示すように、撮像装置200から被写体となる人(男の子)までのフォーカス距離が同図(a)に比べて長く、また、同図(a)に比べて焦点距離が短い場合、閾値は同図(a)に比べて小さくなる。これにより、図8(b)に示すように、被写体となる男の子の手の振り幅が同図(a)に比べて小さい、すなわちライブビュー画像L内の検出領域Tにおける画素値の変化量が小さい場合であっても、閾値を下げる(動作検出感度を上げる)ことにより、この男の子の手の動き(状態変化)を検出することができるようになる。
<検出処理1>
図9は、実施形態2における検出処理1を示すフローチャートである。
図9に示すように、実施形態2における検出処理1では、上記実施形態1の場合と同様、ステップS11の処理を行った後、検出部4dは、撮像装置200から被写体として判別された人までの距離に係るフォーカス距離情報の取得(AF制御)が行われた際のレンズ部3aのレンズの焦点距離に係る焦点距離情報を取得する(ステップS201)。次いで、検出部4dは、取得されたフォーカス距離の値の逆数と焦点距離の値と所定の係数とを掛け合わせた値を閾値として設定する(ステップS202)。次いで、検出部4dは、上記実施形態1の場合と同様、ステップS12〜ステップS14の処理を行う。
次いで、検出部4dは、ライブビュー画像L内で開始指標MがOSD表示されている検出領域T内の画素値の変動に基づいて、検出領域T内で物体の閾値以上の動きが検出されたか否かを判定する(ステップS203)。
ステップS203にて、検出領域T内で物体の閾値以上の動きが検出されないと判定された場合(ステップS203;NO)、検出部4dは、ステップS203の処理を繰り返し実行する。一方、ステップS203にて、検出領域T内で物体の閾値以上の動きが検出されたと判定された場合(ステップS203;YES)、検出部4dは、それ以降(ステップS16〜ステップS19)の処理を実行して検出処理1を終了する。
<検出処理2>
図10は、実施形態2における検出処理2を示すフローチャートである。
図10に示すように、実施形態2における検出処理2では、上記実施形態1の場合と同様、ステップS21の処理を行った後、検出部4dは、撮像装置200から被写体として判別された人までの距離に係るフォーカス距離情報の取得(AF制御)が行われた際のレンズ部3aのレンズの焦点距離に係る焦点距離情報を取得する(ステップS211)。次いで、検出部4dは、取得されたフォーカス距離の値の逆数と焦点距離の値と所定の係数とを掛け合わせた値を閾値として設定する(ステップS212)。次いで、検出部4dは、上記実施形態1の場合と同様、ステップS21〜ステップS25の処理を行う。
次いで、検出部4dは、ライブビュー画像L内で開始指標MがOSD表示されている検出領域T内の画素値の変動に基づいて、検出領域T内で物体の閾値以上の動きが検出されたか否かを判定する(ステップS213)。
ステップS213にて、検出領域T内で物体の閾値以上の動きが検出されないと判定された場合(ステップS213;NO)、検出部4dは、ステップS213の処理を繰り返し実行する。一方、ステップS213にて、検出領域T内で物体の閾値以上の動きが検出されたと判定された場合(ステップS213;YES)、検出部4dは、それ以降(ステップS27〜ステップS31)の処理を実行して検出処理2を終了する。
以上のように、実施形態2の撮像装置200によれば、検出部4dによって、撮像装置200から判別部4bにより被写体として判別された人までの距離(フォーカス距離)に係るフォーカス距離情報、及び、この人に対してAF制御を実行したときのレンズ部3aのレンズの焦点距離に係る焦点距離情報に基づき、ライブビュー画像L内の検出領域Tにおいて状態(例えば、被写体となる人の手の動き)を検出する際の閾値を設定することとなる。
従って、フォーカス距離情報と焦点距離情報に基づき、ライブビュー画像L内の検出領域Tにおいて状態(例えば、被写体となる人の手の動き)を検出する際の閾値を設定するので、フォーカス距離情報と焦点距離情報に応じて当該閾値を異ならせることができる。
これにより、設定された閾値に応じてモーション検出の際の動作検出感度を異ならせることができ、被写体の撮像状況に適した動作検出感度を設定することができるようになるので、モーション検出の検出精度を向上させ、安定したモーションシャッタを発揮することができる。
また、実施形態2の撮像装置200によれば、フォーカス距離情報に基づくフォーカス距離が長いほど、また、焦点距離情報に基づく焦点距離が短いほど、閾値を小さい値に設定することとなる。
従って、例えば、設定された閾値が小さいほど、モーション検出の際の動作検出感度を上げることができるようになる。
これにより、撮像装置200から被写体までの距離が遠くこの被写体の写りが小さい場合には、モーション検出の際の動作検出感度を上げることができるので、この被写体の動きの変化が小さくてもこの被写体の動きを好適に検出することができる。
<変形例>
次に、実施形態2の変形例の撮像装置200Tについて説明する。なお、基本的には、実施形態1の撮像装置100、実施形態2の撮像装置200と同様の構成を有しており、以下、同様の構成を有する部分については同じ符号を付して説明を省略し、主に異なる部分について説明する。
実施形態2の変形例の撮像装置200Tは、フォーカス距離情報及び焦点距離情報の代わりとして、被写体となる人の顔の大きさに係る顔寸法情報に基づき、モーション検出(検出処理1(図11参照)、検出処理2(図12参照))を行う際の閾値(動作検出感度)を変化させることを特徴とする。
以下、本変形例の取得部4c及び検出部4dについて説明する。
本変形例の取得部4cは、判別部4bにより被写体として人が判別された場合に、当該人に係る情報として、当該人の大きさに係る被写体寸法情報を取得する。
具体的には、取得部4cは、被写体寸法情報として、判別部4bにより判別された人の顔領域F(図7(a)参照)から当該人の顔の大きさに係る顔寸法情報を取得する。ここで、人の顔の大きさは、例えば判別部4bにより判別された人の顔領域Fの面積で表す。
本変形例の検出部4dは、取得部4cにより取得された顔寸法情報に基づき、ライブビュー画像L内の検出領域Tにおいて状態を検出する際の閾値を設定する。具体的には、検出部4dは、上述の人の顔の大きさの値と所定の係数とを掛け合わせた値を閾値として設定する。従って、人の顔の大きさの値が小さくなるほど、閾値が下がる(動作検出感度が上がる)ので、例えば、図8(b)に示すように、ライブビュー画像L内の検出領域Tにおける画素値の変化量が小さい場合であっても、被写体の動き(状態変化)を検出することができるようになる。
<検出処理1>
図11は、本変形例における検出処理1を示すフローチャートである。
図11に示すように、本変形例における検出処理1では、先ず、検出部4dは、取得部4cにより取得された顔寸法情報に基づく人の顔の大きさの値と所定の係数とを掛け合わせた値を閾値として設定する(ステップS221)。次いで、検出部4dは、上記実施形態1の場合と同様、ステップS11〜ステップS14の処理を行う。
次いで、検出部4dは、上記実施形態2の場合と同様、ライブビュー画像L内で開始指標MがOSD表示されている検出領域T内の画素値の変動に基づいて、検出領域T内で物体の閾値以上の動きが検出されたか否かを判定する(ステップS203)。
ステップS203にて、検出領域T内で物体の閾値以上の動きが検出されないと判定された場合(ステップS203;NO)、検出部4dは、ステップS203の処理を繰り返し実行する。一方、ステップS203にて、検出領域T内で物体の閾値以上の動きが検出されたと判定された場合(ステップS203;YES)、検出部4dは、それ以降(ステップS16〜ステップS19)の処理を実行して検出処理1を終了する。
<検出処理2>
図12は、本変形例における検出処理2を示すフローチャートである。
図12に示すように、本変形例における検出処理2では、先ず、検出部4dは、取得部4cにより取得された顔寸法情報に基づく人の顔の大きさの値と所定の係数とを掛け合わせた値を閾値として設定する(ステップS231)。次いで、検出部4dは、上記実施形態1の場合と同様、ステップS21〜ステップS25の処理を行う。
次いで、検出部4dは、上記実施形態2の場合と同様、ライブビュー画像L内で開始指標MがOSD表示されている検出領域T内の画素値の変動に基づいて、検出領域T内で物体の閾値以上の動きが検出されたか否かを判定する(ステップS213)。
ステップS213にて、検出領域T内で物体の閾値以上の動きが検出されないと判定された場合(ステップS213;NO)、検出部4dは、ステップS213の処理を繰り返し実行する。一方、ステップS213にて、検出領域T内で物体の閾値以上の動きが検出されたと判定された場合(ステップS213;YES)、検出部4dは、それ以降(ステップS27〜ステップS31)の処理を実行して検出処理2を終了する。
以上のように、本変形例の撮像装置200Tによれば、検出部4dによって、取得部4cにより取得された顔寸法情報に基づき、ライブビュー画像L内の検出領域Tにおいて状態(例えば、被写体となる人の手の動き)を検出する際の閾値を設定することとなる。
従って、顔寸法情報に基づき、ライブビュー画像L内の検出領域Tにおいて状態(例えば、被写体となる人の手の動き)を検出する際の閾値を設定するので、顔寸法情報に応じて当該閾値を異ならせることができる。
これにより、設定された閾値に応じてモーション検出の際の動作検出感度を異ならせることができ、被写体の撮像状況に適した動作検出感度を設定することができるようになるので、モーション検出の検出精度を向上させ、安定したモーションシャッタを発揮することができる。
また、本変形例の撮像装置200Tによれば、判別部4bにより所定の顔検出処理が行われた際に顔寸法情報が取得されることとなるので、当該顔寸法情報の取得に費やす処理負担を軽減することができる。
また、本変形例の撮像装置200Tによれば、顔寸法情報に基づく人の顔の大きさが小さいほど、閾値を小さい値に設定することとなる。
従って、例えば、設定された閾値が小さいほど、モーション検出の際の動作検出感度を上げることができるようになる。
これにより、被写体となる人の顔の大きさが小さい場合には、撮像装置200Tから被写体までの距離が遠いと判断し、モーション検出の際の動作検出感度を上げることができるので、この被写体の動きの変化が小さくてもこの被写体の動きを好適に検出することができる。
〔実施形態3〕
次に、実施形態3の撮像装置300について説明する。なお、基本的には、実施形態1の撮像装置100と同様の構成を有しており、以下、同様の構成を有する部分については同じ符号を付して説明を省略し、主に異なる部分について説明する。
実施形態3の撮像装置300は、検出領域T内で物体の動きが検出された際の検出領域T内の画素値の変化量が閾値以上である場合に、この動きが有意であると判定し撮影処理を実行することを特徴とする。
以下、本実施形態の取得部4c、開始制御部4e、及び撮像制御部4について説明する。
本実施形態の取得部4cは、検出部4dにより検出領域T内で物体の動き(状態変化)が検出された際の当該物体の動きが検出された位置までのフォーカス距離に係るフォーカス距離情報を取得する。
本実施形態の撮像制御部(判定手段)4は、取得部4cにより取得されたフォーカス距離情報に基づき、検出部4dにより検出された物体の動きが有意であるか否かを判定する。
具体的には、撮像制御部4は、検出部4dにより検出領域T内で物体の動きが検出された際の当該物体の動きが検出された位置までのフォーカス距離に係るフォーカス距離情報、及び、当該物体の動きが検出された位置に対してAF制御を実行したときのレンズ部3aのレンズの焦点距離に係る焦点距離情報に基づき、検出部4dにより検出された物体の動きが有意であるか否かを判定する際の閾値を設定する。検出部4dは、上述のフォーカス距離の値の逆数 と、上述の焦点距離の値と、所定の係数とを掛け合わせた値を閾値として設定する。
また、撮像制御部4は、検出部4dにより検出領域T内で物体の動きが検出された際の検出領域T内の画素値の変動量の値が閾値以上であるか否かを判定する。そして、検出領域T内の画素値の変動量の値が閾値以上であると判定された場合、撮像制御部4は、当該物体の動きは有意であると判定する。一方、検出領域T内の画素値の変動量の値が閾値以上でないと判定された場合、撮像制御部4は、当該物体の動きは無意であると判定する。
本実施形態の開始制御部4eは、撮像制御部4により検出領域Tにおける物体の動きが有意であると判定された場合、撮像部3による被写体の撮像画像の撮影処理を実行する。
<モーションシャッタ処理>
図13は、本実施形態におけるモーションシャッタ処理を示すフローチャートである。
図13に示すように、本実施形態におけるモーションシャッタ処理では、先ず、上記実施形態1の場合と同様、ステップS1及びステップS2の処理を行う。
次いで、検出部4dは、ライブビュー画像L内で開始指標MがOSD表示されている検出領域T内の画素値の変動に基づいて、検出領域T内で物体の動きが検出されたか否かを判定する(ステップS301)。
ステップS301にて、検出領域T内で物体の動きが検出されないと判定された場合(ステップS301;NO)、モーションシャッタ処理を終了する。一方、ステップS301にて、検出領域T内で物体の動きが検出されたと判定された場合(ステップS301;YES)、取得部4cは、検出部4dにより検出領域T内で物体の動きが検出された際の当該物体の動きが検出された位置までのフォーカス距離に係るフォーカス距離情報を取得する(ステップS302)。
次いで、撮像制御部4は、検出部4dにより検出領域T内で物体の動きが検出された際に当該物体の動きが検出された位置に対してAF制御が実行されたときのレンズ部3aのレンズの焦点距離に係る焦点距離情報を取得する(ステップS303)。
次いで、撮像制御部4は、取得されたフォーカス距離の値の逆数と焦点距離の値と所定の係数とを掛け合わせた値を閾値として設定する(ステップS304)。
次いで、撮像制御部4は、検出部4dにより検出領域T内で物体の動きが検出された際の検出領域T内の画素値の変動量の値が閾値以上であるか否かを判定する(ステップS305)。
ステップS305にて、検出領域T内の画素値の変動量の値が閾値以上であると判定された場合(ステップS305;YES)、撮像制御部4は、当該物体の動きは有意であると判定する(ステップS306)。そして、上記実施形態1の場合と同様、撮影処理(ステップS8)を実行し、モーションシャッタ処理を終了する。
一方、ステップS305にて、検出領域T内の画素値の変動量の値が閾値以上でないと判定された場合(ステップS305;NO)、撮像制御部4は、当該物体の動きは無意であると判定し(ステップS307)、ステップS301へ戻り、それ以降の処理を繰り返す。
以上のように、実施形態3の撮像装置300によれば、取得部4cによって、検出部4dにより検出領域T内に状態変化が検出された際の、当該状態変化が検出された位置までのフォーカス距離に係るフォーカス距離情報を取得し、撮像制御部4によって、取得部4cにより取得されたフォーカス距離情報に基づき、検出部4dにより検出された状態変化が有意であるか否かを判定することとなる。
従って、例えば、検出部4dにより検出された状態変化が有意であるか否かを判定することによって、撮像部3による撮影処理を実行するか否かを決定することができるので、モーションシャッタにおいて、ユーザの意図する撮影処理のみを実行することができる。
また、実施形態3の撮像装置300によれば、撮像制御部4によって、検出部4dにより検出領域T内で物体の動きが検出された際の当該物体の動きが検出された位置までのフォーカス距離に係るフォーカス距離情報、及び、当該物体の動きが検出された位置に対してAF制御を実行したときのレンズ部3aのレンズの焦点距離に係る焦点距離情報に基づき、検出部4dにより検出された物体の動きが有意であるか否かを判定する際の閾値を設定することとなる。
従って、フォーカス距離情報と焦点距離情報に基づき、検出部4dにより検出された物体の動きが有意であるか否かを判定する際の閾値を設定するので、フォーカス距離情報と焦点距離情報に応じて当該閾値を異ならせることができる。
これにより、設定された閾値に応じて検出部4dにより検出された物体の動きが有意であるか否かを判定する際の判定基準を異ならせることができ、被写体の撮像状況に適した判定基準を設定することができる。
また、実施形態3の撮像装置300によれば、フォーカス距離情報に基づくフォーカス距離が長いほど、また、焦点距離情報に基づく焦点距離が短いほど、閾値を小さい値に設定することとなる。
従って、例えば、設定された閾値が小さいほど、検出部4dにより検出された物体の動きが有意であるか否かを判定する際の判定基準を下げることができるようになる。
これにより、撮像装置300から被写体までの距離が遠くこの被写体の写りが小さい場合には、判定基準を下げることができるので、この被写体の動きの変化が小さくてもこの被写体の動きが有意であると判定することができ、かかる場合にモーションシャッタが作動しないという不都合を防止することができる。
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態1にあっては、検出条件1を満たすとともに、検出条件2〜4のうちの何れか一つの条件を満たす場合、検出部4dは、判別部4bにより判別された人(被写体)に動きがあるものとして判断するようにしたが、当該判断を行うために満たさなければならない条件を適宜任意に変更可能であり、例えば、検出条件1〜4のうちの何れか一つの条件を満たす場合や、検出条件1〜4のすべての条件を満たす場合に、検出部4dは、判別部4bにより判別された人(被写体)に動きがあるものとして判断するようにしても良い。
また、上記実施形態1にあっては、判別部4bにより検出された顔領域Fから標準的な肌色及び当該肌色と近似する色(近似色)の領域のみを抽出し、当該領域における色の平均値を顔の肌色のRGB値として算出するようにしたが、これに限らず、単に標準的な肌色のRGB値を顔の肌色のRGB値としても良い。
また、上記実施形態1にあっては、判別部4bにより被写体として人が判別されたものの、当該人が特定の人物であると判別されなかった場合、開始制御部4eは、検出条件1を満たすとともに、検出条件2〜4のうちの何れか一つの条件を満たすと検出部4dにより判定されたときに、撮像部3による被写体の撮像画像の撮影処理を実行するようにしたが、これに限らず、例えば、上記検出条件を満たすと検出部4dにより判定されたときに、撮影に係る所定の処理として、ズーム操作や、セルフタイマの開始処理を実行するようにしても良い。
また、上記実施形態1にあっては、特定の人物と対応付けられて予め記憶されている特定情報として、当該特定の人物に特有の動作が挙げられているが、これに限らず、例えば、当該特定の人物に特有の物(例えば、旗等)、色、形(例えば、手の形(グー、パー、チョキ等))等であっても良い。
また、上記実施形態1〜3にあっては、撮像部3の撮像方向と表示パネル8aの表示方向が略等しくなっていると判定された場合に、所定の物体の状態変化を検出するようにしているが、これに限らず、所定の物体の状態変化を検出するか否かを任意に設定可能とし、自分撮りに限らず、他の被写体の状態変化を検出するようにしても良い。
また、上記実施形態1にあっては、被写体として人を判別するようにしているが、これに限らず、例えば、車両を判別し、所定の領域として門を通過する場合を検出したり、製造ラインにおいて、ラインを流れる仕掛品を判別して、ライン上の所定の領域を通過する場合を検出したりしても良い。
また、上記実施形態2にあっては、フォーカス距離の値の逆数 と、焦点距離の値と、所定の係数とを掛け合わせた値を閾値として設定するようにしたが、フォーカス距離が長いほど、また、焦点距離が短いほど、閾値が小さくなるようにすれば良く、計算方法は上記の方法に限られない。また、例えば、フォーカス距離及び焦点距離と、閾値とを対応付けたテーブルを予め記憶しておき、実際に取得されたフォーカス距離及び焦点距離に対応する閾値を設定するようにしても良い。
また、上記実施形態2の変形例にあっては、人の顔の大きさの値と、所定の係数とを掛け合わせた値を閾値として設定するようにしたが、人の顔の大きさが小さいほど、閾値が小さくなるようにすれば良く、計算方法は上記の方法に限られない。また、例えば、人の顔の大きさと、閾値とを対応付けたテーブルを予め記憶しておき、実際に取得された人の顔の大きさに対応する閾値を設定するようにしても良い。
また、上記実施形態3にあっては、検出部4dにより検出領域T内で物体の動き(状態変化)が検出された際の当該物体の動きが検出された位置に対するAF制御は、シングルAFに限らず、コンティニュアスAFでも良い。
また、上記実施形態1〜3の撮像装置100、200、200T、300の構成は一例であり、これに限られるものではない。例えば、撮像機能を具備するスマートフォン等の携帯端末から構成されていても良い。具体的には、例えば、携帯端末を用いて上記実施形態1〜3の自分撮りを行う場合には、当該携帯端末の表示パネル側に露出されている撮像部のレンズ部(所謂、インカメラ)を利用することで、撮像部により撮像されて表示パネルに表示される被写体の動画像を当該被写体自身に視認させることが可能な状態となる。
また、上記実施形態1にあっては、検出手段、判別手段、取得手段、制御手段としての機能を、中央制御部1の制御下にて、状態判定部、判別部、取得部、検出部が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
すなわち、プログラムを記憶するプログラムメモリ(図示略)に、検出処理ルーチン、判別処理ルーチン、取得処理ルーチン、制御処理ルーチンを含むプログラムを記憶しておく。そして、検出処理ルーチンにより中央制御部1のCPUを、撮像画像内の所定の領域における状態を検出する手段として機能させるようにしても良い。また、判別処理ルーチンにより中央制御部1のCPUを、撮像画像から被写体を判別する手段として機能させるようにしても良い。また、取得処理ルーチンにより中央制御部1のCPUを、判別処理ルーチンにより所定の領域外に所定の被写体が判別された場合に、当該所定の被写体に係る情報を取得する手段として機能させるようにしても良い。また、制御処理ルーチンにより中央制御部1のCPUを、取得処理ルーチンにより取得された所定の被写体に係る情報に基づき、検出処理ルーチンによる所定の領域における状態の検出を制御する手段として機能させるようにしても良い。
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。
本発明の実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
撮像画像内の所定の領域における状態を検出する検出手段と、
前記撮像画像から被写体を判別する判別手段と、
前記判別手段により前記所定の領域外に所定の被写体が判別された場合に、当該所定の被写体に係る情報を取得する取得手段と、
前記取得手段により取得された所定の被写体に係る情報に基づき、前記検出手段による前記所定の領域における状態の検出を制御する制御手段と、
を備えることを特徴とする検出装置。
<請求項2>
前記検出手段は、撮像画像内の予め決められた位置に設けられた前記所定の領域において、指定された距離における物体の状態を検出可能であり、
前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体のフォーカス距離に係るフォーカス距離情報を取得し、
前記制御手段は、撮像画像内の前記所定の領域において、前記取得手段により取得されたフォーカス距離情報に基づき、前記所定の被写体のフォーカス距離から指定された距離の範囲内で物体の状態を検出するように、前記検出手段を制御することを特徴とする請求項1に記載の検出装置。
<請求項3>
前記検出手段は、撮像画像内の予め決められた位置に設けられた前記所定の領域において、所定の色における物体の状態を検出可能であり、
前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体の特徴色に係る特徴色情報を取得し、
前記制御手段は、更に、撮像画像内の前記所定の領域において、前記取得手段により取得された特徴色情報に基づき、前記所定の被写体の特徴色と同色又は類似色の範囲内で物体の状態を検出するように、前記検出手段を制御することを特徴とする請求項2に記載の検出装置。
<請求項4>
前記所定の被写体は人であり、
前記検出手段は、撮像画像内の予め決められた位置に設けられた前記所定の領域において、所定の色における物体の状態を検出可能であり、
前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体としての人の特徴色に係る特徴色情報を取得し、
前記制御手段は、更に、撮像画像内の前記所定の領域において、前記取得手段により取得された特徴色情報に基づき、前記人の特徴色と同色又は類似色の範囲内で物体の状態を検出するように、前記検出手段を制御することを特徴とする請求項3に記載の検出装置。
<請求項5>
前記人の特徴色は、当該人の肌の色であることを特徴とする請求項4に記載の検出装置。
<請求項6>
前記人の特徴色は、当該人の衣服の色であることを特徴とする請求項4に記載の検出装置。
<請求項7>
前記所定の被写体は人であり、
前記検出手段は、撮像画像内の予め決められた位置に設けられた前記所定の領域において、所定の大きさにおける物体の状態を検出可能であり、
前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体としての人の顔の大きさから推測される手の大きさに係る手寸法情報を取得し、
前記制御手段は、更に、撮像画像内の前記所定の領域において、前記取得手段により取得された手寸法情報に基づき、前記手の大きさと略同一の範囲内の物体の状態を検出するように、前記検出手段を制御することを特徴とする請求項3〜6の何れか一項に記載の検出装置。
<請求項8>
前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体のフォーカス距離に係るフォーカス距離情報を取得し、
前記制御手段は、前記取得手段により取得されたフォーカス距離情報に基づき、前記検出手段が前記所定の領域において状態を検出する際の閾値を設定することを特徴とする請求項1に記載の検出装置。
<請求項9>
前記制御手段は、更に、当該検出装置が備える前記撮像画像を取得するためのレンズの焦点距離情報に基づき、前記閾値を設定することを特徴とする請求項8に記載の検出装置。
<請求項10>
前記制御手段は、前記フォーカス距離情報に基づくフォーカス距離が長いほど、又は前記焦点距離情報に基づく焦点距離が短いほど、前記閾値を小さい値に設定することを特徴とする請求項9に記載の検出装置。
<請求項11>
前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体の大きさに係る被写体寸法情報を取得し、
前記制御手段は、前記取得手段により取得された被写体寸法情報に基づき、前記検出手段が前記所定の領域において状態を検出する際の閾値を設定することを特徴とする請求項1に記載の検出装置。
<請求項12>
前記所定の被写体は人であり、
前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体としての人の顔の大きさに係る顔寸法情報を取得し、
前記制御手段は、前記取得手段により取得された顔寸法情報に基づき、前記検出手段が前記所定の領域において状態を検出する際の閾値を設定することを特徴とする請求項11に記載の検出装置。
<請求項13>
前記制御手段は、前記顔寸法情報に基づく人の顔の大きさが小さいほど、前記閾値を小さい値に設定することを特徴とする請求項12に記載の検出装置。
<請求項14>
前記制御手段は、前記判別手段により判別された被写体に応じて、前記検出手段による検出条件を異ならせるように制御することを特徴とする請求項1〜13の何れか一項に記載の検出装置。
<請求項15>
前記検出手段は、撮像画像内の予め決められた位置に設けられた前記所定の領域において、所定の特定情報における物体の状態を検出可能であり、
前記取得手段は、前記判別手段により所定の被写体として特定の人物が判別された場合に、当該特定の人物と対応付けられて予め記憶されている特定情報を取得し、
前記制御手段は、更に、撮像画像内の前記所定の領域において、前記取得手段により取得された前記特定情報に基づき、物体の状態を検出するように、前記検出手段を制御することを特徴とする請求項14に記載の検出装置。
<請求項16>
前記撮像画像内の所定の領域の位置は、前記判別手段により判別された所定の被写体の位置とは関係なく設定されることを特徴とする請求項1〜15の何れか一項に記載の検出装置。
<請求項17>
被写体の画像を撮影する撮像手段を備え、
前記検出手段により前記所定の領域における状態が検出されたことを契機として、前記撮像手段による撮影に係る所定の処理を実行する実行手段を、更に備えることを特徴とする請求項1〜16の何れか一項に記載の検出装置。
<請求項18>
前記実行手段は、前記検出手段により前記所定の領域における状態が検出されたことを契機として、前記撮像手段による撮像画像の撮影処理を実行することを特徴とする請求項17に記載の検出装置。
<請求項19>
前記検出手段は、撮像画像内の所定の領域における状態変化を検出し、
前記制御手段は、前記取得手段により取得された所定の被写体に係る情報に基づき、前記検出手段による前記所定の領域における状態変化の検出を制御することを特徴とする請求項1〜18の何れか一項に記載の検出装置。
<請求項20>
撮像画像内の所定の領域における状態を検出する処理と、
前記撮像画像から被写体を判別する処理と、
前記所定の領域外に所定の被写体が判別された場合に、当該所定の被写体に係る情報を取得する処理と、
前記所定の被写体に係る情報に基づき、前記所定の領域における状態の検出を制御する処理と、
を含むことを特徴とする検出方法。
<請求項21>
コンピュータに、
撮像画像内の所定の領域における状態を検出する検出機能、
前記撮像画像から被写体を判別する判別機能、
前記判別機能により前記所定の領域外に所定の被写体が判別された場合に、当該所定の被写体に係る情報を取得する取得機能、
前記取得機能により取得された所定の被写体に係る情報に基づき、前記検出機能による前記所定の領域における状態の検出を制御する制御機能、
を実現させることを特徴とするプログラム。
<請求項22>
撮像画像内の所定の領域における状態変化を検出する検出手段と、
前記検出手段により前記所定の領域内に状態変化が検出された際の、当該状態変化が検出された位置までのフォーカス距離に係るフォーカス距離情報を取得する取得手段と、
前記取得手段により取得されたフォーカス距離情報に基づき、前記検出手段により検出された状態変化が有意であるか否かを判定する判定手段と、
を備えることを特徴とする検出装置。
<請求項23>
前記判定手段は、前記取得手段により取得されたフォーカス距離情報に基づき、前記検出手段により検出された状態変化が有意であるか否かを判定する際の閾値を設定することを特徴とする請求項22に記載の検出装置。
<請求項24>
前記判定手段は、更に、当該検出装置が備える前記撮像画像を取得するためのレンズの焦点距離情報に基づき、前記閾値を設定することを特徴とする請求項23に記載の検出装置。
<請求項25>
前記判定手段は、前記フォーカス距離情報に基づくフォーカス距離が長いほど、又は前記焦点距離情報に基づく焦点距離が短いほど、前記閾値を小さい値に設定することを特徴とする請求項24に記載の検出装置。
<請求項26>
撮像画像内の所定の領域における状態変化を検出する処理と、
前記所定の領域内に状態変化が検出された際の、当該状態変化が検出された位置までのフォーカス距離に係るフォーカス距離情報を取得する処理と、
取得されたフォーカス距離情報に基づき、検出された状態変化が有意であるか否かを判定する処理と、
を含むことを特徴とする検出方法。
<請求項27>
コンピュータに、
撮像画像内の所定の領域における状態変化を検出する検出機能、
前記検出機能により前記所定の領域内に状態変化が検出された際の、当該状態変化が検出された位置までのフォーカス距離に係るフォーカス距離情報を取得する取得機能、
前記取得機能により取得されたフォーカス距離情報に基づき、前記検出機能により検出された状態変化が有意であるか否かを判定する判定機能、
を実現させることを特徴とするプログラム。
100、200、200T、300 撮像装置
1 中央制御部
3 撮像部
4 撮像制御部
4a 状態判定部
4b 判別部
4c 取得部
4d 検出部
4e 開始制御部
6 記憶部
6a 顔画像データファイル
6b 検出条件テーブル
8 表示部
8a 表示パネル
8b 表示制御部
F 顔領域
M 開始指標
T 検出領域
開始制御部(実行手段)4eは、撮像部3による被写体の撮像画像の撮影処理を実行する。
本実施形態において、開始制御部4eは、判別部4bにより判別された人又は特定の人物に動きがあると検出部4dにより判断された場合、撮像部3による被写体の撮像画像の撮影処理を実行する。
具体的には、判別部4bにより被写体として人が判別されたものの、当該人が特定の人物であると判別されなかった場合、開始制御部(実行手段)4は、検出条件1を満たすとともに、検出条件2〜4のうちの何れか一つの条件を満たすと検出部4dにより判定されたときに、撮像部3による被写体の撮像画像の撮影処理を実行する。一方、判別部4bにより被写体として特定の人物が判別された場合、開始制御部4eは、検出条件1を満たすとともに、検出条件2〜4のうちの何れか一つの条件を満たし、さらに検出条件Aを満たすと検出部4dにより判定されたときに、撮像部3による被写体の撮像画像の撮影処理を実行する。
上記課題を解決するため、本発明に係る検出装置は、
撮像画像内の予め決められた位置に設けられた所定の領域における状態を検出する検出手段と、
前記撮像画像から被写体を判別する判別手段と、
前記判別手段により前記所定の領域外に所定の被写体が判別された場合に、当該所定の被写体に係る情報を取得する取得手段と、
前記取得手段により取得された所定の被写体に係る情報に基づき、前記検出手段による前記所定の領域における状態の検出を制御する制御手段と、
を備えることを特徴としている。

Claims (27)

  1. 撮像画像内の所定の領域における状態を検出する検出手段と、
    前記撮像画像から被写体を判別する判別手段と、
    前記判別手段により前記所定の領域外に所定の被写体が判別された場合に、当該所定の被写体に係る情報を取得する取得手段と、
    前記取得手段により取得された所定の被写体に係る情報に基づき、前記検出手段による前記所定の領域における状態の検出を制御する制御手段と、
    を備えることを特徴とする検出装置。
  2. 前記検出手段は、撮像画像内の予め決められた位置に設けられた前記所定の領域において、指定された距離における物体の状態を検出可能であり、
    前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体のフォーカス距離に係るフォーカス距離情報を取得し、
    前記制御手段は、撮像画像内の前記所定の領域において、前記取得手段により取得されたフォーカス距離情報に基づき、前記所定の被写体のフォーカス距離から指定された距離の範囲内で物体の状態を検出するように、前記検出手段を制御することを特徴とする請求項1に記載の検出装置。
  3. 前記検出手段は、撮像画像内の予め決められた位置に設けられた前記所定の領域において、所定の色における物体の状態を検出可能であり、
    前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体の特徴色に係る特徴色情報を取得し、
    前記制御手段は、更に、撮像画像内の前記所定の領域において、前記取得手段により取得された特徴色情報に基づき、前記所定の被写体の特徴色と同色又は類似色の範囲内で物体の状態を検出するように、前記検出手段を制御することを特徴とする請求項2に記載の検出装置。
  4. 前記所定の被写体は人であり、
    前記検出手段は、撮像画像内の予め決められた位置に設けられた前記所定の領域において、所定の色における物体の状態を検出可能であり、
    前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体としての人の特徴色に係る特徴色情報を取得し、
    前記制御手段は、更に、撮像画像内の前記所定の領域において、前記取得手段により取得された特徴色情報に基づき、前記人の特徴色と同色又は類似色の範囲内で物体の状態を検出するように、前記検出手段を制御することを特徴とする請求項3に記載の検出装置。
  5. 前記人の特徴色は、当該人の肌の色であることを特徴とする請求項4に記載の検出装置。
  6. 前記人の特徴色は、当該人の衣服の色であることを特徴とする請求項4に記載の検出装置。
  7. 前記所定の被写体は人であり、
    前記検出手段は、撮像画像内の予め決められた位置に設けられた前記所定の領域において、所定の大きさにおける物体の状態を検出可能であり、
    前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体としての人の顔の大きさから推測される手の大きさに係る手寸法情報を取得し、
    前記制御手段は、更に、撮像画像内の前記所定の領域において、前記取得手段により取得された手寸法情報に基づき、前記手の大きさと略同一の範囲内の物体の状態を検出するように、前記検出手段を制御することを特徴とする請求項3〜6の何れか一項に記載の検出装置。
  8. 前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体のフォーカス距離に係るフォーカス距離情報を取得し、
    前記制御手段は、前記取得手段により取得されたフォーカス距離情報に基づき、前記検出手段が前記所定の領域において状態を検出する際の閾値を設定することを特徴とする請求項1に記載の検出装置。
  9. 前記制御手段は、更に、当該検出装置が備える前記撮像画像を取得するためのレンズの焦点距離情報に基づき、前記閾値を設定することを特徴とする請求項8に記載の検出装置。
  10. 前記制御手段は、前記フォーカス距離情報に基づくフォーカス距離が長いほど、又は前記焦点距離情報に基づく焦点距離が短いほど、前記閾値を小さい値に設定することを特徴とする請求項9に記載の検出装置。
  11. 前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体の大きさに係る被写体寸法情報を取得し、
    前記制御手段は、前記取得手段により取得された被写体寸法情報に基づき、前記検出手段が前記所定の領域において状態を検出する際の閾値を設定することを特徴とする請求項1に記載の検出装置。
  12. 前記所定の被写体は人であり、
    前記取得手段は、前記所定の被写体に係る情報として、当該所定の被写体としての人の顔の大きさに係る顔寸法情報を取得し、
    前記制御手段は、前記取得手段により取得された顔寸法情報に基づき、前記検出手段が前記所定の領域において状態を検出する際の閾値を設定することを特徴とする請求項11に記載の検出装置。
  13. 前記制御手段は、前記顔寸法情報に基づく人の顔の大きさが小さいほど、前記閾値を小さい値に設定することを特徴とする請求項12に記載の検出装置。
  14. 前記制御手段は、前記判別手段により判別された被写体に応じて、前記検出手段による検出条件を異ならせるように制御することを特徴とする請求項1〜13の何れか一項に記載の検出装置。
  15. 前記検出手段は、撮像画像内の予め決められた位置に設けられた前記所定の領域において、所定の特定情報における物体の状態を検出可能であり、
    前記取得手段は、前記判別手段により所定の被写体として特定の人物が判別された場合に、当該特定の人物と対応付けられて予め記憶されている特定情報を取得し、
    前記制御手段は、更に、撮像画像内の前記所定の領域において、前記取得手段により取得された前記特定情報に基づき、物体の状態を検出するように、前記検出手段を制御することを特徴とする請求項14に記載の検出装置。
  16. 前記撮像画像内の所定の領域の位置は、前記判別手段により判別された所定の被写体の位置とは関係なく設定されることを特徴とする請求項1〜15の何れか一項に記載の検出装置。
  17. 被写体の画像を撮影する撮像手段を備え、
    前記検出手段により前記所定の領域における状態が検出されたことを契機として、前記撮像手段による撮影に係る所定の処理を実行する実行手段を、更に備えることを特徴とする請求項1〜16の何れか一項に記載の検出装置。
  18. 前記実行手段は、前記検出手段により前記所定の領域における状態が検出されたことを契機として、前記撮像手段による撮像画像の撮影処理を実行することを特徴とする請求項17に記載の検出装置。
  19. 前記検出手段は、撮像画像内の所定の領域における状態変化を検出し、
    前記制御手段は、前記取得手段により取得された所定の被写体に係る情報に基づき、前記検出手段による前記所定の領域における状態変化の検出を制御することを特徴とする請求項1〜18の何れか一項に記載の検出装置。
  20. 撮像画像内の所定の領域における状態を検出する処理と、
    前記撮像画像から被写体を判別する処理と、
    前記所定の領域外に所定の被写体が判別された場合に、当該所定の被写体に係る情報を取得する処理と、
    前記所定の被写体に係る情報に基づき、前記所定の領域における状態の検出を制御する処理と、
    を含むことを特徴とする検出方法。
  21. コンピュータに、
    撮像画像内の所定の領域における状態を検出する検出機能、
    前記撮像画像から被写体を判別する判別機能、
    前記判別機能により前記所定の領域外に所定の被写体が判別された場合に、当該所定の被写体に係る情報を取得する取得機能、
    前記取得機能により取得された所定の被写体に係る情報に基づき、前記検出機能による前記所定の領域における状態の検出を制御する制御機能、
    を実現させることを特徴とするプログラム。
  22. 撮像画像内の所定の領域における状態変化を検出する検出手段と、
    前記検出手段により前記所定の領域内に状態変化が検出された際の、当該状態変化が検出された位置までのフォーカス距離に係るフォーカス距離情報を取得する取得手段と、
    前記取得手段により取得されたフォーカス距離情報に基づき、前記検出手段により検出された状態変化が有意であるか否かを判定する判定手段と、
    を備えることを特徴とする検出装置。
  23. 前記判定手段は、前記取得手段により取得されたフォーカス距離情報に基づき、前記検出手段により検出された状態変化が有意であるか否かを判定する際の閾値を設定することを特徴とする請求項22に記載の検出装置。
  24. 前記判定手段は、更に、当該検出装置が備える前記撮像画像を取得するためのレンズの焦点距離情報に基づき、前記閾値を設定することを特徴とする請求項23に記載の検出装置。
  25. 前記判定手段は、前記フォーカス距離情報に基づくフォーカス距離が長いほど、又は前記焦点距離情報に基づく焦点距離が短いほど、前記閾値を小さい値に設定することを特徴とする請求項24に記載の検出装置。
  26. 撮像画像内の所定の領域における状態変化を検出する処理と、
    前記所定の領域内に状態変化が検出された際の、当該状態変化が検出された位置までのフォーカス距離に係るフォーカス距離情報を取得する処理と、
    取得されたフォーカス距離情報に基づき、検出された状態変化が有意であるか否かを判定する処理と、
    を含むことを特徴とする検出方法。
  27. コンピュータに、
    撮像画像内の所定の領域における状態変化を検出する検出機能、
    前記検出機能により前記所定の領域内に状態変化が検出された際の、当該状態変化が検出された位置までのフォーカス距離に係るフォーカス距離情報を取得する取得機能、
    前記取得機能により取得されたフォーカス距離情報に基づき、前記検出機能により検出された状態変化が有意であるか否かを判定する判定機能、
    を実現させることを特徴とするプログラム。
JP2014238570A 2014-08-08 2014-11-26 検出装置、検出方法及びプログラム Expired - Fee Related JP6024728B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014238570A JP6024728B2 (ja) 2014-08-08 2014-11-26 検出装置、検出方法及びプログラム
US14/804,036 US9779290B2 (en) 2014-08-08 2015-07-20 Detecting apparatus, detecting method and computer readable recording medium recording program for detecting state in predetermined area within images
KR1020150102709A KR20160018354A (ko) 2014-08-08 2015-07-20 검출 장치, 검출 방법 및 기록 매체에 저장된 컴퓨터 프로그램
CN201510477962.0A CN105376477B (zh) 2014-08-08 2015-08-06 检测装置以及检测方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014162003 2014-08-08
JP2014162003 2014-08-08
JP2014238570A JP6024728B2 (ja) 2014-08-08 2014-11-26 検出装置、検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016039625A true JP2016039625A (ja) 2016-03-22
JP6024728B2 JP6024728B2 (ja) 2016-11-16

Family

ID=55268392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014238570A Expired - Fee Related JP6024728B2 (ja) 2014-08-08 2014-11-26 検出装置、検出方法及びプログラム

Country Status (4)

Country Link
US (1) US9779290B2 (ja)
JP (1) JP6024728B2 (ja)
KR (1) KR20160018354A (ja)
CN (1) CN105376477B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6107844B2 (ja) * 2015-01-28 2017-04-05 カシオ計算機株式会社 検出装置、検出制御方法、及びプログラム
US10136061B2 (en) * 2015-01-30 2018-11-20 Microsoft Technology Licensing, Llc Automatic processing of automatic image capture parameter adjustment
JP1571316S (ja) * 2016-05-17 2017-03-13
JP1571919S (ja) * 2016-05-17 2017-03-21
CN107181976B (zh) * 2017-04-28 2021-01-29 华为技术有限公司 一种弹幕显示方法及电子设备
US10609294B2 (en) * 2017-12-22 2020-03-31 X Development LLP Systems and methods for sampling images
JP6696094B2 (ja) * 2018-09-27 2020-05-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体、制御方法、及びプログラム
US11048922B2 (en) * 2019-05-24 2021-06-29 Intel Corporation Gesture detection using color segmentation
US20220322951A1 (en) * 2019-06-07 2022-10-13 Daikin Industries, Ltd. Determination system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153017A (ja) * 1992-11-02 1994-05-31 Sanyo Electric Co Ltd 機器の遠隔制御装置
JP2008283502A (ja) * 2007-05-11 2008-11-20 Casio Comput Co Ltd デジタルカメラ、及び撮影制御方法、撮影制御プログラム
JP2010193423A (ja) * 2009-01-26 2010-09-02 Victor Co Of Japan Ltd 自動撮像装置
JP2011243031A (ja) * 2010-05-19 2011-12-01 Canon Inc ジェスチャ認識装置及びジェスチャ認識方法
JP2012134872A (ja) * 2010-12-22 2012-07-12 Toshiba Corp カード状電子機器、通信端末および認証方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628399B2 (ja) 1984-06-25 1994-04-13 キヤノン株式会社 カメラにおける自動追尾装置
US7373109B2 (en) * 2003-11-04 2008-05-13 Nokia Corporation System and method for registering attendance of entities associated with content creation
JP2005333420A (ja) 2004-05-20 2005-12-02 Matsushita Electric Ind Co Ltd 電子カメラ装置
JP4819001B2 (ja) * 2006-07-25 2011-11-16 富士フイルム株式会社 撮影装置および方法並びにプログラム、画像処理装置および方法並びにプログラム
JP2010009558A (ja) 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置
JP2011097502A (ja) 2009-11-02 2011-05-12 Panasonic Corp 撮影制御装置および撮影制御方法
US9131147B2 (en) * 2011-10-07 2015-09-08 Fuji Xerox Co., Ltd. System and method for detecting and acting on multiple people crowding a small display for information sharing
JP5880135B2 (ja) 2012-02-29 2016-03-08 カシオ計算機株式会社 検出装置、検出方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153017A (ja) * 1992-11-02 1994-05-31 Sanyo Electric Co Ltd 機器の遠隔制御装置
JP2008283502A (ja) * 2007-05-11 2008-11-20 Casio Comput Co Ltd デジタルカメラ、及び撮影制御方法、撮影制御プログラム
JP2010193423A (ja) * 2009-01-26 2010-09-02 Victor Co Of Japan Ltd 自動撮像装置
JP2011243031A (ja) * 2010-05-19 2011-12-01 Canon Inc ジェスチャ認識装置及びジェスチャ認識方法
JP2012134872A (ja) * 2010-12-22 2012-07-12 Toshiba Corp カード状電子機器、通信端末および認証方法

Also Published As

Publication number Publication date
KR20160018354A (ko) 2016-02-17
US20160044222A1 (en) 2016-02-11
CN105376477B (zh) 2018-10-16
CN105376477A (zh) 2016-03-02
JP6024728B2 (ja) 2016-11-16
US9779290B2 (en) 2017-10-03

Similar Documents

Publication Publication Date Title
JP6024728B2 (ja) 検出装置、検出方法及びプログラム
US8760534B2 (en) Image processing apparatus with function for specifying image quality, and method and storage medium
TWI425826B (zh) 影像選擇裝置、影像選擇方法
US8384798B2 (en) Imaging apparatus and image capturing method
JP5966778B2 (ja) 撮像装置、撮像方法及びプログラム
CN105744179A (zh) 摄像装置、摄像控制方法
JP5880135B2 (ja) 検出装置、検出方法及びプログラム
JP5370555B2 (ja) 撮像装置、撮像方法及びプログラム
JP6693071B2 (ja) 撮像装置、撮像制御方法及びプログラム
KR102497526B1 (ko) 검출 장치, 검출 제어 방법 및 컴퓨터 프로그램
JP6024135B2 (ja) 被写体追尾表示制御装置、被写体追尾表示制御方法およびプログラム
JP6432290B2 (ja) 撮像装置、撮像制御方法、及びプログラム
JP2020115679A (ja) 物体検出装置、検出制御方法及びプログラム
JP2018107741A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6432289B2 (ja) 撮像装置、撮像制御方法、及びプログラム
JP6492483B2 (ja) 検出装置、検出方法及びプログラム
JP6322964B2 (ja) 撮像装置、撮像制御方法及びプログラム
JP6443156B2 (ja) 検出装置、検出制御方法、及びプログラム
JP6497887B2 (ja) 撮像装置、撮像装置の制御方法、プログラム
JP6668646B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6390075B2 (ja) 画像処理装置、電子カメラ及び画像処理プログラム
JP2017198872A (ja) 撮影装置、撮影制御方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160926

R150 Certificate of patent or registration of utility model

Ref document number: 6024728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees