JP5040734B2 - 画像処理装置、画像記録方法およびプログラム - Google Patents

画像処理装置、画像記録方法およびプログラム Download PDF

Info

Publication number
JP5040734B2
JP5040734B2 JP2008055575A JP2008055575A JP5040734B2 JP 5040734 B2 JP5040734 B2 JP 5040734B2 JP 2008055575 A JP2008055575 A JP 2008055575A JP 2008055575 A JP2008055575 A JP 2008055575A JP 5040734 B2 JP5040734 B2 JP 5040734B2
Authority
JP
Japan
Prior art keywords
image
detected
dog
output
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008055575A
Other languages
English (en)
Other versions
JP2009212980A (ja
JP2009212980A5 (ja
Inventor
要 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008055575A priority Critical patent/JP5040734B2/ja
Priority to US12/380,836 priority patent/US8115816B2/en
Priority to CN200910126912A priority patent/CN101527794A/zh
Publication of JP2009212980A publication Critical patent/JP2009212980A/ja
Publication of JP2009212980A5 publication Critical patent/JP2009212980A5/ja
Application granted granted Critical
Publication of JP5040734B2 publication Critical patent/JP5040734B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Description

本発明は、画像処理装置に関し、特に、画像から動物等の対象物を検出することが可能な画像処理装置おび画像記録方法ならびに当該方法をコンピュータに実行させるプログラムに関する。
近年、人物等の被写体を撮像して撮像画像を生成し、この撮像画像を記録するデジタルスチルカメラ等の撮像装置が普及している。また、近年では、犬や猫等の動物に関心を持つ人が増えつつあり、これらの動物を自宅内で飼う家庭も多く存在する。
ここで、デジタルスチルカメラ等の撮像装置を用いて記録された撮像画像については、画像データとして保存することができるとともに、画像データの消去も容易であるため、最近では、興味のある対象物を頻繁に撮影する人も多く存在する。例えば、自宅内で飼っている動物を撮像することも広く行われている。
しかしながら、撮像の対象となる被写体が犬や猫等の動物である場合には、その動物が撮影者からの指示を理解できないため、撮影者がその動物に撮像装置を向けた場合でも、その動物が撮影者の好みの姿勢となるとは限らない。例えば、犬の顔の正面を撮影するため、撮影者が撮像装置をその犬の正面に向けた場合でも、その犬が顔の正面を撮像装置に向けてくれるとは限らない。また、その犬の顔の正面に撮影者が撮像装置を向けた場合でも、その犬が他の方向を向いてしまうおそれも考えられる。このため、例えば、犬や猫等の動物の顔の正面を撮影する場合には、その動物の顔の正面を撮像装置側に向かせることが重要となる。
そこで、例えば、ユーザによりレリーズボタンが半押しされると、被写体となるペットが興味を持つ音をカメラから出力し、そのペットがカメラに向いたと判断したユーザによりレリーズボタンが全押しされると、この全押しの際の被写体像を銀塩フィルムに露光させるカメラが提案されている(例えば、特許文献1参照。)。
特開2002−107807号公報(図5)
上述の従来技術によれば、被写体となるペットが興味を持つ音を出力することにより、そのペットの興味をカメラ側に向かせる可能性を高めることができる。そして、そのペットの正面がカメラ側に向いた際に、ユーザがレリーズボタンを全押しすることにより、正面を向いたペットの撮像画像を記録することができる。
しかしながら、犬や猫等の動物は、少しの音の変化等に興味を持ち、その顔を撮像装置側に向けることが考えられるものの、すぐに別の方向を向いてしまうおそれもある。また、犬や猫等の動物は、落ち着きのない動きをすることが多く、レリーズボタンを全押しする適切なタイミングをユーザが捕らえることが困難であるおそれがある。
このように、撮影者からの指示を理解できない動物についてその顔の正面の撮像画像を記録するためには、その動物の顔が撮像装置側に向いた際における適切なタイミングで撮像画像を記録することが重要である。また、撮影者からの指示を理解できない赤ちゃんについても、同様に、赤ちゃんの顔が撮像装置側に向いた際における適切なタイミングで撮像画像を記録することが重要である。
そこで、本発明は、撮影者からの指示を理解できない対象物の画像を適切に記録することを目的とする。
本発明は、上記課題を解決するためになされたものであり、その第1の側面は、入力される入力画像に所定の対象物が含まれているか否かを判定するための複数の判定情報から、ユーザによる操作入力に基づいて少なくとも一つの判定情報を選択する選択手段と、上記入力画像から上記選択された判定情報に係る対象物を検出する検出手段と、上記検出手段により上記選択された判定情報に係る対象物が検出されたタイミングに基づいて、上記入力画像を記録手段に記録させる記録制御手段と、上記記録制御手段により入力画像が記録された際における当該入力画像の評価を行う画像評価手段と、上記画像評価手段による評価結果に応じて、上記選択された判定情報に係る対象物に関連付けられている音声情報を出力させる音声出力制御手段とを具備する画像処理装置および画像記録方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、ユーザによる操作入力に基づいて選択された対象物に係る判定情報を用いてその対象物を入力画像から検出すると、その対象物が検出されたタイミングに基づいて入力画像を記録させ、その記録時における入力画像の評価を行い、この評価結果に応じて音声情報を出力させるという作用をもたらす。
また、この第1の側面において、上記対象物には、上記画像評価手段により求められる複数の評価結果毎に異なる音声情報が関連付けられ、上記音声出力制御手段は、上記記録制御手段により入力画像が記録された際には、上記選択された判定情報に係る対象物に関連付けられている音声情報のうちから、当該入力画像に係る上記画像評価手段による評価結果に関連付けられている音声情報を出力させるようにしてもよい。これにより、入力画像が記録された際には、その入力画像に係る評価結果に関連付けられている音声情報を出力させるという作用をもたらす。
また、この第1の側面において、上記音声出力制御手段は、上記検出手段により上記選択された判定情報に係る対象物が検出されたタイミングに基づいて、上記選択された判定情報に係る対象物に関連付けられている音声情報を出力させるようにしてもよい。これにより、入力画像が記録された際に、検出された対象物に関連付けられている音声情報を出力させるという作用をもたらす。この場合において、上記対象物を動物の顔とし、上記音声情報を上記動物の鳴き声とするようにしてもよい。これにより、動物の顔を入力画像から検出すると、この検出された動物の鳴き声を出力させるという作用をもたらす。また、この場合において、上記対象物を人間の赤ちゃんの顔とし、上記音声情報を人間の赤ちゃんを呼びかける声とするようにしてもよい。これにより、赤ちゃんの顔を入力画像から検出すると、この赤ちゃんを呼びかける声を出力させるという作用をもたらす。
また、この第1の側面において、上記操作入力に基づいて複数の対象物のうちから複数の対象物を指定する指定手段をさらに具備し、上記記録制御手段は、上記指定された複数の対象物のうちの少なくとも一つの対象物が検出されたタイミングに基づいて上記入力画像を記録させるようにしてもよい。これにより、指定された複数の対象物のうちの少なくとも一つの対象物が検出されたタイミングに基づいて入力画像を記録させるという作用をもたらす。
また、この第1の側面において、上記操作入力を受け付けるためのタッチパネルをさらに具備するようにしてもよい。これにより、タッチパネルを用いて対象物が指定されるという作用をもたらす。
また、この第1の側面において、上記入力画像は撮像手段の撮像に基づいて生成され、上記検出された対象物に基づいて所定のパラメータを設定することにより、上記撮像手段を制御する撮像制御手段をさらに具備するようにしてもよい。これにより、検出された対象物に基づいて、所定のパラメータを設定することにより撮像制御を行うという作用をもたらす。
また、本発明の第2の側面は、ユーザによる操作入力に基づいて複数の対象物から少なくとも一つを選択する選択手段と、上記選択された対象物と当該対象物の向きとを、入力画像から検出する対象物検出手段と、上記選択された対象物が検出されたタイミングに基づいて、上記複数の対象物のそれぞれに関連付けられている音声情報のうちから、上記検出された対象物と当該対象物の向きとに関連付けられている音声情報を出力させる音声出力制御手段と、上記検出された対象物に係る上記音声情報が出力された後に上記入力画像を記録手段に記録させる記録制御手段とを具備する画像処理装置および画像記録方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、選択された対象物を入力画像から検出すると、この検出された対象物とその対象物の向きとに係る音声情報を出力させ、この音声情報が出力された後に入力画像を記録させるという作用をもたらす。
また、この第2の側面において、上記対象物検出手段は、上記選択された対象物の向きとして上記選択された対象物の正面または側面を上記入力画像から検出し、上記音声出力制御手段は、上記選択された対象物の側面が検出された際には上記選択された対象物と当該対象物の側面とに関連付けられている音声情報を出力させ、上記選択された対象物の正面が検出された際には上記選択された対象物と当該対象物の正面とに関連付けられている音声情報を出力させ、上記記録制御手段は、上記選択された対象物と当該対象物の正面とに関連付けられている音声情報が出力された後に上記入力画像を記録させるようにしてもよい。これにより、選択された対象物の正面または側面を入力画像から検出すると、この正面または側面が検出された対象物に係る音声情報を出力させ、選択された対象物の正面が検出された際に、この正面が検出された対象物に係る音声情報が出力されると、入力画像を記録させるという作用をもたらす。この場合において、上記音声出力制御手段は、上記選択された対象物の側面が検出された後に当該対象物の正面が検出されると当該正面が検出された対象物に係る上記音声情報を出力させるようにしてもよい。これにより、選択された対象物の側面が検出された後にその対象物の正面が検出されると、その対象物に係る音声情報を出力させるという作用をもたらす。
また、この第2の側面において、上記記録制御手段は、上記検出された対象物に係る上記音声情報が出力された直後における上記入力画像を記録させるようにしてもよい。これにより、検出された対象物に係る音声情報が出力された直後における入力画像を記録させるという作用をもたらす。
また、この第2の側面において、上記音声出力制御手段は、上記操作入力を受け付けた際に上記選択された対象物に関連付けられている音声情報を出力させ、上記選択された対象物が検出された際に上記検出された対象物に関連付けられている音声情報を出力させるようにしてもよい。これにより、操作入力が受け付けられた際に、選択された対象物に係る音声情報を出力させ、また、選択された対象物が検出された際に、この検出された対象物に係る音声情報を出力させるという作用をもたらす。
また、この第2の側面において、上記選択手段は、上記操作入力に基づいて複数の対象物を選択し、上記音声出力制御手段は、上記選択された複数の対象物のうちの少なくとも一つの対象物が検出された際に上記検出された対象物に関連付けられている音声情報を出力させるようにしてもよい。これにより、選択された複数の対象物のうちの少なくとも一つの対象物が検出された際に、この検出された対象物に係る音声情報を出力させるという作用をもたらす。
本発明によれば、撮影者からの指示を理解できない対象物の画像を適切に記録することができるという優れた効果を奏し得る。

次に本発明の実施の形態について図面を参照して詳細に説明する。
図1は、本発明の実施の形態における撮像装置100の一構成例を示すブロック図である。撮像装置100は、レンズ111と、撮像部112と、システム制御部120と、記憶装置部130と、外部I/F部140と、記録部150と、音声記憶部160と、操作入力部170と、表示部180と、音声出力部190と、カメラ制御部200とを備える。撮像装置100は、例えば、被写体を撮像して画像データを生成し、この画像データについて画像解析により各特徴量を抽出し、この抽出された各特徴量を用いて各種画像処理を施すことが可能なデジタルスチルカメラによって実現することができる。
レンズ111は、被写体からの光を集光する複数のレンズ(ズームレンズ、フォーカスレンズ等)から構成され、入射された被写体からの光がこれらのレンズを介して撮像部112に供給される。
撮像部112は、電子シャッター機能を有する撮像素子(図示せず)と、この撮像素子の出力信号を処理して撮像画像を生成する信号処理部(図示せず)とを備える。すなわち、撮像部112において、レンズ111を介して入射された被写体の光学像が撮像素子の撮像面に結像され、この状態で撮像素子が撮像動作を行い、信号処理部が撮像信号に対して信号処理を行うことにより、撮像画像が生成される。そして、生成された撮像画像が記憶装置部130に供給されて保存される。なお、撮像画像の生成に用いられるカメラパラメータ(撮像パラメータ)が、カメラ制御部200により順次決定される。
カメラ制御部200は、記憶装置部130を介して撮像部112から供給される撮像画像、および、システム制御部120からの制御に基づいて、撮像部112を制御するものである。なお、カメラ制御部200については、図2を参照して詳細に説明する。
システム制御部120は、撮像装置100全体の制御を行うものである。例えば、システム制御部120は、操作入力部170により受け付けられたユーザからの操作入力に応じた制御を行う。また、システム制御部120は、表示部180に表示されるメニュー画面等の表示、記録部150に対する撮像画像の記録や読出し、外部I/F部140を介した外部コンピュータやネットワークとの通信等を制御する。さらに、システム制御部120は、撮像動作中のモニタリング時には、撮像部112により生成された撮像画像を表示部180に表示させる制御を行う。また、システム制御部120は、指定対象物自動撮影モードが設定されている場合において、指定された対象物の検出の有無に基づいて、音声記憶部160に記憶されている音声情報の音声出力部190からの出力制御(効果音の再生制御)、および、撮像画像の記録部150への記録制御を行う。ここで、指定対象物自動撮影モードは、ユーザにより指定された対象物が撮像画像から検出された際には、その指定された対象物に関する音声情報を出力するとともに、この検出の際の撮像画像を記録する撮影モードである。この指定対象物自動撮影モードについては、図13、図14等を参照して詳細に説明する。
記憶装置部130は、撮像装置100のシステム上で撮像画像等を一時的に保存するための主記憶装置であり、例えば、DRAM(Dynamic Random Access Memory)により構成される。すなわち、撮像装置100内における各部間の撮像画像のやりとりは、主に記憶装置部130を介して行われる。
外部I/F(インターフェース)部140は、USB(Universal Serial Bus)等の入出力端子を備える外部I/Fインターフェースであり、外部コンピュータとの接続やネットワーク接続のためのI/Fを提供する。
記録部150は、システム制御部120の制御に基づいて、撮像部112により生成された撮像画像を記録するものである。また、記録部150は、システム制御部120の制御に基づいて、記録されている撮像画像を読み出してシステム制御部120に供給する。なお、記録部150は、例えば、フラッシュメモリ等の記録媒体を用いることができる。また、記録部150は、撮像装置100に内蔵するようにしてもよく、着脱可能に撮像装置100に装着されるようにしてもよい。
音声記憶部160は、各種の音声情報を記憶するものであり、記憶されている音声情報がシステム制御部120の制御に基づいて音声出力部190から出力される。なお、音声記憶部160については、図6を参照して詳細に説明する。
操作入力部170は、シャッターボタン171(図3等に示す)等の筐体外部に備えられている外部操作部材であり、ユーザからの操作入力を受けると、受け付けられた操作入力に応じた信号をシステム制御部120に出力する。
表示部180は、システム制御部120の制御に基づいて、各種画像を表示する表示部である。例えば、表示部180は、撮像部112により生成された撮影画像、記録部150から読み出された撮像画像、ユーザに提供されるメニュー画面(例えば、図7に示す「自動撮影の対象物指定メニュー」画面)等を表示する。
音声出力部190は、システム制御部120の制御に基づいて、音声記憶部160に記憶されている音声情報を出力するものである。音声出力部190は、例えば、スピーカにより実現することができる。
図2は、本発明の実施の形態におけるカメラ制御部200の機能構成例を示すブロック図である。なお、図2では、カメラ制御部200の機能構成例とともに、図1に示すレンズ111および外部I/F部140以外の構成についても図示する。カメラ制御部200は、シーケンス制御部210と、カメラパラメータ制御部220と、対象物検出部230と、記憶装置I/F240とを備える。ここで、記憶装置部130およびカメラパラメータ制御部220の間、また、記憶装置部130および対象物検出部230の間で行われる撮像画像のやりとりは、記憶装置I/F240を介して行われる。
シーケンス制御部210は、システム制御部120からの撮影待機命令で起動し、撮像部112により生成される撮像画像を記録可能な状態を保持するものである。この撮影待機状態では、撮像部112により生成される撮像画像が、記憶装置部130に順次記憶される。例えば、1/60秒の間隔で、記憶装置部130に記憶される撮像画像が順次更新される。また、シーケンス制御部210は、カメラパラメータ制御部220に対して、記憶装置部130に記憶されている現在の撮像画像(撮像部112により現在生成された撮像画像)に基づいて、カメラパラメータを決定するように制御を行う。また、シーケンス制御部210は、対象物検出部230に対して、記憶装置部130に記憶されている現在の撮像画像について、操作入力部170においてユーザにより指定された対象物を検出するように制御を行う。ここで、シーケンス制御部210は、指定された対象物を検出したことを示す対象物検出情報が対象物検出部230から出力された場合には、撮像部112に撮像画像の記録指示を出力し、撮像画像の記録制御を行うとともに、指定された対象物が検出された旨をシステム制御部120に出力する。この指定された対象物が検出された旨が出力されると、システム制御部120が、その指定された対象物に関する音声情報を出力するとともに、現在の撮像画像を記録部150に記録する。
カメラパラメータ制御部220は、シーケンス制御部210からのトリガに基づいて、記憶装置I/F240を介して、記憶装置部130に記憶されている現在の撮像画像を取得し、この現在の撮像画像を評価して、シャッター速度、露出、ホワイトバランス等のカメラパラメータを決定するものである。そして、カメラパラメータ制御部220は、決定されたカメラパラメータを用いて、撮像部112に対する撮像制御を行う。また、カメラパラメータ制御部220は、指定対象物自動撮影モードが設定されている場合において、現在の撮像画像から、指定された対象物が検出された場合には、指定された対象物および現在の撮像画像の評価に基づいてシャッター速度、露出、ホワイトバランス等のカメラパラメータを決定する。例えば、犬が指定された場合において、犬の顔が検出された場合には、検出された犬の顔の撮像画像における位置および大きさに基づいて、この犬の顔に最適なカメラパラメータが決定される。
対象物検出部230は、シーケンス制御部210からのトリガに基づいて、記憶装置I/F240を介して、記憶装置部130に記憶されている現在の撮像画像を取得し、この現在の撮像画像について、操作入力部170においてユーザにより指定された対象物の検出を行い、指定された対象物が検出された場合には、検出された対象物の撮像画像における位置、大きさ、その対象物の度合いを表すスコアを含む対象物検出情報をシーケンス制御部210に出力する。なお、この対象物の検出は、例えば、矩形特徴(RECTANGLE FEATURE)を用いた検出器によって実現することができる(例えば、特開2005−157679を参照)。また、対象物検出部230については、図4を参照して詳細に説明する。
図3は、本発明の実施の形態における撮像装置100の外観を示す斜視図である。図3(a)は、撮像装置100の正面(すなわち、被写体に向けられるレンズ111の面)側の外観を示す図であり、図3(b)は、撮像装置100の背面(すなわち、撮影者に向けられる液晶パネル181の面)側の外観を示す図である。
撮像装置100は、レンズ111と、シャッターボタン171と、液晶パネル181と、音声出力部190とを備える。なお、撮像装置100には、電源スイッチ等の他の操作部材が操作入力部170として備えられているが、ここでの図示および説明は省略する。また、レンズ111および音声出力部190は、図1に示すものと同じであるため、同一の符号を付して、ここでの詳細な説明を省略する。なお、レンズ111を構成する複数のレンズの一部または全部と、音声出力部190とは撮像装置100の筐体に内蔵されている。
液晶パネル181は、撮像部112により生成された撮像画像等を表示する液晶パネルである。また、液晶パネル181は、各種の選択ボタン等を表示し、これらの選択ボタン等の領域を指等で触ることにより操作入力を行うことが可能なタッチパネルである。すなわち、液晶パネル181は、図1に示す表示部180および操作入力部170に対応する。なお、これらの選択ボタンの表示例については、図7を参照して詳細に説明する。
シャッターボタン171は、撮像画像を記録する際に撮影者により押下されるボタンである。撮像装置100を用いて撮影者が通常の撮像操作(いわゆる、写真撮影)を行う場合には、液晶パネル181に表示されている被写体を確認した後に、撮影者がシャッターボタン171を押下する。シャッターボタン171が押下されると、シャッターボタン171押下に応じた信号がシステム制御部120に供給される。シャッターボタン171押下に応じた信号が供給されると、システム制御部120は、シャッターボタン171押下に応じた信号を受け取った際における撮像画像を記録部150に記録させる。また、指定対象物自動撮影モードが設定されている場合において、シャッターボタン171が押下された場合には、システム制御部120は、指定された対象物の検出動作を開始する指示をカメラ制御部200に指示する。
図4は、本発明の実施の形態における対象物検出部230の機能構成例を示すブロック図である。対象物検出部230は、画像取得部231と、画像縮小部232と、画像取出部233と、対象物検出辞書データベース300と、対象物検出辞書メモリ235と、対象物判定部236と、判定結果出力部237とを備える。
画像取得部231は、記憶装置I/F240を介して、記憶装置部130に記憶されている撮像画像を取得するものであり、取得された撮像画像を画像縮小部232に出力する。
画像縮小部232は、画像取得部231から出力された撮像画像について、予め定められている割合で順次縮小させることにより、大きさの異なる複数の画像を生成するものであり、生成された各画像を画像取出部233に順次出力する。なお、この撮像画像の縮小については、図9を参照して詳細に説明する。
画像取出部233は、画像縮小部232から出力された各画像について、画像毎に所定領域の画像を順次取り出すものであり、取り出された画像を対象物判定部236に出力する。なお、この画像の取り出しについては、図8および図9を参照して詳細に説明する。
対象物検出辞書データベース300は、画像取出部233から出力された画像について、対象物判定部236による対象物判定処理を行うための複数の対象物検出辞書を記憶するデータベースであり、記憶されている各対象物検出辞書が対象物検出辞書メモリ235に順次供給される。なお、これらの各対象物検出辞書については、図5を参照して詳細に説明する。
対象物検出辞書メモリ235は、対象物検出辞書データベース300に記憶されている複数の対象物検出辞書のうちの1つの対象物検出辞書を記憶する作業用メモリであり、記憶されている対象物検出辞書の内容を対象物判定部236に供給する。
対象物判定部236は、対象物検出辞書データベース300に記憶されている対象物検出辞書を用いて、画像取出部233から出力された画像が対象物を含むか否かを判定する対象物判定処理を行うものであり、この判定結果を判定結果出力部237に出力する。この判定結果として、例えば、検出された対象物の撮像画像における位置および大きさと、その対象物の度合いを表すスコアとが出力される。ここで、対象物判定処理では、操作入力部170においてユーザにより指定された対象物がシーケンス制御部210から指示され、このユーザにより指定された対象物に関する対象物検出辞書が用いられる。そして、対象物検出辞書データベース300に記憶されている複数の対象物検出辞書のうちの指定された対象物検出辞書が対象物検出辞書メモリ235に順次供給され、対象物検出辞書メモリ235には1つの対象物検出辞書が順次記憶される。そして、対象物検出辞書メモリ235に記憶された1つの対象物検出辞書を用いて、対象物判定処理が順次行われる。具体的には、対象物判定部236は、画像取出部233から出力された画像における輝度値を抽出し、この抽出された輝度値と対象物検出辞書とを用いて対象物判定処理を行う。なお、対象物判定部236による対象物判定処理については、図10を参照して詳細に説明する。
判定結果出力部237は、画像取出部233から出力された画像が対象物を含むと判定された判定結果が対象物判定部236から出力された場合には、撮像画像から対象物が検出された旨を示す対象物検出情報をシーケンス制御部210に出力するものである。この対象物検出情報には、例えば、検出された対象物の撮像画像における位置および大きさと、その対象物の度合いを表すスコアとが含まれる。
図5は、本発明の実施の形態における対象物検出辞書データベース300に記憶されている対象物検出辞書を概略的に示す図である。ここでは、対象物として、犬の顔および猫の顔を検出する場合を例にして説明する。図5では、画像取出部233により取り出された画像に犬の顔が含まれているか否かを判定する犬検出辞書310と、画像取出部233により取り出された画像に猫の顔が含まれているか否かを判定する猫検出辞書320とを対象物検出辞書の例として示す。これらの対象物検出辞書は、画像取出部233により取り出された画像について、矩形特徴を用いた対象物判定処理を対象物判定部236が行うための判定情報である。以下では、主に、犬検出辞書310について説明するが、猫検出辞書320についても各項目に格納される各値が異なる以外の点については犬検出辞書310と同様である。
犬検出辞書310には、種類(type)311と、位置(x,y)312と、幅(w)313と、高さ(h)314と、閾値(θ)315と、符号(p)316と、重み(α)317との組合せがt組格納されている。
種類311には、対象物判定処理に用いられる矩形特徴の種類が格納されている。この矩形特徴は、互いに隣接する2つの矩形から構成される矩形特徴であり、位置312により判定対象画像上における位置が決定され、幅313および高さ314により大きさが決定される。なお、この矩形特徴については、図10を参照して詳細に説明する。
位置312には、判定対象画像上における矩形特徴の位置が格納される。位置312には、例えば、画像取出部233により取り出された画像上をxy座標(平面座標)とした場合における座標点(x,y)が格納される。
幅313には、判定対象画像上における矩形特徴の幅の値が格納される。
高さ314には、判定対象画像上における矩形特徴の高さの値が格納される。
閾値315には、矩形特徴を構成する1つの矩形に含まれる各画素の輝度値の総和と、他の矩形に含まれる各画素の輝度値の総和との差分値に関する閾値が格納される。
符号316には、対象物の度合いを表すスコアの算出に用いられる弱仮説h(i)を求める際に用いられる値(「1」または「−1」)が格納される。
重み317には、対象物の度合いを表すスコアの算出に用いられる重みが格納される。なお、これらの各値を用いて行われる対象物の度合いを表すスコアの算出については、図10を参照して詳細に説明する。
また、これらの各値は、例えば、アダブースト(AdaBoost)等の機械学習アルゴリズムにより学習されたもののうちで、最も効果的な上位1000乃至2000組の組合せを用いて設定される。このように、各対象物検出辞書の形式が同一であるため、複数の判定処理を同一のアルゴリズムで行うことができる。また、判定処理に用いられる対象物検出辞書は、判定対象画像が対象物を含むか否かを判定する際の判定基準のみに関するデータを保持する判定情報であり、画像そのものを保持するものではない。このため、記憶容量を削減することができるとともに、判定処理を迅速に行うことができる。
図6は、本発明の実施の形態における音声記憶部160に記憶されている内容を概略的に示す図である。音声記憶部160には、対象物161および音声情報162が関連付けて記憶されている。
対象物161は、自動撮影を行う対象物として指定可能な対象物であり、例えば、「犬」および「猫」が格納される。
音声情報162は、音声出力部190から音声を出力させるための音声情報である。図6では、例えば、「犬」に関連付けて格納される音声情報を「ワンワン」で表し、「猫」に関連付けて格納される音声情報を「ニャーニャー」で表す。例えば、対象物161に格納されている対象物が、対象物検出部230により検出された際に、検出された対象物に関連付けて格納されている音声情報に対応する音声が音声出力部190から出力される。
図7は、本発明の実施の形態における液晶パネル181に表示されるメニュー画面の一例を示す図である。図7に示す「自動撮影の対象物指定メニュー」画面は、自動撮影を行う対象物を指定するメニュー画面であり、「犬」指定ボタン331と、「猫」指定ボタン332と、「犬/猫」指定ボタン333と、「OFF」指定ボタン334とが設けられている。
「犬」指定ボタン331は、自動撮影を行う対象物として犬を指定する場合に押下されるボタンであり、「猫」指定ボタン332は、自動撮影を行う対象物として猫を指定する場合に押下されるボタンである。また、「犬/猫」指定ボタン333は、自動撮影を行う対象物として犬または猫を指定する場合に押下されるボタンである。すなわち、「犬/猫」指定ボタン333が押下された場合には、撮像画像から犬または猫が検出された場合に自動撮影が行われる。また、「OFF」指定ボタン334は、図7に示す「自動撮影の対象物指定メニュー」画面を消去する場合に押下されるボタンである。
本発明の実施の形態では、図7に示す「自動撮影の対象物指定メニュー」画面を液晶パネル181に表示させた状態で、「犬」指定ボタン331、「猫」指定ボタン332、「犬/猫」指定ボタン333の何れかを押下する選択操作をユーザが行うことにより、押下された指定ボタンに応じた対象物を自動的に撮影する指定対象物自動撮影モードを設定することができる。そして、この指定対象物自動撮影モードが設定されている状態で、ユーザがシャッターボタン171を押下することにより、指定された対象物の検出動作が開始され、指定された対象物が撮像画像から検出されると、指定された対象物に関連する音声が出力されて撮像画像が記録される。すなわち、指定された対象物を含む撮像画像の撮影が自動的に行われる。
次に、対象物を検出する対象物検出方法について図面を参照して詳細に説明する。
図8は、本発明の実施の形態における対象物判定部236による対象物判定処理の対象となる画像を取り出す画像取出方法の概略を示す図である。図8(a)には、画像縮小部232により縮小処理が施された画像400を示し、図8(b)には、対象物判定処理の対象となる画像を画像400から取り出す場合における画像取出方法の概略を示す。なお、この画像の取出しは、画像取出部233により行われる。
図8(a)に示す画像400は、山を背景にして草原に寝ている犬を被写体とする撮像画像が縮小処理された画像である。この画像400から対象物判定処理の対象となる画像を取り出す場合には、図8(b)に示すように、画像400の左上隅に取出枠401が配置され、取出枠401内に含まれる画像が取り出される。続いて、取出枠が右側方向(矢印411乃至416に示す方向)に1画素シフトされて、取出枠内に含まれる画像が取り出される。同様にして、取出枠が1画素ずつ右側方向に順次シフトされて、取出枠内に含まれる画像が順次取り出される。そして、画像400の右端となる取出枠402の位置にシフトされて取出枠402内に含まれる画像が取り出されると、取出枠が1画素下側にシフトされるとともに画像400の左端に移動される。続いて、画像400の左端に移動直後の取出枠内に含まれる画像が取り出された後に、取出枠が1画素ずつ右側方向に順次シフトされて、取出枠内に含まれる画像が順次取り出される。以下、同様に取出枠内に含まれる画像が順次取り出される。そして、画像400の右端および下端となる取出枠404の位置にシフトされて取出枠404内に含まれる画像が取り出されると、対象物判定処理の対象となる画像の画像400からの取出処理を終了する。
図9は、本発明の実施の形態における対象物判定部236による対象物判定処理の対象となる画像を取り出す画像取出方法の概略を示す図である。図9(a)乃至(e)には、画像縮小部232により順次縮小処理が施された画像421乃至425を示す。また、図9(a)乃至(e)の左側の画像では、取出枠430の最初の配置位置を示し、図9(a)乃至(e)の右側の画像では、取出枠430の最後の配置位置を示す。ここで、取出枠430の最初の配置位置から最後の配置位置までの移動については、図8(b)に示す移動と同様である。また、取出枠430の大きさは、図9に示すように、取出の対象となる画像の大きさにかかわらず一定である。そして、画像縮小部232により縮小処理が施された画像の大きさが、取出枠430よりも小さくなるまで、画像の取出処理が行われる。
次に、判定対象画像について対象物検出辞書を用いて判定処理をする例について図面を参照して詳細に説明する。
図10は、本発明の実施の形態における判定対象画像と、判定処理に用いられる矩形特徴とを示す図である。図10(a)には、画像取出部233により取り出されて判定対象となる判定対象画像450を示し、図10(b)および(c)には、判定処理に用いられる2種類の矩形特徴を示す。この例では、図10(a)に示す判定対象画像450の左上隅を原点とし、左右方向をx軸、上下方向をy軸として、判定対象画像450について犬検出辞書310(図5に示す)を用いた判定処理をする場合について説明する。また、この判定処理では、図10(b)および(c)に示す2種類の矩形特徴を用いる例について説明する。
図10(a)に示す判定対象画像450は、撮像部112により生成された撮像画像について画像縮小部232により縮小処理が施された画像から、画像取出部233により取り出された画像であり、所定の解像度に正規化処理が施された画像である。ここで、撮像部112により生成された撮像画像は、例えば、320画素×240画素である。この場合に、正規化処理として、例えば、48画素×48画素の解像度に変換する正規化処理が施される。また、判定対象画像450上に配置された矩形特徴460および470は、図10(b)および(c)に示す矩形特徴460および470に対応するものである。
図10(b)および(c)に示す矩形特徴460および470は、互いに隣接する2つの矩形(黒塗りおよび白塗りで示す2つの矩形)から構成される矩形特徴である。また、これらの矩形特徴が判定対象画像上に配置され、2つの矩形の領域内に含まれる輝度値の差分値に基づいて対象物の判定が行われる。
具体的に、判定に用いられる矩形特徴460または470の種類については、犬検出辞書310の種類311に格納されている。また、判定対象画像450上に矩形特徴460および470を配置すべき位置については、犬検出辞書310の位置312に格納されている。すなわち、判定対象画像450上に矩形特徴460が配置される場合には、矩形特徴460の左上隅の点461が、犬検出辞書310の位置312に格納されている座標点(x,y)の位置になるように、矩形特徴460が配置される。また、矩形特徴470についても同様に、矩形特徴470の左上隅の点471が、犬検出辞書310の位置312に格納されている座標点(x,y)の位置になるように、判定対象画像450上に矩形特徴470が配置される。
また、矩形特徴460および470の大きさについては、犬検出辞書310の幅313および高さ314に格納されている値に基づいて決定される。すなわち、矩形特徴460の横幅w1は、犬検出辞書310の幅313に格納されている値とし、矩形特徴460の高さh1は、犬検出辞書310の高さ314に格納されている値とする。また、矩形特徴470についても同様に、矩形特徴470の横幅w2は、犬検出辞書310の幅313に格納されている値とし、矩形特徴460の高さh2は、犬検出辞書310の高さ314に格納されている値とする。
このように、判定対象画像450上の位置および大きさが決定された矩形特徴について、この矩形特徴を構成する2つの矩形の領域内に含まれる画素の輝度値の合計値が領域毎に算出され、領域毎に算出された輝度値の合計値の差分値が特徴量F(i)として算出される。ここで、iは、犬検出辞書310の各レコードを表す値であり、1≦i≦tとなる。そして、特徴量F(i)と犬検出辞書310の閾値315に格納されている閾値θ(i)とが比較され、特徴量F(i)が閾値θ(i)よりも小さいか否かと、符号316に格納されている値p(i)(値p(i)=1または−1)とに応じて、弱仮説(Weak Learner)h(i)が算出される。具体的に、弱仮説h(i)は、次式を用いて算出される。
(1)値p(i)=1の場合
特徴量F(i)<閾値θ(i)であれば、弱仮説h(i)=1
特徴量F(i)≧閾値θ(i)であれば、弱仮説h(i)=−1
(2)値p(i)=−1の場合
特徴量F(i)<閾値θ(i)であれば、弱仮説h(i)=−1
特徴量F(i)≧閾値θ(i)であれば、弱仮説h(i)=1
続いて、算出された弱仮説h(i)と重み317に格納されている値α(i)とを乗算することにより、h(i)α(i)が算出される。これらの算出処理を犬検出辞書310の1行目からt行目まで繰り返し行い、h(i)α(i)の合計値がスコアSとして算出される。具体的に、スコアSは、次式を用いて算出される。
式1により算出されたスコアSに基づいて、判定対象画像450に犬の正面顔が含まれているか否かが判定される。具体的には、スコアS≧0の場合には、判定対象画像450に犬の正面顔が含まれていると判定される。一方、スコアS<0の場合には、判定対象画像450に犬の正面顔が含まれていないと判定される。
次に、具体的な計算方法について説明する。
例えば、犬検出辞書310の1行目に格納されている各値に基づいて決定される矩形特徴を、図10(a)に示す矩形特徴460とする。すなわち、犬検出辞書310の1行目の種類311に格納されている矩形特徴の種類が図10(b)に示す矩形特徴460であり、犬検出辞書310の1行目の位置312、幅313および高さ314に格納されている各値に基づいて、図10(a)に示す矩形特徴460の位置および大きさが決定される。同様に、例えば、犬検出辞書310の2行目に格納されている各値に基づいて決定される矩形特徴を、図10(a)に示す矩形特徴470とする。すなわち、犬検出辞書310の2行目の種類311に格納されている矩形特徴の種類が図10(c)に示す矩形特徴470であり、犬検出辞書310の2行目の位置312、幅313および高さ314に格納されている各値に基づいて、図10(a)に示す矩形特徴470の位置および大きさが決定される。
最初に、判定を行うためのスコアSの値に0がセットされ、犬検出辞書310の1行目に格納されている各値を用いた演算が行われる。具体的には、犬検出辞書310の1行目の種類311、位置312、幅313および高さ314に格納されている各値に基づいて決定された矩形特徴460を構成する2つの矩形462および463の領域内に含まれる輝度値の合計値が領域毎に算出される。ここで、矩形462の領域内に含まれる輝度値の合計値をA(1)とし、矩形463の領域内に含まれる輝度値の合計値をB(1)とした場合に、次式を用いて、領域毎に算出された輝度値の合計値の差分値が特徴量F(1)として算出される。
F(1)=A(1)−B(1)
続いて、算出された特徴量F(1)と、犬検出辞書310の1行目の閾値315に格納されている閾値θ(1)とが比較され、特徴量F(1)が閾値θ(1)よりも小さいか否かと、犬検出辞書310の1行目の符号316に格納されている値p(1)とに応じて、弱仮説h(1)が算出される。なお、弱仮説h(1)は、上述した式を用いて算出される。
続いて、算出された弱仮説h(1)と、犬検出辞書310の1行目の重み317に格納されている値α(1)とを乗算することにより、h(1)α(1)が算出される。そして、算出されたh(1)α(1)がスコアSに加算される。
続いて、犬検出辞書310の2行目に格納されている各値を用いて、上述した各演算を繰り返す。具体的には、犬検出辞書310の2行目の種類311、位置312、幅313および高さ314に格納されている各値に基づいて決定された矩形特徴470を構成する2つの矩形472および473について、矩形472の領域内に含まれる輝度値の合計値A(2)と、矩形473の領域内に含まれる輝度値の合計値B(2)が算出され、次式を用いて、特徴量F(2)が算出される。
F(2)=A(2)−B(2)
続いて、算出された特徴量F(2)と、犬検出辞書310の2行目の閾値315に格納されている閾値θ(2)とが比較され、特徴量F(2)が閾値θ(2)よりも小さいか否かと、犬検出辞書310の2行目の符号316に格納されている値p(2)とに応じて、弱仮説h(2)が算出される。
続いて、算出された弱仮説h(2)と、犬検出辞書310の2行目の重み317に格納されている値α(2)とを乗算することにより、h(2)α(2)が算出される。そして、算出されたh(2)α(2)がスコアSに加算される。
続いて、犬検出辞書310の3行目以降、t行目までに格納されている各値を順次用いて、上述した各演算を繰り返す。そして、犬検出辞書310のt行目に格納されている各値を用いた各演算が終了した後に、スコアSの値が0以上であるか否かが判断される。
例えば、上述の機械学習アルゴリズムによって学習時における犬の顔判定成功の学習サンプルを正側とし、犬の顔判定失敗時の学習サンプルを負側として学習した場合において、犬検出辞書310の1乃至t行目に格納されている各値を用いた各演算の終了後におけるスコアSの値が0以上であれば、判定対象画像に犬の顔が含まれていると判定される。また、他の対象物検出辞書についても、同様に考えることができる。例えば、猫検出辞書320を用いた判定において、猫の顔判定成功の学習サンプルを正側として学習した場合、スコアSの値が0以上であれば、判定対象画像に猫が含まれていると判定される。
なお、本発明の実施の形態では、対象物検出辞書を用いた判定として、スコアSおよび0を比較する判定例について説明するが、0以外の値を用いて判定するようにしてもよい。すなわち、スコアSと比較する値については、適宜調整することができる。
このように、判定対象画像の解像度を同一の解像度とし、判定に用いる矩形特徴を特定の種類とすることによって、複数の対象物検出辞書を切り替え可能とすることができ、複数の対象物について同一のアルゴリズムで判定を行うことができる。なお、この例では、2種類の矩形特徴の何れかを用いる例について説明したが、1種類または3種類以上の矩形特徴を用いる場合についても本発明の実施の形態を適用することができる。
図11は、本発明の実施の形態における液晶パネル181に表示される撮像画像の一例を示す図である。図11に示す撮像画像480は、図9に示す画像421乃至425に対応する画像である。また、図11(a)には、対象物検出部230による犬検出処理前の撮像画像480を示し、図11(b)には、対象物検出部230による犬検出処理後の撮像画像480を示す。液晶パネル181に表示されている撮像画像480において犬が検出された場合には、図11(b)に示すように、検出された犬の顔の位置にマーカ481が付される。
次に、指定対象物自動撮影モードが設定されている場合における撮像画像の記録について図面を参照して詳細に説明する。
図12は、本発明の実施の形態における撮像装置100を用いて犬を撮影する場合における液晶パネル181の表示例を示す図である。図12(a)では、撮像装置100のレンズ111側を向いていない犬が液晶パネル181に表示されている状態を示し、図12(b)では、撮像装置100のレンズ111側を向いている犬が液晶パネル181に表示されている場合を示す。図12(b)に示す場合には、犬の顔の正面が撮像画像に含まれるため、撮像画像から検出された犬の顔の周りにマーカ500が付されるとともに、撮像画像が記録される。
ここで、本発明の実施の形態では、撮像画像から犬の顔が検出されて撮像画像が記録される際に、犬に関連付けて音声記憶部160に記憶されている音声情報(ワンワン)を音声出力部190から出力し、犬がさらにレンズ111側を向くようにする。また、例えば、図7に示す「自動撮影の対象物指定メニュー」において、「犬」指定ボタン331がユーザにより押下されて指定対象物自動撮影モードが設定されている状態で、シャッターボタン171が押下されると、犬に関連付けて音声記憶部160に記憶されている音声情報(ワンワン)を音声出力部190から出力し、撮像画像から犬が検出された際にも音声情報(ワンワン)を音声出力部190から出力して、撮像画像を記録することができる。これらの撮像画像の記録については、図13および図14を参照して詳細に説明する。
図13および図14は、本発明の実施の形態における撮像装置100を用いて犬を撮影する場合を模式的に示す図である。図13(a)および図14(a)では、床に寝ている犬510を撮影するため、撮像装置100を三脚101に固定して犬510の正面に設置したものの、犬510の顔がレンズ111側を向いていない状態を示す。ここでは、図7に示す「自動撮影の対象物指定メニュー」において、「犬」指定ボタン331がユーザにより押下されて指定対象物自動撮影モードが設定されている状態で、シャッターボタン171がユーザにより押下される例を示す。
図13では、犬510の顔が検出されると、犬に関連付けて音声記憶部160に記憶されている音声情報(ワンワン)が音声出力部190から出力され、撮像画像を記録する例を示す。すなわち、図13(a)に示すように、シャッターボタン171が指102により押下されると、対象物検出部230が撮像画像から犬を検出する犬検出処理を開始する。ここで、指定対象物自動撮影モードが設定されている状態で、シャッターボタン171が押下された場合には、犬510の顔を検出するまで撮像画像の記録が行われない。そして、図13(b)に示すように、対象物検出部230により犬510の顔が検出されると、音声情報(ワンワン)が音声出力部190から出力される。続いて、図13(c)に示すように、音声情報(ワンワン)が音声出力部190から出力された際に撮像画像が記録される。なお、音声出力部190からの音声出力と撮像画像の記録とは、ほぼ同時にするようにしてもよく、音声出力部190から音声出力後、一定時間経過後に撮像画像を記録するようにしてもよい。
ここで、犬の顔を検出する場合には、人間の顔を検出する場合とは異なり、検出精度が必ずしも高くない。このため、図13(b)に示すように、犬510が撮像装置100側を向いたことにより犬510の顔が検出された場合でも、犬510の目線がレンズ111に向かった状態で正面を向いているとは限らない。そこで、この例では、図13(b)に示すように、犬510の顔が検出された場合には、この検出の際に犬に関連する音声情報(ワンワン)を出力して犬510の興味を撮像装置100側に向けさせて、犬510の顔がさらにレンズ111側に向いた瞬間に撮像画像を記録する。これにより、ユーザからの指示を理解できない犬510の顔の正面の撮像画像を記録する場合に、犬510の顔が撮像装置100側に向いた際における適切なタイミングで撮像画像を記録することができる。
図14では、シャッターボタン171が指102により押下された場合、および、犬510の顔が検出された場合に、犬に関連付けて音声記憶部160に記憶されている音声情報(ワンワン)を音声出力部190から出力する例を示す。すなわち、図14(a)に示すように、シャッターボタン171が指102により押下されると、指定された犬に関連付けて音声記憶部160に記憶されている音声情報(ワンワン)を音声出力部190から出力するとともに、対象物検出部230が撮像画像から犬を検出する犬検出処理を開始する。なお、シャッターボタン171押下の際に、音声情報(ワンワン)を音声出力部190から出力する点以外は、図13と同様であるため、ここでの説明を省略する。これにより、ユーザからの指示を理解できない犬510の顔の正面の撮像画像を記録する場合に、犬510の顔が正面を向いていない状態でも、犬に関連する音声情報(ワンワン)を出力して犬510の興味を引くことにより、犬510の顔が撮像装置100側に向きやすくすることができる。すなわち、2段階で音声情報(ワンワン)を出力することにより、適切なタイミングで撮像画像を記録することができる。
また、図13および図14に示すように、撮像画像の記録の際に犬に関連する音声情報(ワンワン)を出力することにより、犬510の興味を引くことができるとともに、ユーザに対しても撮像画像を記録したことを通知することができる。
なお、図14(a)に示すシャッター押下時に出力される音声情報については、例えば、犬検出時における音声情報と同じ出力としてもよいし、犬検出時における出力時間よりも長い時間とするようにしてもよい。例えば、音声情報(ワンワン)を一定時間繰り返すようにしてもよい。また、犬に関する異なる2つの音声情報(例えば、高音のワンワン、低音のワンワン)を音声記憶部160に記憶しておき、図14(a)に示すシャッター押下時における音声情報の出力と、図14(b)に示す犬検出時における音声情報の出力とを異なるようにしてもよい。このように、2段階で異なる音を出力することにより、犬510の興味をさらに引くことができる。
次に、本発明の実施の形態における撮像装置100の動作について図面を参照して説明する。
図15は、本発明の実施の形態における撮像装置100による撮像画像記録処理の処理手順を示すフローチャートである。この処理手順は、ユーザにより指定された対象物が検出された場合に、撮像画像を自動的に記録するものである。
最初に、指定対象物自動撮影モードが設定されているか否かが判断される(ステップS901)。すなわち、図7に示す「自動撮影の対象物指定メニュー」画面において、「犬」指定ボタン331、「猫」指定ボタン332、「犬/猫」指定ボタン333の何れかが押下されたか否かが判断される。指定対象物自動撮影モードが設定されている場合には(ステップS901)、シャッターボタン171が押下されたか否かが判断される(ステップS902)。シャッターボタン171が押下された場合には(ステップS902)、撮像部112が撮像画像の生成を開始し(ステップS903)、生成された撮像画像について、対象物検出部230が対象物検出処理を行う(ステップS920)。この対象物検出処理については、図16を参照して詳細に説明する。なお、指定対象物自動撮影モードが設定されていない場合(ステップS901)、または、シャッターボタン171が押下されない場合には(ステップS902)、撮像画像記録処理の動作を終了する。
続いて、対象物検出部230が、撮像部112により生成された撮像画像から、指定された対象物を検出したか否かが判断される(ステップS904)。撮像部112により生成された撮像画像から、指定された対象物が検出された場合には(ステップS904)、検出された対象物に関連付けて格納されている音声情報に対応する音声が音声出力部190から出力される(ステップS905)。続いて、現在の撮像画像が記録部150に記録される(ステップS906)。ここで、図7に示す「自動撮影の対象物指定メニュー」画面において、「犬/猫」指定ボタン333が押下されている場合には、対象物検出部230により犬または猫の何れかの顔が検出されると、検出された犬または猫に関連付けて格納されている音声情報に対応する音声が出力され(ステップS905)、現在の撮像画像が記録部150に記録される(ステップS906)。なお、この例では、指定された動物(犬または猫)が撮像画像から検出されると、この検出された動物の音声が出力されて現在の撮像画像が記録される場合を示すが、指定された動物が撮像画像から検出された際に現在の撮像画像を記録し、この記録の際にその検出された動物の音声を出力するようにしてもよい。これにより、その動物の顔がレンズ111側に向いた瞬間の適切なタイミングで撮像画像を確実に記録することができ、撮像画像が記録されたことをユーザに迅速に通知することができる。
一方、対象物検出部230が、撮像部112により生成された撮像画像から、指定された対象物を検出していない場合には(ステップS904)、対象物検出処理を繰り返す(ステップS903、S920)。
図16は、本発明の実施の形態における撮像装置100による撮像画像記録処理の処理手順のうちの対象物検出処理手順(図15に示すステップS920の処理手順)を示すフローチャートである。
最初に、記憶装置部130に記憶されている現在の撮像画像が取得される(ステップS921)。続いて、取得された撮像画像上の左上隅に取出枠が配置され(ステップS922)、この取出枠内の画像が取り出される(ステップS923)。続いて、対象物検出辞書データベース300に記憶されている複数の対象物検出辞書のうちで、指定された対象物に関する対象物検出辞書が1つ取り出され、対象物検出辞書メモリ235に記憶される(ステップS924)。続いて、対象物検出辞書メモリ235に記憶されている対象物検出辞書を用いて、取出枠内から取り出された画像について判定処理が実行される(ステップS940)。なお、この判定処理については、図17を参照して詳細に説明する。
続いて、取出枠内から取り出された画像に対象物が含まれていると判定されたか否かが判断される(ステップS925)。取出枠内から取り出された画像に対象物が含まれていると判定された場合には(ステップS925)、判定結果として対象物を検出した旨を示す対象物検出情報が出力される(ステップS934)。取出枠内から取り出された画像に対象物が含まれていると判定されない場合には(ステップS925)、対象物検出辞書データベース300に記憶されている複数の対象物検出辞書のうちで、指定された対象物に関する他の対象物検出辞書が存在するか否かが判断される(ステップS926)。指定された対象物に関する他の対象物検出辞書が存在する場合には(ステップS926)、ステップS924に戻り、対象物判定処理を繰り返す(ステップS924、S925、S940)。例えば、図7に示す「自動撮影の対象物指定メニュー」画面において、「犬/猫」指定ボタン333が押下されている場合において、犬検出辞書310を用いた判定処理のみが実行された場合には、猫検出辞書320を用いた判定処理が実行される。なお、図7に示す「自動撮影の対象物指定メニュー」画面において、「犬」指定ボタン331または「猫」指定ボタン332が押下されている場合には、指定された対象物に関する他の対象物検出辞書は存在しない。
指定された対象物に関する他の対象物検出辞書が存在しない場合には(ステップS926)、対象物判定処理の対象となった画像は取出枠よりも小さいか否かが判断される(ステップS927)。対象物判定処理の対象となった画像が取出枠よりも小さい場合には(ステップS927)、対象物判定処理の対象となった画像をこれ以上縮小して対象物判定処理する必要がないため、判定結果として対象物を検出しない旨を示す対象物無検出情報が出力される(ステップS933)。
対象物判定処理の対象となった画像が取出枠よりも小さくない場合には(ステップS927)、取出枠が配置された画像上において、その取出枠はその画像の右端に存在するか否かが判断される(ステップS928)。その取出枠が画像の右端に存在しない場合には(ステップS928)、その画像上において取出枠が1画素右側にシフトして配置され(ステップS929)、ステップS923に戻る。一方、その取出枠が画像の右端に存在する場合には(ステップS928)、取出枠が配置された画像上において、その取出枠はその画像の下端に存在するか否かが判断される(ステップS930)。その取出枠が画像の下端に存在しない場合には(ステップS930)、その画像上において取出枠が1画素下側にシフトされるとともに、その画像の左端に配置され(ステップS931)、ステップS923に戻る。その取出枠が画像の下端に存在する場合には(ステップS930)、その取出枠が右下隅に配置された画像が所定倍率で縮小処理され(ステップS932)、縮小処理後の画像上の左上隅に取出枠が配置される(ステップS922)。
なお、この例では、判定対象画像に対象物が含まれていると判定されると、他の判定対象画像を判定処理することなく、現在の撮像画像から対象物が検出されたと判定する例について説明したが、判定対象画像に対象物が含まれていると判定された場合でも、判定対象画像が取出枠よりも小さくなるまで判定処理を繰り返し行い、この判定結果に基づいて、現在の撮像画像から対象物が検出されたと判定するようにしてもよい。また、複数の対象物が指定されている場合には、この指定された全ての対象物の対象物検出辞書を用いた判定処理を繰り返し行い、この判定結果に基づいて、現在の撮像画像から対象物が検出されたと判定するようにしてもよい。
図17は、本発明の実施の形態における撮像装置100による対象物検出処理の処理手順のうちの判定処理手順(図16に示すステップS940の処理手順)を示すフローチャートである。
最初に、スコアSが「0」に初期化され(ステップS941)、変数iが「1」に初期化される(ステップS942)。続いて、対象物検出辞書メモリ235に記憶されている対象物検出辞書のi行目に格納されている種類311、位置312、幅313および高さ314の各値に基づいて、取出枠内から取り出された判定対象画像上に矩形特徴が決定され、この矩形特徴を構成する2つの矩形の領域内に含まれる輝度値の合計値A(i)およびB(i)が算出される(ステップS943)。続いて、算出された合計値A(i)およびB(i)の差分値が、特徴量F(i)として算出される(ステップS944)。
続いて、対象物検出辞書メモリ235に記憶されている対象物検出辞書のi行目の符号316の値が「p(i)=1」であるか否かが判断される(ステップS945)。「p(i)=1」である場合には(ステップS945)、算出された特徴量F(i)が、対象物検出辞書メモリ235に記憶されている対象物検出辞書のi行目の閾値315に格納されている閾値θ(i)よりも小さいか否かが判断される(ステップS946)。算出された特徴量F(i)が閾値θ(i)よりも小さい場合には(ステップS946)、弱仮説h(i)=1と算出される(ステップS947)。一方、算出された特徴量F(i)が閾値θ(i)よりも小さくない場合には(ステップS946)、弱仮説h(i)=−1と算出される(ステップS948)。
また、対象物検出辞書メモリ235に記憶されている対象物検出辞書のi行目の符号316の値が「p(i)=1」でない場合には(ステップS945)、「p(i)=−1」の場合である。この場合には、算出された特徴量F(i)が閾値θ(i)よりも小さいか否かが判断され(ステップS949)、算出された特徴量F(i)が閾値θ(i)よりも小さい場合には、弱仮説h(1)=−1と算出される(ステップS950)。一方、算出された特徴量F(i)が閾値θ(i)よりも小さくない場合には(ステップS949)、弱仮説h(i)=1と算出される(ステップS951)。
続いて、対象物検出辞書メモリ235に記憶されている対象物検出辞書のi行目の重み317に格納されている値α(1)と算出された弱仮説h(i)が乗算され、この乗算により求められた値h(1)α(1)がスコアSに加算される(ステップS952)。
続いて、変数iに「1」が加算され(ステップS953)、変数iがtよりも大きいか否かが判断される(ステップS954)。変数iがtよりも大きくない場合には(ステップS954)、対象物検出辞書メモリ235に記憶されている対象物検出辞書の各行の値についての判定処理が終了していないため、ステップS943に戻り、同一の対象物検出辞書を用いた判定処理を繰り返す(ステップS943乃至S953)。一方、変数iがtよりも大きい場合には(ステップS954)、対象物検出辞書メモリ235に記憶されている対象物検出辞書の各行の値についての判定処理が終了しているため、ステップS955に進み、スコアSの値が0以上であるか否かが判断される(ステップS955)。
スコアSの値が0以上である場合には(ステップS955)、判定対象画像は対象物を含むと判定される(ステップS956)。一方、スコアSの値が0よりも小さい場合には(ステップS955)、判定対象画像は対象物を含まないと判定される(ステップS957)。
図18は、本発明の実施の形態における撮像装置100による撮像画像記録処理の処理手順を示すフローチャートである。この処理手順は、図15に示す処理手順の一部を変形したものであり、ステップS961の処理手順を追加した点以外は、図15に示す処理手順と同様である。このため、ステップS961以外の処理手順についての詳細な説明は省略する。
指定対象物自動撮影モードが設定されている場合において(ステップS901)、シャッターボタン171が押下された場合には(ステップS902)、指定された対象物に関連付けて記憶されている音声情報に対応する音声が出力される(ステップS961)。ここで、図7に示す「自動撮影の対象物指定メニュー」画面において、「犬/猫」指定ボタン333が押下されている場合には、犬および猫に関連付けて記憶されている音声情報に対応する音声を同時に出力するようにしてもよく、交互に出力するようにしてもよい。また、何れか一方のみを出力するようにしてもよい。
以上では、図7に示す「自動撮影の対象物指定メニュー」画面において、「犬」指定ボタン331が押下されている場合において、犬の顔の正面が検出された場合には、犬に関連する音声情報を出力する例について説明した。ここで、例えば、犬の顔の正面が、撮像装置100側を向く前の状態でも、撮像装置100側にある程度向いている場合には、音声情報を出力することにより、犬の顔の正面が、撮像装置100側を向く可能性をさらに高めることができると考えられる。そこで、以下では、犬または猫の顔の側面および正面を検出した場合に、検出された対象物に関連する音声情報を出力する例について説明する。
図19は、本発明の実施の形態における対象物検出辞書データベース300に記憶されている対象物検出辞書を概略的に示す図である。ここでは、対象物検出辞書データベース300には、犬の正面顔検出辞書601と、猫の正面顔検出辞書602と、犬の側面顔検出辞書603と、猫の側面顔検出辞書604とが記憶されている例について説明する。ここで、犬の正面顔検出辞書601は、犬の正面顔を検出するための対象物検出辞書であり、猫の正面顔検出辞書602は、猫の正面顔を検出するための対象物検出辞書であり、犬の側面顔検出辞書603は、犬の側面顔を検出するための対象物検出辞書であり、猫の側面顔検出辞書604は、猫の側面顔を検出するための対象物検出辞書である。なお、犬の正面顔検出辞書601、猫の正面顔検出辞書602、犬の側面顔検出辞書603および猫の側面顔検出辞書604は、各項目に格納される各値が異なる以外の点については、図5に示す犬検出辞書310および猫検出辞書320と同様であるため、ここでの詳細な説明については省略する。
例えば、図7に示す「自動撮影の対象物指定メニュー」画面において、「犬」指定ボタン331が押下されて、指定対象物自動撮影モードが設定されている場合には、犬の正面顔検出辞書601および犬の側面顔検出辞書603を用いて、犬の顔の正面および側面を検出することが可能である。
図20は、本発明の実施の形態における撮像装置100を用いて犬を撮影する場合における液晶パネル181の表示例を示す図である。図20(a)では、犬の顔の側面が液晶パネル181に表示されている状態を示し、図20(b)では、犬の顔の正面が液晶パネル181に表示されている場合を示す。なお、図20(a)に示す場合には、犬の顔の側面が撮像画像に含まれるため、撮像画像から検出された犬の顔の周りにマーカ611が付されるとともに、音声情報(ワンワン)が音声出力部190から出力される。また、図20(b)に示す場合には、犬の顔の正面が撮像画像に含まれるため、撮像画像から検出された犬の顔の周りにマーカ612が付されるとともに、音声情報(ワンワン)が音声出力部190から出力されて撮像画像が記録される。これらの撮像画像の記録については、図21および図22を参照して詳細に説明する。
図21および図22は、本発明の実施の形態における撮像装置100を用いて犬を撮影する場合を模式的に示す図である。図21(a)では、床に寝ている犬510を撮影するため、撮像装置100を三脚101に固定して犬510の正面に設置したものの、犬510の顔がレンズ111とは反対側を向いている状態を示す。ここでは、図7に示す「自動撮影の対象物指定メニュー」において、「犬」指定ボタン331がユーザにより押下されて指定対象物自動撮影モードが設定されている状態で、シャッターボタン171がユーザにより押下される例を示す。
図21(a)に示すように、シャッターボタン171が指102により押下されると、対象物検出部230が撮像画像から犬を検出する犬検出処理を開始する。ここで、指定対象物自動撮影モードが設定されている状態で、シャッターボタン171が押下された場合には、犬510の顔を検出するまで撮像画像の記録が行われない。そして、図21(b)に示すように、対象物検出部230により犬510の顔の側面が検出されると、音声情報(ワンワン)が音声出力部190から出力される。なお、犬510の顔の側面が検出された場合には、音声情報(ワンワン)が出力されるのみで、撮像画像は記録されない。また、図22(a)に示すように、対象物検出部230により犬510の顔の正面が検出されると、音声情報(ワンワン)が音声出力部190から出力される。続いて、図22(b)に示すように、音声情報(ワンワン)が音声出力部190から出力された直後に撮像画像が記録される。
このように、犬510の顔の側面が検出された場合には、犬510がレンズ111側に顔を向き始めていることが考えられる。そこで、この検出の際に犬に関連する音声情報(ワンワン)を出力して犬510の興味をレンズ111側に引くようにして、犬510がレンズ111側に顔を向ける可能性を高める。そして、犬510の顔の正面が検出された場合には、この検出の際に犬に関連する音声情報(ワンワン)を出力して犬510の興味をさらに引くようにして、犬510の顔がさらにレンズ111側に向くようにして撮像画像を記録する。このように、犬の顔の側面が検出された場合と、犬の顔の正面が検出された場合との2段階で、犬に関連する音声情報(ワンワン)を出力することにより、犬510の興味をレンズ111側にさらに引くことができ、犬510がレンズ111側に顔を向く可能性を高めることができる。
また、図14と同様に、犬に関する異なる2つの音声情報(例えば、高音のワンワン、低音のワンワン)を音声記憶部160に記憶しておき、犬の顔の側面が検出された場合における音声情報の出力と、犬の顔の正面が検出された場合における音声情報の出力とを異なるようにしてもよい。このように、2段階で異なる音を出力することにより、犬510の興味をさらに引くことができる。
図23は、本発明の実施の形態における撮像装置100による撮像画像記録処理の処理手順を示すフローチャートである。この処理手順は、図15に示す処理手順の一部を変形したものであり、ステップS904およびS905の代わりに、ステップS971およびS974を設け、さらに、ステップS972およびS973の処理手順を追加した点以外は、図15に示す処理手順と同様である。このため、ステップS971乃至S974以外の処理手順についての詳細な説明は省略する。
撮像部112により生成された撮像画像について対象物検出処理が行われ(ステップS920)、対象物検出部230が、撮像部112により生成された撮像画像から、指定された対象物の正面を検出したか否かが判断される(ステップS971)。撮像部112により生成された撮像画像から、指定された対象物の正面が検出されていない場合には(ステップS971)、対象物検出部230が、撮像部112により生成された撮像画像から、指定された対象物の側面を検出したか否かが判断される(ステップS972)。撮像部112により生成された撮像画像から、指定された対象物の側面が検出された場合には(ステップS972)、側面が検出された対象物に関連付けて格納されている音声情報に対応する音声が音声出力部190から出力され(ステップS973)、ステップS903に戻る。一方、撮像部112により生成された撮像画像から、指定された対象物の正面が検出されていない場合には(ステップS972)、ステップS903に戻る。
また、撮像部112により生成された撮像画像から、指定された対象物の正面が検出された場合には(ステップS971)、正面が検出された対象物に関連付けて格納されている音声情報に対応する音声が音声出力部190から出力され(ステップS974)、現在の撮像画像が記録部150に記録される(ステップS906)。
以上では、撮像画像を記録する際に対象物の興味をひきつけるため、検出された対象物に関連する音声情報を出力して撮像画像を記録する例について説明した。このように、指定された対象物に関連する音声情報を出力することにより、その対象物の興味をひきつけることができるとともに、撮像画像を記録したことをユーザに通知することができる。ここで、例えば、記録された撮像画像のブレの有無に応じた通知を行うことができれば、この通知を受け取ったユーザが再撮影の有無等を迅速に判断することができると考えられる。そこで、以下では、撮像画像を記録する際における撮像画像のブレの有無に応じて異なる音声情報を出力することにより、記録された撮像画像がブレているか否かをユーザに通知する例について説明する。
図24は、本発明の実施の形態における音声記憶部700に記憶されている内容を概略的に示す図である。この例では、撮像装置100において、音声記憶部160の代わりに音声記憶部700を設けた例について説明する。音声記憶部700には、対象物701および音声情報702が関連付けて記憶されている。
対象物701は、自動撮影を行う対象物として指定可能な対象物であり、例えば、「犬」および「猫」が格納される。この対象物701は、図6に示す対象物161に対応する。
音声情報702は、音声出力部190から音声を出力させるための音声情報であり、対象物に関連付けて「ブレ無し」および「ブレ有り」の2つの音声情報が格納される。なお、図24では、例えば、「犬」に関連付けて格納される「ブレ無し」の音声情報を「ワンワン」で表すとともに「ブレ有り」の音声情報を「キャイーン」で表し、「猫」に関連付けて格納される「ブレ無し」の音声情報を「ニャーニャー」で表すとともに「ブレ有り」の音声情報を「ギャーギャー」で表す。この例では、対象物が検出された場合に出力される音声情報として「ブレ無し」の音声情報を用いる例について説明する。
図25は、本発明の実施の形態における撮像装置100を用いて犬を撮影する場合を模式的に示す図である。図25に示す例は、撮像画像を記録する際における撮像画像のブレの有無に応じて異なる音声情報を出力する点(図25(c)に示す)以外は、図13に示す例と同じである。このため、図25(c)について詳細に説明し、その他の点についての詳細な説明を省略する。
図25(b)に示すように、対象物検出部230により犬510の顔が検出されると、「ブレ無し」の音声情報(ワンワン)が音声出力部190から出力される。続いて、図25(c)に示すように、音声情報(ワンワン)が音声出力部190から出力された直後に撮像画像が記録される。この撮像画像が記録される際に、この撮像画像におけるブレの有無が判定され、ブレがあると判定されると、図25(c)に示すように、「ブレ有り」の音声情報(キャイーン)が音声出力部190から出力される。なお、撮像画像におけるブレの有無の判定は、例えば、記憶装置I/F240を介して記憶装置部130から取得された現在の撮像画像をカメラパラメータ制御部220が評価することにより行うことができる。すなわち、現在の撮像画像における周波数成分のうちで、比較的高い周波数成分が多い場合には、ブレていない画像であると判定し、現在の撮像画像における周波数成分のうちで、比較的高い周波数成分が少ない場合には、ブレている画像であると判定することができる。
このように、犬の顔が検出された際に「ブレ無し」の音声情報(ワンワン)を出力し、記録時における撮像画像にブレがあると判定されると、「ブレ有り」の音声情報(キャイーン)を出力することにより、犬510の顔の正面の撮像画像を記録したが、この撮像画像がブレていることをユーザに迅速に通知することができる。また、撮影時における通常のシャッター音の代わりに、ブレの有無に応じた対象物に関連する音声情報を出力することにより、撮影に対する面白みを高めることができる。なお、撮像画像におけるブレの有無の判定以外の評価を行い、この撮像画像の評価結果に応じて音声情報を出力するようにしてもよい。例えば、合焦の程度を表す評価値、指定された対象物にどれだけ近いかの度合いを示す評価値、撮像画像における被写体の明るさを示す評価値等を算出し、これらの評価値を評価結果として用いることができる。例えば、これらの評価値が全て高い値となった場合には、音声情報(ワンワン)を出力し、これらの評価値のうちで何れかが低い価となった場合には、音声情報(キャイーン)を出力することができる。
図26は、本発明の実施の形態における撮像装置100による撮像画像記録処理の処理手順を示すフローチャートである。この処理手順は、図15に示す処理手順の一部を変形したものであり、ステップS905の代わりに、ステップS981を設け、さらに、ステップS982乃至S984の処理手順を追加した点以外は、図15に示す処理手順と同様である。このため、ステップS981乃至S984以外の処理手順についての詳細な説明は省略する。
対象物検出部230が、撮像部112により生成された撮像画像から、指定された対象物を検出したか否かが判断され(ステップS904)、撮像部112により生成された撮像画像から、指定された対象物が検出された場合には、検出された対象物に関連付けて格納されている「ブレ無し」の音声情報に対応する音声が音声出力部190から出力される(ステップS981)。
また、記録部150に記録された現在の撮像画像のブレの有無が判定される(ステップS982)。記録部150に記録された現在の撮像画像にブレが有ると判定された場合には(ステップS982)、検出された対象物に関連付けて格納されている「ブレ有り」の音声情報に対応する音声が音声出力部190から出力される(ステップS983)。一方、記録部150に記録された現在の撮像画像にブレが無いと判定された場合には(ステップS982)、検出された対象物に関連付けて格納されている「ブレ無し」の音声情報に対応する音声が音声出力部190から出力される(ステップS984)。
以上で示したように、本発明の実施の形態では、例えば、ユーザからの指示を理解できない動物の顔が検出された際に撮像画像を記録するため、その動物の顔がレンズ111側に向いた瞬間の適切なタイミングで撮像画像を記録することができる。また、その動物の顔が検出された際にその動物に関連する音声情報を出力してその動物の興味を撮像装置100側に向けさせることにより、その動物の顔がさらにレンズ111側に向いた瞬間に撮像画像を記録することができる。これにより、その動物の顔の正面の撮像画像を記録する場合に、その動物の顔が撮像装置100側に向いた際における適切なタイミングで撮像画像を記録することができる。すなわち、撮影者からの指示を理解できない対象物の撮像画像を適切に記録することができる。また、撮像画像の記録の際にその動物に関連する音声情報を出力することにより、その動物の興味を引くことができるとともに、ユーザに対しても撮像画像を記録したことを通知することができる。また、動物の撮影時にその動物に関連する音声を出力することにより、娯楽的な側面も備える撮像装置を提供することができる。
また、撮像画像が対象物を含むか否かを判定するための判定情報として、対象物検出辞書データベース300に記憶されている対象物検出辞書を用いるため、判定処理時における辞書の入替が可能である。このため、複数の対象物を指定された場合についても、複数の対象物を検出することが可能である。また、例えば、犬の目は白部分が少ないため、犬の視線の同定までは困難であることが多い。このため、犬の正面顔を検出することは困難であることが多い。そこで、本発明の実施の形態では、矩形特徴を用いた判定処理を行うことにより、検出が困難である対象物の検出精度を向上させることができる。
なお、本発明の実施の形態に示す各図では、音声記憶部160に記憶されている音声情報を1回または2回繰り返して出力する例を示すが、一定時間繰り返して出力するようにしてもよい。また、出力時間をユーザが設定可能とするようにしてもよい。また、音声記憶部160に記憶されている音声情報を、ユーザが記憶可能とするようにしてもよい。例えば、ユーザが飼っている犬の鳴き声や同種の犬の鳴き声等を録音して音声記憶部160に記憶しておき、この泣き声を用いて自動撮影を行うようにしてもよい。
また、本発明の実施の形態では、1回のシャッターボタンの押下操作により、1枚の撮像画像を記録する例について説明したが、1回のシャッターボタンの押下操作により、一定枚数(例えば、6枚)の撮像画像を連続して記録するようにしてもよい。また、記録される撮像画像が一定枚数に達するまで、対象物が検出される毎に撮像画像を記録するようにしてもよい。
また、本発明の実施の形態では、対象物として「犬」および「猫」を例にして説明したが、哺乳類等の他の動物を対象物とする場合についても本発明の実施の形態を適用することができる。また、人間の赤ちゃんを対象物とする場合についても本発明の実施の形態を適用することができる。ここで、人間の赤ちゃんを対象物とする場合には、赤ちゃんに関連する音声情報として、例えば、赤ちゃんを呼ぶ母親の声を用いることができる。
なお、対象物の検出精度を高めるため、例えば、対象物の種類毎に対象物検出辞書を設けるようにしてもよい。犬の場合には、例えば、日本国内における一般的な犬の顔(例えば、小麦色(キツネ色)で柴犬型の顔)を検出するための対象物検出辞書、「チワワ」を検出するための対象物検出辞書等を設けることができる。
また、本発明の実施の形態では、撮像画像が対象物を含むか否かを判定するための判定情報として、対象物検出辞書データベース300に記憶されている対象物検出辞書を用いる例について説明したが、撮像画像が対象物を含むか否かを判定することができる他の判定処理を用いるようにしてもよい。例えば、矩形特徴の代わりに、判定対象画像上の2点間の輝度値の差分値を用いる判定器を用いた判定処理を行うことができる。
また、静止画および動画を撮像するカムコーダ(camcorder:camera and recorder)や撮像機能を備える携帯電話機の各種の撮像装置に本発明の実施の形態を適用することができる。
なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、特許請求の範囲における発明特定事項とそれぞれ対応関係を有するが、これに限定されるものではなく本発明の要旨を逸脱しない範囲において種々の変形を施すことができる。
なお、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。
本発明の実施の形態における撮像装置100の一構成例を示すブロック図である。 本発明の実施の形態におけるカメラ制御部200の機能構成例を示すブロック図である。 本発明の実施の形態における撮像装置100の外観を示す斜視図である。 本発明の実施の形態における対象物検出部230の機能構成例を示すブロック図である。 本発明の実施の形態における対象物検出辞書データベース300に記憶されている対象物検出辞書を概略的に示す図である。 本発明の実施の形態における音声記憶部160に記憶されている内容を概略的に示す図である。 本発明の実施の形態における液晶パネル181に表示されるメニュー画面の一例を示す図である。 本発明の実施の形態における対象物判定部236による対象物判定処理の対象となる画像を取り出す画像取出方法の概略を示す図である。 本発明の実施の形態における対象物判定部236による対象物判定処理の対象となる画像を取り出す画像取出方法の概略を示す図である。 本発明の実施の形態における判定対象画像と、判定処理に用いられる矩形特徴とを示す図である。 本発明の実施の形態における液晶パネル181に表示される撮像画像の一例を示す図である。 本発明の実施の形態における撮像装置100を用いて犬を撮影する場合における液晶パネル181の表示例を示す図である。 本発明の実施の形態における撮像装置100を用いて犬を撮影する場合を模式的に示す図である。 本発明の実施の形態における撮像装置100を用いて犬を撮影する場合を模式的に示す図である。 本発明の実施の形態における撮像装置100による撮像画像記録処理の処理手順を示すフローチャートである。 本発明の実施の形態における撮像装置100による撮像画像記録処理の処理手順のうちの対象物検出処理手順を示すフローチャートである。 本発明の実施の形態における撮像装置100による対象物検出処理の処理手順のうちの判定処理手順を示すフローチャートである。 本発明の実施の形態における撮像装置100による撮像画像記録処理の処理手順を示すフローチャートである。 本発明の実施の形態における対象物検出辞書データベース300に記憶されている対象物検出辞書を概略的に示す図である。 本発明の実施の形態における撮像装置100を用いて犬を撮影する場合における液晶パネル181の表示例を示す図である。 本発明の実施の形態における撮像装置100を用いて犬を撮影する場合を模式的に示す図である。 本発明の実施の形態における撮像装置100を用いて犬を撮影する場合を模式的に示す図である。 本発明の実施の形態における撮像装置100による撮像画像記録処理の処理手順を示すフローチャートである。 本発明の実施の形態における音声記憶部700に記憶されている内容を概略的に示す図である。 本発明の実施の形態における撮像装置100を用いて犬を撮影する場合を模式的に示す図である。 本発明の実施の形態における撮像装置100による撮像画像記録処理の処理手順を示すフローチャートである。
符号の説明
100 撮像装置
101 三脚
111 レンズ
112 撮像部
120 システム制御部
130 記憶装置部
140 外部I/F部
150 記録部
160 音声記憶部
170 操作入力部
171 シャッターボタン
180 表示部
181 液晶パネル
190 音声出力部
200 カメラ制御部
210 シーケンス制御部
220 カメラパラメータ制御部
230 対象物検出部
231 画像取得部
232 画像縮小部
233 画像取出部
235 対象物検出辞書メモリ
236 対象物判定部
237 判定結果出力部
240 記憶装置I/F
300 対象物検出辞書データベース
700 音声記憶部

Claims (16)

  1. 入力される入力画像に所定の対象物が含まれているか否かを判定するための複数の判定情報から、ユーザによる操作入力に基づいて少なくとも一つの判定情報を選択する選択手段と、
    記入力画像から前記選択された判定情報に係る対象物を検出する検出手段と、
    前記検出手段により前記選択された判定情報に係る対象物が検出されたタイミングに基づいて、前記入力画像を記録手段に記録させる記録制御手段と
    前記記録制御手段により入力画像が記録された際における当該入力画像の評価を行う画像評価手段と、
    前記画像評価手段による評価結果に応じて、前記選択された判定情報に係る対象物に関連付けられている音声情報を出力させる音声出力制御手段と
    を具備する画像処理装置。
  2. 前記対象物には、前記画像評価手段により求められる複数の評価結果毎に異なる音声情報が関連付けられ、
    前記音声出力制御手段は、前記記録制御手段により入力画像が記録された際には、前記選択された判定情報に係る対象物に関連付けられている音声情報のうちから、当該入力画像に係る前記画像評価手段による評価結果に関連付けられている音声情報を出力させる
    請求項1記載の画像処理装置。
  3. 前記音声出力制御手段は、前記検出手段により前記選択された判定情報に係る対象物が検出されたタイミングに基づいて、前記選択された判定情報に係る対象物に関連付けられている音声情報を出力させる請求項記載の画像処理装置。
  4. 前記対象物は、動物の顔であり、
    前記音声情報は、前記動物の鳴き声である
    請求項記載の画像処理装置。
  5. 前記対象物は、人間の赤ちゃんの顔であり、
    前記音声情報は、人間の赤ちゃんを呼びかける声である
    請求項記載の画像処理装置。
  6. 前記操作入力に基づいて複数の対象物のうちから複数の対象物を指定する指定手段をさらに具備し、
    前記記録制御手段は、前記指定された複数の対象物のうちの少なくとも一つの対象物が検出されたタイミングに基づいて前記入力画像を記録させる
    請求項1記載の画像処理装置。
  7. 前記操作入力を受け付けるためのタッチパネルをさらに具備する請求項1記載の画像処理装置。
  8. 前記入力画像は撮像手段の撮像に基づいて生成され、
    前記検出された対象物に基づいて所定のパラメータを設定することにより、前記撮像手段を制御する撮像制御手段をさらに具備する
    請求項1記載の画像処理装置。
  9. ユーザによる操作入力に基づいて複数の対象物から少なくとも一つを選択する選択手段と
    記選択された対象物と当該対象物の向きとを、入力画像から検出する対象物検出手段と、
    前記選択された対象物が検出されたタイミングに基づいて、前記複数の対象物のそれぞれに関連付けられている音声情報のうちから、前記検出された対象物と当該対象物の向きとに関連付けられている音声情報を出力させる音声出力制御手段と、
    前記検出された対象物に係る前記音声情報が出力された後に前記入力画像を記録手段に記録させる記録制御手段と
    を具備する画像処理装置。
  10. 前記対象物検出手段は、前記選択された対象物の向きとして前記選択された対象物の正面または側面を前記入力画像から検出し、
    前記音声出力制御手段は、前記選択された対象物の側面が検出された際には前記選択された対象物と当該対象物の側面とに関連付けられている音声情報を出力させ、前記選択された対象物の正面が検出された際には前記選択された対象物と当該対象物の正面とに関連付けられている音声情報を出力させ、
    前記記録制御手段は、前記選択された対象物と当該対象物の正面とに関連付けられている音声情報が出力された後に前入力画像を記録させる
    請求項9記載の画像処理装置。
  11. 前記音声出力制御手段は、前記選択された対象物の側面が検出された後に当該対象物の正面が検出されると当該正面が検出された対象物に係る前記音声情報を出力させる請求項10記載の画像処理装置。
  12. 前記記録制御手段は、前記検出された対象物に係る前記音声情報が出力された直後における前記入力画像を記録させる請求項9記載の画像処理装置。
  13. 前記音声出力制御手段は、前記操作入力を受け付けた際に前記選択された対象物に関連付けられている音声情報を出力させ、前記選択された対象物が検出された際に前記検出された対象物に関連付けられている音声情報を出力させる請求項9記載の画像処理装置。
  14. 前記選択手段は、前記操作入力に基づいて複数の対象物を選択し、
    前記音声出力制御手段は、前記選択された複数の対象物のうちの少なくとも一つの対象物が検出された際に前記検出された対象物に関連付けられている音声情報を出力させる
    請求項9記載の画像処理装置。
  15. 入力される入力画像に所定の対象物が含まれているか否かを判定するための複数の判定情報から、ユーザによる操作入力に基づいて少なくとも一つの判定情報が選択されている場合に、前記入力画像から前記選択された判定情報に係る対象物を検出する検出手順と、
    前記検出手順で前記選択された判定情報に係る対象物が検出されたタイミングに基づいて、前記入力画像を記録手段に記録させる記録制御手順と
    前記記録制御手順で入力画像が記録された際における当該入力画像の評価を行う画像評価手順と、
    前記画像評価手順での評価結果に応じて、前記選択された判定情報に係る対象物に関連付けられている音声情報を出力させる音声出力制御手順と
    を具備する画像記録方法。
  16. 入力される入力画像に所定の対象物が含まれているか否かを判定するための複数の判定情報から、ユーザによる操作入力に基づいて少なくとも一つの判定情報が選択されている場合に、前記入力画像から前記選択された判定情報に係る対象物を検出する検出手順と、
    前記検出手順で前記選択された判定情報に係る対象物が検出されたタイミングに基づいて、前記入力画像を記録手段に記録させる記録制御手順と
    前記記録制御手順で入力画像が記録された際における当該入力画像の評価を行う画像評価手順と、
    前記画像評価手順での評価結果に応じて、前記選択された判定情報に係る対象物に関連付けられている音声情報を出力させる音声出力制御手順と
    をコンピュータに実行させるプログラム。
JP2008055575A 2008-03-05 2008-03-05 画像処理装置、画像記録方法およびプログラム Expired - Fee Related JP5040734B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008055575A JP5040734B2 (ja) 2008-03-05 2008-03-05 画像処理装置、画像記録方法およびプログラム
US12/380,836 US8115816B2 (en) 2008-03-05 2009-03-04 Image capturing method, control method therefor, and program
CN200910126912A CN101527794A (zh) 2008-03-05 2009-03-05 图像捕获方法、其控制方法及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008055575A JP5040734B2 (ja) 2008-03-05 2008-03-05 画像処理装置、画像記録方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2009212980A JP2009212980A (ja) 2009-09-17
JP2009212980A5 JP2009212980A5 (ja) 2011-04-07
JP5040734B2 true JP5040734B2 (ja) 2012-10-03

Family

ID=41053182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008055575A Expired - Fee Related JP5040734B2 (ja) 2008-03-05 2008-03-05 画像処理装置、画像記録方法およびプログラム

Country Status (3)

Country Link
US (1) US8115816B2 (ja)
JP (1) JP5040734B2 (ja)
CN (1) CN101527794A (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2753249A1 (en) 2009-02-27 2010-09-02 Body Surface Translations, Inc. Estimating physical parameters using three dimensional representations
CN101997969A (zh) * 2009-08-13 2011-03-30 索尼爱立信移动通讯有限公司 图片声音注释添加方法和装置以及包括该装置的移动终端
JP2011166442A (ja) * 2010-02-09 2011-08-25 Sanyo Electric Co Ltd 撮像装置
JP5836578B2 (ja) * 2010-09-17 2015-12-24 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
JP5768355B2 (ja) * 2010-10-19 2015-08-26 キヤノンマーケティングジャパン株式会社 撮像装置、制御方法及びプログラム
JP5678631B2 (ja) 2010-12-10 2015-03-04 ソニー株式会社 電子機器、電子機器の制御方法およびプログラム
JP2012141691A (ja) * 2010-12-28 2012-07-26 Fujitsu Ten Ltd 映像処理装置
JP5778963B2 (ja) * 2011-03-31 2015-09-16 株式会社日本総合研究所 撮影システム及び撮影補助装置
US9269399B2 (en) * 2011-06-13 2016-02-23 Voxx International Corporation Capture, syncing and playback of audio data and image data
JP2013034167A (ja) 2011-06-28 2013-02-14 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20130273969A1 (en) * 2011-12-01 2013-10-17 Finding Rover, Inc. Mobile app that generates a dog sound to capture data for a lost pet identifying system
CN103813075A (zh) * 2012-11-07 2014-05-21 联想(北京)有限公司 一种提醒方法和电子设备
KR102068621B1 (ko) * 2013-01-03 2020-01-21 삼성전자 주식회사 카메라를 구비하는 장치의 이미지 촬영장치 및 방법
KR102078136B1 (ko) * 2013-01-07 2020-02-17 삼성전자주식회사 오디오 데이터를 가지는 이미지를 촬영하기 위한 장치 및 방법
JP6178580B2 (ja) * 2013-01-28 2017-08-09 富士通テン株式会社 物体検出装置、物体検出システム及び物体検出方法
JP6287527B2 (ja) * 2014-04-17 2018-03-07 富士通株式会社 情報処理装置、方法及びプログラム
JP6747292B2 (ja) * 2014-09-19 2020-08-26 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
CN104486548B (zh) * 2014-12-26 2018-12-14 联想(北京)有限公司 一种信息处理方法及电子设备
TWI658315B (zh) * 2015-01-26 2019-05-01 鴻海精密工業股份有限公司 拍照系統及方法
CN105898130A (zh) * 2015-01-26 2016-08-24 富泰华工业(深圳)有限公司 拍照系统及方法
CN107683604A (zh) * 2015-06-16 2018-02-09 夏普株式会社 生成装置
JP6075415B2 (ja) * 2015-06-19 2017-02-08 キヤノンマーケティングジャパン株式会社 撮影装置、その制御方法及びプログラム
US9697867B2 (en) 2015-09-25 2017-07-04 Intel Corporation Interactive adaptive narrative presentation
GB2569747B (en) * 2016-11-07 2021-10-13 Motorola Solutions Inc Guardian system in a network to improve situational awareness at an incident
GB2569741B (en) * 2016-11-07 2021-05-12 Motorola Solutions Inc Guardian system in a network to improve situational awareness of a crowd at an incident
US10212338B2 (en) * 2016-11-22 2019-02-19 Google Llc Camera operable using natural language commands
US10757320B2 (en) 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range
WO2019177470A1 (en) * 2018-03-16 2019-09-19 Motorola Solutions, Inc Device, system and method for controlling a communication device to provide notifications of successful documentation of events

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2584412Y2 (ja) * 1993-09-07 1998-11-05 ニチメン株式会社 レンズ付きフィルム型簡易カメラ用グリップ
US5642431A (en) * 1995-06-07 1997-06-24 Massachusetts Institute Of Technology Network-based system and method for detection of faces and the like
GB2312050B (en) * 1996-04-10 2001-04-04 Eastman Kodak Co Camera with smile sound
US6144755A (en) * 1996-10-11 2000-11-07 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Method and apparatus for determining poses
US6301440B1 (en) * 2000-04-13 2001-10-09 International Business Machines Corp. System and method for automatically setting image acquisition controls
JP2001357404A (ja) * 2000-06-14 2001-12-26 Minolta Co Ltd 画像抽出装置
JP2002107807A (ja) * 2000-09-27 2002-04-10 Olympus Optical Co Ltd 音声再生機能を有するカメラ
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US7535496B2 (en) * 2002-01-30 2009-05-19 Intel Corporation Audio-based attention grabber for imaging devices
JP2004096227A (ja) * 2002-08-29 2004-03-25 Canon Inc 音声処理装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記憶媒体
KR100547998B1 (ko) * 2003-02-10 2006-02-01 삼성테크윈 주식회사 촬영 상태가 부적절하였음을 알려주는 디지털 카메라의제어방법
JP2005005842A (ja) * 2003-06-10 2005-01-06 Seiko Epson Corp ディジタルカメラ及びフィルムカメラ
JP2005094133A (ja) * 2003-09-12 2005-04-07 Fuji Photo Film Co Ltd 撮影装置
JP2005099920A (ja) * 2003-09-22 2005-04-14 Fuji Photo Film Co Ltd 画像処理装置および画像処理方法ならびにプログラム
JP4517633B2 (ja) * 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
US7884851B2 (en) * 2004-09-29 2011-02-08 New York University Audio and visual system and method for providing audio and visual information using such system
FI20045457A0 (fi) * 2004-11-24 2004-11-24 Nokia Corp Paranneltu kameralaitteisto ja menetelmä ja ohjelmisto sen käyttämiseksi
JP2007107807A (ja) * 2005-10-13 2007-04-26 Matsushita Electric Ind Co Ltd 空気調和機
JP4197019B2 (ja) * 2006-08-02 2008-12-17 ソニー株式会社 撮像装置および表情評価装置

Also Published As

Publication number Publication date
JP2009212980A (ja) 2009-09-17
US8115816B2 (en) 2012-02-14
CN101527794A (zh) 2009-09-09
US20090225173A1 (en) 2009-09-10

Similar Documents

Publication Publication Date Title
JP5040734B2 (ja) 画像処理装置、画像記録方法およびプログラム
JP4274233B2 (ja) 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP4626692B2 (ja) 物体検出装置、撮像装置、物体検出方法およびプログラム
US8237853B2 (en) Image sensing apparatus and control method therefor
KR102068621B1 (ko) 카메라를 구비하는 장치의 이미지 촬영장치 및 방법
JP5821457B2 (ja) 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム
US20100130250A1 (en) Method and apparatus for taking images using portable terminal
JP4663700B2 (ja) 撮影装置、及び撮影方法
JP2009118009A (ja) 撮像装置、その制御方法およびプログラム
JP2010148052A (ja) カメラ付き携帯端末
JP2007310813A (ja) 画像検索装置およびカメラ
CN101188677A (zh) 摄影装置、图像处理装置、图像处理方法以及使计算机执行该方法的程序
JP2006237961A (ja) 撮像装置および自動撮影方法
KR101587903B1 (ko) 촬상 장치, 촬상 방법 및 기억 매체
KR20100138141A (ko) 구도 가이드 방법 및 장치, 및 디지털 촬영 장치
JP4127521B2 (ja) ディジタル・カメラおよびその制御方法
JP2010171797A (ja) 撮像装置及びプログラム
JP2014050022A (ja) 画像処理装置、撮像装置、およびプログラム
US9648195B2 (en) Image capturing apparatus and image capturing method
US8941770B2 (en) Method and apparatus for displaying successively captured images
JP5509781B2 (ja) 撮像装置
JP4632417B2 (ja) 撮像装置、及びその制御方法
JP2007208355A (ja) 撮影装置および方法並びにプログラム
JP2007096440A (ja) 撮像装置
JP2010239532A (ja) 撮像装置及び撮影方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120625

R151 Written notification of patent or utility model registration

Ref document number: 5040734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees