JP2007208757A - カメラ装置及びカメラ制御プログラム - Google Patents

カメラ装置及びカメラ制御プログラム Download PDF

Info

Publication number
JP2007208757A
JP2007208757A JP2006026481A JP2006026481A JP2007208757A JP 2007208757 A JP2007208757 A JP 2007208757A JP 2006026481 A JP2006026481 A JP 2006026481A JP 2006026481 A JP2006026481 A JP 2006026481A JP 2007208757 A JP2007208757 A JP 2007208757A
Authority
JP
Japan
Prior art keywords
image
shooting
unit
area
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006026481A
Other languages
English (en)
Other versions
JP4894278B2 (ja
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006026481A priority Critical patent/JP4894278B2/ja
Publication of JP2007208757A publication Critical patent/JP2007208757A/ja
Application granted granted Critical
Publication of JP4894278B2 publication Critical patent/JP4894278B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】所望の被写体の数を適正にカウントする。
【解決手段】カーソル操作等により、取り込んだ被写体像から対角の2点で識別したい領域を選択する(ステップS109)。識別したい領域内の被写体像から抽出領域を検出する(ステップS110)。この検出した抽出領域を順次選択し(ステップS111)、この選択した抽出領域におけるスルー画像の特徴抽出処理を実行する(ステップS112)。つまり、選択した抽出領域において、特徴量データが有する特徴種別の特徴量を抽出する。抽出した特徴量と、テンプレートと比較し類似度を算出する(ステップS113)。この算出した比率である類似度が所定値以上であるか否かを判断し(ステップS114)、類似度が所定値以上である場合には、類似被写体の識別数を計数しているカウンタの値をカウントアップさせる(ステップS116)。
【選択図】 図4

Description

本発明は、被写体の計数機能を備えたカメラ装置、及びカメラ装置に被写体の計数機能を付与するカメラ制御プログラムに関する。
従来、被写体を認識する機能を備えたカメラ装置が提案されている。この機能を備えたカメラ装置は、主被写体が人物か否かを判定し、人物であると判定されたときと、人物以外であると判定されたときとで、異なる露出設定を行う(特許文献1参照)。
特開平05−041830号公報
ところで、集合写真を撮影する場合において、全員が集合しているか否かを確認するために、撮影者等が目視により集合者の人数を確認することはよく見られる光景である。このとき、人物であると判定した被写体に基づき人数をカウントする機能をカメラ装置に付加すれば、撮影者等が目視により人数を確認する煩雑な撮影前動作が不要となり、利便性が得られる。しかし、集合写真の撮影場所は一般に観光地等であって、集合者の周囲には無関係が人々が不可避的に存在する。したがって、単に結像した被写体像に基づき人数をカウントする機能を付加しても、集合すべき者の人数等の所望の被写体の数を適正にカウントすることはできない。
本発明は、かかる従来の課題に鑑みてなされたものであり、所望の被写体の数を適正にカウントすることのできるカメラ装置及びカメラ制御プログラムを提供することを目的とする。
前記課題を解決するために請求項1記載の発明に係るカメラ装置は、比較対照となる特定の被写体の特徴を示す特徴データを設定する設定手段と、被写体を結像させる結像手段と、この結像手段により結像される画像を表示する表示手段と、この表示手段の表示領域内において任意の領域を指定する指定手段と、この指定手段により指定された領域内の画像から、比較対象となる複数の画像部分を抽出する抽出手段と、この抽出手段により抽出された各画像部分が有する特徴と前記設定手段により設定された特徴データが示す特徴とを比較し、類似度が所定以上であるか否かを識別する識別手段と、この識別手段により類似度が所定以上と識別された画像部分の個数を計数する計数手段とを備える。
つまり、表示手段に表示された画像において任意の領域を指定し、この任意に指定された領域において、比較対象となる複数の画像部分の抽出、各画像部分に類似度の識別、類似度が所定以上と識別された画像部分の個数の計数が行われる。したがって、カウントしようとする所望の被写体の周囲に、無関係な被写体が存在していたとしても、所望の被写体が存在する領域を指定することにより、所望の被写体の数のみを適正にカウントすることができる。
また、請求項2記載の発明に係るカメラ装置は、前記計数手段により計数された値を前記表示手段に表示させる。したがって、撮影者は表示手段に表示される画像により撮影角度を調整する等の作業を行いつつ、所望の被写体の数を適正に把握することができる。
また、請求項3記載の発明に係るカメラ装置は、前記識別手段により類似度が所定以上と識別された画像部分を塗りつぶし等の所定の表示形態で前記表示手段に表示させる。したがって、所望の被写体の数を画像上からも把握することができる。
また、請求項4記載の発明に係るカメラ装置は、前記表示手段に表示された画像の一部をサンプル画像して選択する選択手段と、この選択手段により選択されたサンプル画像の特徴を抽出する特徴抽出手段と、この抽出手段により特徴を示す特徴データを記憶する記憶手段とを更に備え、前記設定手段は、前記記憶手段に記憶された特徴データを選択して前記特定の被写体の特徴を示す特徴データとして設定する。したがって、当該カメラ装置により結像された被写体をサンプル画像として用いることができる。
また、請求項5記載の発明に係るカメラ装置は、前記選択手段は、操作に応じて変位するカーソルを前記表示手段に表示し、このカーソルで指定される2点を対角とする領域の画像を前記サンプル画像として選択する。したがって、表示手段上でカーソルの位置を操作する簡単な操作により、任意の画像をサンプル画像とすることができる。
また、請求項6記載の発明に係るカメラ装置は、複数の撮影シーンの各々対応して撮影条件と前記サンプル画像、及び該サンプル画像の特徴データを記憶した記憶手段を更に備え、前記設定手段は、前記記憶手段に記憶されたサンプル画像の特徴データを選択して設定する。したがって、複数の撮影シーンの各々対応して撮影条件とサンプル画像とが記憶されているカメラにおいて、サンプル画像を被写体のカウントに有効利用することができる。
また、請求項7記載の発明に係るカメラ装置は、前記検出手段は、前記指定手段により指定された表示領域内の画像を、当該画像が有する輝度または色差情報に基づいて、輝度、色成分、色相、彩度、明度等の所定の特徴を有する領域毎に分割し、この分割した各領域を前記特徴を抽出すべき画像部分として検出する。
また、請求項8記載の発明に係るカメラ装置は、前記計数手段により計数された前記画像部分の個数に基づき、当該カメラ装置の撮影動作を制御する撮影制御手段を更に備える。したがって、カウントした所望の被写体の数に応じて、被写界深度等の撮影動作を自動設定することができる。
また、請求項9記載の発明に係るカメラ装置は、複数の撮影シーンの各々対応して撮影条件を記憶した記憶手段と、前記計数手段により計数された前記画像部分の個数に基づき、前記複数の撮影シーンのいずれかを選択する選択手段と、この選択手段により選択された撮影シーンに対応して前記記憶手段に記憶されている前記撮影条件に基づき、当該カメラ装置の撮影動作を制御する撮影制御手段を更に備える。したがって、カウントした所望の被写体の数に応じ、複数の撮影シーンのいずれかを選択して撮影条件を設定することにより、撮影動作を所望の被写体の数に応じて自動制御することができる。
また、請求項10記載の発明に係るカメラ装置は、撮影者の指示操作に基づき、前記複数の撮影シーンのいずれかを選択する指示選択手段を備え、前記撮影制御手段は、前記指示選択手段により撮影シーンが選択された場合には、該撮影シーンに対応して前記記憶手段に記憶されている前記撮影条件に基づき、当該カメラ装置の撮影動作を制御する。したがって、撮影者が複数の撮影シーンのいずれかを選択することにより、当該撮影シーンに対応する撮影条件に基づき、当該カメラ装置の撮影動作が制御される。
また、請求項11記載の発明に係るカメラ装置は、前記撮影制御手段は、当該カメラ装置の合焦動作、被写界深度、露出条件、フィルタ処理の少なくとも一つを制御する。したがって、カウントした所望の被写体の数に応じて、合焦動作、被写界深度、露出条件、フィルタ処理を自動制御することができる。
また、請求項12記載の発明に係るカメラ制御プログラムは、被写体を結像させる結像手段と、この結像手段により結像される画像を表示する表示手段とを備えるカメラ装置が有するコンピュータを、比較対照となる特定の被写体の特徴を示す特徴データを設定する設定手段と、前記表示手段の表示領域内において任意の領域を指定する指定手段と、この指定手段により指定された領域内の画像から、比較対象となる複数の画像部分を抽出する抽出手段と、この抽出手段により抽出された各画像部分が有する特徴と前記設定手段により設定された特徴データが示す特徴とを比較し、類似度が所定以上であるか否かを識別する識別手段と、この識別手段により類似度が所定以上と識別された画像部分の個数を計数する計数手段として機能させる。したがって、前記コンピュータがこのプログラムに従って処理を実行することにより、請求項1記載の発明と同様の作用効果を奏する。
以上説明したように本発明によれば、表示手段に表示された画像において任意の領域を指定し、この任意に指定された領域において、比較対象となる複数の画像部分の抽出、各画像部分に類似度の識別、類似度が所定以上と識別された画像部分の個数を計数することができる。したがって、カウントしようとする所望の被写体の周囲に無関係な被写体が存在していたとしても、所望の被写体が存在する領域を指定することにより、所望の被写体の数のみを適正にカウントすることが可能となる。
以下、本発明の一実施の形態を図に従って説明する。
(第1の実施の形態)
図1(A)は各実施の形態に共通するデジタルカメラ1の正面図、(B)は背面図、(C)は側面透視図である。このデジタルカメラ1の本体2には、その上面部に半押し機能を備えたレリーズ釦(シャッタースイッチ)3と電源スイッチ4とが配置されており、正面部にはグリップ部5、ストロボ6及び撮像レンズ部の受光窓7が配置されている。また、背面部には、モード切替スイッチ8、ズーム操作キー9、左右上下操作部を有するカーソルキー10、決定/OKキー11、DISPキー12、メニューキー13及び電子ファインダとしても機能するLCDからなる表示部14が配置されているとともに、メモリ媒体と電池とを収納するメモリ媒体/電池収納部15が設けられている。また、回動式ミラー18、レンズ群19及びCCD等で構成される撮像素子20等が配置されている。
図2は、デジタルカメラ1の概略的回路構成を示すブロック図である。このデジタルカメラ1は、主制御手段100、撮影制御手段101及び画像処理手段102を備えている。主制御手段100は、抽出領域の選択手段103、テンプレート設定手段104、特徴データのテンプレートメモリ105及び撮影シーン設定手段106を有し、抽出領域の選択手段103にはカーソル操作手段107からのカーソル操作情報が入力され、撮影シーン設定手段106にはモード選択操作手段108からのモード選択操作情報が入力される。撮影制御手段101には、撮影シーン選択手段103からの設定情報、後述する認識処理ブロック からの認識情報、測光手段109からの測光情報、測距手段110からの測距情報が入力される。撮影制御手段101は、これら入力情報に基づき、照明手段111、光学系駆動部112、絞り/シャッター駆動部113、撮像駆動部114及び信号処理手段115を制御する。
他方、撮影光学系116の光軸上には、絞り117、シャッター118及び撮像手段119が配置されている。撮影光学系116は、光学系駆動部112により、絞り117とシャッター118は絞り/シャッター駆動部113により、撮像手段119は撮像駆動部114により各々駆動される。信号処理手段115は、撮像手段119からのアナログ信号を処理するとともにデジタル信号に変換し、このデジタル画像信号は画像バッファメモリ120を介して、前記画像信号処理手段102に入力される。
画像処理手段102は、前処理ブロック121、特徴抽出ブロック122及び認識処理ブロック123を有している。この画像処理手段102において、各ブロック121〜123を経由しない画像バッファメモリ120からの画像データは、画像圧縮/符号化手段124に入力される一方、各ブロック121〜123を経由した画像データは、画像圧縮/符号化手段124と前記撮影制御手段101とに入力される。前記画像圧縮/符号化手段124は、これら画像データを圧縮及び符号化処理し、この処理された画像データは画像記録手段125に記録される。また、特徴抽出ブロック122からの情報は、前記特徴データのテンプレートメモリ105に入力されて記憶されるように構成されている。
図3は、デジタルカメラ1の具体的回路構成を示すブロック図である。図において、操作部23は、前記レリーズ釦3や電源スイッチ4等の図1に示したスイッチやキー群等で構成され、このスイッチ及びキー群の操作情報は、入力回路24を介して、制御部25に入力される。制御部25は、CPU及びその周辺回路と、CPUの作業用メモリであるRAM等から構成されるマイクロコンピュータであり、各部を制御する。
この制御部25には、表示メモリ26、表示駆動ブロック27、画像バッファメモリ28、画像信号処理部29、圧縮符号化/伸長復号化部30、静止画/動画画像メモリ31、プログラムメモリ32、データメモリ33、メモリIF34、外部I/Oインターフェース35、通信制御ブロック36、電源制御ブロック37及び撮影制御部38が接続されている。表示メモリ26には、表示部14に表示される各種表示データが一時的に記憶される。表示駆動ブロック27は、前記表示部14を駆動し、画像バッファメモリ28は、画像データを処理する際等において一時的に格納する。
画像信号処理部29は、後述する撮像素子から制御部25が取り込んだ画像信号に対する各種処理を実行するDSPからなる。圧縮符号化/伸長復号化部30は、この画像信号処理部で処理された画像データを記録時には伸長処理し、記録した画像データを再生する際には伸長復号化する。静止画/動画画像メモリ31は、レリーズ釦3の操作により撮像された画像データ(静止画像データ)を記録保存する。プログラムメモリ32は、後述するフローチャートに示す制御部25の制御プログラム、及び「人物撮影モード」「夜景撮影モード」等の撮影シーン毎の撮影制御プログラム、撮影シーン毎の対象被写体の種別情報、該対象被写体の種別に対応する特徴量データ等が記憶されている。
データメモリ33は各種データが予め格納されているとともに画像データ以外の他のデータを格納し、また、後述するフローチャートに示すテンプレートメモリとしても機能する。メモリIF34は、着脱自在な外部メモリ媒体39に接続されている。外部I/Oインターフェース35は、USBコネクタ40に接続され、通信制御ブロック36は無線LAN等送受信部41を介してアンテナ42に接続され、電源制御ブロック37には、電池43が接続されている。電池43からの電力は電源制御ブロック37及び制御部25を介して各部に供給される。
前記撮影制御部38には、前記ストロボ6の照射角を駆動する照射各駆動部44、照射を駆動するストロボ照明駆動部45とが接続されているとともに、測光、測距センサ46の受光角を駆動する受光角駆動部47、測光、測距センサ46から色温度を検出して出力する色温度検出部48、測光データを検出して出力する測光部49及び測距データを検出して出力する測距部50が接続されている。さらに前記撮影制御部38には、前記第1及び第2角速度センサ17、17が各々角速度検出部51、52、積分器53、54を介して接続されている。
一方、ズームレンズユニット55には、前記回動式ミラー18、レンズ群19及び撮像素子20が配置されているとともに、この回動式ミラー18を回転駆動する駆動機構56、前記レンズ群19中に介挿された絞り57が設けられており、また、撮像素子20の前面にはシャッター58が配置されている。
さらに、前記撮影制御部38には、電動ミラーY方向駆動部59、電動ミラーX方向駆動部60、フォーカスレンズ駆動部61、ズームレンズ駆動部62、絞り駆動部63、シャッター駆動部64、映像信号処理部65及びタイミング制御&ドライバ66が接続されている。電動ミラーY方向駆動部59は、駆動機構56を駆動して回動式ミラー18を上下方向に動作させるものであり、電動ミラーX方向駆動部60は左右方向に動作させるものである。フォーカスレンズ駆動部61は、レンズ群19中のフォーカスレンズを駆動するものであり、ズームレンズ駆動部62は、ズーム操作キー9の操作に応じて被写体像を拡大または縮小すべくレンズ群19中ズームレンズを駆動するものである。また、 絞り駆動部63は前記絞り57を駆動するものであり、シャッター駆動部64は前記シャッター58を駆動するものである。前記映像信号処理部65は、撮像素子20からのアナログ信号をデジタル信号に変換するA/D回路及びこのA/D回路からのデジタル撮像信号を保持するCDSと、CDSから撮像信号を供給されるアナログアンプであるゲイン調整アンプ(AGC)等からなる。
図4は本実施の形態の処理手順を示すフローチャートであり、図5はこのフローチャートに対応する説明図である。制御部25は、画像認識撮影モードが設定されている状態において、プログラムメモリ32に格納されているプログラムに基づき、図4に示すフローチャートに従って処理を実行する。先ず、ユーザーによる操作部23での操作により、シーン別撮影モードが設定されているか否かを判断する(ステップS101)。シーン別撮影モードが設定されていない場合には、その他のモード処理を実行する(ステップS102)。シーン別撮影モードが設定されている場合には、選択撮影シーンに応じて、予め設定された対象被写体の種別情報をメモリ(プログラムメモリ32)から読み出す(ステップS102)。さらに、当該対象被写体の種別に対応する特徴データを前記メモリ(プログラムメモリ32)から読み出し、テンプレートメモリ(データメモリ33)に記憶する(ステップS103)。
一方、シーン別撮影モードが設定されていない場合には、カスタム設定シーンの撮影モードが設定されているか否かを判断し(ステップS104)、設定されていない場合にはその他の処理に移行する。また、カスタム設定シーンの撮影モードが設定されている場合には、撮影スルー画像視野内からカーソル等でサンプル抽出領域を選択する(ステップS105)。すなわち、カスタム設定シーンの撮影モードの状態においては、レンズ群19により撮像素子20上に結像された被写体像が、図5(A)に示すように、スルー画像P1として表示部14に表示されている。また、このカスタム設定シーンの撮影モードにおいては、前記カーソルキー10の操作により、位置及び大きさを変更可能な囲繞形状のカーソルC1をスルー画像P1上に表示させる。そして、カーソルキー10の操作によりカーソルC1の位置及び大きさを調整して、決定/OKキー11の操作により決定すると、カーソルC1により囲繞された領域がサンプル抽出領域として選択される。したがって、図5(A)の例においては、カーソルC1により囲繞された果物(蜜柑)の領域がサンプル抽出領域として選択されることとなる。
次に、この選択された領域内のブロック画像から特徴抽出処理により特徴を抽出し(ステップS106)、この抽出した特徴量データを、前記テンプレートメモリに記憶する(ステップS107)。したがって、このステップS107での処理により、図5(B)に示すように、テンプレートメモリにはサンプル画像P2の特徴量データDとして、色相=HHH、彩度=SSS、明度=VVV、輪郭形状=fff、大きさ=LLLが記憶されることとなる。
そして、ステップS103またはステップS107に続くステップS108では、この時点で表示部14に表示されているスルー画像を読み込む。次に、カーソル操作等により、取り込んだ被写体像から対角の2点で識別したい領域を選択する(ステップS109)。すなわち、識別すべき領域を選択する処理を実行する際には、図5(C)に示すように、表示部14において前記カーソルC1とは異なる十字状の第1カーソルC2をスルー画像P1上に表示させる。そして、カーソルキー10の操作により第1カーソルC2の位置を調整して、決定/OKキー11の操作により決定すると、第1カーソルC2の位置が決定される。次に、カーソルキー10が操作されると、図5(D)に示すように、第1カーソルC2から分離した第2カーソルC3を表示させ、カーソルキー10の操作により第2カーソルC3の位置を調整して、決定/OKキー11の操作により決定すると、第2カーソルC3の位置が決定される。そして、この第1カーソルC2と第2カーソルC3を対角とする矩形の領域を決定し、この矩形の領域を識別すべき領域である識別領域F1とする。なお、このとき、表示部14の隅部に、前記サンプル画像P2を表示させておく。
次に、識別領域F1内の被写体像から抽出領域を検出する(ステップS110)。この抽出領域の検出は、後述するようにスルー画像の画像データの輝度信号及び色差信号から、近い輝度または色差信号別に、例えば同系色の色相別等に領域を分割し、さらに、領域の境界線となる輪郭線を抽出し、この輪郭線で囲まれた部分を一つの抽出領域として検出する。したがって、図5(D)に示すように、識別領域F1内に4個の蜜柑mと1個の林檎aとが存在すると、黄色系の色相領域であって輪郭線で囲まれた4個の蜜柑m領域と、黄赤系の色相領域であって輪郭線で囲まれた1個の林檎a領域との、計5個の抽出領域が検出されることとなる。引き続き、この検出した抽出領域を順次選択し(ステップS111)、この選択した抽出領域におけるスルー画像の特徴抽出処理を実行する(ステップS112)。つまり、選択した抽出領域において、前記特徴量データDが有する特徴種別の特徴量を抽出する。したがって、本例においては、特徴量データDは、色相、彩度、明度、輪郭形状、大きさであったことから、抽出領域にこれら色相、彩度、明度、輪郭形状、大きさの特徴量を抽出する。
そして、このステップS112で抽出した特徴量と、テンプレートメモリに記憶されている前記特徴量データDの色相=HHH、彩度=SSS、明度=VVV、輪郭形状=fff、大きさ=LLLと比較し類似度を算出する(ステップS113)。つまり、特徴量データDの各値と抽出した特徴量の各値との比率を算出する。次に、この算出した比率である類似度が所定値以上であるか否かを判断し(ステップS114)、所定値未満である場合にはステップS115及びステップS116の処理を行うことなくステップS117に進む。また、類似度が所定値以上である場合には、今回の選択領域を類似被写体の存在領域としてデータメモリ33に記憶する(ステップS115)。また、類似被写体の識別数を計数しているカウンタの値をカウントアップさせる(ステップS116)。このとき、選択されている抽出領域が蜜柑mであれば、類似度は所定以上となることから、ステップS116の処理が実行されてカウンタの値がカウントアップされる。しかし、選択されている抽出領域が林檎aであれば、類似度は所定未満となることから、ステップS116の処理が実行されずカウンタの値がカウントアップされることもない。
そして、最後の抽出領域まで以上のステップS111〜ステップS116の処理を実行したか否かを判断し(ステップS117)、最後の抽出領域となるまでステップS111からの処理を繰り返す。したがって、本例においては、ステップS111からの処理が5回繰り返されることとなり、5回繰り返されることにより、最後の抽出領域となったならば、識別された類似被写体の領域とカウント数を表示させる(ステップS117)。このとき、本例においては前述のように、識別領域F1内に4個の蜜柑mと1個の林檎aとが存在することから、このステップS117での処理より、図5(E)に示すように、表示部14には類似被写体の領域F2とカウント数N(Count=4)とが表示されることとなる。
次に、類似被写体の領域またはカウント数に応じて撮影処理を実行する(ステップS118)。つまり、識別された被写体に焦点が合うように自動焦点(AF)処理する等の焦点制御を行い、あるいは、識別された被写体が画角一杯になるようにズーム倍率やレンズ焦点距離を調整するなどの画角制御を行い、もしくは、識別された被写体に応じて撮影シーン別プログラムを自動選択する等のシーン自動選択処理等を行う。したがって、このステップS118の処理が実行された後、ユーザがレリーズ釦3を操作することにより、ステップS118での処理に応じた画像が撮像されることとなる。
なお、本実施の形態においては、表示部14にカウント数Nを表示させるようにしたが、表示させることなく、音声によりカウント数Nを報知するようにしてもよい。
図6は、具体例として人物の顔を抽出して撮影する場合の動作例を示す図である。本例では、
1)予め、人間の顔の特徴データをテンプレートしてメモリに記憶しておく。
1′)あるいは、図示に示すように、撮影時に、識別したい被写体である人間の顔の見本となる被写体画像を、スルー画像内から領域を選択して指定し、選択された領域の被写体像を、識別対象の被写体のサンプルとして登録する。
そして、「人物モード」が選択された場合には、この記憶された人間の顔の特徴データを呼び出して、テンプレートデータとして、指定された画像領域の被写体像に対して、テンプレートの特徴量に合致する被写体があるか否かを検索するテンプレートマッチング動作を行う。すなわち、
2)まず、被写体画像のスルー画像から識別したい領域をカーソル操作などで選択する。
3)次に、撮像画像データの輝度信号及び色差信号から、近い輝度値または色差信号別に、例えば、同系の色相別等に領域を分割し、さらに、領域の境界線となる輪郭線を抽出する。
4)各分割領域(抽出領域)の内、例えばテンプレート画像の色相に近い色相の領域のみを抽出する。
5)さらに、領域の画像を2値化して、また、必要ならば、拡張、縮小処理などを行って細かい凹凸等を削減し、得られた輪郭の形状や大きさをテンプレートの特徴量と比較して、類似度が所定値以上高ければ、その領域を当該認識対象の人間の顔と認識して、その数をカウントする。
6)識別された被写体の計数値を表示するとともに、識別された領域の輪郭線、またはその中を塗りつぶした被写体像をスルー画像に重ねて表示して、識別領域を区別表示できるようにする。
図7〜図9は、その他の被写体の認識と計数処理の動作例を示す図である。図7は野鳥を数える例であり、(A)に示すように、カーソルC1をスルー画像P1上に表示させ、前記カーソルキー10の操作によりカーソルC1の位置及び大きさを調整して、決定/OKキー11の操作により決定すると、カーソルC1により囲繞された領域がサンプル抽出領域として選択される。この選択された領域内のブロック画像から特徴抽出処理により特徴を抽出し、この抽出した特徴量データを、前記テンプレートメモリに記憶する。
また、(B)に示すように、表示部14において前記カーソルC1とは異なるカーソルC2をスルー画像P2上に表示させる。そして、前記カーソルキー10の操作によりカーソルC2の位置を調整して、決定/OKキー11の操作により決定すると、カーソルC2の位置が決定される。カーソルC2で囲まれた矩形の領域を識別すべき領域である識別領域F1とする。なお、このとき、表示部14の隅部に、前記サンプル画像P2を表示させておく。そして、識別領域F1内の被写体像から抽出領域を検出する等により、前述しように、サンプル画像P2と類似する類似被写体の識別数を計数して、野鳥の数であるカウント数N(Count=10)を表示させる。
図8は集客数を数える例であり、(A)に示すように、予めテンプレートメモリに記憶したサンプル画像P2を表示部14に表示させ、(B)に示すように、カーソルC2をスルー画像P1上に表示させる。そして、前記カーソルキー10の操作によりカーソルC2の位置を調整して、決定/OKキー11の操作により決定すると、カーソルC2の位置が決定される。カーソルC2で囲まれた矩形の領域を識別すべき領域である識別領域F1とする。そして、識別領域F1内の被写体像から抽出領域を検出する等により、前述しように、サンプル画像P2と類似する類似被写体の識別数を計数して、観客の数であるカウント数N(Count=2570)を表示させる。
図9は陳列商品を種別毎に数える例であり、(A)に示すように、表示部14にスルー画像P1を表示させた後、(B)に示すように、予めテンプレートメモリに記憶したサンプル画像A,Bを表示させ、カーソルC2をスルー画像P1上に表示させる。そして、前記カーソルキー10の操作によりカーソルC2の位置を調整して、決定/OKキー11の操作により決定すると、カーソルC2の位置が決定される。カーソルC2で囲まれた矩形の領域を識別すべき領域である識別領域F1とする。そして、識別領域F1内の被写体像から抽出領域を検出する等により、サンプル画像A,Bと類似する類似被写体の識別数を計数して、陳列商品の種別毎のカウント数N(Count A=03 Count b=04)を表示させる。無論、(A)に示した陳列商品のみならず、(C)に示した陳列商品であっても種別毎にカウント数を表示することが可能である。
図10は、本実施の形態における認識処理、認識被写体の設定メニューの表示例を示す図である。メニューキー13(MENU)の操作に応じて、表示部14に(a)に示す画像認識処理の設定メニューを表示する。この状態でカーソルキー10の上下操作部の操作により「画像認識」が選択されて、決定/OKキー11の操作されると、画像認識撮影モードが設定されることとなる。また、(a)の表示状態で、カーソルキー10の右操作部が操作されると、(a′)の表示状態に移行し、「OFF(認識しない)」「オート(撮影シーン別)」・・・等の画像認識モードにおける選択メニューを表示する。また、(b)に示すメニュー画面((a)と同様の画面)において、「認識する被写体の設定」が選択されると、(b′)の認識する被写体の設定メニュー画面に移行する。
図11は、図4のフローチャートにおけるステップS106で実行される特徴抽出処理の詳細を示すフローチャートである。先ず、前記ステップS105において、カーソル等で選択されたサンプル抽出領域内の対象画像データを取り込む(ステップS201)。次に、前処理(1)を実行して、画像強調処理、または、鮮鋭化処理、雑音除去処理などを行い(ステップS202)、前処理(2)を実行して、2値化処理、または、正規化処理、回転処理、座標変換処理などを行う(ステップS203)。さらに、特徴抽出処理(1)を実行して、フィルタ処理、または、輪郭抽出、領域抽出、細線化、拡張収縮処理などを行い(ステップS204)、特徴抽出処理(2)を実行して、大きさ、周囲長、面積等の算出、または、円らしさ、フーリエ記述子の算出、輪郭形状の評価値算出などを行う。
(先鋭化、輪郭抽出)
図12及び図13は、前記ステップS202の前処理(1)における鮮鋭化処理、ステップS204の特徴抽出処理(1)における輪郭抽出処理の例として、1次微分フィルタまたは2次微分フィルタ処理による画像の先鋭化処理、エッジ(輪郭)抽出処理の例を示す図である。図12に示すように、階調が変化する部分のエッジがボケた画像f(i,j)を、
Δx=f(i+j,j)−j(i−1,j)、
Δy=f(i+j,j)−j(i−1,j)、
g(i,j)=√{(Δx+(Δyf)}、
または、g(i,j)=|Δxf|+|Δyf|、
等の演算により、1次部分や勾配(Gradient)を求めると、階調が変化する勾配部分や輪郭を抽出できる。
あるいは、
f(i,j)=∂f/∂x+∂f/∂y、または、
f(i,j)=f(i+1,j)+f(i−1,j)+f(i,j−1)+f(i,j −1)−4f(i,j)
等の演算により、さらに微分する2次微分(Laplacian)処理を施し、この結果を原画像データから差し引くと、エッジ部分の高周波成分を強調した画像を合成でき、ボケたエッジや輪郭を強調することができる。
エッジや輪郭の強調処理をソフトウエア処理で行うには、図13に示した「Prewittフィルタ」「Sobeiフィルタ」や「Kirschフィルタ」「Robertsフィルタ」等の1次微分の空間フィルタ演算子(オペレータ)、または、「Laplaciantフィルタ」等の2次微分の空間フィルタ演算子等を用いることができる。図示のように、入力画像220は、演算221により出力画像222に変換される。また、A−A′線上の入力画像223は、Prewittフィルタ(1次微分フィルタ)224により、A−A′線上の出力画像224に変換され、Sobeiフィルタ(1次微分フィルタ)226により、A−A′線上の出力画像227に変換され、Laplaciantフィルタ(2次微分フィルタ)228により、A−A′線上の出力画像229に変換される。
このようなフィルタ処理を、前述の前処理における画像の先鋭化処理や、特徴抽出処理における輪郭抽出やエッジ抽出などに利用できる。被写体像の輪郭形状や外形パターン、面積などを特徴データに利用するには、特徴抽出したい画像データの輝度置等を、画素毎に輪郭強調やエッジ検出用のフィルタ演算等を行って、輪郭強調や外形抽出した画像に変換してから、特徴データ等を抽出する。
(2値化、平均化、輝度変換)
図14及び図15は、前記ステップS202の前処理(1)における画像強調処理、ステップS203の前処理(2)における2値化処理、ステップS204の特徴抽出処理(1)の処理例としての輝度の抽出処理の例を示す図である。図14(a)の線形の輝度変換(中間階調の改善)に示すように、入力画像230は、演算(変換式)231により出力画像232に変換される。また、入力画像の輝度ヒストグラム分布P(x)233は、輝度変換式234により、出力画像の輝度ヒストグラム分布P(x)235に変換される。また、(b)の2値化処理に示すように、入力画像の輝度分布P(x)236は、変換式237により、出力画像の輝度分布P(x)238に変換される。また、図15の所定の輝度の抽出処理に示すように、入力画像の輝度分布P(x)239は、変換式240により、出力画像の輝度分布P(x)241に変換される。
このように、被写体像の画像データ(輝度値や色差値)の分布パターンなどを特徴データとして利用する場合に、画像データの輝度分布(ヒストグラム)を求め、輝度変換処理を行うことにより中間階調などの強調や圧縮ができる。また、所定の閾値との大小で2値化したり、所定の輝度の領域だけを抽出することができる。あるいは、画素数毎に輝度値や色差値を平均化(モザイク化)してまとめて、パターン単純化や情報量の圧縮ができる。
(画像データの変換)
なお、画像データのRGB信号や輝度信号Y、色差信号Cb,Cr、あるいは、色相/彩度/明度を表すHSV(またはHSB)データ等は、以下の変換式で相互に容易に変換できる。
例えば、RGBデータをYCbCrデータに変換するには、
Y=0.299*R+0.587*G+0.114*B、
Cb=0.172*R−0.339*G+0.511*B+CENTER、
Cr=0.511*R−0.428*G−0.083*B+CENTER、
YCbCrデータをRGBデータに変換するには、
R=Y+0.000*(Cb−CENTER)+1.371*(Cr−CENTER)、
G=Y−0.336*(Cb−CENTER)−0.698*(Cr−CENTER)、
B=Y+1.732*(Cb−CENTER)+0.000*(Cr−CENTER)、
RGBデータ(各0〜1)をHSV(またはHSB)データに変換するには、
cmax=maximum(R,G.B)、cmin=minimum(R,G.B)とすると、
明度V=cmax、彩度S=(cmax−cmin)/cmax(ただし、cmax=0のときは、S=0)、
R=cmaxのときは、色相H=60°*{(G−B)/(cmax−cmin)}、
G=cmaxのときは、色相H=60°*{2+(B−R)/(cmax−cmin)}、
B=cmaxのときは、色相H=60°*{4+(R−G)/(cmax−cmin)}、
なお、H<0のときはHに360°を加える。また、S=0のときはH=0とする。
(色相の抽出、肌色の抽出)
図16は、前記ステップS204の特徴抽出処理(1)の領域抽出処理例であって、所定の色の領域を抽出する例として、人間の肌色領域の抽出例を示す図である。(a)は、人間の肌の分光反射率特性の例であり、(b)は、撮影画像サンプル中の肌色領域のRGB値、及びHSV値の例(色相:Hueを0〜360°、彩度:Saturationを0〜255、明度:Value of Brightnessを0〜255として場合)である。また、(c)は、肌色の色相:Hue:0〜360°、彩度:Saturation:0〜1分布の例で、肌色の画像データの多くは、色相環で6°〜38°の範囲に多く分布することが知られている(Skin Colour Analysis(by J.Sherrah and S.Gong)http://homepages.inf.ed.ac.uk/rbf/CVonline/LOCAL_COPLES/GONGI/cvOnline-skinColourAnalysis.html)。これらを利用すれば、HSV値から、色相で約6°〜38°の範囲の人間の顔の肌色とするなど、特定色の被写体の領域を適宜抽出することができる。
(膨脹、収縮、細線化、線図形化)
図17は、前記ステップS204の特徴抽出処理(1)における膨脹収縮処理の例を示す図である。輪郭形状などから被写体の形状や特徴を判別するには、先ず、形状を単純化して情報量を圧縮や線図形化してから判別することが好ましい。例えば、図(a)のように、2値化された画像の輪郭や、1−画素と0−画素の境界領域で、1−画素を(8近傍の画素の)一層分だけ外側に太くする、所謂「膨脹」(Expansion)処理を行うと、輪郭などの境界部分の小さな孔や溝が取り除かれ、また、同図(b)のように、逆に、一層分だけ細くする「収縮」(Contraction)処理により境界部分の突起や孤立点などが取り除かれるので、膨脹処理と収縮処理を組み合わせることで、形状の単純化ができる。
また、2値化された画像から、線幅が1の中心を抽出する、所謂「細線化」(Thinning)処理により、骨状(スケルトン)の概略形状を求めることができる。また、2値化された輪郭パターンの周囲を外側と内側とから境界に沿ってたどり、境界部画素を1とし、残りの画素を0とする「境界線追跡」処理により、輪郭の境界線のみの画像に変換できる。あるいは、輪郭形状の数画素毎に選択した画素のみを折れ線で連結する「折れ線近似」処理などを用いてもよい。
(形状の識別1)
形状の識別は、2値化や線図形化したテンプレート画像やその特徴量を記憶しておき、それらと入力画像の2値化や線図形化した画像や特徴データとの相関度や類似度などを計算して、形状の識別や類似度の判別ができる。あるいは、領域内の画像からテンプレート画像と類似する画像の位置を順次検索するテンプレートマッチング等の手法により、類似する画像や図形の検索ができる。また、簡略には、被写体像の2値化画像や輪郭図形、境界線図形等の縦横の大きさ、半径、周囲長、画素数、面積、幾何学的な寸法の比などから、簡易に類似度判断や被写体の識別を行ってもよい。
例えば、図18に示すように、円では周囲長L=2πr、面積S=πrなので、(周囲長L)/(面積A)=4πとなることから、図形の輪郭線の円らしさを、
円らしさ=(周囲長L)/(面積S)、または、
円形度e=4π(円らしさ)=4πS/Lとして計算して、
円らしさが4π(=12.57)に近い値かどうか、または、円形度が1.0に近いかどうかで、丸い形状の被写体か、凹凸が多い尖った被写体か等を計算し、形状の識別に利用できる。同様に、図19に示すように、輪郭の縦横比=長さh/幅wなどから、形状の「細長さ」等の評価値を求めてもよい。
(形状の識別2.偏角関数、位置座標関数)
また、図20に示すように、図形の輪郭線に沿って、始点から順次、偏角θ(s)を求めて、1次元関数(偏角関数)に変換して、輪郭形状の特徴量として利用できる。あるいは、図21に示すように、同様に、輪郭線に沿って順次、位置座標x(s)、y(s)、または、z(s)=x(s)+j・y(s)を求めて、1次元の位置座標関数に変換して、輪郭形状の特徴量として利用できる。
(形状の識別3.フーリエ記述子)
(Z形記述子)
さらに、例えば、図22に示すように、前述の偏角関数θ(s)を正規化して、正規化偏角関数:θ(s)=θ(s)−θ(0)−2πs/L、
を求め、これの(i=0,1,2・・・,N−1)の離散化データφ[i]をフーリエ変換して、次のようなZ(Zahn)形フーリエ記述子を求め、輪郭形状の識別に利用できる。
θ(s)の離散化データ:φ[i]=θ[i]−θ[0]−2πi/N
(i=0,1,2・・・,N-1)
θ(s)の離散フーリエ変換(=Z形記述子):Cz[k]=(1/N)Σφ[i]EXP(−j2πki/N)。
(G形記述子)
同様に、図23に示すように、前述の位置座標の複素平面座標z(s)を離散フーリエ変換して、G(Grundlund)形フーリエ記述子を求め、輪郭形状の識別に利用してもよい。
位置座標の複素平面座標z(s)=x(s)+j・y[s]、
z(s)の離散化データz(i)=x[i]+j・y[0] (i=0,1,2・・・,N-1)、
z(s)の離散フーリエ変換(=G記述子):Cg[k]=(1/N)Σz[i]EXP(−j2πki/N)。
(P形記述子)
また、図24に示すように、折れ線近似した偏角θ[i]の指数関数w[i]を求め、w[i]をフーリエ変換した、P(Phase)形記述子を求め、輪郭形状の識別に利用してもよい。
w[i]=exp(jθ[i])=cosθ[i]+sinθ[i]
=(z[i+1]−z[i])/δ、
ただし、線分δ=|z[i+1]−z[i]|
w[i]の離散フーリエ変換(=p形記述子):Cp[k]=(1/N)Σw[i]exp(−j2πki/N)。
(特徴量の比較、類似図形の検索)
また、記憶されたテンプレート画像と被写体画像の類似度の判別や検索には、テンプレートマッチングなどのパターンマッチング法や、動きベクトル検出におけるブロックマッチング法などが利用できる。テンプレートマッチングにより、特徴抽出領域の入力画像f[i,j]の特徴データの中から、例えば、(m×n)の記録された参照画像(または特徴データ)t[k,l]に一致する画像の位置を検出する。参照画像の中心(または端点)が入力画像のある点(i,j)に重なるように置いて、点(i,j)を順に縦横にラスター走査しながら、重なる部分の画像データの類似度を順次計算して、類似度が最も高い位置点(i,j)を、類似する被写体がある位置として求めることができる。
(相関度(相関係数))
図25に示すように、入力画像f[k,l]とテンプレート画像(参照画像)t[k,l]との相関度は、次式のピアソンの相関係数(積率相関係数)Rなどで算出でき、最も相関係数Rが大きくなる位置が、検索する類似被写体がある位置として求められる。
R=(画像fと画像tの共分散)/f(画像fの標準偏差)・(画像tの標準偏差)
=[ΣL=0 n−1ΣK=0 m−1{f[k,l]−fAV}{t[k,l]−tAV}]
/√[ΣL=0 n−1ΣK=0 m−1{f[k,l]−fAV]・√[ΣL=0 n−1ΣK=0 m−1{t[k,l]−tAV
ただし、fAV:参照画像f[k,l]の画像データ(輝度値、色差値、特徴量など)の平均値、
AV:参照画像t[k,l]の画像データ(輝度値、色差値、特徴量など)の平均値。
(テンプレートマッチングの類似度)
テンプレートマッチングなど、画像f[i,j]の中から、画像サイズ(m×n)の画像t[k,l]を走査して検索する場合、類似度は、次式で計算でき、類似度r(i,j)が最も大きくなる走査位置の点(i,j)が類似する被写体の位置として求まる。
R(i,j)=ΣL=0 n−1ΣK=0 m−1f[i−(m/2)+k,j−(n/2)+1]・t[k,l]
ただし、(i,j):点の位置座標、f[i,j]:入力画像データ、t[k,l]:テンプレート画像のデータ、(m×n):テンプレート画像のサイズ。
これを、前述の相関係数Rと同様に、平均値を差し引くなど正規化してもちいてもよい。
(絶対値差分和、距離)
前記の類似度、R(i,j)では乗算のための計算が増えるため、2値化画像など、平均値を差し引いたり、正規化を省略したりできる場合には、類似度の代わりに、次式のような画像間の差分和により、相違の程度(「距離」)を表すD(i,j)を求め、これを評価関数として利用できる。この場合には、加減算だけで計算できるので演算を高速化できる。この場合は、距離D(i,j)が最も小さい点(i,j)がマッチング位置を表す。
D(i,j)=ΣL=0 n−1ΣK=0 m−1|f[i−(m/2)+k,j−(n/2)+1]−t[k,l]|
ただし、(i,j):点の位置座標、f[i,j]:入力画像データ、t[k,l]:テンプレート画像のデータ、(m×n):テンプレート画像のサイズ。
(特定被写体の認識処理、顔の認識処理)
前記の認識処理において、特定の被写体やシーン別撮影モードなどで注目する被写体別に専用の識別データや認識処理を必要とする場合がある。例えば「人物」の撮影シーンや「人物と風景」の撮影シーンなどにおいて、人間の顔を認識する例を説明する。
図26(a)は、顔の眼の領域を抽出するためのマスクパターンの例で、これを参照パターンとして、テンプレートマッチング等を用いて検索して、入力画像から眼や顔のある画像領域を検索できる。(b)は、眼を認識するデータの例で、例えば、眼の細長さ=b/aとして、α≦b/a≦αの条件に合致する、または、(眼の面積)S≒π×a×b、(黒眼(瞳)の面積)S=π×r、黒眼(瞳)の比率S/S=r/abとして、β≦r/ab≦βなどの条件に合致する被写体画像の領域を「眼の領域」と識別することができる。また、(c)は、人間の顔と認識するための条件データの設定で、例えば、(眉下〜鼻下までの長さ)h1≒(鼻下〜あごまでの長さ)h2、または、(右眼の幅)W≒(両眼の間)W≒(左眼の幅)W、などの条件を満たす被写体画像の領域を「顔の領域」であると識別できる。
図27は、人間の認識処理1(中距離、頭の認識)の処理手順を示すフローチャートである。先ず、画像を取り込み(ステップS301)、輝度もしくは色差データに基づいて輪郭を抽出する(ステップS302)。次に、前記画像をこの抽出した輪郭を境界とする領域に分割し(ステップS303)、分割領域の中からいずれかの対象領域を選択する(ステップS304)。そして、輪郭線の周囲長L、面積Sを算出し、e=4πS/Lにより、円形度(円らしさ)を算出する(ステップS305)。この算出したeが、「e1≦e≦e2」であるか否かを判断する(ステップS306)。この判断がNOであれば人間の頭の領域でないと認識し(ステップS307)、後述するステップS312に進む。
また、前記判断がYESであれば、比較するテンプレートとして顔のテンプレートを設定し、この設定した顔のテンプレートと選択画像(対象領域)との類似度を算出する(ステップS308)。次に、この算出した類似度が所定値以上であるか否かを判断し(ステップS309)、所定値未満である場合には、前述と同様に、人間の頭の領域でないと認識する(ステップS307)。また、所定値以上である場合には、人間の顔の領域として認識し(ステップS310)、この頭と認識された位置座標を記憶する(ステップS311)。次に、今回選択した領域が、当該画像において最後の領域であるか否かを判断し(ステップS312)、最後の領域でない場合には、ステップS304に戻って次の領域を選択し、前述した処理を繰り返す。そして、最後の領域まで以上の処理が実行されると、ステップS312の判断がYESとなり、記憶した位置座標を出力する(ステップS313)。
図28は、人間の識別処理2(近距離、顔の認識)の処理手順を示すフローチャートである。先ず、画像を取り込み(ステップS401)、輝度もしくは色差データに基づいて輪郭を抽出する(ステップS402)。次に、前記画像をこの抽出した輪郭を境界とする領域に分割し(ステップS403)、分割領域の中からいずれかの対象領域を選択する(ステップS404)。そして、RGBまたは色差データに基づいて、選択した領域の平均RGBまたは平均色差データを算出し(ステップS405)、この算出したRGBまたは色差値をHSVに変換する(ステップS406)。
引き続き、この変換したHSVが肌色の領域は否か、つまり、色相(Hue)が6〜38°か否かを判断し(ステップS407)、この判断がNOである場合には、顔の領域でないと判断する(ステップS415)。ステップS407での判断がYESである場合には、顔のマスクパターン(図26参照)を設定し、前記対象領域において眼と瞳の領域を検索する(ステップS408)。次に、眼の領域は検出できたか否かを判断し(ステップS409)、検出できない場合には、顔の領域でないと判断する(ステップS415)。検出できた場合には、眼の縦横比(b/a)、眼と瞳(黒眼)の面積比(r/ab)を算出し(ステップS410)、眼と瞳の比率は所定範囲内か否か、すなわち前記α≦b/a≦αの条件に合致するか否かを判断する(ステップS411)。この判断がNOである場合には、顔の領域でないと判断する(ステップS415)。
ステップS411の判断がYESである場合には、眼と瞳の比率は所定範囲内であるか否か、すなわち前記β≦r/ab≦βの条件に合致するか否かを判断する(ステップS412)。この判断がNOである場合には、顔の領域でないと判断する(ステップS415)。ステップS412の判断がYESである場合には、右眼の幅W、右眼と左眼の間隔W、左眼の幅Wを算出し(ステップS413)、WとW、Wは等しいか否か、すなわちW−δ≦W≦W+δ、W−δ≦W≦W+δであるか否かを判断する(ステップS414)。この判断がNOである場合には、顔の領域でないと判断する(ステップS415)。そして、この判断がYESである場合、つまり、ステップS407、S409、S411、S412、S414の判断が全てYESである場合には、前記ステップS404で選択した領域を、顔の領域として認識する(ステップS416)。さらに、この認識された顔の領域の位置座標を記憶する(ステップS417)。次に、今回選択した領域が、当該画像において最後の領域であるか否かを判断し(ステップS418)、最後の領域でない場合には、ステップS404に戻って次の領域を選択し、前述した処理を繰り返す。そして、最後の領域まで以上の処理が実行されると、ステップS418の判断がYESとなり、認識結果を出力する(ステップS419)。
(第2の実施の形態)
図29、30は、本発明の第2の実施の形態を示すものである。本実施の形態は、撮影シーン別に対応して、特定の被写体の参照画像データや特徴量データを設定しておき、これらシーン別の参照画像と特徴データとを順にテンプレートメモリに呼び出して設定し、フォーカスされた被写体像のスルー画像を、設定された特定画像の画像や特徴データと順次比較して、合致する被写体があると認識されれば、当該シーンの被写体、及びその認識された被写体の数に応じて、該当するシーン別撮影プログラムを自動的に選択するようにしたものである。
すなわち、この実施の形態において前記プログラムメモリ32には、図29に示すように、人物を写す場合(1)、複数の人物を風景を写す場合(2)、花を写す場合(3)・・・等の撮影シーン別に、当該シーンを撮影する場合に好適なシーン別撮影制御プログラムが記憶されているとともに、撮影シーンに対応してそのサンプル画像300と、「色強調が肌色に設定されます。」等の当該シーン別撮影制御プログラムに関する説明文301等が記憶されている。さらに、各撮影シーンに対応して参照画像(サンプル画像300とは異なる比較用の画像)またはこの参照画像の特徴量データが記憶されている。
すなわち、例えば、撮影シーン(2)の複数の人物を写す撮影シーンに対応して、1つの人物の顔の画像が参照画像として記憶され、またはこの参照画像の特徴量データが記憶されている。また、撮影シーン(3)の複数の花びらからなる花を写す撮影シーンに対応して、1枚の花びらの画像が参照画像として記憶され、またはこの参照画像の特徴量データが記憶されている。なお、各特徴量データには、「No.」が付されている。
図30は、本実施の形態の処理手順を示す一連のフローチャートであり、制御部25はプログラムメモリ32に格納されているプログラムに基づき、同図に示すフローチャートに従って処理を実行する。先ず、ユーザーによる操作入力部35での操作によって、撮影シーンの自動選択機能がONとなっているか否かを判断し(ステップS501)、ONとなっていない場合には、その他の撮影モード処理に移行する(ステップS502)。またONとなっている場合には、フォーカス枠を選択する(ステップS503)。つまり、この実施の形態においては、表示部14に被写体スルー画像とともに複数のフォーカス枠を表示し、ユーザによる操作部23での操作により、この複数のフォーカス枠のいずれかを選択する。したがって、この実施の形態においては、フォーカス枠の選択により、スルー画像において識別したい領域が指定されることとなる。
次に、表示部14に表示されている被写体画像(被写体スルー画像)を読み込み(ステップS504)、フォーカス枠周辺の被写体に対して、AF処理を実行して合焦させ(ステップS505)。さらに、この合焦させたフォーカス枠周辺領域内の被写体像を輝度もしくは色差データに基づいて輪郭抽出し(ステップS506)、この抽出した輪郭を境界とする複数の領域に分割する(ステップS507)。
また、第1の撮影シーン(撮影シーン(1))に対応して記憶された前記参照画像もしくは特徴量データを読み出し、テンプレートメモリ(データメモリ38)に設定する(ステップS508)。引き続き、フォーカス領域内(フォーカス枠内)から、最も大きい、もしくは、中央の輪郭領域を選択し(ステップS509)、この選択された領域のスルー画像に対して前述した特徴抽出処理を実行する(ステップS510)。また、このステップS510で抽出した特徴量をテンプレートの特徴量(テンプレートメモリに記憶された参照画像もしくは特徴量データ)と比較し類似度を算出する(ステップS511)。そして、この算出した類似度が所定値以上であるか否かを判断し(ステップS512)、所定値以上でない場合には、ステップS513及びS514の処理を行うことなく、ステップS515に進む。しかし、類似度が所定値以上であった場合には、テンプレートに設定された参照特徴量に該当する被写体と認識し、特徴量No.と被写体の位置座標を記憶するとともに(ステップS513)、被写体の認識数をカウントする(ステップS514)。
また、前記ステップS507で分割した領域おける次の分割領域を選択して(ステップS515)、全ての領域と対比済となったか否かを判断し(ステップS516)、全ての領域と対比済となるまでステップS510からの処理を繰り返す。全ての領域と対比済となったならば、認識された被写体、あるいは領域があるか否か、または前記ステップS514でカウントした認識数のカウント値が1以上であるか否かを判断する(ステップS517)。この判断の結果、認識された被写体、あるいは領域がなく、またはカウントした認識数のカウント値が0であった場合には、次の撮影シーンに対応して記憶された前記参照画像もしくは特徴量データを読み出し、テンプレートメモリ(データメモリ38)に設定する(ステップS518)。そして、全ての撮影シーンと比較済みか否かを判断し(ステップS519)、比較済みでない場合には前述したステップS509からの処理を繰り返す。また、全ての撮影シーンと比較済みとなった場合には、撮影シーンの自動選択に失敗した旨を表示部14に表示し、または、通常の自動撮影モードを選択して(ステップS520)、後述するステップS523に進む。
他方、ステップS517での判断の結果、認識された被写体、あるいは領域があり、またはカウントした認識数のカウント値が1以上であった場合には、合致すると認識されたテンプレート及び認識された被写体、あるいは領域の数に応じて撮影シーンを自動的に選択する(ステップS521)。
すなわち、例えば、前述のように、撮影シーン(2)の複数の人物を写す撮影シーンに対応して、1つの人物の顔の画像が参照画像の特徴量データが記憶されており、ステップS508でこの特徴量データがテンプレートメモリに設定されたとする。この状態でユーザが人物3人を被写体として、フォーカス枠内に位置させてカメラを構えると、S510〜S516の処理が繰り返されることにより、ステップS514で認識数「3」がカウントされることとなる。また、人物が「3」に対応する撮影シーンは、撮影シーン(2)であることから、複数の人物を写す場合(2)を自動的に選択する。そして、この選択された撮影シーンを表示部14の一部に表示するとともに、選択された撮影シーンに応じて撮影条件等を自動的に設定する。つまり、前述のように、プログラムメモリ32には、複数の人物を写す場合(2)に好適な撮影シーン別撮影制御プログラムが記憶されていることから、当該撮影制御プログラムを起動させることにより、撮影条件等を自動的に設定する。これにより、認識した被写体数等に応じて、適切な撮影条件で撮影を行うことが可能となる。
(第3の実施の形態)
図31、32は、本発明の第3の実施の形態を示すものであり、人物と認識された被写体の数に応じて撮影条件を自動設定するようにしたものである。 図31は、本実施の形態の処理手順を示す一連のフローチャートであり、制御部25はプログラムメモリ32に格納されているプログラムに基づき、同図に示すフローチャートに従って処理を実行する。先ず、ユーザによる操作部23の操作によって人物撮影モードが設定されているか否かを判断し(ステップS601)、設定されていない場合にはその他の撮影モード処理に移行する(ステップS602)。また、人物撮影モードが設定されている場合には、この時点で表示部14にスルー画像として表示されている被写体画像を取り込む(ステップS603)。そして、前述した図4のステップS109と同様に、取り込んだ被写体像から対角の2点で識別したい領域を選択する(ステップS604)。
次に、前記取り込んだ被写体画像に対し輪郭抽出処理を行って、複数領域に分割する(ステップS605)。つまり前述したように、被写体画像の画像データの輝度信号及び色差信号から、近い輝度または色差信号別に、例えば同系色の色相別等に領域を分割し、さらに、領域の境界線となる輪郭線を抽出し、この輪郭線で囲まれた部分を一つの輪郭領域(抽出領域)とすることにより、被写体画像を複数領域に分割する。引き続き、プログラムメモリ32に予め記憶されている人物に対応する参照画像、特徴量データを読み出してテンプレートメモリ(データメモリ33)に設定する(ステップS606)。
また、前記ステップS603で分割した複数の輪郭領域のうち、最も大きい領域、最も被写体までの距離が近い領域、中央に近い領域のいずれか先ず選択する(ステップS607)。さらに、この選択領域の被写体を測距するとともに、AF処理を行って当該被写体に合焦させて(ステップS608)、この選択領域の被写体に対して前述した特徴抽出処理を実行する(ステップS609)。このステップS609で抽出した特徴量をテンプレートの特徴量(テンプレートメモリに記憶された参照画像もしくは特徴量データ)と比較し類似度を算出する(ステップS610)。そして、この算出した類似度が所定値以上であるか否かを判断し(ステップS611)、所定値以上でない場合には、ステップS612及びS613の処理を行うことなく、ステップS614に進む。類似度が所定値以上であった場合には、人物と認識し、当該被写体のスルー画像における位置座標、及び前記ステップS608で測距した当該被写体の距離情報を記憶する(ステップS612)。さらに、人数をカウントしているカウンタの値をカウントアップさせるともに、前記ステップS605で分割した輪郭領域おける次の領域を選択する(ステップS613)。そして、全ての輪郭領域と対比したか否かを判断し(ステップS614)、全ての領域と対比済となるまでステップS608からの処理を繰り返す。
全ての領域と対比済となったならば、前記ステップS613でカウントした認識カウント数(人数)が1以上であるか否かを判断し(ステップS615)、認識カウント数が0であった場合には、人物が認識できない旨を表示部14に表示し、または、その他の撮影モードを選択する(ステップS616)。
他方、ステップS615での判断の結果、認識カウント数(人数)が1以上であった場合には、この人物と認識された被写体の数(人数)に応じて、撮影条件等を設定する(ステップS617)。具体的には、以下のステップS618〜S628に示す処理を実行する。先ず、認識カウント数が1であるか否かを判断し(ステップS618)、認識カウント数=1である場合には、当該被写体の距離Lの前方a[mm]、後方b[mm]の範囲に被写界深度を設定する(ステップS619)。例えば、過焦点距離(HFD)を
HFD=(L/a)−L、または
HFD=(L/b)+L、に設定する。
次に、焦点距離(f)と、前記設定過焦点距離(HFD)に相当する下記絞り値Fに設定する(ステップS620)。
F=f/(δ・HFD)
(δ:許容錯乱円径)
さらに、色強調を肌色に設定し、シャープネスをややソフトに設定する(ステップS621)。しかる後に、撮影処理を実行し、ユーザによるレリーズ釦3の操作に応答して、撮像素子20から画像データを取り込み、圧縮符号化/伸長復号化部30で圧縮符号化して、静止画/動画画像メモリ31に記録する(ステップS629)。
したがって、認識カウント数=1であった場合には、図23(A)に示すように、人物が1人であって、前記ステップS619〜S621で設定された撮影条件で撮影された静止画が静止画/動画画像メモリ31に記録される。つまり、認識された被写体の数(人数)が1人であれば、当該人物のポートレート撮影と判断して、当該被写体にのみピントを合わせ、背景は少しボケるように、当該被写体の距離に応じて、人物の前後10cm程度の範囲のみ被写体深度Z(または、それに対応する過焦点距離HFD)を設定し、過焦点距離HFDとレンズ焦点距離(f)に応じて絞りの値(F値)を設定し、設定された絞り値のApex値(Av値)に連動して、測光値に基づく適正露出値(Ev)となるTv値(=Ev−Av)に相当する露出時間(シャッター速度)を設定する。また、人物のポートレート撮影として、肌色を強調する色補正フィルタ処理を加え、輪郭強調処理フィルタによるシャープネスは、ややソフト(ソフトフォーカス気味)に設定して撮影する。
また、ステップS618での判断の結果、認識カウント数≠1であった場合には、認識カウント数が2〜5であるか否かを判断する(ステップS622)。認識カウント数=2〜5である場合には、最も近い人物の距離L1から最も遠い人物の距離L2までピントが合うよう、被写界深度を設定する(ステップS623)。例えば、過焦点距離(HFD)を
HFD=(L・L1)/(L−L1)、または
HFD=(L・L2)/(L−L2)、に設定する。
次に、設定した過焦点距離(HFD)に相当する下記絞り値Fに設定する(ステップS624)。
F=f/(δ・HFD)
(δ:許容錯乱円径)
さらに、色強調を肌色に設定し、シャープネスをノーマルに設定する(ステップS625)。しかる後に、前記撮影処理を実行する(ステップS628)。したがって、認識カウント数=3であった場合には図32(B)に示すように、人物が3人であって、前記ステップS623〜S625で設定された撮影条件で撮影された静止画が静止画/動画画像メモリ31に記録される。つまり、認識された被写体の数(人数)が2〜5人程度の場合には、複数人のスナップショットと判断して、最も近い人物の距離L1から最も遠い人物の距離L2までにピントが合うように、被写界深度Z(または、それに対応する過焦点距離HFD)と絞りの値(F値)に設定して、前述と同様に連動して適正露出となる露出時間を設定し、また、肌色を強調する色補正フィルタ処理を加え、輪郭強調処理フィルタによるシャープネスは、ノーマルに設定して撮影する。
また、ステップS622での判断の結果、認識カウント数≠2〜5であった場合には、認識カウント数は6以上である。そして、認識カウント数は6以上である場合には、最も近い人物の距離L1から無限遠点までピントが合うよう、被写界深度を設定する(ステップS626)。例えば、過焦点距離(HFD)を
HFD=L1に設定する。
次に、設定した過焦点距離(HFD)に相当する下記絞り値Fに設定する(ステップS627)。
F=f/(δ・HFD)
(δ:許容錯乱円径)
さらに、色強調を肌色に設定し、シャープネス(輪郭強調)をややハードにに設定する(ステップS628)。しかる後に、前記撮影処理を実行する(ステップS629)。したがって、認識カウント数=6以上であった場合には図32(C)に示すように、人物が例えば16人であって、前記ステップS626〜S68で設定された撮影条件で撮影された静止画が静止画/動画画像メモリ31に記録されることとなる。つまり、認識された被写体の数が6人以上である場合には、複数人の記念写真撮影と判断して、人物だけでなく、遠方の背景や景色にも焦点が合うように、最も近い人物の距離L1から無限遠(∞)までにピントが合うように、被写界深度Z(または、それに対応する過焦点距離HFD)と絞りの値(F値)に設定して、前述と同様に連動して適正露出となる露出時間を設定する。また、人物が小さくなり、遠方の景色もくっきり写るように、輪郭強調処理フィルタによるシャープネスは、ややハードに設定して撮影する。
このように、認識された被写体の距離、人数に応じて、被写界深度や絞りの設定、各種フィルタの処理の選択などの撮影処理を制御して、同じ人物撮影においても、当該被写体の状況に応じて、ユーザの意図により近い自動撮影が行える。同様に、他の撮影シーンにおいても、撮影距離や認識した被写体の数に応じて、当該撮影シーンの中でも、より詳細な撮影条件の設定や画像処理の設定が可能となる。
なお、本実施の形態においては、ステップS604の処理を実行し、前述した図4のステップS109と同様に、取り込んだ被写体像から対角の2点で識別したい領域を選択するようにした。しかし、このステップS604を行うことなく、被写体像の全域を識別したい領域とするようにしてもよい。
ここで、図31のフローチャートにおいて用いた式について説明すると、被写界深度は、撮影レンズの焦点距離(f)と絞り値(F)と撮影距離(F)等から、次のような式で算出することができる。
前方被写界深度Tf=δFL/(f+δFL)
後方被写界深度Tr=δFL/(f−δFL)
被写界深度Z=Tf+Tr=δFL/(f−δFL)
また、撮像面から被写体との距離に換算すると、被写界深度限界近点、遠点が求まる。
被写界深度限界近点Lmin=L−Tf=fL/(f+δFL)
被写界深度限界遠点Lmax=L+Tf=fL/(f−δFL)
同様に、被写界深度Z=Tf+Tr=Lmax−Lmin
但し、f;焦点距離、F:絞り値(F値)、L;被写体との撮影距離、δ;許容錯乱円の直径を表す。
また、被写界深度遠点(Lmax)が無限遠(∞)となる撮影距離(L)である「過焦点距離」(Hyper Focal Distance、HFD)では、HFDの1/2の距離から無限遠(∞)までにピントが合って見える。この過焦点距離(HFD)と撮影距離(L)の関係からも、同様に、次式のように被写界深度を求めることができる。
過焦点距離HFD=f+δF、
被写界深度限界近点Lmin=(過焦点距離HFD×撮影距離)÷(過焦点距離HFD+撮影距離L)=fL(f+δFL)
被写界深度限界遠点Lmax=(過焦点距離HFD×撮影距離)÷(過焦点距離HFD−撮影距離L)=fL(f−δFL)
被写界深度Z=Lmax−Lmin=2δFL/(f−δ
したがって、前記ステップS618のように、撮影距離Lを被写体の前a[mm]〜被写体の後b[mm]の範囲にピントが合うように設定するには、
前方被写界深度Tf=a,後方被写界深度Tr=b、被写界深度Z=Tf+Tr=a+b、
もしくは、HFD=(L/a)−L、または、HFD=(L/b)+Lと設定すればよい。
また、前記ステップS622のように、撮影距離L1〜撮影距離L2までピントが合うように設定するには、
被写界深度限界近点Lmin=L1、被写界深度限界遠点Lmax=L2、被写界深度Z=Lmax−Lmin=L2−L1、
もしくは、HFD=(L・L1)/(L−L1)、または、HFD=(L・L2)/(2−L)と設定すればよい。
また、前記ステップS625のように、撮影距離L1〜無限遠(∞)までピントがあうように設定するには、
過焦点距離HFD=f/δF=L1、
と設定すればよい。
したがって、各設定された被写界深度、もしくは、それに相当する過焦点距離HFDと焦点距離(f)に応じて、絞り値F=f/(δ・HFD)に設定し、
また、露出値(Av)=被写体輝度値(Ev)+感度値(Sv)=開口値(Av)+シャッター速度値(Tv)、
開口値(Av)=log(F)、シャッター速度値(Tv)log(1/T)の関係より、適正露出値Evを満たすシャッター速度値(Tv)=Ev−Av=Ev−log(F)、露出時間(T)=1/(2のTv乗)に設定すればよい。
なお、実施の形態においては、本発明をデジタルカメラに適用するようにしたが、カメラに限らず撮像機能を備えた携帯電話等の各種機器にも本発明を適用することができる。
(A)は本発明の各実施の形態に共通するデジタルカメラの正面図、(B)は背面図、(C)は側面透視図である。 同デジタルカメラの概略的回路構成を示すブロック図である。 同デジタルカメラの具体的回路構成を示すブロック図である。 第1の実施の形態における処理手順を示すフローチャートである。 同実施の形態の表示画面例を示す図である。 人物の顔を抽出して撮影する場合の動作例を示す図である。 野鳥を数える例を示す図である。 集客数を数える例を示す図である。 陳列商品を種別毎に数える例示す図である。 本実施の形態における認識処理、認識被写体の設定メニューの表示例を示す図である。 図4のフローチャートにおけるステップS106で実行される特徴抽出処理の詳細を示すフローチャートである。 1次微分フィルタまたは2次微分フィルタ処理による画像の先鋭化処理、エッジ(輪郭)抽出処理の例を示す図である。 1次微分フィルタまたは2次微分フィルタ処理による画像の先鋭化処理、エッジ(輪郭)抽出処理の例を示す図である。 膨脹、収縮処理の例を示す図である。 所定の輝度の抽出処理を示す図である。 所定の色の領域を抽出する例として、人間の肌色領域の抽出例を示す図である。 ステップS204の特徴抽出処理(1)における膨脹収縮処理の例を示す図である。 輪郭形状の特徴を抽出する例を示す図である。 輪郭の縦横比=長さh/幅wなどから、形状の「細長さ」等の評価値を求める説明図である。 輪郭形状の偏角関数、位置座標関数の例を示す図である。 輪郭形状の偏角関数、位置座標関数の例を示す図である。 輪郭形状のフーリエ記述子の例を示す図である。 G形記述子の例を示す図である。 P形記述子の例を示す図である。 入力画像とテンプレート画像との相関度、類似度を算出する説明図である。 顔の眼の領域を抽出するためのマスクパターンの例を示す図である。 人間の認識処理1(中距離、頭の認識)の処理手順を示すフローチャートである。 人間の顔の簡易な識別処理手順を示すフローチャートである。 本発明の第2の実施の形態における撮影シーンのサンプル画像等を示す図である。 同実施の形態における処理手順を示すフローチャートである。 本発明の第2の実施の形態における処理手順を示すフローチャートである。 同実施の形態における撮影画像例を示す図である。
符号の説明
1 デジタルカメラ
2 本体
3 レリーズ釦
8 モード切替スイッチ
9 ズーム操作キー
10 カーソルキー
13 メニューキー
14 表示部
20 撮像素子
23 操作部
25 制御部
30 圧縮符号化/伸長復号化部
31 静止画/動画画像メモリ
32 プログラムメモリ
33 データメモリ
35 操作入力部
38 撮影制御部
39 外部メモリ媒体
46 測距センサ
56 駆動機構
58 シャッター
64 シャッター駆動部

Claims (12)

  1. 比較対照となる特定の被写体の特徴を示す特徴データを設定する設定手段と、
    被写体を結像させる結像手段と、
    この結像手段により結像される画像を表示する表示手段と、
    この表示手段の表示領域内において任意の領域を指定する指定手段と、
    この指定手段により指定された領域内の画像から、比較対象となる複数の画像部分を抽出する抽出手段と、
    この抽出手段により抽出された各画像部分が有する特徴と前記設定手段により設定された特徴データが示す特徴とを比較し、類似度が所定以上であるか否かを識別する識別手段と、
    この識別手段により類似度が所定以上と識別された画像部分の個数を計数する計数手段と
    を備えることを特徴とするカメラ装置。
  2. 前記計数手段により計数された値を前記表示手段に表示させる表示制御手段を更に備えることを特徴とする請求項1記載のカメラ装置。
  3. 前記識別手段により類似度が所定以上と識別された画像部分を塗りつぶし等の所定の表示形態で前記表示手段に表示させる表示制御手段を更に備えることを特徴とする請求項1または2記載のカメラ装置。
  4. 前記表示手段に表示された画像の一部をサンプル画像して選択する選択手段と、
    この選択手段により選択されたサンプル画像の特徴を抽出する特徴抽出手段と、
    この抽出手段により特徴を示す特徴データを記憶する記憶手段とを更に備え、
    前記設定手段は、前記記憶手段に記憶された特徴データを選択して前記特定の被写体の特徴を示す特徴データとして設定することを特徴とする請求項1、2または3記載のカメラ装置。
  5. 前記選択手段は、操作に応じて変位するカーソルを前記表示手段に表示し、このカーソルで指定される2点を対角とする領域の画像を前記サンプル画像として選択することを特徴とする請求項4記載のカメラ装置。
  6. 複数の撮影シーンの各々対応して撮影条件と前記サンプル画像、及び該サンプル画像の特徴データを記憶した記憶手段を更に備え、
    前記設定手段は、前記記憶手段に記憶されたサンプル画像の特徴データを選択して設定することを特徴とする請求項1、2または3記載のカメラ装置。
  7. 前記検出手段は、前記指定手段により指定された領域内の画像を、当該画像が有する輝度または色差情報に基づいて、輝度、色成分、色相、彩度、明度等の所定の特徴を有する領域毎に分割し、この分割した各領域を前記特徴を抽出すべき画像部分として検出することを特徴とする請求項1、2または3記載のカメラ装置。
  8. 前記計数手段により計数された前記画像部分の個数に基づき、当該カメラ装置の撮影動作を制御する撮影制御手段を更に備えることを特徴とする請求項1から7にいずれか記載のカメラ装置。
  9. 複数の撮影シーンの各々対応して撮影条件を記憶した記憶手段と、
    前記計数手段により計数された前記画像部分の個数に基づき、前記複数の撮影シーンのいずれかを選択する選択手段と、
    この選択手段により選択された撮影シーンに対応して前記記憶手段に記憶されている前記撮影条件に基づき、当該カメラ装置の撮影動作を制御する撮影制御手段を更に備えることを特徴とする請求項3記載のカメラ装置。
  10. 撮影者の指示操作に基づき、前記複数の撮影シーンのいずれかを選択する指示選択手段を備え、
    前記撮影制御手段は、前記指示選択手段により撮影シーンが選択された場合には、該撮影シーンに対応して前記記憶手段に記憶されている前記撮影条件に基づき、当該カメラ装置の撮影動作を制御することを特徴とする請求項9記載のカメラ装置。
  11. 前記撮影制御手段は、当該カメラ装置の合焦動作、被写界深度、露出条件、フィルタ処理の少なくとも一つを制御することを特徴とする請求項7または8記載のカメラ装置。
  12. 被写体を結像させる結像手段と、この結像手段により結像される画像を表示する表示手段とを備えるカメラ装置が有するコンピュータを、
    比較対照となる特定の被写体の特徴を示す特徴データを設定する設定手段と、
    前記表示手段の表示領域内において任意の領域を指定する指定手段と、
    この指定手段により指定された領域内の画像から、比較対象となる複数の画像部分を抽出する抽出手段と、
    この抽出手段により抽出された各画像部分が有する特徴と前記設定手段により設定された特徴データが示す特徴とを比較し、類似度が所定以上であるか否かを識別する識別手段と、
    この識別手段により類似度が所定以上と識別された画像部分の個数を計数する計数手段と
    して機能させることを特徴とするカメラ制御プログラム。
JP2006026481A 2006-02-03 2006-02-03 カメラ装置及びカメラ制御プログラム Expired - Fee Related JP4894278B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006026481A JP4894278B2 (ja) 2006-02-03 2006-02-03 カメラ装置及びカメラ制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006026481A JP4894278B2 (ja) 2006-02-03 2006-02-03 カメラ装置及びカメラ制御プログラム

Publications (2)

Publication Number Publication Date
JP2007208757A true JP2007208757A (ja) 2007-08-16
JP4894278B2 JP4894278B2 (ja) 2012-03-14

Family

ID=38487794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006026481A Expired - Fee Related JP4894278B2 (ja) 2006-02-03 2006-02-03 カメラ装置及びカメラ制御プログラム

Country Status (1)

Country Link
JP (1) JP4894278B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011289A (ja) * 2006-06-30 2008-01-17 Sanyo Electric Co Ltd デジタルカメラ
JP2009071676A (ja) * 2007-09-14 2009-04-02 Casio Comput Co Ltd 撮像装置、撮像装置制御プログラム及び撮像装置制御方法
JP2009086928A (ja) * 2007-09-28 2009-04-23 Toshiba Information Systems (Japan) Corp データ処理装置及びデータ処理方法
JP2009124208A (ja) * 2007-11-12 2009-06-04 Murata Mach Ltd 画像編集装置
JP2009156888A (ja) * 2007-12-25 2009-07-16 Sanyo Electric Co Ltd 音声補正装置及びそれを備えた撮像装置並びに音声補正方法
JP2009159524A (ja) * 2007-12-27 2009-07-16 Casio Comput Co Ltd 撮像装置、撮像制御方法及びプログラム
JP2010245923A (ja) * 2009-04-08 2010-10-28 Nikon Corp 被写体追尾装置、およびカメラ
JP2011027846A (ja) * 2009-07-22 2011-02-10 Fujifilm Corp Af枠自動追尾システム
JP2013149034A (ja) * 2012-01-18 2013-08-01 Canon Inc 画像表示装置、画像表示方法及びプログラム
JP2013206034A (ja) * 2012-03-28 2013-10-07 Fujitsu Ltd 情報処理装置、画像処理方法およびプログラム
JP2017219984A (ja) * 2016-06-07 2017-12-14 大日本印刷株式会社 画像検索システム、画像辞書生成システム、画像処理システム及びプログラム
CN109508626A (zh) * 2018-09-12 2019-03-22 深圳市乐视环球科技有限公司 一种自动记录观影人数的方法和装置
JP2020101996A (ja) * 2018-12-21 2020-07-02 東京エレクトロンデバイス株式会社 物品計数装置、物品計数方法およびプログラム
JP2023039286A (ja) * 2021-09-08 2023-03-20 ソフトバンク株式会社 判定装置、プログラム、及び判定方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256477A (ja) * 2000-03-13 2001-09-21 Ecchandesu:Kk 情報収集装置
JP2001357404A (ja) * 2000-06-14 2001-12-26 Minolta Co Ltd 画像抽出装置
JP2003092699A (ja) * 2001-09-17 2003-03-28 Ricoh Co Ltd デジタルカメラ撮像装置
JP2003131115A (ja) * 2001-10-19 2003-05-08 Minolta Co Ltd デジタルカメラ
JP2004227158A (ja) * 2003-01-21 2004-08-12 Omron Corp 情報提供装置および情報提供方法
JP2004261155A (ja) * 2003-03-04 2004-09-24 Ecore Kk 害虫の監視システム
JP2005294917A (ja) * 2004-03-31 2005-10-20 Fuji Photo Film Co Ltd 顔抽出を行うディジタルカメラ
JP2005293152A (ja) * 2004-03-31 2005-10-20 Seiwa Electric Mfg Co Ltd パターンマッチング方法及びパターンマッチング装置
JP2006005662A (ja) * 2004-06-17 2006-01-05 Nikon Corp 電子カメラ、及び電子カメラシステム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256477A (ja) * 2000-03-13 2001-09-21 Ecchandesu:Kk 情報収集装置
JP2001357404A (ja) * 2000-06-14 2001-12-26 Minolta Co Ltd 画像抽出装置
JP2003092699A (ja) * 2001-09-17 2003-03-28 Ricoh Co Ltd デジタルカメラ撮像装置
JP2003131115A (ja) * 2001-10-19 2003-05-08 Minolta Co Ltd デジタルカメラ
JP2004227158A (ja) * 2003-01-21 2004-08-12 Omron Corp 情報提供装置および情報提供方法
JP2004261155A (ja) * 2003-03-04 2004-09-24 Ecore Kk 害虫の監視システム
JP2005294917A (ja) * 2004-03-31 2005-10-20 Fuji Photo Film Co Ltd 顔抽出を行うディジタルカメラ
JP2005293152A (ja) * 2004-03-31 2005-10-20 Seiwa Electric Mfg Co Ltd パターンマッチング方法及びパターンマッチング装置
JP2006005662A (ja) * 2004-06-17 2006-01-05 Nikon Corp 電子カメラ、及び電子カメラシステム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4703498B2 (ja) * 2006-06-30 2011-06-15 三洋電機株式会社 デジタルカメラ
JP2008011289A (ja) * 2006-06-30 2008-01-17 Sanyo Electric Co Ltd デジタルカメラ
JP2009071676A (ja) * 2007-09-14 2009-04-02 Casio Comput Co Ltd 撮像装置、撮像装置制御プログラム及び撮像装置制御方法
JP2009086928A (ja) * 2007-09-28 2009-04-23 Toshiba Information Systems (Japan) Corp データ処理装置及びデータ処理方法
JP2009124208A (ja) * 2007-11-12 2009-06-04 Murata Mach Ltd 画像編集装置
JP2009156888A (ja) * 2007-12-25 2009-07-16 Sanyo Electric Co Ltd 音声補正装置及びそれを備えた撮像装置並びに音声補正方法
JP2009159524A (ja) * 2007-12-27 2009-07-16 Casio Comput Co Ltd 撮像装置、撮像制御方法及びプログラム
US8594371B2 (en) 2009-04-08 2013-11-26 Nikon Corporation Subject tracking device and camera
JP2010245923A (ja) * 2009-04-08 2010-10-28 Nikon Corp 被写体追尾装置、およびカメラ
JP2011027846A (ja) * 2009-07-22 2011-02-10 Fujifilm Corp Af枠自動追尾システム
US9294664B2 (en) 2012-01-18 2016-03-22 Canon Kabushiki Kaisha Image display apparatus that displays a menu corresponding to an object, image display method that displays a menu corresponding to an object, and storage medium thereof
JP2013149034A (ja) * 2012-01-18 2013-08-01 Canon Inc 画像表示装置、画像表示方法及びプログラム
JP2013206034A (ja) * 2012-03-28 2013-10-07 Fujitsu Ltd 情報処理装置、画像処理方法およびプログラム
JP2017219984A (ja) * 2016-06-07 2017-12-14 大日本印刷株式会社 画像検索システム、画像辞書生成システム、画像処理システム及びプログラム
CN109508626A (zh) * 2018-09-12 2019-03-22 深圳市乐视环球科技有限公司 一种自动记录观影人数的方法和装置
JP2020101996A (ja) * 2018-12-21 2020-07-02 東京エレクトロンデバイス株式会社 物品計数装置、物品計数方法およびプログラム
JP7267730B2 (ja) 2018-12-21 2023-05-02 東京エレクトロンデバイス株式会社 物品計数装置、物品計数方法およびプログラム
JP2023039286A (ja) * 2021-09-08 2023-03-20 ソフトバンク株式会社 判定装置、プログラム、及び判定方法
JP7303852B2 (ja) 2021-09-08 2023-07-05 ソフトバンク株式会社 判定装置、プログラム、及び判定方法

Also Published As

Publication number Publication date
JP4894278B2 (ja) 2012-03-14

Similar Documents

Publication Publication Date Title
JP4894278B2 (ja) カメラ装置及びカメラ制御プログラム
EP1522952B1 (en) Digital camera
JP4264663B2 (ja) 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP4196714B2 (ja) デジタルカメラ
JP4709147B2 (ja) デジタル画像から赤目現象を除去するシステム及びその方法
US7564486B2 (en) Image sensing apparatus with feature extraction mechanism and its control method
US8111946B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP3684017B2 (ja) 画像処理装置及び方法
JP2000350123A (ja) 画像選択装置、カメラ、画像選択方法及び記録媒体
US8760561B2 (en) Image capture for spectral profiling of objects in a scene
JP2007088814A (ja) 撮像装置、画像記録装置および撮像制御プログラム
JP2004320286A (ja) デジタルカメラ
JP2004317699A (ja) デジタルカメラ
JP2005086516A (ja) 撮像装置、印刷装置、画像処理装置およびプログラム
JP3760846B2 (ja) 被写体抽出装置及び撮影装置
JP2019106045A (ja) 画像処理装置、方法及びプログラム
JP4053764B2 (ja) 被写体抽出装置及び撮影装置
JP2004320285A (ja) デジタルカメラ
JP2004005384A (ja) 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置
JP2002150287A (ja) 画像検出装置、画像検出方法、ディジタルカメラおよびプリンタ
CN109729259B (zh) 图像处理装置、其方法、其系统以及计算机可读介质
JP2008059534A (ja) 画像トリミング装置、画像トリミング方法およびそのプログラム
JP4726251B2 (ja) 撮像装置及び画像処理方法
JP5044472B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP2006074498A (ja) 画像処理装置及び撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111212

R150 Certificate of patent or registration of utility model

Ref document number: 4894278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees