JP2008011316A - カメラ装置及びカメラ装置制御プログラム - Google Patents

カメラ装置及びカメラ装置制御プログラム Download PDF

Info

Publication number
JP2008011316A
JP2008011316A JP2006181004A JP2006181004A JP2008011316A JP 2008011316 A JP2008011316 A JP 2008011316A JP 2006181004 A JP2006181004 A JP 2006181004A JP 2006181004 A JP2006181004 A JP 2006181004A JP 2008011316 A JP2008011316 A JP 2008011316A
Authority
JP
Japan
Prior art keywords
image
feature
shooting
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006181004A
Other languages
English (en)
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006181004A priority Critical patent/JP2008011316A/ja
Publication of JP2008011316A publication Critical patent/JP2008011316A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ユーザー補助機能を高めたカメラ装置を提供する。
【解決手段】被写体像の画像データから所定の特徴量を抽出してメモリーに記憶する(S125)。また、外部メモリー媒体に記録済の画像データを順次読み出し(S126)。この読み出された画像データから所定の特徴量又は特徴記述データを抽出して、記録する(S127)。このS127で記録した画像データの特徴量と、前記S125で記録した被写体像の特徴量とを比較し、類似度を算出する(S128)。この算出した類似度が所定値より大きいか否かを判断し(S129)、以下のS130〜S134により、被写体像と類似する画像を取得する処理を実行する。そして、類似度が高い検索画像(N個)のうち、表示する画像(D個)のサムネイル画像を類似度が高い順にファインダー29に表示する(S138)。
【選択図】図5

Description

本発明は、ユーザーに対する撮影補助機能を備えたカメラ装置及びカメラ装置制御プログラムに関する。
従来、撮影時において撮影者を補助する機能を備えたカメラが種々提案されるに至っている。例えば、被写体の構図を設定するに際して、ユーザーが当該カメラに記録されているいずれかの画像を選択すると、当該選択画像がスルー画像に重畳して表示される。したがって、ユーザーはこの重畳表示される選択画像の構図を参照しながら、撮影すべき被写体の構図を決定することができる(特許文献1参照)。
また、撮影時に画像とともにそのヘッダー情報として、画像の撮影時における当該カメラに設定されていた撮影条件を記憶する。そして、撮影時にユーザーが当該カメラに記録されているいずれかの画像を選択すると、当該選択画像のヘッダー情報が再生されてこのヘッダー情報に含まれている撮影条件が当該カメラに設定される。したがって、ユーザーは撮影条件設定操作を行わずとも、選択画像の撮影時と同様の撮影条件で撮影を行うことができる(特許文献2参照)。
特開平8−294025号公報 特開平8−88790号公報
しかしながら、前者にあっては記録された複数の画像の中から、意図する構図の画像をユーザー自らが選択しなければならず、後者にあっても今回の設定すべき撮影条件と同様の撮影条件で撮影されたであろう画像をユーザー自らが選択しなければならない。したがってユーザは、既に記録されている多数の画像の中から、いずれかの画像を選択する煩雑な作業を強いられるばかりでなく、構図や撮影条件に関して最も適切な画像を選択する困難な作業が強いられることとなる。よって、このようにユーザーに煩雑あるいは困難な画像選択作業が強いられる結果、ユーザー補助機能としては、未だ満足できるものではなかった。
本発明は、かかる従来の課題に鑑みてなされたものであり、ユーザー補助機能を高めたカメラ装置及びカメラ装置制御プログラムを提供することを目的とする。
前記課題を解決するために請求項1記載の発明に係るカメラ装置は、被写体を撮像する撮像手段と、表示手段と、前記撮像手段により撮像される被写体像をスルー画像として前記表示手段に表示させる第1の表示制御手段と、
この第1の表示制御手段により前記表示手段に表示される被写体像に関連する関連画像を取得する取得手段と、この取得手段により取得された前記関連画像を、前記第1の表示制御手段により表示されるスルー画像と共に前記表示手段に表示させる第2の表示制御手段とを備える。
また、請求項2記載の発明に係るカメラ装置は、前記第1の表示制御手段は、前記スルー画像を前記表示手段の所定領域に表示させる手段を含み、前記第2の表示制御手段は、前記関連画像を前記表示手段の前記所定領域とは異なる領域に表示させる手段を含む。
また、請求項3記載の発明に係るカメラ装置は、前記取得手段は、前記表示手段の所定領域内に表示される被写体像に基づき、該被写体像に関連する関連画像を取得する。
また、請求項4記載の発明に係るカメラ装置は、前記取得手段は、所定のキー操作がなされた時点において表示手段に表示された被写体像に基づき、該被写体像に関連する関連画像を取得する。
また、請求項5記載の発明に係るカメラ装置は、前記取得手段は、前記第1の表示制御手段により前記表示手段に表示される被写体像からその特徴を抽出する特徴抽出手段と、この特徴抽出手段により抽出された特徴に基づき、所定の画像記憶手段から前記類似画像を検索する検索手段とを備え、前記検索手段により検索された類似画像を前記関連画像として取得する。
また、請求項6記載の発明に係るカメラ装置は、前記特徴抽出手段は、前記表示手段に表示される被写体像からその特徴を抽出するとともに、前記所定の画像記憶手段に記憶されている記憶画像からその特徴を抽出し、前記検索手段は、前記被写体像から抽出した特徴と前記記憶画像から抽出した特徴とを比較し、この比較結果に基づき、前記画像記憶手段に記憶されている記憶画像から前記類似画像を検索する。
また、請求項7記載の発明に係るカメラ装置は、前記特徴抽出手段は、前記被写体像における所定領域又は背景領域の代表色の特徴、色分布の特徴、輪郭形状の特徴、所定領域におけるテクスチャーの特徴のいずれかを抽出して、この抽出した特徴を記述する特徴記述データを生成し、前記検索手段は、前記特徴記述データに基づき、前記類似画像を検索する。
また、請求項8記載の発明に係るカメラ装置は、前記所定の画像記憶手段は、当該カメラ装置に固定的に設けられ前記撮像手段により撮像された画像を記憶する第1の記憶手段、又は当該カメラ装置に着脱自在に設けられ前記撮像手段により撮像された画像を記録する第2の記憶手段、又は外部に設けられ通信により接続可能な第3の記憶手段を含む。
また、請求項9記載の発明に係るカメラ装置は、前記取得手段は、前記関連画像として複数の類似画像を取得し、前記第2の表示制御手段は、前記複数の類似画像を前記表示手段に同時表示させ、又は複数の類似画像を切り換え表示させる。
また、請求項10記載の発明に係るカメラ装置は、前記第2の表示制御手段は、前記複数の類似画像を類似度の高い順に表示させる。
また、請求項11記載の発明に係るカメラ装置は、前記取得手段は、撮影条件が付随して記憶された画像を前記関連画像として取得し、この取得手段により前記関連画像として取得された前記画像に付随する撮影条件を、当該カメラ装置の撮影条件として設定する撮影条件設定手段を備える。
また、請求項12記載の発明に係るカメラ装置は、被写体を撮像する撮像手段と、表示手段と、前記撮像手段により撮像される被写体像をスルー画像として前記表示手段に表示させる表示制御手段と、この表示制御手段により前記表示手段に表示される被写体像、又は撮影日時、季節等の撮影日時や、撮影場所の緯度、経度、高度、地名等の撮影位置、等の撮影情報に基づき、各々撮影時の撮影条件が付随して記憶された画像から前記撮影条件を取得する取得手段と、この取得手段により取得された前記撮影条件を当該カメラ装置の撮影条件として設定する撮影条件設定手段とを備える。
また、請求項13記載の発明に係るカメラ装置は、前記取得手段は、前記表示手段に表示される被写体像に類似する類似画像を複数取得し、この取得手段により取得された複数の類似画像からいずれかを選択する選択手段を更に備え、前記撮影条件設定手段は、前記選択手段により選択された類似画像に付随する前記撮影条件を当該カメラ装置の撮影条件として設定する。
また、請求項14記載の発明に係るカメラ装置は、前記取得手段は、画像自体を比較してその類似度を算出し、この算出した類似度に基づき前記被写体像に類似する類似画像を前記関連画像として取得する。
また、請求項15記載の発明に係るカメラ装置は、前記取得手段は、取得対象とする画像に付随して記憶されている撮影日時、季節等の撮影日時や、撮影場所の緯度、経度、高度、地名等の撮影位置、等の撮影情報と前記被写体像の撮影時における撮影情報とを比較し、その比較結果に基づき前記被写体像に類似する類似画像を前記関連画像として取得する。
また、請求項16記載の発明に係るカメラ装置は、前記取得手段は、類語を記憶した類語記憶手段と、前記表示手段に表示された被写体像から当該画像自体の特徴を示すキーワード、又は取得対象とする画像に付随して記憶されている撮影日時、季節等の撮影日時や、撮影場所の緯度、経度、高度、地名等の撮影位置、等の撮影情報を示すキーワードを生成するキーワード生成手段と、このキーワード生成手段により生成されたキーワードに関連性の高い類語を前記類語記憶手段から抽出する類語抽出手段と、この類語抽出手段により抽出された類語に基づき、所定の画像記憶手段から前記類似画像を前記関連画像として検索する検索手段とを備える。
また、請求項17記載の発明に係るカメラ装置は、前記撮像手段により撮像された被写体像を操作に応答して記憶する画像記憶手段と、この画像記憶手段に前記被写体像を記憶する際に当該カメラに設定されている撮影条件を検出する検出手段と、この検出手段により検出された前記撮影条件を前記被写体画像に対応させて前記画像記憶手段に記憶させる記憶制御手段とを備える。
また、請求項18記載の発明に係るカメラ装置制御プログラムは、被写体を撮像する撮像手段と表示手段とを備えるカメラ装置が有するコンピュータを、前記撮像手段により撮像される被写体像をスルー画像として前記表示手段に表示させる第1の表示制御手段と、この第1の表示制御手段により前記表示手段に表示される被写体像に関連する関連画像を取得する取得手段と、この取得手段により取得された前記関連画像を、前記第1の表示制御手段により表示されるスルー画像と共に前記表示手段に表示させる第2の表示制御手段として機能させる。
また、請求項19記載の発明にカメラ装置制御プログラムは、被写体を撮像する撮像手段と表示手段とを備えるカメラ装置が有するコンピュータを、前記撮像手段により撮像される被写体像をスルー画像として前記表示手段に表示させる表示制御手段と、この表示制御手段により前記表示手段に表示される被写体像、又は撮影日時、季節等の撮影日時や、撮影場所の緯度、経度、高度、地名等の撮影位置、等の撮影情報に基づき、各々撮影時の撮影条件が付随して記憶された画像から前記撮影条件を取得する取得手段と、この取得手段により取得された前記撮影条件を当該カメラ装置の撮影条件として設定する撮影条件設定手段として機能させる。
本発明によれば、カメラ装置が有する表示手段に、被写体像がスルー画像として表示されるとともに、この被写体像に関連する関連画像が自動的に表示されることから、複数の画像の中から適切な画像をユーザー自らが選択する必要はない。
また、本発明によれば、撮影時の撮影条件が付随して記憶された画像から前記撮影条件が自動的に取得されて、この取得された撮影条件が当該カメラ装置の撮影条件として設定されることから、複数の画像の中から適切な画像をユーザー自らが選択する必要はない。
よって、ユーザーを煩雑あるいは困難な画像選択作業から解放することができ、ユーザー補助機能を高めることができる。
以下、本発明の一実施の形態を図に従って説明する。
(第1の実施の形態)
図1(A)は各実施の形態に共通するデジタルカメラ1の正面図、(B)は背面図、(C)は側面透視図である。このデジタルカメラ1の本体2には、その上面部に半押し機能を備えたレリーズ釦(シャッタースイッチ)3と電源スイッチ4とが配置されており、正面部にはグリップ部5、ストロボ6及び撮像レンズ部の受光窓7が配置されている。また、背面部には、モード切替スイッチ8、ズーム操作キー9、カーソルキー10、決定/OKキー11、DISPキー12、メニューキー13及び電子ファインダーとしても機能するLCDからなる表示部14が配置されているとともに、メモリー媒体と電池とを収納するメモリー媒体/電池収納部15が設けられている。また、回動式ミラー18、レンズ群19及びCCD等で構成される電子撮像センサ20等が配置されている。
なお、表示部14は、後述するフローチャートに示す処理により、被写体する画像表示部14aと検索画像の表示部14bとして機能する。また、前記レリーズ釦3は、半押しを検知する機能と全押しを検知する機能とを備えている。
なお、後述するフローチャートにおいて説明する「類似画像検索機能」のON、OFFは、カーソルキー10、決定/OKキー11、DISPキー12、メニューキー13を適宜操作することによりなされる。
図2は、デジタルカメラ1の概略的回路構成を示すブロック図である。このデジタルカメラ1は、ユーザーにより操作される操作入力手段101を備え、この操作入力手段101は主制御手段102に接続されている。この主制御手段102は、撮影制御手段103を制御するものであって、撮影制御手段103は撮影条件設定データ104に基づき、光学系105を駆動する光学系駆動部106、シャッター及び絞り107を駆動するシャッター/絞り駆動部108、電子撮像手段109、及びこの電子撮像手段109からの信号を処理する映像信号処理手段110を制御する。この映像信号処理手段110の処理により得られた画像信号は、画像バッファメモリー111に一時的に記憶された後、符号化手段112により符号化される。この符号化された画像データは、送信手段113を介して外部の画像サーバー装置114に送信される一方、メモリー書込手段115により画像メモリー媒体116に画像データ116aとして記録されることとなる。また、この撮影時における撮影制御手段103の撮影情報117も、符号化手段112により符号化され、メモリー書込手段115により、画像メモリー媒体116に撮影情報116bとして記録される。
他方、受信手段118により、前記サーバー装置114から画像データが受信される。復号手段119は、メモリー読出手段120により読み出される画像データ116a、撮影情報116b及び特徴データ116c、及び前記受信手段118により受信された画像データを復号化する。この復号化された画像データは、画像データメモリー121に記憶されるとともに、表示制御手段122に入力され、ファインダー表示手段123において、複数の類似画像123aとして表示される。
一方、画像バッファメモリー111から出力された被写体スルー映像は、特徴抽出手段124と前記表示制御手段122とに入力され、ファインダー表示手段123において、被写体画像123bとして表示されるとともに、特徴抽出手段124にて特徴データが抽出される。また、前記画像データメモリー121から出力された画像データ116a及び復号手段119から出力された撮影情報116bと特徴データ116は、特徴抽出手段125に与えられる。
特徴比較/画像検索手段126は、特徴注出手段124が抽出した被写体スルー映像の特徴データと、特徴抽出手段125が抽出した記録画像の特徴データとを比較しつつ、メモリー読出手段120に画像の読み出しを指示し、被写体スルー映像と類似する画像を検索する。この検索された画像データ116aが前述のように、表示制御手段122に入力され、これにより、ファインダー表示手段123において、複数の類似画像123aとして表示される。この状態において、ユーザファインダー表示手段123に表示されている「類似画像1」「類似画像2」「類似画像3」を見て、「類似画像1」と同様の撮影条件で撮影したいと思った場合には、ユーザが操作入力手段101にて、「類似画像1」を選択する。すると、この「類似画像1」の撮影情報116bが撮影条件設定手段127により、前記撮影制御手段103に撮影条件設定データ104として設定する。したがって、前述のように、撮影制御手段103は撮影条件設定データ104に基づき、光学系駆動部106、シャッター/絞り駆動部108、電子撮像手段109、及び映像信号処理手段110を制御することにより、選択した「類似画像1」と同一の撮影条件で撮影を行うことができる。
図3は、前記デジタルカメラ1の具体的回路構成を示すブロック図である。このデジタルカメラ1は、AE、AWB、AF等の一般的な機能を有するものであり、ズームレンズ、フォーカスレンズで構成される前記レンズ群19を有している。このレンズ群19の光軸上には電子撮像センサ20が配置されており、前記レンズ群19は、モーター等を有する駆動部21によって駆動される。
このデジタルカメラ1全体を制御する制御回路22は、CPU及びその周辺回路で構成されており、プログラムメモリー23に格納されているプログラムに基づき、データメモリー24をワークエリアとして使用しつつ各部を制御する。この制御回路22には、撮影制御部25が接続されている。撮影制御部25は、制御回路22が発生するタイミング信号に基づき、電子撮像センサ20を駆動するとともに、該制御回路22により与えられる撮影条件設定データ25aと、センサ33よりセンサ計測回路34を介して入力される測光データや測距データ等の各種センサ計測値とに基づき、前記駆動部21及び映像信号処理部26を制御する。また、撮影制御部25は、ストロボ40を駆動するストロボ駆動回路41を制御する。
前記電子撮像センサ20の受光面には、レンズ群19によって被写体が結像される。電子撮像センサ20は、撮影制御部25によって駆動され、被写体の光学像に応じたアナログの撮像信号を映像信号処理部26へ出力する。映像信号処理部26は、電子撮像センサ20の出力信号に含まれるノイズを相関二重サンプリングによって除去するCDS回路や、ノイズが除去された撮像信号をデジタル信号に変換するA/D変換器等から有するとともに、入力した撮像信号に対しペデスタルクランプ等の処理を施し、それを輝度(Y)信号及び色差(UV)信号に変換するとともに、オートホワイトバランス、輪郭強調、画素補間などの画品質向上のためのデジタル信号処理を行う。映像信号処理部26で変換されたYUVデータは順次画像メモリー27に格納されるとともに、RECスルー・モードでは1フレーム分のデータ(画像データ)が蓄積される毎にビデオ信号に変換され、表示制御部28を介して前記表示部14へ送られてスルー映像として画面表示される。したがって、このとき表示部14は電子ファインダー29として機能する。なお、表示部14を電子ファインダー29として機能させる際には、その中央部にフォーカス枠(図6、7のフォーカス枠60参照、以下同様。)を表示させ、このフォーカス枠内のをAFエリアとして、AFがなされる。
そして、撮影モードにおいては、前記レリーズ釦3に対する操作をトリガとして、制御回路22は、電子撮像センサ20、撮影制御部25、及び映像信号処理部26に対してスルー画撮影モードから撮影モードへの切り替えを指示し、この撮影モードによる撮影処理により得られ画像メモリー27に一時記憶された画像データは、圧縮符号化・伸張復号部30で圧縮及び符号化され、所定のフォーマットの静止画ファイルとして、外部メモリーインタフェース39を介して外部メモリー媒体31(又は後述するHDD記憶装置46の磁気ディスク48)に記録される。この外部メモリー媒体31(又は磁気ディスク48)に記録された静止画ファイルは、PLAY・モードにおいてユーザーの選択操作に応じて圧縮符号化・伸張復号部30に読み出されて伸張及び復号化され、YUVデータとしてに展開された後、表示部14に表示される。したがって、このとき表示部14は画像モニター32として機能する。
前記プログラムメモリー23には、制御回路22に前記各部を制御させるための各種のプログラム、例えばAE、AF、AWB制御用のプログラムや、データ通信用プログラム、さらには、後述するフローチャートに示す処理を実行するためのプログラム等の各種のプログラムが格納されている。また、制御回路22には、操作入力部35が入力回路36を介して接続されている。操作入力部35には、前記レリーズ釦3や電源スイッチ4等の図1に示したスイッチやキー群等が設けられている。
また、このデジタルカメラ1は、外部入出力インタフェース38を介して制御回路22に接続された外部入出力端子37を備えている。この外部入出力端子37には、PC(パーソナルコンピュータ)70等の外部機器又は通信装置を接続することが可能である。PC70は、ゲートウェイGW及びインターネット71を介して、サーバー装置72に接続可能であり、サーバー装置72は画像データを格納する画像データベース73接続されている。一方、HDD記憶装置46は、HDD・IF47を介して制御回路22に接続されている。HDD記憶装置46は、前記磁気ディスク48を有するとともに、モータ49、モータドライバ50、マイコン部51、VCモータ52、ヘッドアンプ53、リード/ライトチャンネル54、HDD制御部55等を有している。
また、制御回路22には、特徴抽出/画像検索用データメモリー56が特徴抽出/画像検索処理部57を介して接続されている。後述するように、制御回路22は、特徴抽出/画像検索処理部57を制御して、前記電子撮像センサ20により取り込まれた画像の特徴を抽出するとともに認識し、特徴抽出/画像検索用データメモリー56は、これら抽出及び認識された画像の特徴を記述した特徴データ(特徴記述データ)を記憶する。
図4及び図5は、本実施の形態の処理手順を示す一連フローチャートであり、制御回路22はプログラムメモリー23に格納されているプログラムに基づき、このフローチャートに従って処理を実行する。先ず、ユーザーによる操作入力部35での操作により、モード等を選択し(ステップS101)、この選択したモードが撮影モードであるか否かを判断する(ステップS102)。撮影モードでない場合には、設定モードであるか否かを判断し(ステップS103)、設定モードである場合には、撮影設定、画像検索設定、特徴抽出方法の設定などの設定処理へ移行する(ステップS104)。また、設定モードでもない場合には、再生モードなど、その他のモード処理へ移行する(ステップS105)。
一方、ステップS102での判断の結果、撮影モードが選択された場合には、ユーザーの操作に応じて、撮影条件等を設定する(ステップS106)。また、センサ計測処理を行って、センサ33からの出力信号に基づく測光、測距、WB処理を実行するとともに(ステップS107)、ズーム処理、AF処理を実行する(ステップS108)。
しかる後に、被写体スルー映像を電子ファインダー29に更新しつつ表示し(ステップS109)、レリーズ釦3が半押しされたか否か(又はAE、AFロック操作があった否か)を判断する(ステップS110)、レリーズ釦3が半押しされていない場合、及び半押しが解除された場合(又はAE、AFロックが解除された場合)には、AE、AFロックを解除して、Lock FLAGを「0」にリセットし(ステップS111)、その他の処理キー処理を実行して(ステップS112)、ステップS107に戻る。
また、ステップS110の判断がYESとなった場合には、AE、AFロック済であるか否か、つまりLock FLAG=1であるか否かを判断する(ステップS113)。この判断がYESである場合には、前記スルー映像において合焦すべき被写体を選択し(ステップS114)、測光、測距、WB処理、AE処理、AF処理を実行する(ステップS115)。また、AE、AFをロックして、Lock FLAGを「1」にセットする(ステップS116)。また、類似画像検索機能がONとなっている否かを判断し(ステップS117)、ONとなっている場合には、後述する図5のフローに進む。
類似画像検索機能がOFFとなっている場合には、レリーズ釦3が全押しされたか否か(又は撮影操作があったか否か)を判断し(ステップS118)、レリーズ釦3が全押しされるまで、ステップS109からの処理を繰り返す。そして、レリーズ釦3が押し操作されて撮影指示がなされたならば、前記ステップS106等で設定された撮影条件と、前記ステップS115で計測された測光値に従って撮影動作し(ステップS119)、電子撮像センサ20から取り込まれた画像データを符号化又は圧縮符号化する(ステップS121)。
さらに、この画像の撮影時における撮影条件を示す撮影条件情報、前記画像データにおける被写体の特徴データ等を所定の記述様式で符号化する(ステップS121)。そして、前記画像データとともに、この撮影条件情報、特徴データ等を外部メモリー媒体31(又は磁気ディスク48)に記録する(ステップS122)。しかる後に、撮影画像を電子ファインダー29にレビュー表示し(ステップS123)、リターンする。
他方、ステップS117での判断の結果、「類似画像検索機能」がONとなっている場合には、このステップS117から図5のステップS124に進み、被写体像のフレーム画像をデータメモリー24に記憶する(ステップS124)。次に、この記憶した被写体像の画像データから所定の特徴量を抽出してデータメモリー24に記憶する(ステップS125)。また、外部メモリー媒体31(又は磁気ディスク48)に記録済の画像データを順次読み出すか、サーバー装置70に記録済の画像データを順次受信する(ステップS126)。この読み出された(受信された)画像データから所定の特徴量又は特徴記述データを抽出して、データメモリー24に記録する(ステップS127)。
そして、このステップS127で記録した画像データの特徴量と、前記ステップS125で記録した被写体像の特徴量とを比較し、類似度を算出する(ステップS128)。この算出した類似度が所定値より大きいか否かを判断し(ステップS129)、類似度が所定値以下である場合には、ステップS130〜S132の処理を実行することなく、ステップS133に進む。類似度が所定値より大きい場合には、この時点までの検索済画像(ステップS126で読み出した画像)と比べ、類似度が上位N個に入るほど大きいか否かを判断する(ステップS130)。類似度が上位N個に入るほど大きくない場合には、ステップS131の処理を行うことなくステップS132に進む。また、類似度が上位N個に入るほど大きい場合には、類似度が大きい検索画像のファイル名と類似度を、上位N個まで順次更新して、データメモリー24に記憶する(ステップS131)。また、この時点までに検索された類似画像数S(ステップS129で類似度が所定値より大きいと判断された画像数S)を計数するとともに(ステップS132)、この時点までの比較処理済みの画像数P(ステップS126で読み出された画像数P)を計数する(ステップS133)。
次のステップS134においては、下記(1)〜(4)の少なくともいずれか1つあったか否かを判断する。
(1)最後の画像データか否か。
(2)検索終了操作があったか否か。
(3)検索された画像数S≧Smax(所定最大値)か否か。
(4)比較処理済みの画像数P≧Pmax(所定最大値)か否か。
このステップS134の判断がYESとなるまで、次の画像データを選択して(ステップS135)、ステップS126〜S134の処理を繰り返す。ステップS134の判断がYESとなったならば、1個以上の類似する有効画像(ステップS129の判断がYESとなった画像)が検索されたか否かを判断する(ステップS136)。類似する有効画像が検索されなかった場合には、ファインダー29に類似画像が見つからない旨を表示し、又はエラー表示を行う(ステップS137)。
また、1個以上の類似する有効画像が検索された場合には、類似度が高い検索画像(N個)のうち、表示する画像(D個)のサムネイル画像を類似度が高い順にファインダー29に表示する(ステップS138)。しがたって、ここのステップS138での処理により、例えばD=3であり、また3個以上の類似する有効画像が検索された場合には、図6に示すように、ファインダー29には、被写体像のスルー映像61とともに、類似度が高い順に類似画像(1)〜類似画像(3)が表示されることとなる。なお、同図に示すように、ファインダー29には、撮影モード、フラッシュ設定、ホワイトバランス設定、測光モード、露出補正設定、画像サイズ、画質、残り(撮影可能)枚数、電池容量、ズーム倍率、ヒストグラム、日付時刻等の撮影モードにおける撮影条件などのアイコン、情報表示を行い、類似画像(1)〜類似画像(3)のいずれかの近傍には、カーソル62を表示させる。また、例えばD=8であって、8個以上の類似する有効画像が検索された場合には、図7に示すように、ファインダー29には、被写体像のスルー映像61とともに、類似度が高い順に類似画像(1)〜類似画像(8)が表示されることとなる。なお、同図に示すように、各類似画像(1)〜類似画像(8)の近傍に画像ファイル名などの画像情報を表示するようにしてもよい。
次に、前記カーソル62を移動させるための操作があったか否かを判断し(ステップS139)、該操作があったならば、操作に応じて次の画像を選択し、該画像に対応する位置にカーソル62を表示させる(ステップS140)。また、カーソル62を、表示されている類似画像外に移動させる操作があった場合には、次に類似度が高い画像(D個)を表示する(ステップS141)。また、ステップS139での判断の結果、カーソル移動操作がなかった場合には、決定キー操作があったか否かを判断する(ステップS142)。決定キー操作があったならば、カーソル62により選択された類似画像を撮影条件設定の見本画像に決定する(ステップS143)。そして、この見本画像として決定した類似画像の画像データとともに記憶されている撮影条件情報に応じて、カメラの撮影条件を再設定する(ステップS144)。
この再設定に際しては、類似画像の画像データとともに記憶されている撮影条件情報をそのまま、撮影制御部25の撮影条件設定データ25aとして設定する。あるいは、前記ステップS106等で設定された撮影条件を前記撮影条件情報に基づき修正するようにしてもよい。
以上に説明したステップS137、S141、S144のいずれかの処理を行ったならば、前述した図4のステップS118に進む。したがって、ステップS144の処理が行われてステップS118に進んだ場合には、ユーザーはレリーズ釦3を半押してAEロック、AFロックの状態にして、見本画像を選択した状態にある。したがって、この選択した所望の見本画像の構図や被写体のポーズ等を参考にして、ファインダー29に表示されている被写体像のスルー映像61を見ながら、デジタルカメラ1の向きを調整して構図を決定したり、被写体のポーズを決定することができる。そして、ユーザーがレリーズ釦3を全押しすると、前述したステップS119〜S123の処理が実行され、ユーザーが前記見本画像を参考にして決定した構図や被写体のポーズからなる画像が記録されることとなる。
なお、本実施の形態においては、ステップS124において被写体像のフレーム画像をデータメモリー24に記憶し、この記憶した被写体像のフレーム画像を対象被写体画像としてステップS125以降の処理を行うようにしたが、ステップS124において、図6、7に示したフォーカス枠60内の画像のみをデータメモリー24に記憶し、この記憶したフォーカス枠60内の画像を対象被写体画像としてステップS125以降の処理を行うようにしてもよい。これにより、ユーザーがフォーカス枠60を位置させた所望の主要被写体に特定して、この特定した所望の主要被写体に対して類似する画像を検索することができる。
図8は、記録済みの撮影画像の中から、被写体像と類似する類似画像を検索する際に、特徴記述データを用いて検索する方法の概要を示すフローチャートである。画像メモリー(外部メモリー媒体31又はHDD記憶装置46の磁気ディスク48)内の画像データAに関しては、当該画像の特徴記述データが記録済みであるか否かを判断する(ステップS201)。記録済みでない場合には、当該対象画像の特徴抽出処理を行ってその特徴を示す記述データである特徴記述データを得る(ステップS202)。特徴記述データが記録済みである場合には、当該他像データに付属の特徴記述データを読み込む(ステップS203)。
一方、被写体像の映像から取り込んだ静止画像Bに関しては、当該被写体像の特徴抽出処理を行い(ステップS204)、この特徴抽出処理により代表色:緑、形状:ボール、テクスチャー:芝等の特徴データを得る(ステップS205)。次に、特徴データの比較処理(1)を実行して、画像データAの特徴記述データにおける代表色(代表色:白)と、静止画像Bの特徴データにおける代表色(代表色:緑)とを比較する(ステップS206)。この比較の結果、特徴データの比較処理(1)で用いた特徴データ1が一致するか否かを判断し(ステップS207)、一致しない場合には当該画像データを除外して(ステップS208)、画像メモリーから次の画像データを選択する。
一致する場合には、当該画像データを保持して(ステップS209)、特徴データの比較処理(2)を実行する(ステップS210)。そして、画像データAの特徴記述データにおける形状(形状:ボール)と、静止画像Bの特徴データにおける形状(形状:ボール)とを比較する。この比較の結果、特徴データの比較処理(2)で用いた特徴データ2が一致するか否かを判断し(ステップS211)、一致しない場合には当該画像データを除外して(ステップS212)、画像メモリーから次の画像データを選択する。
一致する場合には、当該画像データを保持して(ステップS213)、特徴データの比較処理(3)を実行する(ステップS214)。そして、画像データAの特徴記述データにおけるテクスチャー(テクスチャー:芝)と、静止画像Bの特徴データにおけるテクスチャー(テクスチャー:芝)とを比較する。この比較の結果、特徴データの比較処理(3)で用いた特徴データ3が一致するか否かを判断し(ステップS215)、一致しない場合には当該画像データを除外する(ステップS212)。一致する場合には、当該画像データを選択し(ステップS217)、これを検索された類似画像としてファインダー29に表示する(ステップS218)。
図9は、記録済みの撮影画像の中から、被写体像と類似する類似画像を検索する際に、画像データ自体を比較処理して類似画像を検索する検索処理の概要を示すフローチャートである。画像メモリー(外部メモリー媒体31又はHDD記憶装置46の磁気ディスク48)内の画像データAを、被写体像の映像から静止画像Bを各々取り込み、両画像の類似度の計算処理を実行する(ステップS301)。この計算処理結果に基づき、両画像の類似度は所定値以上であるか否かを判断し、所定値未満である場合には、当該画像データを除外して(ステップS303)、画像メモリーから次の画像データを選択する。両画像の類似度は所定値以上である場合には、当該画像データを選択し(ステップS304)、これを検索された類似画像としてファインダー29に表示する(ステップS305)。
前記図8に示したように、記録時に特徴記述データが記録されている画像データを用いる場合には、被写体像の特徴データと記録済みの画像の特徴データとを、テキストや数値データで照合あるいは比較計算すればよいので、処理が少なくなるので好ましい。この場合、電子撮像センサ20から取り込んだ被写体像の静止画像から所定の特徴量を抽出するとともに、記録済みの多数の画像データから順次自動選択された画像データ毎に、記録されている特徴記述データから読み出した該当する特徴量とを照合比較して、複数の所定の特徴量が全て又は最も多く一致する画像データを検索すればよい。検索結果の類似画像のサムネイルは、検索された順に、又は類似度の高い順にファインダー29の副画面部分に複数個ずつ表示させる。
他のカメラやPCなどから入力された画像などの、特徴記述データが記録されていない画像の場合には、改めて当該画像データをバッファメモリーなどに復号再生して、再生した画像から前記所定の特徴量の抽出処理を行う必要があり、処理時間がかかる。よって、他のカメラや外部機器から画像が入力された際や再生表示された際に、前述の特徴抽出処理を行っておくことが好ましい。
抽出する特徴量などが設定されていない場合には、図9に示したように、画像データ自体で比較処理して類似画像を検索する。被写体像から取り込んだフレーム画像全体又は主要被写体の領域画像と、記録されている画像とを、画像パターン同士、又はDCT(離散コサイン変換)計数など画像の符号化データ同士で、テンプレートマッチング処理(画像同士が最も一致する位置を算出)や、相関計算処理(相関係数や類似度を算出)を施して、類似度の高い画像を判断する。特徴記述データによる検索よりも処理量が増えるが、予め所定の直腸量を設定しておかなくてもよく、多様なシーンにも対応できる。
なお、特徴抽出や検索方法の設定モードにおいて、特徴抽出を行う場合の方法、特徴抽出する画像領域、抽出する特徴量、画像検索に用いる特徴量や特徴記述データなどを、ユーザーが予め選択してカスタム設定できるようにしてもよい。また、シーン別撮影プログラムモードなどで自動的に特徴抽出や画像検索する場合にも、あるいは、選択されたシーンや設定された撮影条件に応じて、最適な特徴抽出方法や特徴抽出領域、抽出特徴量などが自動的に選択されるように制御することが好ましい。画像の特徴抽出や検索に用いる特徴量としては、例えば、主要な被写体の代表色や輪郭形状、被写体や背景のテクスチャー、画像全体での色分布などを用いる。これらの特徴量毎に検索条件とする特徴量を選択したり、特徴量毎に検索情報とする(ON)か否(OFF)かを設定するモードなどでカスタム指定できるようにしてもよい。
図10は、本実施の形態における、画像から抽出した特徴データの記述例を示す図である。すなわち、撮影した主画像(1)から、その画像の特徴部分の部分画像(Still Region)(2)〜(8)を抽出する。そして、主画像(1)からは特徴データとして「類似:サッカー5」を抽出し、部分画像(2)からは特徴データとして「形:人間、代表色:Blue(ブルー)、類似:サッカー5」を抽出し、部分画像(3)からは特徴データとして「代表色:Green(グリーン)、テクスチャー:植物、類似:芝生」を抽出する。以下同様にして、部分画像(4)〜(8)からの各々図中に記載した特徴データを抽出する。また、撮影した主画像(10)から、その画像の特徴部分の部分画像(Still Region)(11)及び(12)を抽出する。そして、主画像(10)からは特徴データとして「類似:港3」を抽出し、部分画像(11)からは特徴データとして「形:人間、代表色:Blue(ブルー)、テクスチャー:海、類似:船1」を抽出する。
また、これら特徴データの記録(出力)は、ユーザー操作により選択された方法(記述用紙に従って、例えば、特徴データをDFCやEXIFなどの画像ファイルのヘッダ情報の拡張データとしても、あるいは、MPEG−7(ISO/IEC 15938)規格に準じたメタデータ記述ファイル、又は、SMPTE(Society of Motion Picture and Television Engineeers)規格、EBU(European Broadcasting Union)によるP/Meta規格、TV−Anytime(TV-Anytime Forum)規格、W3CによるSMIL(Syncronized Multimedia Integration Language)規格、あるいは、Dublin Core(Dublin Core Metadate Initiative)とRDF(W3C、Resource Description Framaework)によるXML構文、などの各種メタデータ記述用の規格や言語、あるいは、XML(W3C)などの汎用記述言語に準じた記述ファイル、あるいは、これらをバイナリデータ等に交換した記述データファイル等から、任意に選択して記録(出力)するようにできる。
図11において、(a)はMPEG−7による特徴データの記述例を示し、(b)はDublin CoreとRDFのXML構文による特徴データの記述例を示す。
マルチメディア用のメタデータ記述規格のMPEG−7(ISO/IEC 15938)の、MPEG−7Visual(ISO/IEC 15938-3)では、画像や映像データ、音声などの各種の特徴を記述できる記述子(Descriptor)と記述書式(Description Scheme)等も詳細に定義されている。例えば、色やテクスチャー、輪郭形状などの特徴を表すために以下のような記述子が用意されているので、これに準じて記述してもよい。
Color space(色空間を指定する記述子)、
Color quantization(色空間の量子化方法を指定する記述子)、
Dominant color(任意形状領域における代表色を表す記述子)、
Scaiable color(色特徴をHSV色空間におけるカラーヒストグラムで表 す記述子)、
Color layout(色の分布をDCT係数で表す記述子)、
Color structure(色の分布における偏りの程度を表す記述子)など、
Homegeneous texture(テクスチャーの特徴を、画像強度と周波数空 間上のエネルギー分布により表す記述子)、
Texture browsing(テクスチャーの特徴を、均一性、粒度、方向性の3 要素で表す)、
Edge histogram(エッジ特徴の分布をヒストグラムにより表す記述子)、
Region shape(領域の形状特徴を表す記述子)、
Contour shape(領域の閉輪郭線の形状特徴を表す記述子)、
また、従前から書誌情報のメタデータ記述法として用いられているDublin Coreでは、タイトル(title)、概要記述(description)、出版社(publisher)、作者(creator)、著作権(ights)、年月日(date)、種別(type)、様式(format)、・・・など15の基本属性(Dublin Core Metadata Element Set:DCMES)が規定されており、表記法は例えばXMLに準じたRDF(Resource Description framework)のスキーマなどを用いて記述する。各種メタデータ記述規格では、放送映像用やビットストリーム映像用、ネットワーク配信用など、用途別の規格によって記述子や記述スキーム等はそれぞれ異なるが、同様に、このような書誌情報の多くを記述できる。
図12は、外部メモリー媒体31(又は磁気ディスク48)に画像データを記録する際に、画像データに対応づけて、画像データのヘッダ部などに撮影条件情報や画像特徴データを合わせて記録する場合のデータファイルの構成例を示す図である。撮影条件情報や画像特徴記述データなどは、図示のように、EXIFJPEG画像データ等のヘッダ情報として画像データ毎に記録してもよいし、画像データファイルとは別に、複数画像の特徴情報を記述ファイルを別のファイル等にまとめて記録するようにしてもよい。
図13は、撮影条件(ステップS106、S119、S144)として設定される項目(撮影条件設定データ25a)の例を示す図である。前述のように、被写体像に類似する類似画像が検索され、ファインダー29に表示された類似画像の中から、ユーザーの操作により、一つの画像が選択されると、選択された類似画像の画像データに対応付けて記録されている撮影情報が読み出される。そして、該撮影情報に含まれる撮影条件が、今回の被写体を撮影する際の撮影条件として撮影制御部25に設定され、撮影制御部25はこの設定された撮影条件に従って各部を制御する。設定される撮影条件としは、同図に例示するように、EVシフト(露出補正)設定、ストロボ発光/消灯の設定、ホワイトバランス設定、ISO感度、測光方式やAF(自動焦点)方式の選択、フィルタ処理や、色強調、シャープネス補正、彩度補正などの各種画像補正機能のON/OFFなどの撮影条件、又はこれらの内から選択された撮影条件などである。
図14は、前記図5に示したフロー中の、特徴量を抽出する処理(ステップS127)の処理手順を示すサブルーチンであり、対象となる画像データを読み込んだ後、設定されている抽出すべき特徴量又は特徴抽出方法などの設定データを読み込み、それに応じて、設定されている特徴データを抽出して特徴データ記述ファイル出力すものである。
すなわち、対象画像データファイルを読み込み(ステップS401)、特徴抽出処理の設定データを読み込む(ステップS402)。次に、抽出する特徴はオートに設定されているか否かを判断し(ステップS403)、オートに設定されていない場合には、設定データに基づいて、特徴抽出する特徴の種類を設定する(ステップS404)。また、オードに設定されている場合には、当該画像の撮影情報を読み込み(ステップS405)、撮影モード又は撮影条件に基づいて、抽出する特徴の種類を選択する(ステップS406)。
そして、このステップS406又は前記ステップS404に続き、抽出する特徴の種別に応じて、前処理、及び、特徴抽出手段を選択した後(ステップS407)、前処理1(ステップS408)及び前処理2(ステップS409)を実行する。前処理1においては、画像強調、又は、鮮鋭化などを行い、前処理2においては、2値化、又は、正規化、回転、座標変換、細線化、膨脹収縮処理、などを行う。
しかる後に、特徴抽出処理(色領域の抽出)(ステップS410)、特徴抽出処理(輪郭形状の特徴抽出)(ステップS412)、特徴抽出処理(テクスチャーの特徴抽出)(ステップS414)、特徴抽出処理(位置・配置の特徴抽出)(ステップS416)、・・・特徴抽出処理(動きの抽出)(ステップS418)等を実行する。そして、特徴抽出処理(色領域の抽出)(ステップS410)を実行した場合には、代表色、色分布、RGBヒストグラム、DCT係数などの特徴記述データを作成する(ステップS411)。特徴抽出処理(輪郭形状の特徴抽出)(ステップS412)を実行した場合には、代形状評価値、フーリエ記述子、パワースペクトルなどの特徴記述データを作成する(ステップS413)。特徴抽出処理(テクスチャーの特徴抽出)(ステップS414)を実行した場合には、輝度ヒストグラム、フーリエスペクトル、共起行列、自己関数などの特徴記述データを作成する(ステップS415)。特徴抽出処理(位置・配置の特徴抽出)(ステップS416)を実行した場合には、位置座標、DCT係数など特徴記述データを作成する(ステップS417)。特徴抽出処理(動きの抽出)(ステップS418)を実行した場合には、動きスペクトル、強度分布などの特徴記述データを作成する(ステップS419)。
前記色の特徴抽出では、当該他像の色データに基づいて、RGBやHSV値などの色差ヒストグラムや色分布、あるいは、色差成分のDCT変換後のDCT係数などを求め、特徴量とする。輪郭形状の特徴抽出では、輪郭図形の外周輪郭線に沿って偏角関数や位置座標の列を一次元データに変換した後、P型フーリエ記述子(後述)等のフーリエ記述子や、各種の形状評価値などを求め、形状の特徴量とする。テクスチャーの特徴抽出では、当該画像データの輝度ヒストグラム分布やフーリエ変換スペクトルなどを求めたり、あるいは、後述するように輝度の共起行列や複数のマスクを用いる高次局所自己相関関数による相関行列等を求め、テクスチャーの特徴量とする。同様に、主要被写体の配置や配色などの特徴抽出には、輝度情報や色差情報の位置座標やDCT変換により周波数空間に変換した場合のDCT係数などを求め、配置や配色の特徴量とする。動きの特徴抽出では、動きベクトルやフーリエ変換、DCT変換による強度分布などを特徴量とすることができる。その他、抽出する特徴量に応じて、所定の輝度や色相等の領域の抽出処理、所定のフィルタ処理などを行ってもよい。
次に、認識処理をするか否かを判断し(ステップS420)、認識処理をする場合には、認識対象のテンプレートデータを読み込む(ステップS421)。次の認識処理により、前記読み込んだテンプレートデータとのテンプレートマッチング、又は、相関度、類似度、類似距離、差分我の算出などを行い(ステップS422)。つまり、被写体の識別や類似度の判定、人間顔領域の識別などを必要とする場合には、識別したいテンプレートとなる参照画像データやその特徴データを読み込み、対象画像と参照画像とのテンプレートマッチング、又は、各々の特徴データを比較して、相関度、類似度、類似距離などを算出する。そして、前記ステップS410〜S419の処理により、抽出されたデータ、又は、前記ステップS422の処理による認識結果を出力する(ステップS423)。
次に、上記において用いる特徴抽出方の前処理の具体例として、1)鮮鋭化又は輪郭強調処理、2)2値化、平均化、輝度変換処理、3)膨脹収縮又は細線化処理について、また、特徴抽出の本処理の具体例として、4)輪郭抽出と形状種別の特徴抽出、5)代表色特徴の抽出、6)色分布特徴の抽出、7)色領域の抽出、8)テクスチャー特徴の抽出につて説明する。無論、その他の特徴抽出処理方法や、その他の特徴量を用いて構成するようにしてもよい。
1)先鋭化又は輪郭強調処理
被写体像の輪郭形状や外形パターン、面積などを特徴データに利用する場合には、特徴抽出したい画像データの輝度値等を、画素毎に輪郭強調やエッジ検出用のフィルタ演算等を行って、輪郭強調や外形抽出した画像に変換してから、特徴データ等を抽出する。例えば、一時微分フィルタ、又は二次微分フィルタ処理を用いて、画像の鮮鋭化処理、エッジ(輪郭)抽出処理を行うことができる。
一般に、階調が変化する部分のエッジがボケた画像f(i,j)を、
Δxf=f(i+j,j)−j(i−1,j)、
Δyf=f(i+j,j)−j(i−1,j)、
g(i,j)=√{(Δxf)2+(Δyf)2}、
又は、g(i,j)=|Δxf|+|Δyf|、
等の演算により、1次部分や勾配(Gradient)を求めると、階調が変化する勾配部分や輪郭を抽出できる。
あるいは、
∇2f(i,j)=∂2f/∂x2+∂2f/∂y2、又は、
∇2f(i,j)=f(i+1,j)+f(i−1,j)+f(i,j−1)+f(i,j −1)−4f(i,j)
等の演算により、さらに微分する2次微分(Laplacian)処理を施し、この結果を原画像データから差し引くと、エッジ部分の高周波成分を強調した画像を合成でき、ボケたエッジや輪郭を強調することができる。エッジや輪郭の強調処理をソフトウエア処理で御構内には、「Prewittフィルタ」「Sobeiフィルタ」や「Kirschフィルタ」「Robertsフィルタ」等の1次微分の空間フィルタ演算子(オペレータ)、又は、「Laplaciantフィルタ」等の2次微分の空間フィルタ演算子等を用いることができる。
2)2値化、平均化処理、輝度変換処理
また、輝度ヒストグラムの変換処理などにより、中間階調など画像強調を行う例、2値化処理や所定の輝度領域の抽出などができる。被写体像の輝度値や色差値の分布パターンなどを特徴データとして利用する場合に、画像データの輝度分布(ヒストグラム)や色差成分毎のヒストグラムを求め、入力輝度と出力輝度の変換関数などを設定して、輝度変換処理を行うことにより、中間階調などの強調や圧縮、コントラストの改善などができる。また、所定の閾値との大小比較結果に基づいて2値化処理して、所定の輝度の領域だけを抽出することができる。あるいは、画素数毎に輝度値や色差値を平均化して、パターン単純化や情報量の圧縮ができる。
3)膨脹収縮処理又は、細線化処理
また、輪郭形状などから被写体の形状や特徴を判別するには、先ず、形状を単純化して情報量を圧縮や線図形化してから判別することが好ましい。2値化された画像の輪郭や、1−画素と0−画素の境界領域で、1−画素を(8近傍の画素の)一層分だけ外側に太くする、所謂「膨脹」(Expansion)処理を行うと、輪郭などの境界部分の小さな孔や溝が取り除かれ、また、逆に、一層分だけ細くする「収縮」(Contraction)処理により境界部分の突起や孤立点などが取り除かれるので、膨脹処理と収縮処理を組み合わせることで、凹部や凸部の除去や形状の単純化ができる。
また、2値化された画像から、線幅が1の中心を抽出する、所謂「細線化」(Thinning)処理により、骨状(スケルトン)の概略形状を求めることができる。2値化された輪郭パターンの周囲を外側と内側とから境界に沿ってたどり、境界部画素を1とし、残りの画素を0とする「境界線追跡」処理により、輪郭の境界線のみの画像に変換できる。あるいは、輪郭形状の数画素毎に選択した画素のみを折れ線で連結する「折れ線近似」処理などを用いてもよい。
4−1)輪郭形状の抽出
形状の識別は、2値化や線図形化した(被写体の画像など)参照するテンプレート画像やその特徴量を記憶しておき、それと(記録済みの画像データなど)入力画像の2同じく値化や線図形化した画像や特徴データとの間で、相関度や類似度などを計算して、形状の識別や類似度の判別ができる。また、簡略には、被写体像の2値化画像や輪郭図形、境界線図形等の縦横の大きさ、半径、周囲長、画素数、面積、幾何学的な寸法の比などから、簡易に類似度判断や被写体の識別を行ってもよい。
例えば、円では周囲長L=2πr、面積S=πr2なので、(周囲長L)2/(面積A)=4πとなることから、図形の輪郭線の円らしさを、
円らしさ=(周囲長L)2/(面積S)、又は、
円形度e=4π(円らしさ)=4πS/L2として計算して、
円らしさが4π(=12.57)に近い値かどうか、又は、円形度が1.0に近いかどうかで、丸い形状の被写体か、凹凸が多い尖った被写体か等を計算し、形状の識別に利用できる。同様に、輪郭の縦横比=長さh/幅wなどから、形状の「細長さ」等の評価値を求めてもよい。
4−2)輪郭形状の関数、フーリエ記述子
また、図形の輪郭線に沿って、始点から順次、偏角θ(s)を求めて、1次元関数(偏角関数)に変換して、輪郭形状の特徴量として利用できる。あるいは、同様に、輪郭線に沿って順次、位置座標x(s)、y(s)、又は、z(s)=x(s)+j・y(s)を求めて、1次元の位置座標関数に変換して、輪郭形状の特徴量として利用できる。
(Z形記述子)
例えば、前述の偏角関数θ(s)を正規化して、正規化偏角関数:θN(s)=θ(s)−θ(0)−2πs/L、
を求め、これの(i=0,1,2・・・,N−1)の離散化データφ[i]をフーリエ変換して、次のようなZ(Zahn)形フーリエ記述子を求め、輪郭形状の識別に利用できる。
θN(s)の離散化データ:φ[i]=θ[i]−θ[0]−2πi/N
(i=0,1,2・・・,N-1)
θN(s)の離散フーリエ変換(=Z形記述子):Cz[k]=(1/N)Σφ[i]EXP(−j2πki/N)。
(G形記述子)
同様に、前述の位置座標の複素平面座標z(s)を離散フーリエ変換して、G(Grundlund)形フーリエ記述子を求め、輪郭形状の識別に利用してもよい。
位置座標の複素平面座標z(s)=x(s)+j・y[s]、
z(s)の離散化データz(i)=x[i]+j・y[0] (i=0,1,2・・・,N-1)、
z(s)の離散フーリエ変換(=G記述子):Cg[k]=(1/N)Σz[i]EXP(−j2πki/N)。
(P形記述子)
また、図15に示すように、折れ線近似した偏角θ[i]の指数関数w[i]を求め、w[i]をフーリエ変換した、P(Phase)形記述子を求め、輪郭形状の識別に利用してもよい。
w[i]=exp(jθ[i])=cosθ[i]+sinθ[i]
=(z[i+1]−z[i])/δ、
ただし、線分δ=|z[i+1]−z[i]|
w[i]の離散フーリエ変換(=p形記述子):Cp[k]=(1/N)Σw[i]exp(−j2πki/N)。
4−3)輪郭の抽出と形状の識別
図16は、輪郭形状の抽出と被写体の形状識別処理の処理手順を示すフローチャートである。先ず、被写体の画像を取り込み(ステップS501)、次に、輝度階調値又は色差信号に基づいて複数領域に分割する(ステップS502)。さらに、主要被写体の領域を選択し(ステップS503)、この選択した領域の画像を2値化し(ステップS504)、エッジを検出する(ステップS505)。次に、検出したエッジをN辺の等辺多角形で近似し(ステップS506)、得られた輪郭線のP形記述子などフーリエ記述子を求め(ステップS507)、パワースペクトルを求める(ステップS508)。引き続き、低周波成分からn個の成分を取り出し、データ圧縮して、輪郭線データとし(ステップS509)、求めた特徴量をメモリー(特徴抽出/認識用データメモリー56)に記憶する(ステップS510)。そして、このメモリーに記憶した特徴量と記憶済のテンプレートデータとを順次比較し、類似度を求める(ステップS511)。さらに、当該被写体を最も類似するテンプレートデータに対応する種類と判定して、当該種類の特徴データを記述し(ステップS512)、この特徴データの記述データを出力する(ステップS513)。
つまり、本例では、被写体画像から輝度又は色差信号にに基づいて複数領域に分割し、その中から被写体領域を選択し、領域画像を2値化し、エッジを検出、N辺の等辺多角形などで近似し、前述のような輪郭線のP型記述子、あるいは、そのフーリエスペクトルやDCT変換の低周波成分からn個の成分(係数)を取り出して、輪郭形状の特徴データとする。形状の識別を行う場合には、比較参照するテンプレート画像の特徴量を順次読み出して、当該画像の特徴量と比較し、最も類似するテンプレートに対応する形状であると識別できるので、その特徴データ及び識別結果を出力する。
4−4)人間の顔など、特定被写体の識別
例えば、顔の眼の領域を抽出するためには瞳領域のマスクパターンを作成し、これを参照パターンとして、テンプレートマッチング等を用いて検索して、入力画像から眼や顔のある画像領域を検索できる。また、眼を認識するための条件データとしては、例えば、
眼の細長さ=b/aとして、α1≦b/a≦α2の条件に合致する、又は、
(眼の面積)S1≒π×a×b、(黒眼(瞳)の面積)S2=π×r2、黒眼(瞳)の比率S2/S1=r2/abとして、β1≦r2/ab≦β2などの条件に合致する被写体画像の領域を「眼の領域」と識別することができる。また、人間の顔と認識するための条件データの設定で、例えば、(眉下〜鼻下までの長さ)h1≒(鼻下〜あごまでの長さ)h2、又は、(右眼の幅)W1≒(両眼の間)W2≒(左眼の幅)W3、などの条件を満たす被写体画像の領域を「顔の領域」であると識別できる。
さらに、後述する代表色の特徴抽出処理、又は色領域の抽出処理などを組合せて、肌色の画像領域を取り出した後に、その領域の輪郭形状から顔形状の認識を行うことにより、人物の顔の領域画像などを効率よく認識できる。
5)代表色、色分布の抽出
図17は、選択された領域画像のRGBヒストグラムから代表色やその分布の分散度合いを特徴抽出する処理手順例を示すフローチャートである。被写体の画像を取り込み(ステップS601)、輝度階調値又は色差信号に基づいて複数の輪郭領域に分割する(ステップS602)。次に、面積の大きい領域、又は中央のフォーカス枠に近い領域から順に1〜n個の被写体領域を選択し(ステップS603)、各分割領域毎にRGB別ヒストグラム分布Pr(i)、Pg(i)、Pb(i)を求める(ステップS604)引き続き、このPr(i)、Pg(i)、Pb(i)をそれぞれ全体が1.0となるように正規化する(ステップS605)。
そして、下記のようにRGBヒストグラムPr(i)、Pg(i)、Pb(i)の最頻値を求める(ステップS606)。
μr=Max{Pr(i)},
μg=Max{Pg(i)},
μb=Max{Pb(i)},
また、下記のようにRGBヒストグラムPr(i)、Pg(i)、Pb(i)の平均μを求める(ステップS607)。
μr=Σi・Pr(i),
μg=Σi・Pg(i),
μb=Σi・Pb(i),
また、下記のようにRGBヒストグラムPr(i)、Pg(i)、Pb(i)の分散σ2を求める(ステップS608)。
σr2=Σ(i−μr)2・Pr(i),
σg2=Σ(i−μg)2・Pg(i),
σb2=Σ(i−μb)2・Pb(i),
次に、各領域のRGBヒストグラムの最頻値又は平均値を代表色とし、代表色とRGBの分散値を色の特徴データとして記述して出力する(ステップS609)。
6)色分布の抽出
図18は、領域画像を複数ブロックに分割して、ブロック毎の平均色を求め、そのDCT変換したDCT係数の分布データなど、色分布や配色パターンの特徴を抽出する処理手順例を示すフローチャートである。

撮影画像、又は、領域画像を取り込み(ステップS701)、領域を縦m×横nの複数ブロック領域に分割する(ステップS702)。次に、各分割ブロック領域の平均色を算出し(ステップS203)、各分割ブロック領域の平均色をRGB又はYCbCr空間でDFT変換又はDCT変換で周波数に変換し、各係数を求める(ステップS704)。そして、DFT又はDCTの低周波成分の係数をジグザグスキャンなどで走査して1次元化し(ステップS705)、この1次元化した各係数を量子化(デジタル符号化)し(ステップS706)、このデジタル符号化したDFT又はDCT係数列を、色分布の特徴データとし記述し出力する(ステップS707)
7)色領域の抽出
また、人間の肌色領域の抽出など、特定の色の画像領域や輪郭の抽出を行う場合、人間の肌の分光反射率特性、又は、撮影画像サンプル中の肌色領域のRGB値、もしくはHSV値(色相:Hue、彩度:Saturation、明度:Value of Brightness)などを元に、肌色の領域や人間の肌や顔の領域を抽出できる。例えば、肌色の色相(Hue)と彩度(Saturation)の分布データをとると、肌色の画像データの多くは、彩度は広い範囲で分布するが、色相(Hue)環では、約6°〜38°の範囲に多く分布することが知られている。これらを利用すれば、HSV値から、色相(Hue)が約6°〜38°の範囲の人間の顔の肌色とするなど、特定の色の被写体の領域を適宜抽出することができる。
8)テクスチャーの特徴抽出
次に、画像の肌理の荒さ、細かさ、模様パターンなどのテクスチャーの特徴抽出につて説明する。
8−1)高次局所自己相関関数によるテクスチャー特徴抽出
図19(a)は、高次局所自己相関関数によるテクスチャー特徴抽出例を示すフローチャートであり、同図(b)はその説明図である。図(a)に示すように、撮影画像を取り込み(ステップS801)、各画像のRGB成分をYIQ成分に変換し、Y画像、I画像、Q画像を得る(ステップS802)。次に、設定された特徴に応じて、同図(b)に示すように、(n×n)画素のマスクパターン1〜25(図(b)のNo.1〜25)を作成する(ステップS803)。さらに、下記に示すように、各画像で、各参照点(i,j)にマスクパターン1〜25の参照点を重ね合わせ、各画素の輝度値f(i,j)tと掛け合わせ(論理積)、特徴ベクトルC1〜25を求める(ステップS804)。
C1=ΣiΣj{f(i,j)}、
C2=ΣiΣj{f(i,j)f(i+1,j)}、
・・・
C5=ΣiΣj{f(i,j)f(i−1,j+1)}、
C6=ΣiΣj{f(i,j)f(i−1,j)f(i+1,j)}、
・・・
C25=ΣiΣj{f(i,j)f(i−1,j+1)f(i+1,j+1)}。
また、C(a1,・・・,aN)=Σr[n√{f(r)f(r+a1)・・・f(r+aN)}]により、上記のC1〜C25を加算(積和)し(ステップS805)、Ci=Ci/Σj{Cj}(i,j=1〜25)により、各特徴量を特徴ベクトル全体の和Σj{Cj}で除算して、特徴ベクトルの絶対値が1となるように正規化する(ステップS806)。そして、各YIQ画像毎に求めた局所自己相関による特徴ベクトルC1〜C25、又はその統計量を、テクスチャーの特徴データとして記述し出力する(ステップS807)。
8−2)ヒストグラム分布によるテクスチャー解析
また、他の方法やより簡易な方法でテクスチャー特徴量を抽出してもよい。例えば、輝度ヒストグラム分布によりテクスチャー解析する方法として、正規化した輝度ヒストグラムP(i)を求め、
その平均μ=Σi・P(i)、分散σ2=Σ(i−μ)2・P(i)
歪み度S(Skewnss)=[Σ(1−μ)3・P(i)]/σ3
尖り度K(Kurtosi)=[Σ(1−μ)4・P(i)]/σ4
などを、テクスチャーの特徴データとして記述し、出力することができる。
8−3)フーリエスペクトルによるテクスチャー解析
また、フーリエスペクトルからテクスチャー解析する方法として、離散2次元フーリエ変換(DFT)したフーリエスペクトル
F(u,v)=ΣΣf(x,y)W1xuW2yu(ただし、W1=exp(−j2π/M)を求め、
F(u,v)のパワースペクトルP(u,v)=|F(u,v)|2を算出し、
これを極座標形式のP(r,θ)に変換して、原点を中心としたドーナツ形領域のエネルギーの和p(r)、及び、角度θの扇形領域内のエネルギーの和q(r)を求め、
p(r)=2Σθ=0πP(r,θ)、
q(r)=2Σf=0W/2P(r,θ)。
そのヒストグラム分布のピーク、平均、分散など統計量から、例えばP(r)のピークよりテクスチャーのきめの大きさ、q(θ)のピークよりテクスチャー画素の方向性など、テクスチャーの特徴量を抽出して、特徴データを記述して、出力するようにしてもよい。
8−4)輝度の共起行列によるテクスチャー解析
また、輝度の共起行列を用いてテクスチャーの特徴を抽出してもよい。画像(x,y)において、画素f(x1、y1)から距離d、角度θの位置関係(d,θ)にある画素f(x2,y2)の輝度をd(1,2,・・・)、θ(0度、45度、90度、135度など)を変えて順次求め(ただし、距離d=max(|x1−x2|,|y1−y2|)
、位置関係(d,θ)にある2点の輝度がそれぞれ、f(x1,y1)=i,f(x2,y2)=jの対となる頻度(ヒストグラム)を集計して、輝度共起行列P(i,j;d,θ)を求め、正規化した共起行列p(i,j)=P(i,j)/ΣiΣj(i,j)から、・角2次モーメント(Angular second moment,全体の均一性を表す)f1=ΣΣ{p(i,j)}2、
・コントラスト(Contrast,局所変化を表す)f2=Σ{n2p(i,j)}、
・方向に関する相関(Correlation)f3=ΣΣ{(i,j)p(i,j−μ2)}/σ2、 ただし、μ=Σip(i)=1/g、(g;階調数)
σ=√{Σ{p(i)−μ}/(g−1)}
・平方和(Sum of Squares,局所同調性を表すf4=ΣΣ{(i−μ)2p(i,j)}、
・逆差分モーメント(Inverse difference Moment,複雑さの測度を表す)f5=ΣΣ[p(i,j)/{1+(1−j))}]、
などを求めて、テクスチャーの特徴データとすることができる。
(画像の類似度の判定)
以上のような特徴抽出処理により、輪郭抽出と輪郭識別の特徴抽出、代表色の抽出、色分布の抽出、色領域の抽出、テクスチャー特徴の抽出などを行い、抽出された画像の特徴データを用いて、前述したように
A)被写体像の画像の(輪郭形状、代表色、テクスチャーなど)所定の特徴量と、対象とする記録済み画像データの該当する特徴量との一致する特徴が多い画像を被写体に類似する画像として効率よく検索することができる。又は、前述の抽出された被写体の画像の所定の特徴量と記録済み画像データのそれとの相関や類似度をそれぞれ求めて、その類似度や類似距離、相関度などから、あるいはこれらの組合せから類似度を判定してもよい。
B)あるいは、前述の抽出された特徴量を組合せて、例えば、色相が肌色で輪郭形状が円に近い画像の領域を対象画像から検索したり、テンプレートマッチング処理を行うことにより、人物の顔を含む画像を検索したり、人物の顔を含む画像か否かを判定して、それを画像の特徴として記述したり、検索に利用することができる。
C)一方、特徴記述データが付加されていない画像データや類似判定する所定の特徴量が設定されていない場合でも、新たに、特徴抽出処理を行うか又は特徴記述データを用いずに、画像同士の画素パターンや符号化データの比較やマッチング処理により、画像全体の類似度や相関などを計算して、以下のように、画像の類似度を判定することができる。
(類似画像の検索)
記憶されたテンプレート画像と被写体画像の類似度の判別や検索には、テンプレートマッチングなどのパターンマッチング法や、動きベクトル検出におけるブロックマッチング法などが利用できる。テンプレートマッチングにより、特徴抽出領域の入力画像f[i,j]の特徴データの中から、例えば、(m×n)の記録された参照画像(又は特徴データ)t[k,l]に一致する画像の位置を検出する。参照画像の中心(又は端点)が入力画像のある点(i,j)に重なるように置いて、点(i,j)を順に縦横にラスター走査しながら、重なる部分の画像データの類似度を順次計算して、類似度が最も高い位置点(i,j)を、類似する被写体がある位置として求めることができる。
(相関度(相関係数))
入力画像f[k,l]とテンプレート画像(参照画像)t[k,l]との相関度は、次式のピアソンの相関係数(積率相関係数)Rなどで算出でき、画像の類似度の判定に利用できる。又は、最も相関係数Rが大きくなる位置が、検索する類似被写体がある位置として所定の被写体の検索に利用できる。
R=(画像fと画像tの共分散)/f(画像fの標準偏差)・(画像tの標準偏差)
=[ΣL=0n−1ΣK=0m−1{f[k,l]−fAV}{t[k,l]−tAV}]
/√[ΣL=0n−1ΣK=0m−1{f[k,l]−fAV}2]・√[ΣL=0n−1ΣK=0m−1{t[k,l]−tAV}2]
ただし、fAV:参照画像f[k,l]の画像データ(輝度値、色差値、特徴量など)の平均値、
tAV:参照画像t[k,l]の画像データ(輝度値、色差値、特徴量など)の平均値、
(テンプレートマッチングの類似度)
テンプレートマッチングなど、画像f[i,j]の中から、画像サイズ(m×n)の画像t[k,l]を走査して検索する場合、類似度は、次式で計算でき、類似度r(i,j)が最も大きくなる走査位置の点(i,j)が類似する被写体の位置として求まる。
R(i,j)=ΣL=0n−1ΣK=0m−1f[i−(m/2)+k,j−(n/2)+1]・t[k,l]
ただし、(i,j):点の位置座標、f[i,j]:入力画像データ、t[k,l]:テンプレート画像のデータ、(m×n):テンプレート画像のサイズ。
これを、前述の相関係数Rと同様に、平均値を差し引くなど正規化して用いてもよい。
(絶対値差分和、類似距離)
前記の類似度、R(i,j)では乗算のための計算が増えるため、2値化画像など、平均値を差し引いたり、正規化を省略したりできる場合には、類似度の代わりに、次式のような画像間の差分和により、相違の程度(「距離」)を表すD(i,j)を求め、これを評価関数として利用できる。この場合には、加減算だけで計算できるので演算を高速化できる。この場合は、距離D(i,j)が最も小さい点(i,j)がマッチング位置を表す。
D(i,j)=ΣL=0n−1ΣK=0m−1|f[i−(m/2)+k,j−(n/2)+1]−t[k,l]|
ただし、(i,j):点の位置座標、f[i,j]:入力画像データ、t[k,l]:テンプレート画像のデータ、(m×n):テンプレート画像のサイズ。
(第2の実施の形態)
図20は、本発明の第2の実施の形態を示すシステム構成図であり、外部サーバーにある類似画像を検索する場合の構成例を示すものである。本実施の形態本例において撮像機能を備えたカメラ機器400は、複数の画像データ451、各画像データ451のメタデータ452、検索ソフト453、画像データのデコーダ454、MPEG7等記述言語デコーダ455、外部通信ソフト456、及びUSB等457を有している。また、PC/通信装置/無線LAN等600は、カメラ転送ソフト651、ブラウザ652、OS(基本ソフト)653、USB等654、HTTP,FTP655、TCP/IP656、EtherNet/PPP/無線LAN657を有している。また、ウェブ上のサーバー装置700は、サーバーソフト751、インデックスデータ752、MPEG7等記述データDB753、画像データDB754を有しているとともに、HTTP,FTP755、TCP/IP756、EtherNet/PPP/無線LAN757を有している。そして、カメラ機器400とPC/通信装置/無線LAN等600とは、USB等457、654を介して接続され、PC/通信装置/無線LAN等600とサーバー装置700は、インターネット500を介して接続されている。
すなわち、本実施の形態は、カメラ装置を無線LAN通信機能やWAN通信機能を設けた携帯電話ななどの通信装置に接続して、Web上の画像サーバーなどに接続(好ましくはワイヤレス接続)して、被写体の撮影時の被写体像に類似する画像データをカメラ装置のメモリー媒体内の画像データの中だけでなく、外部の画像サーバーに保存記憶された画像データの中からも遠隔操作できるようにしたものである。
例えば、カメラ装置側において被写体像から抽出した特徴データなど、検索したい所望の特徴記述データ又はキーワードをWeb上のサーバー装置に送信し、Web上のサーバー装置からは検索用のIndexデータや画像データの特徴データが記憶されたMPEG7などのメタデータのストリームが送られるので、カメラ装置側では、受信されたメタデータを参照することにより、その中から当該被写体画像の特徴データに類似する画像データを検索して、当該画像データを要求する信号を送信すると、サーバー装置側からは当該画像データ又はサムネイル画像が送信されてくるので、それを受信して、前述した実施の形態と同様に、カメラ装置のファインダー画面に被写体像に類似する画像のサムネイルを表示することができる。
MPEG−7Visual(ISO/IEC 15938−3)などに準じた特徴記述データを利用して検索する場合には、不要な大量の画像データを送受信することがないので、小型のカメラ装置でも、高速に類似画像の検索が行える。この場合には、第1の実施の形態のようにカメラ本体に検索機能を内蔵しないでも、カメラ装置からは検索したい画像データ、又は、その特徴記述データを送信して、画像サーバー側に設けられた検索エンジンや画像検索機能を利用して、類似画像の検索を行ってもよい。また、第1の実施の形態と同様に、被写体像に類似する画像が検索され、ファインダーに表示された類似画像の画像データに対応付けて記録されている撮影情報が読み出され、撮影情報に含まれる所定の撮影条件が、今回の被写体を撮影する際の撮影条件としてカメラ装置に設定することもできる。
したがって、この実施の形態によれば、被写体像を狙ってレリーズ釦を半押しするだけで、Web上に遠隔のサーバー装置にある各種の撮影済み画像から被写体像の特徴と類似するシーンの画像が自動的に検索表示され、所望のシーンや画像を選択するだけで、自分の撮影した画像だけでなく、検索できる画像や対象が増加する利点がある。また、多数の撮影者やプロカメラマンなどの過去の作例と同じ撮影条件に自動設定することができ、多様なシーンや被写体の状況でも、より最適な撮影条件に設定して、誰でも所望の作例や表現に近い撮影ができる。
(第3の実施の形態)
図21は、本発明の第3の実施の形態に係るデジタルカメラ1の具体的回路構成を示すブロック図である。このデジタルカメラ1は、前記図3に示した構成に加えて、制御回路22に接続されたGPS受信部75を備えている。このGPS受信部75は、アンテナ76、RF受信部77、拡散復調部78、測位/時刻情報演算部79及び時計回路80を備えている。測位/時刻情報演算部79は、衛星データ81を用いて現在位置を演算するととともに受信して正確な標準時刻を時計回路80に与える。時計回路80は、発振回路82からのクロック信号に基づき現在日時を生成するとともに、測位/時刻情報演算部79からの正確な標準時刻に基づき現在日時を修正する。したがって、測位/時刻情報演算部79と時計回路80とからは、現在位データ及び(日付を含む)現在時刻データ83が制御回路22に出力される。
一方、GPS受信部75と測位用信号電波で無線接続される複数のGPS測位衛星84は、各々受信アンテナ85、受信部56、制御部87、原子時計88、標準時計89、航法メッセージ部90、拡散変調部91、送信部92及び送信アンテナ93を備えている。また、地上管制局94は、原子時計95、標準時計96及び送信アンテナ97を備えている。そして、地上管制局94は標準時刻を送信し、GPS測位衛星84は、これを受信し受信した標準時刻、又は原子時計98に基づき標準時計89が計時した標準時刻を測位用信号電波に重畳して送信する。
GPS受信部75は、この測位用信号電波を受信して、各衛星の疑似距離を計測するとともに、予め記憶している各衛星の運行暦情報(アルマナックデータ)、及び受信した測位用信号に含まれる各衛星の詳細軌道情報(エフェメリスデータ)などを用いて、衛星捕捉処理及び測位演算処理を行う。そして、上空の3〜4個以上のGPS測位衛星84の現在の位置座標を推測演算し、推測された各衛星84の位置と各衛星との疑似距離から、デジタルカメラ1の現在の緯度、経度、高度など位置情報を算出することができる。4個以上のGPS測位衛星84からの信号を有効に受信できた場合には、現在位置に加えて(衛星搭載の原子時計88による標準時計に準じた)高精度の日時情報が得られるので、これら現在位データ及び現在時刻データ83として制御回路22に出力することにより、制御回路22に内蔵の時計も高精度に自動校正できる。
図4及び図22は、本実施の形態の処理手順を示す一連フローチャートであり、制御回路22はプログラムメモリー23に格納されているプログラムに基づき、このフローチャートに従って処理を実行する。すなわち、図4に示すフローチャートに従って、前述したステップS101〜S123の処理を実行し、ステップS117の判断で類似画像検索機能がONと判断された場合に、このステップS117から図22のステップS324に進む。そして、このステップS324において、GPS受信部75、センサ計測回路34、撮影制御部25からの撮影関連情報を入力させる。ここで撮影関連情報とは、少なくとも図13に示した撮影条件設定データと、GPS受信部75から得られた当該デジタルカメラ1の位置情報である撮影場所の位置情報及び現在の日時情報を含む情報である。次に、この入力した撮影関連情報から撮影場所の位置情報や日時情報などの所定の撮影関連情報を抽出してデータメモリー24に記憶する(ステップS325)。また、外部メモリー媒体31(又は磁気ディスク48)に記録済の画像データを順次読み出すか、サーバー装置70に記録済みの画像データを順次受信する(ステップS326)。この読み出された(受信された)画像データから所定の撮影関連情報を抽出して、データメモリー24に記録する(ステップS327)。
つまり、本実施の形態においては、外部メモリー媒体31(又は磁気ディスク48)に記録済の画像データ、及びサーバー装置70に記録済みの画像データには、前記撮影関連情報が付随して記録されており、この撮影関連情報には前記所定の撮影関連情報が含まれている。そして、前記ステップS327で記録した読み出し画像データの所定の関連情報と、前記ステップS325で記録した現在の撮影関連情報とを比較し、類似度を算出する(ステップS328)。この算出した類似度が所定値より大きいか否かを判断し(ステップS329)、類似度が所定値以下である場合には、ステップS330〜S332の処理を実行することなく、ステップS333に進む。類似度が所定値より大きい場合には、この時点までの検索済画像(ステップS326で読み出した画像)と比べ、類似度が上位N個に入るほど大きいか否かを判断する(ステップS330)。類似度が上位N個に入るほど大きくない場合には、ステップS331の処理を行うことなくステップS332に進む。また、類似度が上位N個に入るほど大きい場合には、類似度が大きい検索画像のファイル名と類似度を、検索画像として上位N個まで順次更新して、データメモリー24に記憶する(ステップS331)。また、この時点までに検索された類似画像数S(ステップS329で類似度が所定値より大きいと判断された画像数S)を計数する(ステップS332)。
次のステップS333においては、下記(1)〜(3)の少なくともいずれか1つあったか否かを判断する。
(1)最後の画像データか否か。
(2)検索終了操作があったか否か。
(3)検索された画像数S≧Smax(所定最大値)か否か。
このステップS333の判断がYESとなるまで、次の画像データを選択して(ステップS334)、ステップS326〜S333の処理を繰り返す。ステップS333の判断がYESとなったならば、1個以上の類似する有効画像(ステップS329の判断がYESとなった画像)が検索されたか否かを判断する(ステップS335)。類似する有効画像が検索されなかった場合には、ファインダー29に類似画像が見つからない旨を表示し、又はエラー表示を行う(ステップS336)。
また、1個以上の類似する有効画像が検索された場合には、類似度が高い検索画像(N個)のうち、表示する画像(D個)のサムネイル画像を類似度が高い順にファインダー29に表示する(ステップS337)。しがたって、このステップS337での処理により、例えばD=3であり、また3個以上の類似する有効画像が検索された場合には、図23に例示するように、ファインダー29には、被写体像のスルー映像61とともに、近い位置で撮影された画像(1)〜(3)が表示されることとなる。なお、同図に示すように、ファインダー29には、近い位置で撮影された画像(1)〜(3)の近傍に、各撮影位置情報(経度、緯度)、日時情報を表示させ、被写体像のスルー映像61の一部に、点在の撮影場所の位置情報(経度、緯度)、撮影日時情報(現在日時)を表示させるとともに、前記画像(1)〜(3)のいずれかの近傍には、カーソル62を表示させる。
次に、前記カーソル62を移動させるための操作があったか否かを判断し(ステップS338)、該操作があったならば、操作に応じて次の画像を選択し、該画像に対応する位置にカーソル62を表示させる(ステップS339)。また、カーソル62を表示されている類似画像外に移動させる操作があった場合には、次に類似度が高い画像(D個)を表示する(ステップS340)。また、ステップS338での判断の結果、カーソル移動操作がなかった場合には、決定キー操作があったか否かを判断する(ステップS341)。決定キー操作があったならば、カーソル62により選択された類似画像を撮影条件設定の見本画像に決定する(ステップS342)。そして、この見本画像として決定した類似画像の画像データとともに記憶されている撮影条件情報に応じて、カメラの撮影条件を再設定する(ステップS343)。
この再設定に際しては、類似画像の画像データとともに記憶されている撮影条件情報をそのまま、撮影制御部25の撮影条件設定データ25aとして設定する。あるいは、前記ステップS106等で設定された撮影条件を前記撮影条件情報に基づき修正するようにしてもよい。
以上に説明したステップS336、S340、S343のいずれかの処理を行ったならば、前述した図4のステップS118に進む。したがって、ステップS343の処理が行われてステップS118に進んだ場合には、ユーザーはレリーズ釦3を半押してAEロック、AFロックの状態にして、見本画像を選択した状態にある。そして、ユーザーがレリーズ釦3を全押しすると、前述したステップS319〜S323の処理が実行され、ユーザーが前記見本画像を参考にして決定した構図や被写体のポーズからなる画像が記録されることとなる。
すなわち、本実施の形態によれば、被写体を狙うだけで、今回の撮影シーンと同じシーンや、近くの場所、同じ季節、同じ時刻などで撮影された類似する撮影済みの画像が、自動的に検索されてファインダー29に被写体画像とともに表示される。よって、以前の同じ場所や季節、同じ時間帯などの類似のシーンの構図や、写り具合等を参考にしながら撮影したり、また、同じ被写体でも、時間経過による情景の変化や構図、ポーズの違いなどを比較しながら、今回撮影しようとする被写体や画角、構図、ポーズ、撮影条件などを選択したりして撮影することができる。また、同じ場所や同じ季節、同じ時間帯など類似する以前の撮影画像の中から、選択した画像の撮影条件をデジタルカメラ1の撮影条件としてそのまま設定できるので、被写体の状況や作画意図に合わせた撮影が容易に可能となる。
(第4の実施の形態)
図4及び図24は、本発明の第4の実施の形態における処理手順を示す一連フローチャートであり、制御回路22はプログラムメモリー23に格納されているプログラムに基づき、このフローチャートに従って処理を実行する。すなわち、図4に示すフローチャートに従って、前述したステップS101〜S123の処理を実行し、ステップS117の判断で類似画像検索機能がONと判断された場合に、このステップS117から図24のステップS424に進む。そして、このステップS424において、被写体像のフレーム画像をデータメモリー24に記憶する(ステップS424)。次に、この記憶した被写体像の画像データから所定の特徴量、又は特徴データを抽出してデータメモリー24に記憶する(ステップS425)。そして、このステップS425で抽出した特徴量から対応する検索キーワードを作成し(ステップS426)、このとき複数の検索キーワードを作成する。また、外部メモリー媒体31(又は磁気ディスク48)に記録済の画像データを順次読み出すか、サーバー装置70に記録済の画像データを順次受信する(ステップS427)。この読み出された(受信された)画像データから所定の特徴量又は特徴記述データを抽出して、データメモリー24に記録する(ステップS427)。
そして、前記ステップS426で作成した検索キーワードに一致する撮影情報又は特徴データが、対象画像データ(ステップS427で読み出し又は受信した画像データ)に記録されているか否かを判断し(ステップS428)、記録されている場合には後述するステップS437に進む。記録されていない場合には、特徴抽出/画像検索用データメモリー56内に格納されている類語辞書、心理辞書などを用いて前記検索キーワードの類語を検索し(ステップS429)、類語が検索されたか否かを判断する(ステップS430)。類語が検索されたならば、検索された類語を新しい検索キーワードとし(ステップS431)、この新しい検索キーワードに一致する撮影情報又は特徴データが、対象画像データ(ステップS427で読み出し又は受信した画像データ)に記録されているか否かを判断する(ステップS432)。記録されていない場合には、前記類語辞書、心理辞書などを用いて次の類語を検索し(ステップS433)、前述したステップS430〜S433のループを繰り返す。その結果、ステップS432の判断がYESとなり、検索キーワードに一致する撮影情報か特徴データが記録されていると判断された場合には、後述するステップS437に進む。
しかし、ステップS432の判断がYESとなることなく、ステップS430の判断がNOとなった場合、つまり類語辞書、心理辞書などにおいてこれ以上類語を検索することが不可能となった場合には、ステップS427読み出すか受信した対象画像データから所定の特徴量を抽出する(ステップS434)。この抽出した対象画像特徴量から、当該画像に対応するキーワードを作成し(ステップS435)、前記この作成した検索キーワードに一致するキーワードが、前記ステップS426で作成した被写体像側の検索キーワードにあるか否かを判断する(ステップS436)。そして、ある場合にはステップS437に進み、ない場合にはステップS442に進む。
前記ステップS428、S432及びS436のいずれかに続くステップS437においては、検索キーワードに対する対象画像の撮影情報を取得し、検索キーワードに対する特徴データを取得するとともに、キーワードの一致数又は類似度を算出する。引き続き、この算出した一致数や類似度が所定値以上であるか否かを判断し(ステップS438)、所定値未満である場合には、ステップS439〜S441の処理を実行することなく、ステップS442に進む。前記一致数や類似度が所定値以上である場合には、この時点までの検索済画像(ステップS427で読み出したか受信した画像)と比べ、類似度が上位N個に入るほど大きいか否かを判断する(ステップS439)。類似度が上位N個に入るほど大きくない場合には、ステップS440の処理を行うことなくステップS441に進む。また、類似度が上位N個に入るほど大きい場合には、一致数や類似度が高い検索画像のファイル名と類似度を、上位N個まで順次更新して、データメモリー24に記憶する(ステップS440)。また、この時点までに検索された画像数S(ステップS427で読み出すか受信した画像の数S)を計数する(ステップS441)。
次のステップS442においては、下記(1)〜(3)の少なくともいずれか1つあったか否かを判断する。
(1)最後の画像データか否か。
(2)検索終了操作があったか否か。
(3)検索された画像数S≧Smax(所定最大値)か否か。
このステップS442の判断がYESとなるまで、次の画像データを選択して(ステップS443)、ステップS427〜S442の処理を繰り返す。ステップS442の判断がYESとなったならば、1個以上の類似する有効画像(ステップS438の判断がYESとなった画像)が検索されたか否かを判断する(ステップS444)。類似する有効画像が検索されなかった場合には、ファインダー29に類似画像が見つからない旨を表示し、又はエラー表示を行う(ステップS445)。
また、1個以上の類似する有効画像が検索された場合には、検索された類似画像(N個)のうち、表示する画像(D個)のサムネイル画像をファインダー29に表示する(ステップS446)。次に、前記カーソル62を移動させるための操作があったか否かを判断し(ステップS447)、該操作があったならば、操作に応じて次の画像を選択し、該画像に対応する位置にカーソル62を表示させる(ステップS448)。また、カーソル62を表示されている類似画像外に移動させる操作があった場合には、次に類似度が高い画像(D個)を表示する(ステップS449)。また、ステップS447での判断の結果、カーソル移動操作がなかった場合には、決定キー操作があったか否かを判断する(ステップS450)。決定キー操作があったならば、カーソル62により選択された類似画像を撮影条件設定の見本画像に決定する(ステップS451)。そして、この見本画像として決定した類似画像の画像データとともに記憶されている撮影条件情報に応じて、カメラの撮影条件を再設定する(ステップS451)。
この再設定に際しては、類似画像の画像データとともに記憶されている撮影条件情報をそのまま、撮影制御部25の撮影条件設定データ25aとして設定する。あるいは、前記ステップS106等で設定された撮影条件を前記撮影条件情報に基づき修正するようにしてもよい。
以上に説明したステップS445、S449、S452のいずれかの処理を行ったならば、前述した図4のステップS118に進む。したがって、ステップS452の処理が行われてステップS418に進んだ場合には、ユーザーはレリーズ釦3を半押してAEロック、AFロックの状態にして、見本画像を選択した状態にある。したがって、この選択した所望の見本画像の構図や被写体のポーズ等を参考にして、ファインダー29に表示されている被写体像のスルー映像61を見ながら、デジタルカメラ1の向きを調整して構図を決定したり、被写体のポーズを決定することができる。そして、ユーザーがレリーズ釦3を全押しすると、前述したステップS119〜S123の処理が実行され、ユーザーが前記見本画像を参考にして決定した構図や被写体のポーズからなる画像が記録されることとなる。
したがって、本実施の形態によれば、被写体像に類似する記録済み画像を、容易かつ自動的に検索して、その類似シーンの画像をファインダー29上で確認しながら撮影できるので、被写体の選択、構図やポーズ、画角の選択などの参考にすることができる。また、選択した任意の類似画像の所定の撮影条件を、今回の撮影条件としてデジタルカメラ1に設定できるので、撮影条件に関する知識がなくても、画像にて確認した所望の撮影条件の設定が可能となる。
また、本実施の形態においては、被写体の特徴量に対応するキーワードを自動的に作成し、キーワードやその類語に対応する特徴量の画像を検索できるので、各画像から逐一特徴抽出を行わずとも、数値やテキストデータを比較参照するのみで、高速に画像検索処理を行うことができる。また、被写体と各特徴量や詳細が多少異なっていても、同種の被写体や略類似するシーンの画像などを、検索することがことができる。さらに、類似辞書や心理辞書の定義データや語句データを変更するだけで、検索レベルや範囲を調整したり、各種の類似検索に応用できるので、画像検索機能の設計や性能の調整を容易にできる利点がある。
図25〜27は、図24に示したフローチャートにおけるステップS426、S435等において、キーワードを作成する際の処理例を示す図である。図25(a)(b)は、色相特徴(Hue、RGB、XYZなど)からのキーワード作成例を示す図である。同図(b)に示すように、画像の色相(Hue)の値(範囲)又はRGBの値に対応してキーワードを記憶したテーブルT1を特徴抽出/画像検索用データメモリー56又はプログラムメモリー23に記憶しておく。そして、対象画像から読み取った画像の色相(Hue)の値(範囲)又はRGBの値に対応するキーワード「Black 黒」・・・をテーブルT1から読み出すことにより、キーワードを作成する。
図26は、明度(B)と彩度(S)特徴からのキーワード作成例を示す図である。同図(c)に示すように、画像の明度Bと彩度Sとの範囲に対応してキーワード1とキーワード2とを記憶したテーブルT2を特徴抽出/画像検索用データメモリー56又はプログラムメモリー23に記憶しておく。そして、対象画像から読み取った明度Bと彩度Sとに対応するキーワード1「V:Vivid あざやか」・・・とキーワード2「派手な」・・・とをテーブルT2から読み出すことにより、キーワード1、2を作成する。
図27は、テクスチャー特徴からのキーワード作成例を示す図である。画像サンプル1〜6に対応して特徴量A、B、Cとキーワードとを記憶したテーブルT3を特徴抽出/画像検索用データメモリー56又はプログラムメモリー23に記憶しておく。そして、対象画像にサンプル画像1〜6に対応する画像部分が存在するか否かを判断し、あるいは特徴量A、B、Cを抽出して(前記ステップS434)、サンプル画像に対応するキーワード、あるいは特徴量A、B、Cに対応するキーワードをテーブルT3から読み出すことにより、キーワードを作成する。
図28は、図24のフローチャートにおけるステップS429で用いる類語辞書のデータ構成例を示す図である。このデータ構成例においては、「見出し語」に対応して、「同義語」、「広義語」、」「狭義語」、「反意語」、「関連語」が記憶されている。したがって、例えば被写体像から抽出された特徴量のうち、彩度と明度の特徴量から「派手な」、「あざやかな」、・・・、輪郭形状の特徴量から「車」、・・・などのキーワードが生成された場合に、被写体像の「派手な」+「車」というキーワードの組合せに合致する類似画像を検索する。この際、「派手な」に相当する特徴量を有する画像が見つからない場合は、類語辞書を参照して「派手」を見出し語として、「目立つ(同義語)、「彩度が高い」(狭義語)、「ラグジェアリー」(関連語)などの狭義語を検索して、「目立つ」+「車」や、「彩度が高い」+「自動車」、「ラグジェアリー」+「カー」など新しいキーワード(連想検索用キーワード)として生成して、類似の画像をより広い意味領域のキーワードで類似画像を検索することができる。あるいは、類義語が「派手」(広義語)となる見出し語「赤」を逆検索して、「赤」+「車」を連想検索用キーワードとして検索してもよい。色の特徴量以外の、輪郭形状(円い、角ばった、細長い、尖った、・・・)やテクスチャー(緻密、荒い、柔らかい、ごわごわ、ザラザラ、・・・)、色分類(全体に赤い、白い背景+赤い丸、・・・)など、その他の特徴量についても、同様である。
類義語辞書に記憶された類語データでは定性的な特徴を表すが、例えば、それらを区分して、「表記の揺れ」の場合の距離=0、「同義語」との距離=1、「広義語」との距離=2、「狭義語」との距離=3、「反義語」との距離=4(又は−4)、関連語との距離=5、・・・などと、類語間でも、その類似度や距離を数値で表して、より類似度の高い特徴量を用いて検索したり、より、定性的な特徴量を用いて検索できるようにしてもよい。あるいは、これら類語の意味の類似度は、同じ語句でも、文脈や分野により意味や用例も変動するため、文書やニュース記事などにおける実例での意味や用例の頻度などから、平均化した数値などを用いてもよい。
図29は、図24のフローチャートにおけるステップS429で用いる心理辞書のデータ構成例を示す図である。このデータ構成例においては、「色」に対応して、「心理的な意味1(+(プラス)イメージ)」と「心理的な意味2(−(マイナス)イメージ)」とが感情用語として記憶されている。したがって、例えば「赤」を見出し語として検索し、「情熱的」、「エネルギー」、「怒り」などの感情用語から、これらの語を含む画像データを検索することができる。
さらに、類語辞書と心理辞書とを用いると、例えば、被写体像の画像から「穏やかな」+「顔」、「落ち着いた」+「景色」などのキーワードが生成された場合に、「穏やか」の類語である「円い」、「角がない」、・・・、あるいは、「落ち着いた」の感情用語を持つ「青」、・・・などの特徴量を表す用語を検索して、「円い」+「顔」を特徴する画像や、「青」+「風景」を特徴とする画像などを検索することができる。
なお、類語辞書や心理辞書のように類語や心理イメージ(感情用語)などの定性的な意味だけでなく、図28及び図29に示すように「汚い−美しい」、「強い−弱い」、「快い−不快な」、「暖かい−冷たい」・・・など、対となる意味のどちらに近いかの程度を、色別に数値や空間座標などの定量的な指標で「色の意味プロファイル」や「色の意味空間マップ」として、プログラムメモリー23に記憶しておき、その意味のプロファイルや組合せから、近い意味や心理イメージの代表色や配色などの特徴量の程度を具体的に指定して検索できるようにしてもよい。このように、連想検索では、ぴったりの画像とは言えなくても、被写体像に類似すると期待できるような画像を、より広範囲に自動的に検索することができる。
なお、本発明の実施の形態においては、画像自体を比較してその類似度を算出し、この算出した類似度に基づき被写体像に類似する類似画像を検索する構成(第1の実施の形態、図5)、画像に付随して記憶されている撮影日時、季節等の撮影日時や、撮影場所の緯度、経度、高度、地名等の撮影位置、等の撮影情報と前記被写体像の撮影時における撮影情報基づき被写体像に類似する類似画像を検索する構成(第3の実施の形態、図22)、及び当該画像自体の特徴を示すキーワードや撮影情報を示すキーワードの類語に基づき被写体像に類似する類似画像を検索する構成(第4の実施の形態、図24)を、各々個別の実施の形態として示した。しかし、これら各実施の形態で用いた検索方法を組み合わせて、検索を行うようにしてもよい。この場合、各検索方法において類似度を点数評価し、この評価した点数を合算して、合算した点数の高い画像を最も類似する画像とすればよい。
また、実施の形態においては、本発明をデジタルカメラに適用するようにしたが、カメラに限らず撮像機能を備えた携帯電話等の各種機器にも本発明を適用することができる。
(A)は本発明の各実施の形態に共通するデジタルカメラの正面図、(B)は背面図、(C)は側面透視図である。 同デジタルカメラの概略的回路構成を示すブロック図である。 同デジタルカメラの具体的回路構成を示すブロック図である。 第1の実施の形態における処理手順を示すフローチャートである。 同実施の形態における図4のフローチャートに続くフローチャートである。 同実施の形態における表示例を示す図である。 同実施の形態における他の表示例を示す図である。 被写体像と類似する類似画像を検索する際に、特徴記述データを用いて検索する方法の概要を示すフローチャートである。 被写体像と類似する類似画像を検索する際に、画像データ自体を比較処理して類似画像を検索する検索処理の概要を示すフローチャートである。 画像から抽出した特徴データの記述例を示す図である。 (a)はMPEG−7による特徴データの記述例を示し、(b)はDublin CoreとRDFのXML構文による特徴データの記述例を示す図である。 データファイルの構成例を示す図である。 撮影条件として設定される項目の例を示す図である。 特徴量を抽出する処理(ステップS127)の処理手順を示すサブルーチンである。 折れ線近似した偏角θ[i]を輪郭形状の識別に利用する例を示す図である。 輪郭形状の抽出と被写体の形状識別処理の処理手順を示すフローチャートである。 選択された領域画像のRGBヒストグラムから代表色やその分布の分散度合いを特徴抽出する処理手順例を示すフローチャートである。 色分布や配色パターンの特徴を抽出する処理手順例を示すフローチャートである。 (a)は、高次局所自己相関関数によるテクスチャー特徴抽出例を示すフローチャートであり、(b)はその説明図である。 本発明の第2の実施の形態を示すシステム構成図である。 本発明の第3の実施の形態に係るデジタルカメラの回路構成を示すブロック図である。 同実施の形態において図4のフローチャートに続くフローチャートである。 同実施の形態における表示例を示す図である。 本発明の第4の実施の形態において図4のフローチャートに続くフローチャートである。 色相特徴からのキーワード作成例を示す図である。 明度と彩度特徴からのキーワード作成例を示す図である。 テクスチャー特徴からのキーワード作成例を示す図である。 類語辞書のデータ構成例を示す図である。 心理辞書のデータ構成例を示す図である。
符号の説明
1 デジタルカメラ
2 本体
3 レリーズ釦
11 決定/OKキー
14 表示部
20 電子撮像センサ
22 制御回路
23 プログラムメモリー
24 データメモリー
25 撮影制御部
27 画像メモリー
28 表示制御部
29 ファインダー
29 電子ファインダー
30 伸張復号部
31 外部メモリー媒体
32 画像モニター
46 HDD記憶装置
56 特徴抽出/画像検索用データメモリー
56 特徴抽出/認識用データメモリー
57 特徴抽出/画像検索処理部
61 スルー映像
62 カーソル

Claims (19)

  1. 被写体を撮像する撮像手段と、
    表示手段と、
    前記撮像手段により撮像される被写体像をスルー画像として前記表示手段に表示させる第1の表示制御手段と、
    この第1の表示制御手段により前記表示手段に表示される被写体像に関連する関連画像を取得する取得手段と、
    この取得手段により取得された前記関連画像を、前記第1の表示制御手段により表示されるスルー画像と共に前記表示手段に表示させる第2の表示制御手段と
    を備えることを特徴とするカメラ装置。
  2. 前記第1の表示制御手段は、前記スルー画像を前記表示手段の所定領域に表示させる手段を含み、
    前記第2の表示制御手段は、前記関連画像を前記表示手段の前記所定領域とは異なる領域に表示させる手段を含むことを特徴とする請求項1記載のカメラ装置。
  3. 前記取得手段は、前記表示手段の所定領域内に表示される被写体像に基づき、該被写体像に関連する関連画像を取得することを特徴とする請求項1又は2記載のカメラ装置。
  4. 前記取得手段は、所定のキー操作がなされた時点において表示手段に表示された被写体像に基づき、該被写体像に関連する関連画像を取得することを特徴とする請求項1、2又は3記載のカメラ装置。
  5. 前記取得手段は、
    前記第1の表示制御手段により前記表示手段に表示される被写体像からその特徴を抽出する特徴抽出手段と、
    この特徴抽出手段により抽出された特徴に基づき、所定の画像記憶手段から前記類似画像を検索する検索手段とを備え、前記検索手段により検索された類似画像を前記関連画像として取得することを特徴とする請求項1から4にいずれか記載のカメラ装置。
  6. 前記特徴抽出手段は、
    前記表示手段に表示される被写体像からその特徴を抽出するとともに、前記所定の画像記憶手段に記憶されている記憶画像からその特徴を抽出し、
    前記検索手段は、
    前記被写体像から抽出した特徴と前記記憶画像から抽出した特徴とを比較し、この比較結果に基づき、前記画像記憶手段に記憶されている記憶画像から前記類似画像を検索することを特徴とする請求項5記載のカメラ装置。
  7. 前記特徴抽出手段は、前記被写体像における所定領域又は背景領域の代表色の特徴、色分布の特徴、輪郭形状の特徴、所定領域におけるテクスチャーの特徴のいずれかを抽出して、この抽出した特徴を記述する特徴記述データを生成し、
    前記検索手段は、前記特徴記述データに基づき、前記類似画像を検索することを特徴とする請求項5又は6記載のカメラ装置。
  8. 前記所定の画像記憶手段は、当該カメラ装置に固定的に設けられ前記撮像手段により撮像された画像を記憶する第1の記憶手段、又は当該カメラ装置に着脱自在に設けられ前記撮像手段により撮像された画像を記録する第2の記憶手段、又は外部に設けられ通信により接続可能な第3の記憶手段を含むことを特徴とする請求項5、6又は7記載のカメラ装置。
  9. 前記取得手段は、前記関連画像として複数の類似画像を取得し、
    前記第2の表示制御手段は、前記複数の類似画像を前記表示手段に同時表示させ、又は複数の類似画像を切り換え表示させることを特徴とする請求項1から8にいずれか記載のカメラ装置。
  10. 前記第2の表示制御手段は、前記複数の類似画像を類似度の高い順に表示させることを特徴とする請求項9記載のカメラ装置。
  11. 前記取得手段は、撮影条件が付随して記憶された画像を前記関連画像として取得し、
    この取得手段により前記関連画像として取得された前記画像に付随する撮影条件を、当該カメラ装置の撮影条件として設定する撮影条件設定手段を備えることを特徴とする請求項1から10にいずれか記載のカメラ装置。
  12. 被写体を撮像する撮像手段と、
    表示手段と、
    前記撮像手段により撮像される被写体像をスルー画像として前記表示手段に表示させる表示制御手段と、
    この表示制御手段により前記表示手段に表示される被写体像、又は撮影日時、季節等の撮影日時や、撮影場所の緯度、経度、高度、地名等の撮影位置、等の撮影情報に基づき、各々撮影時の撮影条件が付随して記憶された画像から前記撮影条件を取得する取得手段と、
    この取得手段により取得された前記撮影条件を当該カメラ装置の撮影条件として設定する撮影条件設定手段と
    を備えることを特徴とするカメラ装置。
  13. 前記取得手段は、前記表示手段に表示される被写体像に類似する類似画像を複数取得し、
    この取得手段により取得された複数の類似画像からいずれかを選択する選択手段を更に備え、
    前記撮影条件設定手段は、前記選択手段により選択された類似画像に付随する前記撮影条件を当該カメラ装置の撮影条件として設定することを特徴とする請求項12記載のカメラ装置。
  14. 前記取得手段は、画像自体を比較してその類似度を算出し、この算出した類似度に基づき前記被写体像に類似する類似画像を前記関連画像として取得することを特徴とする請求項1から4及び8から13にいずれか記載のカメラ装置。
  15. 前記取得手段は、取得対象とする画像に付随して記憶されている撮影日時、季節等の撮影日時や、撮影場所の緯度、経度、高度、地名等の撮影位置、等の撮影情報と前記被写体像の撮影時における撮影情報とを比較し、その比較結果に基づき前記被写体像に類似する類似画像を前記関連画像として取得することを特徴とする請求項請求項1から4及び8から14にいずれか記載のカメラ装置。
  16. 前記取得手段は、
    類語を記憶した類語記憶手段と、
    前記表示手段に表示された被写体像から当該画像自体の特徴を示すキーワード、又は取得対象とする画像に付随して記憶されている撮影日時、季節等の撮影日時や、撮影場所の緯度、経度、高度、地名等の撮影位置、等の撮影情報を示すキーワードを生成するキーワード生成手段と、
    このキーワード生成手段により生成されたキーワードに関連性の高い類語を前記類語記憶手段から抽出する類語抽出手段と、
    この類語抽出手段により抽出された類語に基づき、所定の画像記憶手段から前記類似画像を前記関連画像として検索する検索手段と
    を備えることを特徴とする請求項1から4及び8から15にいずれか記載のカメラ装置。
  17. 前記撮像手段により撮像された被写体像を操作に応答して記憶する画像記憶手段と、
    この画像記憶手段に前記被写体像を記憶する際に当該カメラに設定されている撮影条件を検出する検出手段と、
    この検出手段により検出された前記撮影条件を前記被写体画像に対応させて前記画像記憶手段に記憶させる記憶制御手段と
    を備えることを特徴とする請求項1から16にいずれか記載のカメラ装置。
  18. 被写体を撮像する撮像手段と表示手段とを備えるカメラ装置が有するコンピュータを、
    前記撮像手段により撮像される被写体像をスルー画像として前記表示手段に表示させる第1の表示制御手段と、
    この第1の表示制御手段により前記表示手段に表示される被写体像に関連する関連画像を取得する取得手段と、
    この取得手段により取得された前記関連画像を、前記第1の表示制御手段により表示されるスルー画像と共に前記表示手段に表示させる第2の表示制御手段と
    して機能させることを特徴とするカメラ装置制御プログラム。
  19. 被写体を撮像する撮像手段と表示手段とを備えるカメラ装置が有するコンピュータを、
    前記撮像手段により撮像される被写体像をスルー画像として前記表示手段に表示させる表示制御手段と、
    この表示制御手段により前記表示手段に表示される被写体像、又は撮影日時、季節等の撮影日時や、撮影場所の緯度、経度、高度、地名等の撮影位置、等の撮影情報に基づき、各々撮影時の撮影条件が付随して記憶された画像から前記撮影条件を取得する取得手段と、
    この取得手段により取得された前記撮影条件を当該カメラ装置の撮影条件として設定する撮影条件設定手段と
    して機能させることを特徴とするカメラ装置制御プログラム。
JP2006181004A 2006-06-30 2006-06-30 カメラ装置及びカメラ装置制御プログラム Pending JP2008011316A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006181004A JP2008011316A (ja) 2006-06-30 2006-06-30 カメラ装置及びカメラ装置制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006181004A JP2008011316A (ja) 2006-06-30 2006-06-30 カメラ装置及びカメラ装置制御プログラム

Publications (1)

Publication Number Publication Date
JP2008011316A true JP2008011316A (ja) 2008-01-17

Family

ID=39069089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006181004A Pending JP2008011316A (ja) 2006-06-30 2006-06-30 カメラ装置及びカメラ装置制御プログラム

Country Status (1)

Country Link
JP (1) JP2008011316A (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193187A (ja) * 2008-02-13 2009-08-27 Casio Comput Co Ltd 画像検索方法、画像検索システム、画像検索端末および検索用サーバー
JP2009225097A (ja) * 2008-03-17 2009-10-01 Casio Hitachi Mobile Communications Co Ltd 画像撮影装置及びプログラム
JP2009246450A (ja) * 2008-03-28 2009-10-22 Casio Hitachi Mobile Communications Co Ltd 画像処理装置およびプログラム。
JP2009278392A (ja) * 2008-05-15 2009-11-26 Casio Comput Co Ltd 撮像装置、プログラム
JP2010016621A (ja) * 2008-07-03 2010-01-21 Sony Corp 画像データ処理装置と画像データ処理方法およびプログラムと記録媒体
JP2012146071A (ja) * 2011-01-11 2012-08-02 Ricoh Co Ltd 画像処理装置
JP2012253669A (ja) * 2011-06-06 2012-12-20 Olympus Corp 撮影支援システム及び撮像装置
JP2013141131A (ja) * 2012-01-05 2013-07-18 Nikon Corp 撮像装置
US8532439B2 (en) 2009-02-20 2013-09-10 Olympus Imaging Corp. Reproduction apparatus and reproduction method
JP2013225876A (ja) * 2013-06-04 2013-10-31 Casio Comput Co Ltd 画像特定装置及び画像特定プログラム
KR20150064575A (ko) * 2013-12-03 2015-06-11 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
JP2015164343A (ja) * 2015-04-23 2015-09-10 オリンパス株式会社 画像処理サーバ及び撮像装置
KR101748139B1 (ko) * 2014-12-31 2017-06-16 명지대학교 산학협력단 복수의 카메라가 촬영한 영상을 관리하는 영상 처리 장치 및 방법
JP2017118341A (ja) * 2015-12-24 2017-06-29 株式会社ニコン 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP2017126345A (ja) * 2012-12-21 2017-07-20 グーグル インコーポレイテッド 写真の変換提案
CN110149475A (zh) * 2018-06-21 2019-08-20 腾讯科技(深圳)有限公司 图像拍摄方法及装置、电子装置、存储介质和计算机设备
CN111133765A (zh) * 2017-09-13 2020-05-08 尼尔森(美国)有限公司 通过自动内容识别进行冷匹配
JP2020533920A (ja) * 2017-09-13 2020-11-19 ザ ニールセン カンパニー ユーエス リミテッド ライアビリティ カンパニー 自動コンテンツ認識のための広告フレームのフラッギング

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193187A (ja) * 2008-02-13 2009-08-27 Casio Comput Co Ltd 画像検索方法、画像検索システム、画像検索端末および検索用サーバー
US8311369B2 (en) 2008-02-13 2012-11-13 Casio Computer Co., Ltd. Method and apparatus for searching for images
JP2009225097A (ja) * 2008-03-17 2009-10-01 Casio Hitachi Mobile Communications Co Ltd 画像撮影装置及びプログラム
JP2009246450A (ja) * 2008-03-28 2009-10-22 Casio Hitachi Mobile Communications Co Ltd 画像処理装置およびプログラム。
JP2009278392A (ja) * 2008-05-15 2009-11-26 Casio Comput Co Ltd 撮像装置、プログラム
JP2010016621A (ja) * 2008-07-03 2010-01-21 Sony Corp 画像データ処理装置と画像データ処理方法およびプログラムと記録媒体
US8331691B2 (en) 2008-07-03 2012-12-11 Sony Corporation Image data processing apparatus and image data processing method
US8532439B2 (en) 2009-02-20 2013-09-10 Olympus Imaging Corp. Reproduction apparatus and reproduction method
JP2012146071A (ja) * 2011-01-11 2012-08-02 Ricoh Co Ltd 画像処理装置
JP2012253669A (ja) * 2011-06-06 2012-12-20 Olympus Corp 撮影支援システム及び撮像装置
JP2013141131A (ja) * 2012-01-05 2013-07-18 Nikon Corp 撮像装置
JP2017126345A (ja) * 2012-12-21 2017-07-20 グーグル インコーポレイテッド 写真の変換提案
JP2013225876A (ja) * 2013-06-04 2013-10-31 Casio Comput Co Ltd 画像特定装置及び画像特定プログラム
KR102135363B1 (ko) * 2013-12-03 2020-07-17 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR20150064575A (ko) * 2013-12-03 2015-06-11 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR101748139B1 (ko) * 2014-12-31 2017-06-16 명지대학교 산학협력단 복수의 카메라가 촬영한 영상을 관리하는 영상 처리 장치 및 방법
JP2015164343A (ja) * 2015-04-23 2015-09-10 オリンパス株式会社 画像処理サーバ及び撮像装置
JP2017118341A (ja) * 2015-12-24 2017-06-29 株式会社ニコン 画像処理装置、撮像装置、電子機器及び画像処理プログラム
US11303974B2 (en) 2017-09-13 2022-04-12 Roku, Inc. Flagging advertisement frames for automatic content recognition
KR102406304B1 (ko) 2017-09-13 2022-06-10 로쿠, 인코퍼레이티드 자동 컨텐츠 인식에 의한 콜드 매칭
CN111133765A (zh) * 2017-09-13 2020-05-08 尼尔森(美国)有限公司 通过自动内容识别进行冷匹配
JP2020533918A (ja) * 2017-09-13 2020-11-19 ザ ニールセン カンパニー ユーエス リミテッド ライアビリティ カンパニー 自動コンテンツ認識によるコールドマッチング
JP2020533920A (ja) * 2017-09-13 2020-11-19 ザ ニールセン カンパニー ユーエス リミテッド ライアビリティ カンパニー 自動コンテンツ認識のための広告フレームのフラッギング
US10887667B2 (en) 2017-09-13 2021-01-05 The Nielsen Company (Us), Llc Flagging advertisement frames for automatic content recognition
JP2021122117A (ja) * 2017-09-13 2021-08-26 ザ ニールセン カンパニー ユーエス リミテッド ライアビリティ カンパニー 自動コンテンツ認識のための広告フレームのフラッギング
JP7240437B2 (ja) 2017-09-13 2023-03-15 ロク インコーポレイテッド 自動コンテンツ認識のための広告フレームのフラッギング
CN111133765B (zh) * 2017-09-13 2022-02-15 六科股份有限公司 通过自动内容识别进行冷匹配
JP7116786B2 (ja) 2017-09-13 2022-08-10 ロク インコーポレイテッド 自動コンテンツ認識によるコールドマッチング
KR20200053543A (ko) * 2017-09-13 2020-05-18 더 닐슨 컴퍼니 (유에스) 엘엘씨 자동 컨텐츠 인식에 의한 콜드 매칭
US11379448B2 (en) 2017-09-13 2022-07-05 Roku, Inc. Cold matching by automatic content recognition
CN110149475A (zh) * 2018-06-21 2019-08-20 腾讯科技(深圳)有限公司 图像拍摄方法及装置、电子装置、存储介质和计算机设备
CN110149475B (zh) * 2018-06-21 2021-09-21 腾讯科技(深圳)有限公司 图像拍摄方法及装置、电子装置、存储介质和计算机设备

Similar Documents

Publication Publication Date Title
JP2008011316A (ja) カメラ装置及びカメラ装置制御プログラム
JP4706415B2 (ja) 撮像装置、画像記録装置およびプログラム
JP2007088814A (ja) 撮像装置、画像記録装置および撮像制御プログラム
JP5612310B2 (ja) 顔認識のためのユーザーインターフェース
US7327890B2 (en) Imaging method and system for determining an area of importance in an archival image
KR101573131B1 (ko) 이미지 촬상 방법 및 장치
US9225855B2 (en) Imaging apparatus, imaging system, and control method for increasing accuracy when determining an imaging scene based on input image data and information stored in an external information processing apparatus
JP4894278B2 (ja) カメラ装置及びカメラ制御プログラム
US20100302595A1 (en) Image Reproducing Apparatus And Imaging Apparatus
JP2001309225A (ja) 顔を検出するためのカメラ及び方法
WO2007053458A1 (en) Determining a particular person from a collection
US20130222645A1 (en) Multi frame image processing apparatus
JP2006190259A (ja) 手ぶれ判定装置及び画像処理装置及びその制御方法及びプログラム
JP2008165700A (ja) 画像処理装置、電子機器、画像処理システム、画像処理方法、および、プログラム
KR20090087670A (ko) 촬영 정보 자동 추출 시스템 및 방법
WO2012116178A1 (en) Image capture and post-capture processing
US8369619B2 (en) Method and apparatus for skin color correction and digital photographing apparatus using both
JP2010244398A (ja) 画像処理装置および画像処理プログラム
US20130022261A1 (en) Systems and methods for evaluating images
US20060013434A1 (en) Matching of digital images to acquisition devices
JP2003288601A (ja) 画像撮像装置、画像処理装置、画像処理方法及び画像情報分類サービス方法
JP5808056B2 (ja) 撮像装置、撮像制御プログラム、画像再生装置及び画像再生制御プログラム
KR101398471B1 (ko) 디지털 영상처리장치 및 그 제어방법
CN108234868B (zh) 一种基于案例推理的智能拍摄系统及方法
JP2008158976A (ja) 被写体認識装置、画像検索方法、および被写体認識プログラム