以下本発明をコンパクトタイプのデジタルカメラに適用した場合の実施の一形態について図面を参照して説明する。
図1は本発明に係るデジタルカメラ10の主にその外観構成を示すもので、図1(A)が正面図、図1(B)が左側面図、図1(C)が背面図である。
このデジタルカメラ10の正面、左端上部に撮影光学系受光窓11が配置される他、同正面の略中央上部にストロボ発光部12、同正面の左端に沿ってグリップ部13が配置される。
また、デジタルカメラ10の上面、右端側には、電源スイッチ14及びシャッタスイッチ15が配置される。
図1(B)は、このデジタルカメラ10内部の撮影光学系の構成を透視して示すものである。このデジタルカメラ10は、撮影系に屈折光学系を採用するものとし、上記撮影光学系受光窓11より入射した光像は、ミラー(またはプリズム)16で45°反射されてこのデジタルカメラ10の筐体に平行な光束とされた後、撮影レンズ群17を介した後に撮像素子であるCCD18上で結像される。
撮影レンズ群17は、インナーフォーカス方式及びインナーズーム方式を採用しており、撮影光軸に沿って適宜所定のレンズが移動することによりズーム角度及びフォーカス位置を変化させるものとしている。
また、デジタルカメラ10の背面には、基本モードである撮影モードと再生モードとを切換えるモード切替スイッチ19、ズームスイッチ20、リング状のカーソルキー21、同カーソルキー21の中央に位置するエンターキー22、ディスプレイ切替キー23、メニューキー24の各種操作キーが配置されると共に、バックライト付きのカラー液晶パネルでなる表示部25が配置される。
この表示部25は、撮影モード時には上記CCD18で結像されている画像を他の各種撮影条件の情報等と共にスルー表示する電子ファインダとして機能する一方で、再生モード時には選択した画像を表示するモニタ表示部として機能する。
また、デジタルカメラ10の筐体底面には、記録媒体であるメモリカード及び電源であるリチウムイオン充電池パックを収納するための収納蓋26が設けられると共に、例えばUSBコネクタによる外部入出力端子27が配設される。
図2は、上記デジタルカメラ10に代わる、本実施の形態の他のデジタルカメラ10′の外観構成を例示するものである。図2(A)は左後方からの背面構成を示す図、図2(B)は同背面側の各種媒体収納構成を示す図である。
前面側に撮影レンズ部31、マイクロホン32を備えるデジタルカメラ10′は、その左側面にバックライト付きのカラー液晶パネルでなる表示部33を備える。この表示部33は、その基部が互いに直交する2軸に沿ってそれぞれ所定角度範囲内で回動可能となることで、非使用時には画面をデジタルカメラ10′内面側に向けて収納可能となると共に、使用時には引き起こしてユーザの好みに応じ、図2(A)に示す如く画面を任意の方向に向けることが可能となる。
この表示部33も、上記デジタルカメラ10の表示部33と同様に撮影モード時には電子ファインダとして、再生モード時にはモニタ表示部として機能する。
デジタルカメラ10′の背面には、その上側より、スピーカ34、ズームスイッチ35、撮影スイッチ36、リング状のカーソルスイッチ37、該カーソルスイッチ37の中央に位置した再生スイッチ38、電源/モード切替スイッチ39、外部入出力端子40,41が配設される。
これらのうち、スピーカ34を除く各スイッチ35〜39、及び外部入出力端子40,41は、デジタルカメラ10′の筐体背面側を形成する開閉蓋42の外面に形成されるもので、この開閉蓋42は図2(B)に示すようにデジタルカメラ10′本体に対して片開きで開閉することができる。この開閉蓋42を開けた状態で、図示する如く共に記録媒体であるハードディスクユニット43とメモリカード44とをそれぞれ所定の位置に着脱可能となる。
図3は、上記デジタルカメラ10の概念的なシステム構成を示すものである。同図で、上記電源スイッチ14、シャッタスイッチ15、モード切替スイッチ19、ズームスイッチ20、カーソルキー21、エンターキー22、ディスプレイ切替キー23、及びメニューキー24を含む操作入力部51でのキー操作信号が撮影・記録制御部52、撮影条件設定部53、特徴抽出・記述設定部54、及び送信情報設定部77に与えられる。
撮影・記録制御部52は、撮影部55、信号処理部56、画像データメモリ57、特徴抽出部58に対して撮影条件や動作タイミング等を制御することで撮影とその撮影に伴って得られる画像データの記録とを制御する。
撮影部55は、上記撮影レンズ群17及びCCD18を含み、撮影によるデジタル値の画像データを得て信号処理部56へ出力する。
信号処理部56は、撮影部55から与えられる画像データに所定のプロセス処理等を施した上でバッファメモリとして機能する画像データメモリ57へ出力する。
この画像データメモリ57に保持された画像データは必要により上記特徴抽出部58と画像・動画像圧縮/符号化部59に読出される。
画像・動画像圧縮/符号化部59は、例えば画像データが静止画像であればJPEG、動画像であればMPEGの規格に従ってデータ圧縮と符号化等を行ない、得た符号化データとしての画像データを多重化部60及び上記特徴抽出部58へ出力する。
上記特徴抽出・記述設定部54は、操作入力部51でのキー操作信号と上記撮影条件設定部53から与えられる撮影条件とに従って特徴抽出を行なう要素とその記述方法とを設定し、上記特徴抽出部58及び特徴データ符号化部61へ送出する。
特徴抽出部58は、上記特徴抽出・記述設定部54で設定された特徴情報に基づき、上記画像・動画像圧縮/符号化部59が出力するデータ圧縮を施した画像データに対して特徴抽出処理を行なって処理結果である「特徴抽出A」を得る一方で、上記画像データメモリ57が出力する、データ圧縮前の画像データに対しても特徴抽出処理を行なって処理結果である「特徴抽出B」を得る、というように特徴抽出処理を特徴抽出・記述設定部54から設定される特徴情報の数に応じて実行し、それらの処理結果を特徴データ符号化部61、比較回路62へ出力する。
特徴データ符号化部61は、特徴抽出部58で抽出された特徴量のデータを符号化して特徴記述データとした上で上記多重化部60及び更新記録制御部63へ出力する。
多重化部60は、画像・動画像圧縮/符号化部59から与えられる画像データと、特徴データ符号化部61から与えられる特徴記述データとを多重化して関連付けた上でメモリ制御部64へ出力する。
メモリ制御部64は、このデジタルカメラ10の記録媒体である画像データメモリ65に画像データと特徴記述データとを関連付けて最大その容量に応じた分だけ記録する。この画像データメモリ65に記憶された画像データ及び特徴記述データは、必要により外部入出力部66によってこのデジタルカメラ10の外部の装置、例えば図示しないパーソナルコンピュータ等に読出される。
上記更新記録制御部63は、特徴データ符号化部61からの特徴記述データを用い、すでに特徴記述データに基づいて撮影シーンと撮影条件とを記憶する撮影履歴データ記憶部67の内容を更新設定する。
この撮影履歴データ記憶部67の記憶内容は、上記比較回路62及び送信データ選別部76へ適宜読出される。
比較回路62は、特徴抽出部58から与えられる(撮影により得た)画像データから抽出した特徴量のデータと統計記憶部67に記憶される特徴量のデータとを比較し、その比較結果を上記撮影条件設定部53へ出力する。
また、上記画像データメモリ65の記憶する画像データは、画像変換部74により必要により一部が変換され、画像データに関連する各種情報は送信データ選別部75により必要により一部の項目が制限された後に外部入出力部66より外部へ出力される。
上記送信データ選別部76は、撮影履歴データ記憶部67から与えられる撮影履歴データの一部を必要により制限した上で外部入出力部66より外部へ出力させる。
送信情報設定部77は、上記画像変換部74、送信データ選別部75、及び送信データ選別部76での各種データの変換、制限の内容を操作入力部51での操作に対応して設定する。
一方で、上記画像データメモリ65及び撮影履歴データ記憶部67の各記憶内容はそれぞれ、外部入出力部66を介して外部から入力される内容によって適宜書き換えられる。
しかるに、書き換えられた画像データメモリ65の内容は、再生制御部68からの指示を受けたメモリ制御部64により取り出され、多重分離部69により画像データと特徴記述データとに分離されて、画像データは画像・動画像伸張/復号化部70へ、特徴記述データは特徴データ複合化部71へそれぞれ送出する。
画像・動画像伸張/復号化部70は、上記画像・動画像圧縮/符号化部59でのデータ圧縮とは全く逆の手順で、データ圧縮、符号化されている画像データを伸長して復号化し、上記再生制御部68へ出力する。
この再生制御部68は、送られてきた画像データを画像データメモリ57に一旦記憶させた上でこれを読出して表示制御部72へ出力させる。
表示制御部72は、上記再生制御部68からの制御の下に、画像データメモリ57から読出された画像データから表示データを作成し、表示部73を表示駆動して当該画像を表示させる。この表示部73は、上記表示部25とその駆動回路とで構成する。
次に図4により上記デジタルカメラ10の具体的な回路構成を、外部機器との接続等も併せて例示する。同図は、上述した図3の概念的なシステム構成とは多少接続関係等が異なる。
同図で、撮影レンズ群17はその一部のレンズがレンズドライバ80に駆動されて光軸中の位置を移動させ、撮影光像をCCD18に結像させる。このCCD18で得られる画像信号が映像信号処理部81に送られ、デジタル化された後に各種プロセス処理を経て画像メモリ82及び制御回路83に送られる。
また、音声録音時及び動画撮影時にはマイク84により入力された音声信号がアンプ85で増幅された後にA/D変換回路86でデジタル化され、音声メモリ87に保持される。
制御回路83は、画像メモリ82に保持された画像データ及び音声メモリ87に保持された音声データを読出し、圧縮符号化・伸長復号化88で所定のデータ圧縮処理を施した後にメモリカード等の着脱自在な記録媒体89に記録させる。
一方で、制御回路83は上記画像メモリ82から読出した画像データ及び音声メモリ87から読出した音声データを特徴抽出/認識処理部90へも送出する。
この特徴抽出/認識処理部90は、シーン・撮影条件の履歴データメモリ91に記憶される内容に基づいて画像データ、音声データの特徴抽出を行ない、抽出結果のデータファイルを上記圧縮符号化・伸長復号化88に送出して、元の画像データ、音声データに併せて記録媒体89に記録させる。
シーン・撮影条件の履歴データメモリ91の内容は、適宜上記制御回路83により更新設定される。
制御回路83は、プログラムメモリ92に固定的に記憶されている動作プログラムに基づき、データメモリ93に適宜必要なデータの書込み/読出しを行ないながら画像と音声の記録/再生動作を含むこのデジタルカメラ10全体の制御動作を実行するものであり、他に撮影制御部94、表示制御部95、入力回路96、外部入出力インタフェース97、ハードディスクインタフェース(HDD・IF)98、及びD/A変換回路99とも接続される。
撮影制御部94は、測距センサ100で得られるセンサ出力から測光/測距部101が出力する測距データと制御回路83からの制御信号とに基づき、上記レンズドライバ80、CCD18、及び映像信号処理部81での撮影動作を制御する。
表示制御部95は、制御回路83より与えられる表示データに基づいて上記表示部25を表示駆動することで、この表示部25を撮影時には電子ファインダとして、再生時には表示モニタとして機能させる。
入力回路96は、上記電源スイッチやシャッタスイッチ等の各種キースイッチからなる操作入力部104からの操作信号を受付けて制御回路83に送出する。
外部入出力インタフェース97は、上記外部入出力端子27と制御回路83との間で各種規格に従ったデータ等を送受する。
ハードディスクインタフェース98は、上記図2で示したデジタルカメラ10′のように、記録媒体としてメモリカードのみならずハードディスクユニット43を装着する場合に制御回路83との間での仲介を行なうものであり、装着されたハードディスクユニット43は上記記録媒体89の容量を拡大するものとして機能する。
D/A変換回路99は、音声データの再生時に、制御回路83から与えられるデジタルL音声データをアナログ化するもので、出力した音声信号はアンプ102で適宜増幅された後にデジタルカメラ10の背面側に配置されたスピーカ103により拡声放音される。
なお、上記外部入出力端子27には、例えば図示する如く外部機器としてのパーソナルコンピュータ(PC)110がライン接続される。
このパーソナルコンピュータ110は、予めこのデジタルカメラ10用のドライバソフトウェアをインストールしておくことでデジタルカメラ10との接続時に、記録媒体89に記録されている画像/音声データと撮影データ、及び特徴記述データ等を自動的にアップロードすることが可能となる他、上記シーン・撮影条件の履歴データメモリ91の記憶内容も適宜更新設定可能となる。
すなわち、パーソナルコンピュータ110は、それぞれゲートウェイ(GW)を介してインターネット111経由で、例えばこのデジタルカメラ10のメーカが運営するサーバ装置112と接続し、デジタルカメラ10用のバージョンアップ用ファームウェアやシーン・撮影条件の統計データ等、各種データをダウンロードし、デジタルカメラ10に更新設定させる。
サーバ装置112では、インターネット111を介して予めユーザ会員登録した不特定多数のパーソナルコンピュータから送られてくる画像データと特徴抽出データ等を画像データベース(DB)113に蓄積記憶し、デジタルカメラの機種など各種の分類に基づいた統計データを算出して記憶しておき、その内容を当該ユーザ会員の所有するパーソナルコンピュータに配信する。
次いで上記実施の形態の動作について説明する。
図5乃至図7は、上記デジタルカメラ10での電源投入後からの全般的な処理内容を示すもので、その制御動作は主として制御回路83がプログラムメモリ92に記憶された動作プログラムに基づいて実行する。
その当初には、まず基本モードが撮影モードとなっているか否かをモード切替スイッチ19の操作位置により判断する(ステップA01)。
撮影モードである場合には、撮影モードを選択した上で(ステップA02)、次にオート撮影モードまたはシーン識別モードが設定されているか否かを前回電源を切断した時点での記憶設定の内容により判断する(ステップA03)。
オート撮影モードまたはシーン識別モードが設定されていると判断した場合には、直ちに測光処理と前回電源を切断した時点でのズーム位置に復帰する処理とを実行した上で(ステップA04,A05)、測光処理により得た被写体輝度とズーム処理によるレンズ焦点距離等を検出する(ステップA06)。
次いで、その時点で得られる画像データから画像の特徴量を抽出する(ステップA07)。この特徴量の抽出処理の詳細な内容については、後に詳述する。
抽出した特徴量と上記シーン・撮影条件の履歴データメモリ91に記憶される撮影履歴の統計データとにより、撮影シーンを自動選択する(ステップA08)。
なお、上記ステップA03でオート撮影モードまたはシーン識別モードが設定されていないと判断した場合には、次いで予め設定された複数のシーンプログラムのうちの1つを選択するシーン別撮影モードが設定されているか否かを判断する(ステップA09)。
ここで、シーン別撮影モードは設定されていないと判断した場合には、その他のモードでの処理を行なうが(ステップA26)、本発明に係る内容とは関連がないためにここではその説明を省略するものとする。
一方、上記ステップA09でシーン別撮影モードが設定されていると判断した場合には、ユーザの操作に応じて撮影シーンを選択する処理を実行した上で(ステップA10)、その選択した撮影シーンの内容に従ってあらためて測光処理とズーム処理とを実行し(ステップA11,A12)、測光処理により得た被写体輝度とズーム処理によるレンズ焦点距離等を検出する(ステップA13)。
上記ステップA08またはA13の処理後、その時点で選択されている撮影シーンに対応する撮影条件データをシーン・撮影条件の履歴データメモリ91から読出す(ステップA14)。
この読出した撮影条件のデータに従い、AF(自動合焦)を行なう範囲を設定した上でフォーカスエリアの選択も含む当該範囲内でのAF処理を実行する(ステップA15)。
次に選択された撮影シーンに応じて露出条件、ホワイトバランス(WB)、ストロボ発光部12の発光条件などの撮影条件を設定する(ステップA16)。
こうしてストロボの発光条件を除き、設定した撮影条件上でCCD18を介して得られるその時点の画像データを撮影条件の情報と共に表示部25にてスルー表示しながら(ステップA17)、シャッタスイッチ15による撮影指示の操作または他のキースイッチ操作があるのを待機する(ステップA18)。
ここで、シャッタスイッチ15以外のキースイッチが操作された場合には、その操作されたキースイッチに応じたキー処理を行ない(ステップA24)、そのキー処理結果に応じた表示処理を行なった上で(ステップA25)、操作されたキーに応じた処理位置に復帰する。
また、上記ステップA18でシャッタスイッチ15が操作されたと判断すると、その操作に対応して上記設定した条件でストロボを発光処理するのと同期して撮影処理を実行し(ステップA19)、撮影により得た画像データを圧縮符号化・伸長復号化88でデータ圧縮、符号化してこのデジタルカメラ10の記録媒体89に記録する(ステップA20)
。
併せて、特徴抽出/認識処理部90でデータ圧縮前の画像データから特徴データを抽出し、撮影条件の特徴データと共に元の画像データに関連付け、具体的には識別子は別にして同一のファイル名を付与するようにして記録媒体89に記録する(ステップA21)。
その後、撮影により記録した画像データと撮影条件等の情報とを表示部25にて一定時間、例えば2秒間だけレビュー表示する(ステップA22)。
最後に、撮影シーンと被写体距離、レンズ焦点距離、露出条件、ホワイトバランス設定値、ストロボ発光条件などの特徴量、撮影条件等の履歴データをシーン・撮影条件の履歴データメモリ91に追加記憶した上で、静止画像と動画、音声メモ等の撮影モード別に再度集計処理し(ステップA23)、以上で撮影に係る一連の処理を終えたものとして、次の撮影に備えるべく上記ステップA18からの処理に戻る。
また、上記ステップA01で電源投入当初に基本モードが撮影モードではないと判断した場合には、次いで外部機器としてのパーソナルコンピュータ110との通信を行なう通信モードであるか否かを判断する(ステップA27)。
ここで該通信モードでもないと判断した場合には、その他のモードでの処理を行なうが(ステップA26)、本発明に係る内容とは関連がないためにここではその説明を省略するものとする。
また、上記ステップA28で通信モードであると判断した場合には、当該部位武器機能パーソナルコンピュータ110等との同期確率等を含む接続処理を行なった上で(ステップA28)、認証処理を行なう(ステップA29)。
この認証処理としては、パーソナルコンピュータ110側がデジタルカメラ10の機種名、製造番号等のデータで予め登録されている内容により真正性判断を行なう。
上記認証処理を経てデータの送受が許可されると、次に画像データの送信を許可する設定が予めなされているか否かを判断する(ステップA30)。
ここで許可する設定がなされていると判断すると、次いで個人情報や顔画像などユーザのプライベートな情報を保護する機能が設定されているか否かを判断する(ステップA31)。
プライベートな情報を保護する機能が設定されていないと判断した場合、画像データとこの画像データに関連する撮影データ、特徴記述データ等の各種付加情報とをそのままパーソナルコンピュータ110内の電子アルバム等に送信する(ステップA32)。
一方、上記ステップA31でプライベートな情報を保護する機能が設定されていると判断した場合には、記録媒体89に記憶されている撮影データ、特徴記述データに対し、設定条件に基づいた編集処理を行なうことで、送信するデータの内容を制限する(ステップA33)。
次いで、記録媒体89に記憶されている画像データに対しても、設定された条件に基づいて当該部位のマスク処理、及びモザイク処理等の画像処理を施す(ステップA34)。
そして、上記ステップA33で内容を編集した撮影データ及び特徴記述データと、上記ステップA34で画像処理を施した画像データとを、共に内容を制限した一連のデータとしてパーソナルコンピュータ110内の電子アルバム等に送信する(ステップA35)。
上記ステップA32またはステップA35での送信処理後、あるいは上記ステップA30で画像データの送信を許可する設定が予めなされていないと判断した場合には、次いでこのパーソナルコンピュータ110がその時点でインターネット111経由でサーバ装置112とも接続しているか否かを判断する(ステップA36)。
このとき、サーバ装置112と接続されていないと判断した場合には、以上でこのパーソナルコンピュータ110との接続を終了するものとして設定処理を実行し(ステップA43)、上記ステップA01からの処理に戻る。
また、上記ステップA36でパーソナルコンピュータ110がその時点でサーバ装置112と接続されていると判断した場合には、次いで事前のユーザ設定により撮影履歴の収集を許可する状態となっているか否かを判断する(ステップA372)。
ここで許可する状態となっていると判断した場合にのみ、上述した撮影情報や撮影履歴情報を暗号化してパーソナルコンピュータ110経由でサーバ装置112へ送信する(ステップA38)。
その後、サーバ装置112から送られてくる当該デジタルカメラ10用の制御ソフトウェアの更新プログラムデータを受信し(ステップA39)、受信した内容によりプログラムメモリ92の更新設定処理を行なう(ステップA40)。
次いでシーン・撮影条件の履歴データメモリ91に記憶している履歴データの更新分をサーバ装置112から受信し(ステップA41)、受信した内容により履歴データメモリ91の更新設定処理を行なう(ステップA42)。
以上でこのパーソナルコンピュータ110との接続を終了するものとして設定処理を実行し(ステップA43)、上記ステップA01からの処理に戻る。
次に、このデジタルカメラ10において各種設定を行なう設定モード時の動作について、図8及び図9のフローチャートと、図10乃至図13の操作画面例とを用いて説明する。
設定モードは、上記メニューキー24とカーソルキー21の上または下方向のキー操作により選択するもので、その処理当初に設定モードが設定されているか否かを確認のために判断し(ステップB01)、設定されていない場合にはその他のモードでの処理を行なうが(ステップB02)、本発明に係る内容とは関連がないためにここではその説明を省略するものとする。
上記ステップB01で設定モードが設定されていることを確認すると、次いで特徴抽出の設定モードであるか否かを判断する(ステップB03)。
ここでも、特徴抽出以外の設定モード、例えば画像サイズや画質の設定を行なう場合についてはそれぞれそのモードでの処理を行なうが(ステップB04)、本発明に係る内容とは関連がないためにここではその説明を省略するものとする。
しかして、特徴抽出の設定モードであると判断すると、設定状態の表示など、設定モードでの表示処理を行なう(ステップB05)。
図10(A)は、表示部25での「特徴抽出・識別」の設定画面を例示するもので、その先頭に位置する「抽出被写体にAF」なる項目名が併せて表示されている状態を示す。
このような表示状態から、メニューキー24の上または下方向のキーとエンターキー22との操作によって、「特徴抽出による撮影方法の選択」「特徴データの記録の設定」「特徴抽出方法の選択」「特徴データの記述様式の選択」「個人情報の送信」「撮影履歴のアップロード送信の許可」のいずれかであるかを順次判断する(ステップB06〜B12)。
選択された項目が「特徴抽出による撮影方法の選択」であった場合、ステップB06でこれを判断し、操作に応じて特徴抽出するか否か、また特徴抽出による撮影処理の種別を選択する(ステップB13)。
図10(B)は当該項目中のさらに各種小項目を例示するもので、ここでは「(特徴抽出の)OFF(抽出しない)」「被写体の特徴記録」「被写体を識別・分類」「撮影シーンを自動選択」「抽出被写体にAF」「抽出被写体を追尾」‥‥「抽出個数をカウント」等の項目名を例にとって列挙している。
また、選択された項目が「特徴データの記録の設定」であった場合、ステップB07でこれを判断し、操作に応じて特徴データを付加して記録するか否かを設定する(ステップB14)。
また、選択された項目が「特徴データの選択」であった場合、ステップB08でこれを判断し、操作に応じて、抽出したい特徴項目または特徴量を選択した上で(ステップB15)、それら選択された特徴項目、特徴量に基づいて、特徴抽出方法を選択する(ステップB16)。
また、選択された項目が「特徴抽出方法の選択」であった場合、ステップB09でこれを判断し、操作に応じて、オートまたはカスタム設定の特徴抽出方法を選択する(ステップB17)。
図11(A)は、この「特徴抽出方法」を選択している状態を示すものであり、この項目を選択することでさらに図11(B)に示すように「撮影シーン」や「色の抽出」「輪郭の抽出」「テクスチャ抽出」「動きの抽出」「配置の抽出」等、各種詳細なカスタム設定を行なうことができる点を例示している。
また、選択された項目が「特徴データの記述様式の選択」であった場合、ステップB10でこれを判断し、操作に応じて、送付先別に送付する特徴データ及び特徴記述様式を選択する(ステップB18)。
また、選択された項目が「個人情報の送信」であった場合、ステップB11でこれを判断し、操作に応じて、記録されている画像データ、撮影データ、及び特徴記述データの少なくとも1つを外部出力を許可するデータとして選択する(ステップB19)。
次いで、上記先端設定した内容に基づき、画像データの出力形式を選択したか否かを判断する(ステップB20)。
ここで、画像データの出力形式を選択したと判断した場合にのみ、操作に応じて画像データの必要部分にマスク処理もしくはモザイク処理を施すか否かを選択する(ステップB21)。
図12(A)は、この「個人情報の送信設定」を選択している状態を示すものであり。この項目を選択することで、さらに図12(B)に示すように「個人情報の保護」「撮影画像の送信」「受信画像の送信」「秘匿画像の変換」「撮影日時・場所」「撮影条件の送信」「特徴データの送信」等、各種詳細なカスタム設定を行なうことができる点を例示している。
これらの項目の選択に際しては、その内容の組合せにより1つの項目の設定に対してそれに関連した他の項目も自動的に設定されるものとしてもよく、そうすることでユーザの指定操作をより簡略化してユーザの負担を軽減できる。
また、選択された項目が「撮影履歴のアップロード送信の許可」であった場合、ステップB12でこれを判断し、操作に応じて、サーバ装置112にアップロード送信する特徴データ、撮影条件、及び特徴記述様式等の撮影履歴及び特徴記述様式を選択する(ステップB22)。
図13(A)は、この「撮影履歴情報の(アップロード)送信」の許可選択を行なう状態を示すものであり、この項目を選択することでさらに図13(B)に示すようなアップロード先のサーバのURL、特徴記述様式、暗号化の有無とアップロードする具体的な内容(「画像データ」「撮影日時」「撮影場所」「撮影条件」「色の分布」「輪郭形状」「テクスチャ」「動き」等)とを個々に選択する。
なお、上記ステップB12で「撮影履歴のアップロード送信の許可」の項目の選択でもないと判断した場合には、その他のキー処理を行なう(ステップB23)。
上記ステップB06〜B12での各選択結果に基づいた設定処理を実行した後、その設定結果に対応した表示内容の更新等の処理を行なった上で(ステップB24)、設定モード以前の処理に復帰する。
次に、このデジタルカメラ10とパーソナルコンピュータ110、及びインターネット111を介したサーバ装置112との接続構成について説明する。
図14は、撮影シーンや撮影条件の撮影履歴情報の集計機能や画像検索機能をデジタルカメラ10の外部であるサーバ装置112側が有する場合の機能構成について例示するものである。
同図で、デジタルカメラ10側のファームウェアP10上で動作するアプリケーションプログラムとして、カメラ制御プログラムP11とPC転送プログラムP12とが存在し、記録媒体89に記録される画像データ及びそれらに関連付けられた特徴記述データと、プログラムメモリ92及びデータメモリ93に記憶されたプログラムデータ、撮影条件等の統計データの内容をパーソナルコンピュータ110との間で送受する。
このデジタルカメラ10と例えばUSB接続されるパーソナルコンピュータ110では、基本ソフトであるOS(オペレーティングシステム)P110上で動作するWWW(World Wide Web)ブラウザP111とデジタルカメラ10専用のドライバソフトの一部であるカメラ転送ソフトP112とが必要なアプリケーションプログラムとして少なくとも存在する。
このパーソナルコンピュータ110とインターネット111経由で接続されるサーバ装置112の機能構成は図示する通りである。
すなわちこのサーバ装置112では、デジタルカメラ10を所有する会員の認証等を行なうCGI(Common Gateway Interface)プログラムP201、画像データと特徴記述データの登録等を行なうCGIプログラムP202、及び画像データ等の検索等を行なうCGIプログラムP203を中心とし、これらをHTML文書及びXML文書を格納する文書データベースD204を介してこのサーバ装置112全体の統括制御を行なうサーバソフトP205に接続して構成する。
CGIプログラムP201は、認証ソフトP206を介して会員登録データベースD207の記憶内容を参照することで会員の認証、新規登録、抹消等の処理を行なう。
CGIプログラムP202は、画像登録ソフトP208、記述言語エンコーダC209を介して画像データを記憶する画像データベースD210、特徴記述データを記憶する特徴記述データベースD211への登録、更新を行なう。
これら画像データベースD210、特徴記述データベースD211の記憶内容は、検索ソフトP212、記述言語デコーダC213により上記CGIプログラムP203に読出される。
一方で、撮影シーン及び撮影条件の集計ソフトP214が上記特徴記述データベースD211に対して直接アクセスして特徴記述データを読出し、上記上記記述言語デコーダC213を介して特徴記述データを得ることで集計処理を行なうもので、その集計結果は配信データベースD215にシーン・撮影条件の統計データとして更新記憶される。
この配信データベースD215にはまた、カメラプログラムの更新データも記憶されるもので、これらの記憶内容が上記サーバソフトP205により読出され、インターネット111を介してユーザのパーソナルコンピュータ110経由でデジタルカメラ10に送出される。
図15及び図16は、上記図14で示した機能構成における、デジタルカメラ10からサーバ装置112への画像データ、特徴記述データのアップロード、及びサーバ装置112からデジタルカメラ10への統計データのダウンロードの処理内容を示すものである。
その当初にデジタルカメラ10はパーソナルコンピュータ110との間で通信接続処理を実行して接続状態を確立する(ステップC01,D01)。
このときデジタルカメラ10とパーソナルコンピュータ110は相互に相手側の仕様や容量情報を得る(ステップC02,D02)。
その後、パーソナルコンピュータ110の発する機器認証データの送信要求にデジタルカメラ10が応えて当該機器認証データを測距センサ100へ送信し、パーソナルコンピュータ110が受信すると(ステップD03,C03)、デジタルカメラ10では続けて画像データを送信するか否かを判断する(ステップC04)。
ここでは、デジタルカメラ10側でユーザが任意に画像データ、撮影条件データ、及び特徴記述データの選択を行なうものとするもので、ユーザにより選択された画像データ、撮影条件データ及び特徴記述データが少なくとも1つ以上ある場合にのみ、その詳細な内容は後述するが、上記「個人情報の送信設定」で指定された制限設定に基づいて画像データ、撮影条件データ、特徴記述データをそれぞれ編集処理し(ステップC05)、その編集後の画像データ、撮影条件データ、特徴記述データをパーソナルコンピュータ110に対して送信する(ステップC06)。
これを受けたパーソナルコンピュータ110では、受信した画像データを所定のアルバムフォルダに保存設定した後(ステップD04)、サーバ装置112からの自動更新を行なう自動更新モードがオンに設定されているか否かを判断する(ステップD05)。
ここで、オン設定されていると判断した場合にのみ、接続要求をインターネット111を介してサーバ装置112へ送信する(ステップD06)。
サーバ装置112では、会員登録しているパーソナルコンピュータ110からの接続要求をインターネット111経由で常時受付けており、接続要求を受信した時点でこれを判断し(ステップE01)、当該パーソナルコンピュータ110に対して機器認証データを要求する(ステップE02)。
サーバ装置112からの機器認証データの要求を受信したパーソナルコンピュータ110は(ステップD07)、上記ステップD03でデジタルカメラ10から受信した機器認証データをサーバ装置112に対して送信する(ステップD08)。
サーバ装置112は、パーソナルコンピュータ110から送られてきた機器認証データにより認証ソフトP206が上記会員登録データベースD207に記憶している会員登録データの内容と照合することで認証処理を実行し(ステップE03)、その認証結果から接続要求を送ってきたパーソナルコンピュータ110が正当なユーザ会員の使用するものであるか否かを判断する(ステップE04)。
ここで、認証結果からパーソナルコンピュータ110が正当なユーザ会員の使用するものではないと判断した場合には、接続不可である旨の応答を行ない(ステップE06)、以後当該パーソナルコンピュータ110からの要求を一切拒否する一方で、正当なユーザ会員の使用するものであると判断した場合には、接続許可応答を当該パーソナルコンピュータ110に対して返信する(ステップE05)。
パーソナルコンピュータ110では、この接続許可応答の有無によりサーバ装置112側での認証が成功したか否かを判断する(ステップD09)。
認証が成功しなかったと判断した場合にパーソナルコンピュータ110は、そのままサーバ装置112との通信接続を終了するかどうかを判断し(ステップD17)、終了すると判断した時点でサーバ装置112との接続を切断する処理を実行し(ステップD18)、以上で一連の処理を一旦完了する。
また、上記ステップD09でサーバ装置112側での認証が成功したと判断した場合にパーソナルコンピュータ110は、サーバ装置112に対して更新情報などのインデックス情報を要求し、サーバ装置112から要求に応答して送られてくるインデックス情報を受信する(ステップD10,E07)。
こうしてサーバ装置112からインデックス情報を受信したパーソナルコンピュータ110は、次にデジタルカメラ10に対して撮影履歴情報の送信を要求する(ステップD11)。
デジタルカメラ10は、パーソナルコンピュータ110からの撮影履歴情報の送信要求に対し、予めユーザの設定により撮影履歴の送信が許可されているか否かを判断し(ステップC07)、許可されていると判断した場合にのみ、送信するように設定されている撮影履歴情報を送信する(ステップC08)。
これを受けたパーソナルコンピュータ110は、サーバ装置112に対してデジタルカメラ10の撮影履歴情報を転送する(ステップD12)。
サーバ装置112では、パーソナルコンピュータ110を介してデジタルカメラ10の撮影履歴情報の受信があるか否かを判断し(ステップE08)、あると判断した場合にのみ、その後に送られてくる撮影履歴情報を一旦配信データベースD215に登録、保持した上で(ステップE09)、集計ソフトP214により撮影条件、特徴データ等を撮影モード別に集計し、その集計結果により配信データベースD215の内容を更新記憶させる(ステップE10)。
パーソナルコンピュータ110では、上記ステップD12での撮影履歴情報の転送処理後に、デジタルカメラ10用の更新プログラムがあるか否かを上記サーバ装置112から受信したインデックス情報により判断し(ステップD13)、更新プログラムがあると判断した場合にのみ、サーバ装置112に対してその更新プログラムのダウンロード要求を送信する(ステップD14)。
サーバ装置112ではパーソナルコンピュータ110からの更新プログラムの要求があるか否かを判断し(ステップE11)、あると判断した場合には、当該更新プログラムを配信データベースD215から読出してサーバソフトP205によりパーソナルコンピュータ110側へ送信する(ステップE12)。
その後にサーバ装置112は、パーソナルコンピュータ110からの要求の有無に拘わらず、同じく配信データベースD215に記憶している撮影シーン、撮影条件等の統計データを読出してパーソナルコンピュータ110へ送信し(ステップE13)、以上で一連のパーソナルコンピュータ110との接続を完了するものとして、一旦パーソナルコンピュータ110との接続を切断する処理を実行し、次に他のパーソナルコンピュータからの接続要求があるのを待機する。
パーソナルコンピュータ110は、上記ステップD14でのダウンロード要求の送信後、これに応答してサーバ装置112から送られてくる更新プログラムをデジタルカメラ10に転送し(ステップD15)、さらにその後にサーバ装置112から送られてくる撮影条件等の統計データもデジタルカメラ10へ転送する(ステップD16)。
このデジタルカメラ10への転送処理後、あるいは上記ステップD13でデジタルカメラ10用の更新プログラムがないと判断した場合、まだデジタルカメラ10に関するサーバ装置112との通信接続が必要であるか否かにより通信接続を終了するか否かを判断し(ステップD17)、必要であると判断した場合には上記ステップD04からの処理に戻る一方で、必要ないと判断した場合にはサーバ装置112、デジタルカメラ10との相互確認の上で接続を切断する処理を実行し(ステップD18)、一連の処理を完了して次の処理に備える。
デジタルカメラ10では、上記ステップC08で撮影履歴情報を送信する処理の有無に拘わらず、その後にパーソナルコンピュータ110から更新プログラムの受信があるか否かを判断する(ステップC09)。
ここで、あると判断した場合にはさらに、パーソナルコンピュータ110から送られてくる更新プログラムを受信し(ステップC10)、続けて撮影条件等の統計データも受信した後に(ステップC11)、受信した内容に基づいてプログラムメモリ92、及びデータメモリ93の内容を更新設定する(ステップC12)。
これらステップC10〜C12の処理の実行の有無に拘わらず、さらにパーソナルコンピュータ110を介してのサーバ装置112との通信接続が必要であるか否かにより通信接続を終了するか否かを判断し(ステップC13)、必要であると判断した場合には上記ステップC04からの処理に戻る一方で、必要ないと判断した場合にはパーソナルコンピュータ110との相互確認の上で接続を切断する処理を実行し(ステップC14)、一連の処理を完了して次の処理に備える。
また、上記図13での機能構成、及び図14及び図15での処理内容は、サーバ装置112側で撮影シーンや撮影条件の撮影履歴情報の集計機能や画像検索機能を行なう場合について示したものであるが、デジタルカメラ10の内部で集計や画像の検索等を行なう場合の機能構成は、例えば図17に示すようになる。
すなわち、図17は集計機能や検索機能をデジタルカメラ10側に設けた場合の機能構成を例示するものである。
デジタルカメラ10では、ファームウェアP10上で動作するアプリケーションプログラムとしてPC転送ソフトP21及び検索集計ソフトP22が存在し、パーソナルコンピュータ110から送られてきたメタデータ等はPC転送ソフトP21で受信された後、記述言語デコーダC23によってデコードされた後に検索集計ソフトP22に渡される。
検索集計ソフトP22は、統計データD25、メタデータメモリD26、及び画像データメモリD27を統括管理し、画像データの検索や特徴記述データの集計等を行なうもので、上記図4に示したハードウェアとしての回路構成上では統計データD25はシーン・撮影条件の統計データメモリ91に、メタデータD26及びメタデータD26は特徴抽出/認識処理部90に記憶される。
また、パーソナルコンピュータ110から送られてきたがデータはPC転送ソフトP21で受信した後に画像データデコーダC24でデコードされ、画像データD27として保持、記憶される。
パーソナルコンピュータ110は、デジタルカメラ10とサーバ装置112とを仲介するものとして、OSP110上でWWWブラウザP121及びカメラ転送ソフトP122が動作する。
このパーソナルコンピュータ110とインターネット111を介して接続されるサーバ装置112では、サーバソフトP231がMPEG7等のメタデータを記憶する特徴記述データベースD232と、画像データベースD233を管理し、併せて特徴記述データベースD232から必要によりインデックスデータD234を読出し、パーソナルコンピュータ110を介してデジタルカメラ10側へ送信する。
次に、図18を用いて画像データから特徴量を抽出する特徴抽出処理と抽出した特徴データの記録処理の流れについて説明する。
撮影を行なう前に、撮影に直接関連した撮影条件の設定操作(図では「設定操作(1)」と称する)と、その他の設定項目の設定操作(図では「設定操作(2)」と称する)とを施しておく。
撮影を指示する操作、具体的には撮影モード下での上記シャッタスイッチ15の操作により撮影条件S01を特定した状態での撮影処理S02が実行され、撮影画像S03のデータと撮影条件などの撮影情報S04とが得られる。
図19(A)は、撮影により得られる撮影情報の内容を例示するもので、ここではExif(Excange image file format)やDPOF(Digital Print Order Format)の規格に従ったものとしている。
撮影により得た画像データS03に対し、画像の圧縮/符号化S05と特徴抽出S06とが行なわれ、符号化された画像データと画素数を大幅に間引いたサムネイル画像とが画像データファイルS11の主要素として記録されると共に、上記撮影情報もヘッダ情報の一部として該画像データファイルS11に加えられる。
また、上記撮影には直接関連しない事前の設定操作(2)による設定項目S07から、特徴抽出を行なう抽出項目S08、特徴データ付加のオン/オフ設定S09、及び特徴データの記述様式S10が選択される。
このうち、抽出項目S08は上記撮影情報S04によりその内容が加減操作されるものであり、該抽出項目S08及び特徴データ付加のオン/オフ設定S09が上記特徴抽出S06に関与する。
この特徴抽出S06においては、詳細な内容は後述するが、圧縮/符号化前の画像データS03及び圧縮/符号化後の画像データに対し、上記抽出項目S08及び特徴データ付加のオン/オフ設定S09によって複数の特徴量を抽出処理するもので、処理結果である抽出物A,B,…が纏めて特徴抽出データS12として、特徴データの記述符号化処理S13に供される一方で、撮影シーン等の識別等S15として参照される。
特徴データの記述符号化処理S13では、予め定められた複数の記述様式A,B,‥‥から指定された1つを用い、特徴データS12を記述化した上で符号化し、特徴記述コードS14として上記画像データファイルS11に付加設定する。
図19(B)は、この特徴記述コードS14の内容を例示するもので、ここでは記述様式としてMPEG7(ISO/IEC 15938)規格を用いた場合を示している。
画像データファイルS11においては、この特徴記述コードS14は拡張ヘッダ情報の一部として付加されるものとする。
特徴データは、ユーザ操作により選択された方法(記述様式)に従って、例えば特徴データをDCFやExifなど画像ファイルのヘッダ情報や拡張データとして、もしくは上述したMPEG7規格に準じたメタデータ記述ファイル、あるいはSMPTEのMetadata規格、EBUによるP/Meta規格、TV−Anytime規格、W3CによるSMIL規格、あるいはDublin CoreとRDFによるXML構文、などの各種メタデータ記述用の規格や言語、あるいはXMLなどの汎用記述言語に準じた記述ファイル、あるいはこれらをバイナリデータ等に変換した記述データファイル等から、任意に選択して記録/出力することができるものとする。
例えば、最も古くから書誌情報のメタデータ記述法として用いられているDublin Core(1985)では、タイトル(title)、概要記述(description)、出版社(publisher)、作者(creator)、著作権(rights)、年月日(date)、種別(type)、様式(format)、‥‥など15の基本属性(Dublin Core Metadata Element Set:DCMES)が規定されており、表記法は例えばXMLに準じたRDF(Resource Description Framework)のスキーマなどを用いて記述する。
その他の各種メタデータ記述規格でも、放送映像用やビットストリーム映像用、ネットワーク配信用など用途別の規格によって記述子や記述スキーム等はそれぞれ異なるが、同様にこのような書誌情報の多くを記述することができる。
マルチメディア用のメタデータ記述規格MPEG7のMPEG7 Visualでは、画像や映像データ、音声などの各種特徴を記述できる記述子(Descriptor)と記述書式(Description Sheme)等も詳細に定義されている。
例えば、色やテクスチャ、輪郭形式などの特徴を表すために以下のような記述子が用意されており、これらに準じて記述してもよい。すなわち
Color space:色空間を指定する記述子、
Color quantization:
色空間の量子化方法を指定する記述子、
Dominant color:
任意形状領域における代表色を表す記述子、
Scalable color:
色特徴をHSV色空間におけるヒストグラムで表す記述子、
Color layout:
色の分布をDCT係数で表す記述子、
Color structure:
色の分布における偏りの程度を表す記述子、
Homogeneous texture:
テクスチャの特徴を画像強度と周波数空間上のエネルギ分布により表す記述子、
Texture browsing:
テクスチャの特徴を均一性、粒度、方向性の3要素で表す記述子、
Edge histogram:
エッジ特徴の分布をヒストグラムで表す記述子、
Region shape:
領域の形状特徴を表す記述子、
Contour shape:
領域の閉輪郭線の形状特徴を表す記述子。など
図20及び図21は、画像から抽出された特徴データの記述例を示すものであり、画像全体から輪郭線により領域を区分して徐々に細分化することで種々の特徴データを得ることができるのがわかる。
図20(A)は元となる画像データを示し、図20(B)がその画像全体に対する特徴データ、図20(C),(D)と図20(E),(F)が1次領域区分した画像とその記述データ、図21(G)〜(K)と図21(L)〜(P)が2次領域区分した画像とその記述データを示す。
同様に図20(Q)は元となる画像データを示し、図20(R)がその画像全体に対する特徴データ、図20(S),(T)と図20(U),(V)が1次領域区分した画像とその記述データを示す。、
また、図22(A)、図22(B)及び図23は、いずれも抽出された特徴データの記述例を示すもので、図22(A)はMPEG7、図22(B)はXML、図23はSMILの各記述様式を用いている。
図24は、上記のようにして例えばデジタルカメラ10の記録媒体89(あるいはハードディスクユニット43)に記録された画像データファイルの階層構造を例示するものである。
同図で、このデジタルカメラ10のリムーバブルディスク媒体としての最上階層のフォルダ「Root」F000の下に、フォルダ「DCIM」F001、フォルダ「ALBUM」F002、フォルダ「MISC」F003、及びファイル「INDEX.PVM」F004とが存在するものとする。
上記フォルダ「DCIM」F001は画像ファイルを格納するためのフォルダであり、その下にフォルダ「100ABCD」F005、「101ABCD」F006、‥‥を有する。
上記フォルダ「ALBUM」F002は、再生プレイリスト等を格納するフォルダであり、その下にファイル「ALBUM.PVM」F007等を有する。
上記フォルダ「MISC」F003は、DPOFファイルを格納するフォルダであり、その下にファイル「AUTOPRINT.MRK」F008、ファイル「UNICODE.MRK」F009、ファイル「AUTOXFER.MRK」F010、ファイル「AUTOPLAY.MRK」F011、‥‥を有する。
上記「INDEX.PVM」F004は、例えばMPV、MPEG7、XML等で記述される、このメディア全体の見出しのメタ情報記述ファイルである。
上記フォルダ「100ABCD」F005の下に、個々の画像ファイルであるファイル「CIMG0001.JPG」F012、ファイル「CIMG0002.JPG」F013、‥‥と、例えばMPV、MPEG7、XML等で記述される、フォルダ内画像の特徴記述データのファイルであるファイル「LIST.PVM」F014とが配置される。
上記ファイル「ALBUM.PVM」F007も、例えばMPV、MPEG7、XML等で記述される、プレイリスト記述データ等のファイルである
上記ファイル「AUTOPRINT.MRK」F008は自動プリントファイル、ファイル「UNICODE.MRK」F009はユニコード文字列記述ファイル、ファイル「AUTOXFER.MRK」F010は自動送信ファイル、ファイル「AUTOPLAY.MRK」F011は自動再生ファイルであり、いずれもDPOF規格で規定されたファイルである。
図25は、Exif規格に則ったJPEG圧縮データファイルの構造例を示すもので、上記図24のファイル「CIMG0001.JPG」F012、ファイル「CIMG0002.JPG」F013等に相当する。
図25(A)が1枚分の静止画像を圧縮した、上記「CIMG0001.JPG」F012、「CIMG0002.JPG」F013に相当するJPEGデータファイルであり、そのうちのExif規格の付属情報である第1アプリケーション・マーカセグメント「APP1」の構造を図25(B)に示す。
さらに、この「APP1」中、情報タグであるExif IFD(1st IFD)の構造を図25(C)に示す。
次いで、図26により特徴抽出処理の詳細な処理内容について説明する。
この図26は、上記図5のステップA07のサブルーチンである。その処理当初に、まず処理対象となる画像ファイルを取込み(ステップF01)、次に特徴抽出処理を行なう設定データを読込む(ステップF02)。
抽出する特徴量が自動設定されたものであるか否かを判断し(ステップF03)、自動設定されたものであれば当該画像の撮影情報を読込んだ後(ステップF04)、撮影モードまたは撮影条件に基づいて、抽出する特徴量の種類を選択する(ステップF05)。
また、上記ステップF03で自動設定されていないと判断した場合には、それに代わってユーザが手動で設定した、抽出する特徴量の種類を選択する(ステップF06)。
上記ステップF05またはF06の処理後、抽出する特徴の種別に応じて、前処理及び特徴抽出手段の内容を選択し(ステップF07)、選択した前処理内容に従って第1段階での前処理、及び第2段階の前処理を順次実行する(ステップF08,F09)。
これら前処理は、上述した如く、抽出する特徴の量の内容によって決定されるものであり、第1段階の前処理としては例えば画像強調処理、鮮鋭化処理、雑音除去処理などがあり、また第2段階の前処理としては例えば2値化処理、正規化処理、回転処理、座標変換処理、細線化処理、膨張収縮処理などがある。
以下前処理のいくつかについて説明する。
(鮮鋭化、輪郭抽出)
一次微分フィルタもしくは二次微分フィルタの処理を用いて、画像の先鋭化処理、輪郭抽出処理を行なうことができ、またこのようなフィルタ処理により、特徴抽出の前処理における画像の鮮鋭化、輪郭抽出、エッジ抽出に利用できる。
被写体像の輪郭形状や外形パターン、面積などを特徴データに利用する場合には、特徴抽出したい画像データの輝度等を、画素毎に輪郭強調やエッジ検出用のフィルタ演算等を行なって、輪郭強調や外形抽出した画像に変換してから、特徴データ等抽出することが多い。
一般に、階調が変化する部分のエッジがぼけた画像f(i,j)を
Δx
f=f(i+1,j)−f(i−1,j)、
Δy
f=f(i,j+1)−f(i,j−1)、
g(i,j)=√((Δx
f)
2+(Δy
f)
2)、または
g(i,j)=|Δx
f|+|Δy
f|
等の演算により、一次微分や勾配(Gradient)を求めると、階調が変化する勾配部分や輪郭を抽出できる。
あるいは、
または
▽2f(i,j+1)
=f(i+1,j)+f(i−1,j)
+f(i,j+1)+f(i,j−1)−4f(i,j)
等の演算により、さらに微分する二次微分(Laplacian)処理を施し、その結果を原画像データから差し引くと、エッジ部分の高周波成分を強調した画像を合成することができ、結果としてぼけたエッジ部分を強調することができる。
エッジや輪郭の強調処理をソフトウェア処理で行なうためには、「Prewittフィルタ」「Sobelフィルタ」「Kirschフィルタ」「Robertsフィルタ」等の一次微分の空間フィルタ処理、あるいは「Laplacianフィルタ」等の二次微分の空間フィルタ演算子等を用いることができる。
(2値化、平均化、輝度変換)
輝度ヒストグラムの変換処理などにより、中間階調の強調、2値化処理、所定の輝度領域の抽出などを行なうことができる。被写体像の画像データ(輝度値や色差値)の分布パターンなどを特徴データとして利用する場合に、画像データの輝度分布(ヒストグラム)を求め、輝度変換処理を行なうことにより中間階調の強調や圧縮を行なうことができ、あるいは所定のしきい値との大小で2値化し、所定の輝度領域だけを抽出することができる。さらには、隣接する複数画素毎に輝度値や色差値を平均化して、パターンの単純化や情報量の圧縮を行なうことができる。
(膨張、収縮、細線化、線図形化)
輪郭形状から被写体の形状や特徴を判別するためには、まず形状を単純化して情報量を圧縮し、あるいは線図形化所定から判別処理するのが望ましい。
例えば2値化された画像の輪郭や、あるいは2値化された「1」の画素と「0」の画素との境界領域で「1」画素を(隣接する8近傍の)画素の1層分だけ外側に太くする、所謂「膨張(Expantion)」処理を行なうと、輪郭など境界部分の小さな孔や溝が取り除かれる。
逆に、1層分だけ細くする「収縮(Contraction)」処理により境界部分の突起や孤立点などを取り除くことができるので、上記膨張処理及び収縮処理を複数回組み合わせることで、凹部や凸部の除去、形状の単純化を行なうことができる。
また、2値化された画像から、線幅が1の中心線を抽出する、所謂「細線化(Thinning)」処理により、骨状(スケルトン)の概略形状を求めることができる。
さらに、2値化された輪郭パターンの周囲をその外側と内側とからそれぞれ境界に沿ってたどり、境界部画素を「1」とし、残りの画素を「0」とする「境界線追跡」処理により、輪郭の境界線のみの画像に変換できる。
また、輪郭形状の数画素毎に選択した画素のみを折れ線で連結する「折れ線近時」処理などを用いるものとしてもよい。
上述した2段階の前処理を終えた後、実際の特徴抽出処理を特徴抽出/認識処理部90により実行する(ステップF10)。
図27は、この特徴抽出処理の具体的な処理手順を列挙したサブルーチンを部分的に示すものであり、第1乃至第xの特徴抽出処理を順次実施する。
すなわち、このステップF10においては、第1の特徴抽出処理として色領域の抽出を行ない(ステップG01)、次いで抽出した色領域に基づいた、代表色、色分布、RGBヒストグラム、DCT係数、‥‥などの特徴記述データの作成を行なう(ステップG02)。
併せて、第2の特徴抽出処理として輪郭形状の抽出を行ない(ステップG03)、次いで抽出した輪郭形状に基づいた、形状評価値、フーリエ記述子、パワースペクトル、‥‥などの特徴記述データの作成を行なう(ステップG04)。
併せて、第3の特徴抽出処理としてテクスチャの特徴抽出を行ない(ステップG05)、次いで抽出したテクスチャに基づいた、輝度ヒストグラム、フーリエスペクトル、共起行列、自己相関関数、‥‥などの特徴記述データの作成を行なう(ステップG06)。
併せて、第4の特徴抽出処理として位置・配置の特徴抽出を行ない(ステップG07)、次いで抽出した位置・配置に基づいた、位置座標、DCT係数、‥‥などの特徴記述データの作成を行なう(ステップG08)。
以下、いくつかの予め決定した特徴抽出処理を行なった後、最後、第xの特徴抽出処理として動きの抽出を行ない(ステップG09)、次いで抽出した動き量に基づいた、動きベクトル、強度分布、‥‥などの特徴記述データの作成を行なう(ステップG10)。
予め決定されているすべての特徴抽出処理を終えた後に図26の処理に戻り、認識処理を行なうか否かの判断を事前の設定内容に基づいて判断する(ステップF11)。
ここで、認識処理を行なうと判断した場合には、さらに認識対象のテンプレートデータをシーン・撮影条件の統計データメモリ91から読出し(ステップF12)、読出したテンプレートデータによるテンプレートマッチング、または相関度、類似度、類似距離、差分和の算出などによる認識処理を実行する(ステップF13)。
その後、抽出した特徴データ、及び上記ステップF11で認識処理を行なうと判断した場合に続くステップF13で得られる認識処理結果を圧縮符号化・伸長復号化88へ出力し(ステップF14)、以上でステップA07での特徴抽出処理を終える。
次いで上記特徴抽出処理の各具体的な処理内容について以下にそのいくつかを詳述する。
図28は、上記図27のステップG03に係る輪郭抽出処理と続くステップG04に係る特徴記述データの作成の内容について示すものである。
その当初に、特徴抽出/認識処理部90は被写体の画像データを読込み(ステップH01)、読込んだ画像データを輝度階調値または色差信号に基づいて複数領域に分割する(ステップH02)。
図29(A)は、上記ステップH01で読込んだ被写体の画像データをの一例を示すものであり、このような画像を読込んだ場合には上記ステップH02で複数領域に分割することで、例えば図29(B)に示す画像と図29(C)に示す画像とが得られる。
こうして分割した複数の領域のうちの1つを種なる被写体として選択し(ステップH03)、選択した領域の画像を2値化した上で(ステップH04)、そのエッジを検出する(ステップH05)。
上記図29(B),(C)に示す2つの画像データのうち、図29(C)に示した画像を選択して2値化した場合を図29(D)に示し、そのエッジを検出した結果を図29(E)に示す。
こうして得た輪郭線に対し、複数N辺の等辺多角形や折れ線等で近似した後(ステップH06)、該輪郭線のP(Phase)型記述子などフーリエ記述子を求めた上で(ステップH07)、パワースペクトルを求める(ステップH08)。
図29(F)は、上記図29(E)で示したエッジ検出結果に対し、折れ線近似した結果を示すものであり、当該輪郭線のフーリエ記述子を求めることで空間周波数に対するスペクトル正規価値を得てパワースペクトル化したものを図29(G)に示す。
このパワースペクトルの低周波成分からn個の成分を取出し、データ圧縮して輪郭線特徴データとするもので(ステップH09)、この求めた輪郭線特徴データを後の特徴記述データ作成時のためにデータメモリ93に一時的に記憶しておく(ステップH10)。
次いで、特徴量をシーン・撮影条件の履歴データメモリ91に記憶済みのテンプレートデータと順次比較し、類似度を求める(ステップH11)。
図30は、輪郭線特徴データの比較対象となる、シーン・撮影条件の履歴データメモリ91に予め記憶されたテンプレートデータの内容を例示するものである。
被写体の輪郭線特徴データを用い、各テンプレート毎にその類似度を求めた上で、最も類似度の値が高くなったテンプレートデータに対応する種類であるものと判定して、当該種類の特徴データを記述し(ステップH12)、その特徴記述データを出力することで(ステップH13)、以上でこの図28のサブルーチン処理を終える。
図31は、上記図27のステップG01に係る色領域の抽出処理後に続くステップG02で実行される特徴記述データの作成処理中、代表色の抽出処理の内容について示すものである。
その当初に、特徴抽出/認識処理部90は被写体の画像データを読込み(ステップI01)、読込んだ画像データを輝度階調値または色差信号に基づいて複数の輪郭領域に分割する(ステップI02)。
分割した複数の輪郭領域に対し、面積の大きい順序、または画像中央のフォーカス枠に近い順序で1〜n個の被写体領域を選択し(ステップI03)、各分割領域毎のRGB別ヒストグラム分布Pr(i),Pg(i),Pb(i)を求める(ステップI04)。
次いで、求めたヒストグラム分布Pr(i),Pg(i),Pb(i)がそれぞれ全体で総和が「1.0」となるように正規化した上で(ステップI05)、各ヒストグラムPr(i),Pg(i),Pb(i)の最頻値μr,μg、μbを求める(ステップI06)。すなわち、
μr=Max(Pr(i))、
μg=Max(Pg(i))、
μb=Max(Pb(i))。
である。
次に、該RGBヒストグラムPr(i),Pg(i),Pb(i)の平均μを求める(ステップI07)。すなわち、
μr=Σi・Pr(i)、
μg=Σi・Pg(i)、
μb=Σi・Pb(i)。
そして、上記求めた平均を用いてRGBヒストグラムPr(i),Pg(i),Pb(i)の分散σ2を求める(ステップI08)。すなわち、
σr 2=Σ(i−μr)2・Pr(i)、
σg 2=Σ(i−μg)2・Pg(i)、
σb 2=Σ(i−μb)2・Pb(i)。
こうして得た各領域のRGBヒストグラムの最頻値または平均値を代表色とし、その代表色とRGBの分散値を色の特徴データとして記述して出力することで(ステップI09)、以上で図31のサブルーチン処理を終了する。
図32は、上記図31と同様に図27のステップG01に係る色領域の抽出処理後に続くステップG02で実行される特徴記述データの作成処理中、色の分布の抽出処理の内容について示すものである。
その当初に、特徴抽出/認識処理部90は撮影した画像またはその撮影画像中の予め設定されている領域部分を読込み(ステップJ01)、読込んだ画像データを縦m画素×横n画素のブロック単位で分割して複数のブロック領域とする(ステップJ02)。
次いで各ブロック毎にその平均色を算出し(ステップJ03)、各ブロック毎に算出した平均色を原色系RGB空間または輝度色差系YCbCr空間でDFT(Discrete Fourier Trasform:離散フーリエ変換)またはDCT(Discrete Cosine Trasform:離散コサイン変換)により直交変換を施すことで空間周波数成分軸に変換して各係数を求める(ステップJ04)。
該直交変換した結果のDC成分に近い側の低周波成分の係数をジグザグスキャンにより走査して一次元化し(ステップJ05)、この一次元化した各係数をそのまま量子化してデジタル符号化した数列を得る(ステップJ06)。
このデジタル符号化した数列を色分布の特徴データとして記述して出力することで(ステップJ07)、以上で図32のサブルーチン処理を終了する。
次に、図示しないが画像データのRGB信号や輝度色差信号YCbCr信号、あるいは色の3要素である色相/彩度/明度を表すHSV(またはHSB)データ等の変換を行なう場合について簡単に説明しておく。
RGBデータをYCbCrデータに変換するためには、
Y=0.299×R+0.587×G+0.114×B、
Cb=−0.172×R−0.399×G+0.511×B+CENTER、
Cr=0.511×R−0.428×G−0.083×B+CENTER。
YCbCrデータをRGBデータに変換するためには、
R=Y+0.000×(Cb−CENTER)+1.371×(Cr−CENTER)、
G=Y−0.336×(Cb−CENTER)−0.698×(Cr−CENTER)、
B=Y+1.732×(Cb−CENTER)×0.000×(Cr−CENTER)。
RGBデータ(各0〜1)をHSV(またはHSB)データに変換するためには、
cmax=maximum(R,G,B)、cmin=minimum(R,G,B)とすると、
明度V=cmax、
彩度S=(cmax−cmin)/cmax、
(但し、cmax=0のときはS=0)、
色相H=60°×((G−B)/(cmax−cmin))
(R=cmaxの時)、
色相H=60°×(2+(G−R)/(cmax−cmin))
(G=cmaxの時)、
色相H=60°×(4+(R−G)/(cmax−cmin))
(B=cmaxの時)。
なお、H<0の時はHに360°を加え、またS=0の時はH=0とする。
次に図33によりモーションJPEGファイル(AVIファイル)またはMPEG(−1,2,4)ファイルを構成する被写体画像に対して行なう動きの特徴抽出処理について述べる。
この図33は、図27のステップG09に係る動きの抽出処理と、それに続くステップG10で実行される特徴記述データの作成処理の内容について示すものである。
その当初に、特徴抽出/認識処理部90は時間的に連続した複数の画像を読込み(ステップK01)、読込んだ各画像データを例えば縦m画素×横n画素のブロック単位で分割して複数のブロック領域とする(ステップK02)。
各画像の各ブロックの輝度値または色差値を、時間的に直前に位置する画像とテンプレートマッチングし、その移動方向と移動量を抽出する(ステップK03)。
各分割ブロック毎に移動方向と移動量を量子化して、各ブロックの動きベクトルを求めた上で(ステップK04)、各画像、各ブロック毎の動きベクトル(移動方向及び移動量)を、動きの特徴データとして記述して出力することで(ステップK0507)、以上で図33のサブルーチン処理を終了する。
なお、図示はしないが、特徴量の比較や類似図形の探索、相関度、テンプレートマッチングの類似度、絶対値差分和と距離の各要因についても説明しておく。
(特徴量の比較と類似図形の探索)
記憶されたテンプレート画像と被写体画像の類似度の判別や探索には、テンプレートマッチングなどのパターンマッチング方や、動きベクトル検出におけるブロックマッチング方が利用できる。
テンプレートマッチングにより特徴抽出領域の入力画像f[i,j]の特徴データの中から、例えば(m×n)の記録された参照画像または特徴データt[k,l]に一致する画像の位置を検出する。参照画像の中心もしくは端点が、入力画像のある点(i,j)に重なるように置いて、点(i,j)を順にラスタ走査しながら、重なる部分の画像データの類似度を順次計算して、類似度が最も高い位置の点(i,j)を、類似した被写体がある位置として求めることができる。
(相関度(相関関数))
入力画像f[i,j]とテンプレート画像値参照画像t[k,l]との相関度は、受信機のピアソンの相関係数(積率相関係数)Rなどで算出することができ、最も相関関数Rの値が大きくなる位置が、探索する類似被写体がある位置として求められる。
(テンプレートマッチングの類似度)
テンプレートマッチングなど、画像f[i,j]の中から、画像サイズ(m×n)の画像t[k,l]を走査して探索する場合、類似度は次式で計算することができ、類似度R(i,j)が最も大きくなる走査位置の点(i,j)が、類似する被写体の位置として求まる。
これを上述の相関関数Rと同様に、平均値を差し引くなど正規化して用いても良い。
(絶対値差分和と距離)
上記の類似度R(i,j)では乗算であるために計算量が増えるので、2値化画像など、平均値を差し引いたり、正規化を省略できる場合などには上記類似度の計算に変えて、次式のような画像間の差分和により、相違の程度(「距離」)を表すD(i,j)を求め、これを評価関数として利用することができる。
この場合には、加減算だけで計算できるために演算を高速化することができるもので、距離D(i,j)が最も小さい点(i,j)がマッチング位置を表すものとなる。
次いで図34により輝度ヒストグラムによるテクスチャ解析について述べる。
この図34は、図27のステップG05に係るテクスチャの特徴抽出処理と、それに続くステップG06で実行される特徴記述データの作成処理の内容について示すものである。
その当初に、特徴抽出/認識処理部90は被写体の画像データを読込み(ステップL01)、読込んだ画像データから輝度ヒストグラムP(i)を求める(ステップL02)。
次いで、全体の総和が1.0となるように当該ヒストグラムを正規化した後(ステップL03)、輝度ヒストグラムの平均値μと分散σ2とを求める(ステップL04,L05)。すなわち、
μ=Σi・P(i)
σ2=Σ(i−μ)2・P(i)
さらに、歪み度S(Skewness)及び尖り度K(Kurtosis)を求める(ステップL06,L07)。すなわち、 。
S=(Σ(i−μ)3・P(i))/σ3
K=(Σ(i−μ)4・P(i))/σ4
こうして得た歪み度Sを特徴抽出データf1、尖り度Kを同データf2とし、共にテクスチャの特徴データとして記述して出力することで(ステップL08)、以上で図34のサブルーチン処理を終了する。
なお、上述したテクスチャの特徴抽出の方法の他にも、例えばフーリエスペクトルからテクスチャ解析する方法を用いるものとしてもよい。
この場合、離散2次元フーリエ変換したフーリエスペクトル
F(u,v)=ΣΣf(x,y)W1
xuW2
yv
(但し、W1=exp(−j2π/M)、
W2=exp(−j2π/N)。)
を求めることでF(u,v)のパワースペクトル
P(u,v)=|F(u,v)|
2
を算出し、これを極座標形式のP(r,θ)に変換して、原点を中心としたドーナツ形領域のエネルギーの和p(r)、及び角度θの扇形領域内のエネルギーの和q(θ)を求め、
そのヒストグラム分布のピーク、平均、分散などの統計量から、例えばP(r)のピークによりテクスチャの「きめ」の大きさを、q(θ)のピークによりテクスチャ画素の方向性など、テクスチャの特徴量を抽出して特徴データを抽出し、出力するようにしてもよい。
さらには、輝度の共起行列を用いてテクスチャの特徴を抽出するものとしてもよい。
すなわち、画像f(x,y)において、画素f(x1,y1)から距離d、角度θの位置関係(d,θ)にある画素f(x2,y2)の輝度をd(1,2,‥‥)、θ(0度、45度、90度、135度など)を変えて順次求め、
(但し、d=max(|x1=x2|,|y1−y2|))
位置関係(d,θ)にある2点の輝度がそれぞれ
f(x1,y1)=i、
f(x2,y2)=j
の対となる頻度(ヒストグラム)を集計して、輝度の共起行列P(i,j;d,θ)を求め、正規化した共起行列
p(i,j)=P(i,j)/ΣiΣj(i,j)
から、全体の均一性を表す角2次モーメント(Angular second moment)
f1=ΣΣ(p(i,j))2、
局所変化を表すコントラスト(Comtrast)
f2=Σ(n2p(i,j))
方向に関する相関(Correlation)
f3=ΣΣ(p(i,j)p(i,j)−μ2)/σ2
(但し、μ=Σp(i)=1/g(g:階調数)、
σ=√(Σ(p(i)−μ)/(g−1))、
局所同質性を表す平方和(Sum of Squares)
f4=ΣΣ((i−μ)2p(i,j))
複雑さの測度を表す逆差分モーメント(Inverse difference Moment)
f5=ΣΣ(p(i,j)/(1+(i−j)))
などを求めて、テクスチャの特徴データとすることができる。
または、高次局所自己相関関数によりテクスチャの特徴量を抽出してもよい。
具体的には、各画素のRGB成分をYIQ成分に変換し、Y画像、値に画像、Q画像を得て、設定された特徴に応じて(n×n)画素の複数のマスクパターン1〜25の参照点を重ね合わせ、各画素の輝度値f(i,j)と掛け合わせ(論理積)、次のような特徴ベクトルC1〜C25を求める。
C1=ΣiΣj(f(i,j))、
C2=ΣiΣj(f(i,j)f(i+1,j))、
‥‥
C5=ΣiΣj(f(i,j)f(i-1,j+1))、
C6=ΣiΣj(f(i,j)f(i-1,j)f(i+1,j))、
‥‥
C25=ΣiΣj(f(i,j)f(i-1,j+1)f(i+1,j+1))、
上記のC1〜C25を加算(積和)して
Ci=Ci/Σj(Cj)(i,j=1,2,‥‥,25)
とし、各YIQ画像毎に求めた局所自己相関による特徴ベクトルC1〜C25、またはその統計量を、テクスチャの特徴データとして記述して出力するようにすればよい。
次に上記図15のステップC05での画像データに対する編集処理の途中で実行する、人間の認識処理として、近距離での顔部分の認識を行なう場合について図35を用いて説明する。
図35において、まず認識対象となる抽出画像データを取り込んだ後(ステップM01)、画像データ中の輝度データYもしくは色差データCb,Crに基づいて輪郭抽出を行なう(ステップM02)。
こうして得た輪郭を境界とする複数の領域に画像データを分割し(ステップM03)、そのうちの1つの領域を対象領域として選択する(ステップM04)。
この対象領域の画像に対し、原色データであるRGBデータまたは色差データCb,Crに基づいて、平均RGB値または平均Cb,Cr値を算出し(ステップM05)、算出した結果を上述したHSVデータに変換する(ステップM06)。
こうして得たHSVデータの値に基づいて、当該領域が人間の肌色領域であるか否かを色相(H:Hue)が6°〜38°の範囲内にあるか否かにより判断する(ステップM07)。
すなわち、所定の色の領域を抽出する例として人間の肌色領域の抽出を考えた場合、人間の肌の分光反射率特性、または撮影画像の所定領域の代表色のRGBデータまたはHSVデータを元に肌色の領域や人間の肌や顔の領域を抽出できる。
図36は、肌色の色相(Hue)と彩度(Saturation)の分布データを取った例を示すものであり、図示する如く肌色の画像データの多くは、彩度は広い範囲で分布するが、色相環では約6°〜38°の範囲内に分布することが知られている。
したがって、HSVデータから色相が約6°〜38°の範囲内にあるか否かにより人間の肌色であるか否かを判断するものとする。
上記ステップM07で当該領域が肌色の領域であると判断した場合にはさらに、その肌色の領域が顔の画像であるか否かを判断するために、領域中の画像データで眼のマスクパターンを設定して眼と瞳の領域を探索する(ステップM08)。
図37(A)は、眼の領域抽出のためのマスクパターンデータを例示するものであり、これを参照パターンとして、テンプレートマッチング等を用いて探索する。
眼の領域が抽出できたか否かを判断し(ステップM09)、抽出できた場合にはさらに眼の縦横比(細長さ)「b/a」と眼と黒目の面積比「r2/ab」とを算出する(ステップM10)。
すなわち、眼を認識するための条件データとして、図37(B)に示すように眼の幅を2b、眼の高さを2a、黒目の直径を2rとした場合に、
眼の細長さ=b/a、
眼の面積S1≒πab、
黒目の面積S2≒πr2、
S2/S1=r2/ab
となるもので、まず眼の縦横比が所定の範囲内であるか否かを、次式
α1≦b/a≦α2
(但し,α1,α2:定数。)
が成り立つか否かにより判断する(ステップM11)。
ここで眼の縦横比が所定の範囲内であると判断した場合のみ、次いで眼と黒目の面積比も所定の範囲内であるか否かを、次式
β1≦r2/ab≦β2
(但し,β1,β2:定数。)
が成り立つか否かにより判断する(ステップM12)。
ここでも眼と黒目の面積比が所定の範囲内であると判断すると、次いで図37(C)に示す右眼の幅w1、右眼と左眼の間隔w2、左眼の幅w3を算出し(ステップM13)、算出したw1,w2,w3が略等しいか否かを次式
w1−δ≦w2≦w1+δ
w1−δ≦w3≦w1+δ
が共に成り立つか否かにより判断する(ステップM14)。
ここでこれら2つの色が成り立つと判断すると、当該領域は人間の顔であるものとして認識し(ステップM15)、その認識した領域の位置座標を記憶する(ステップM16)。
なお、ここでは用いないが、他にも上記図37(C)で示す如く、眉下から鼻下までの長さh1と、鼻下からあご先までの長さh2とが略等しいか否かによっても、同様に人間の顔であるか否かの判断を行なうことができる。
また、上記ステップM07,M09,M11,M12,M14のいずれかで該当しないと判断した場合には、当該領域は人間の顔ではないものと認識する(ステップM17)。
しかして、ステップM16またはM17での処理後、次の領域を認識対象として選択し(ステップM18)、次の未認識の領域を選択することができたか否かにより、すべての領域の認識処理を終えたか否かを判断する(ステップM19)。
まだ未認識の領域を選択することができた場合には、同様に上記ステップM04からの処理を行なう。
しかるにステップM04〜M19の処理を繰返し実行し、画像データを構成するすべての分割領域に対して同様の処理を実行し終えると、ステップM19でこれを判断し、認識結果を特徴抽出/認識処理部90から制御回路83へ出力して(ステップM20)、以上でこの図35の処理を終了する。
なお、上記のようにして顔であると認識した領域に対しては、図38に示すような手法によりその特徴量を抽出することができる。
すなわち図38(A)に示すように顔の輪郭画像に様々な形状のグラフを当てはめて顔部分の位置を検出する。
次いで、図38(B)に示すように顔部分を切出し、顔の大きさを正規化し、顔の特徴点の位置、すなわち各を構成している造形物の各端点等の位置を検出する。
こうして検出した特徴点からも図38(C)に示すようにウェーブレット変換等を施すことで周波数成分など被写体となった人物毎に個人の特徴量を抽出することができる。
次に、上述した画像データに対するマスク処理及びモザイク処理について説明する。
図39(A)に示すような入力画像f(i.j)に対し、隣接する周囲の画素の値(輝度値または色差値)を用いて平均化する平均化フィルタ処理やメディアン(中央値)フィルタにより平滑化する場合について説明する。
すなわち、図39(A)に示す入力画像f(i.j)に対し、図39(B)に示す演算g(i,j)を施して図39(C)に示すように出力画像とする。上記図39(B)の演算式中の係数AKLとして、図39(D)に示すように当該画素位置のデータ内容を隣接する周囲の画素位置のデータ内容と等しいものとした第1の平均値フィルタを用いるものとしても良いし、図39(E)に示すように当該画素位置のデータ内容を隣接する周囲の画素位置のデータ内容の2倍の重み付けを行なうものとした第2の平均値フィルタを用いるものとしても良い。
なお、上記係数AKLは次式
AKL=Median(f(i-1,j-1),f(i-1,j),f(i-1,j+1),
f(i,j-1),f(i,j),f(i,j+1),
f(i+1,j-1),f(i+1,j),f(i+1,j+1))
(但し、Median( )は( )内の値の中央値。)
で表される。
また、上記画素単位での周囲画素との平均化処理に代えて、縦複数画素×横複数画素のブロック単位で平均値を行なう、所謂モザイク処理を行なうものとしてもよい。
すなわち、図40(A)に示すように画像を複数画素×複数画素の画像ブロックに分割し、入力画像のブロックに対し、図40(B)に示す如く画素値をブロック内の平均値に置換することで、図40(C)に示すように出力画像とする。
上記画素値の平均化に関しては、画像ブロックのサイズによってはDCT処理で得られるDC(直流)成分を用いることで演算処理を簡略化することができる。
図40(D)に示す画像中の顔部分を抽出し、画像ブロック毎にモザイク処理を施した結果を図40(E)に示す。
次に、画像データの変換と秘匿処理について説明する。
図41は、人物画像の顔領域を抽出してモザイク処理合成する場合を例示する。図41(A)に示す原画像に対し、図41(B)に示す如く肌色の領域で、且つ目鼻の位置する領域を顔画像として抽出する。
この抽出した結果に対し、顔の主な領域を上記図40でも説明したように複数ブロックに分割し、各ブロック毎に画素値の平均化処理を施して、図41(C)に示すようなモザイク化した画像を生成する。
最後に、生成したモザイク画像を元の画像上に合成することで、図41(D)に示すように人物の特定が困難な画像データへの変換が実現される。
図42は、人物画像の顔領域を抽出してマスク処理合成する場合を例示する。図42(A)に示す原画像に対し、図42(B)に示す如く旗色の領域で、且つ目鼻の位置する領域を顔画像として抽出する。
この抽出した結果に対し、顔の目鼻の部分を遮蔽するようなマスク画像を図42(C)に示すように生成する。最後に、生成したマスク画像を元の画像上に合成することで、図42(D)に示すように個々の人物の特定が困難な画像データへの変換が実現される。
図43は、所定の建造物や車、船、ヒコーキ、人物の顔等の領域を抽出してモザイク処理合成する場合を例示する。図43(A)に示す原画像に対しては、所定の建造物、車、及び複数の人物の顔を図43(B)に示す如く抽出する。
この抽出した結果に対し、各領域を複数ブロックに分割し、各ブロック毎に画素値の平均化処理を施してモザイク化した画像を生成する。
最後に、生成したモザイク画像を元の画像上に合成することで、図43(C)に示すように人物の特定が困難な画像データへの変換が実現される。
以上、図41乃至図43は、いずれも個人情報やプライバシー情報、著作権や肖像権などの可能性のある画像データを秘匿するべく、モザイク処理あるいはマスク処理を施した例である。
上記のように画像データの出力内容を制限するのみならず、画像データと共に出力する撮影データ、特徴記述データの内容を制限する場合についても説明する。
図44(A)は、Exifの規格に則ったヘッダ情報の内容を例示するもので、画像の撮影時に自動的に作成され、画像データに添付される。
当該画像データを選択して外部出力する場合には、予めユーザが設定した内容に応じて自動的に実行される編集作業中でこのヘッダ情報中の個人情報、ファイル名、機器モデル名、日時、場所情報などを伏せ字(X)に変換するか、削除処理することで、図44(B)に示すように個人情報等を含まないヘッダ情報を生成して、これを送信出力する。
図45(A)は、Dublin Core & RDF、MPEG7などによる特徴記述データの内容を例示するもので、画像の撮影時に特徴抽出/認識処理部90によって自動的に作成され、画像データに対応する物として履歴データメモリ91に格納されている。
当該画像データを選択して外部出力する場合には、予めユーザが設定した内容に応じて自動的に実行される編集作業中でこの特徴記述データ中の個人情報、ファイル名、機器モデル名、日時、場所情報などを伏せ字(X)に変換するか、削除処理することで、図45(B)に示すように個人情報等を含まない特徴記述データを生成して、これを画像データ、撮影データと共に、送信出力する。
以上、図44、図45に示した如く、画像データのみならず、画像データに対応した付加情報に関しても、画像データ出力時に自動的に実行される編集作業により、個人情報等が漏洩してしまうのを未然に防止できる。
このように、撮影した画像の特徴抽出を行なってこれを元の画像データ、及びその撮影条件データと関連付けて記憶した上で、例えばパーソナルコンピュータ等の外部の情報処理装置を利用して、撮影条件と撮影結果との相関や撮影条件と撮影シーンとの相関などの分析を行なわせるべく外部出力する際に、画像データそのもの、及びそれに関連付けられる撮影条件データ、特徴記述データ等に含まれている個人情報やプライベートな内容等に関し、ユーザが出力したくない情報を予め任意に指定しておくことで、自動編集処理によりその出力を確実に制限することができ、安心してデータ出力と外部サーバ等へのアップロード収集に協力することができる。
なお、本発明は上記実施の形態に限らず、その要旨を逸脱しない範囲内で種々変形して実施することが可能であるものとする。
さらに、上記実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組合わせにより種々の発明が抽出され得る。例えば、実施の形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題の少なくとも1つが解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
10,10′…デジタルカメラ、11…撮影光学系受光窓、12…ストロボ発光部、13…グリップ部、14…電源スイッチ、15…シャッタスイッチ、16…ミラー、17…撮影レンズ群、18…CCD、19…モード切替スイッチ、20…ズームスイッチ、21…カーソルキー、22…エンターキー、23…ディスプレイ切替キー、24…メニューキー、25…表示部、26…収納蓋、27…外部入出力端子、31…撮影レンズ部、32…マイクロホン、33…表示部、34…スピーカ、35…ズームスイッチ、36…撮影スイッチ、37…カーソルスイッチ、38…再生スイッチ、39…電源/モード切替スイッチ、40,41…外部入出力端子、42…開閉蓋、43…ハードディスクユニット、44…メモリカード、51…操作入力部、52…撮影・記録制御部、53…撮影条件設定部、54…特徴抽出・記述設定部、55…撮影部、56…信号処理部、57…画像データメモリ、58…特徴抽出部、59…画像・動画像圧縮/符号化部、60…多重化部、61…特徴データ符号化部、62…比較回路、63…更新記録制御部、64…メモリ制御部、65…画像データメモリ、66…外部入出力部、67…撮影履歴データ記憶部、68…再生制御部、70…画像・動画像伸張/復号化部、71…特徴データ複合化部、72…表示制御部、73…表示部、74…画像変換部、75…送信データ選別部、76…送信データ選別部、77…送信情報設定部、80…レンズドライバ、81…映像信号処理部、82…画像メモリ、83…制御回路、84…マイク、85…アンプ、86…A/D変換回路、87…音声メモリ、88…圧縮符号化・伸長復号化、89…記録媒体、90…特徴抽出/認識処理部、91…シーン・撮影条件の統計データメモリ、92…プログラムメモリ、93…データメモリ、94…撮影制御部、95…表示制御部、96…入力回路、97…外部入出力インタフェース、98…ハードディスクインタフェース(HDD・IF)、99…D/A変換回路、100…測距センサ、101…測光/測距部、102…アンプ、103…スピーカ、104…操作入力部、110…パーソナルコンピュータ(PC)、111…インターネット、112…サーバ装置、113…画像データベース(DB)、P10…ファームウェア、P11…カメラ制御プログラム、P12…PC転送プログラム、P21…PC転送ソフト、P22…検索集計ソフト、C23…記述言語デコーダ、C24…画像データデコーダ、D25…統計データ、D26…メタデータ、D27…画像データ、P110…OS、P111…WWWブラウザ、P112…カメラ転送ソフト、P201〜P203…CGIプログラム、D204…文書データベース、P205…サーバソフト、P206…認証ソフト、D207…会員登録データベース、P208…画像登録ソフト、C209…記述言語エンコーダ、D210…画像データベース、D211…特徴記述データベース、P212…検索ソフト、C213…記述言語デコーダ、P214…集計ソフト、D215…配信データベース、P231…サーバソフト、D232…特徴記述データベース、D233…画像データベース、D234…インデックスデータ。