JP2004112550A - Imaging apparatus, camera, program, and recording medium - Google Patents
Imaging apparatus, camera, program, and recording medium Download PDFInfo
- Publication number
- JP2004112550A JP2004112550A JP2002274160A JP2002274160A JP2004112550A JP 2004112550 A JP2004112550 A JP 2004112550A JP 2002274160 A JP2002274160 A JP 2002274160A JP 2002274160 A JP2002274160 A JP 2002274160A JP 2004112550 A JP2004112550 A JP 2004112550A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- subject area
- subject
- imaging
- video signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、撮像装置、カメラ、プログラム及び記録媒体に関し、特に、ビデオカメラ、デジタルスチルカメラ等の撮像装置、プログラム及び記録媒体に関する。
【0002】
【従来の技術】
映像信号の編集、管理、検索、表示などのアプリケーションのために、これらに付加情報を加え、記録することの重要性が高まっている。
【0003】
その中でも、注目する被写体の画面上の位置(以下、被写体領域と呼ぶ)を記録することは重要である。後になって該被写体領域を基にユーザーの撮影意図を確認できるし、また、興味のある被写体のみを管理・検索できるなどの利点があるからである。
【0004】
そこで、従来、視線入力により被写体領域を選択し、その被写体領域情報をフィルムなどの記録媒体に記録するカメラが提案されている(特許文献1、特許文献2、特許文献3参照)。
【0005】
具体的には、撮影画面内の主要被写体位置を決定し、主要被写体の位置情報を記録媒体に記録する主要被写体情報記録カメラがある(例えば、特許文献1参照)。
【0006】
また、検出された撮影者の眼の位置情報に基づいて繰り返し主要被写体を検出し、検出された複数の主要被写体の情報をフィルム上またはフィルムパトローネ上の記憶媒体に記録する視線検出カメラもある(例えば、特許文献2参照)。
【0007】
また、視線検出によって複数の被写体位置エリアのうち何れの被写体位置エリアが選択されたかを判別し、焦点検出領域の選択とは独立して視線によって選択される、被写体位置エリアの情報をフィルム等の記録媒体に記録する視線検出機能付カメラもある(例えば、特許文献3参照)。
【0008】
さらに、撮影画面内の所定箇所に合焦した撮影動作を行って得られた画像データと、撮影画面上における合焦位置を規定した合焦位置データを記録するデジタルカメラも提案されている(例えば、特許文献4参照)。
【0009】
すなわち、撮影画面内の所定箇所に合焦した撮影動作を行って得られた画像データと、撮影画面上における合焦位置を規定した合焦位置データを記録するデジタルカメラである。
【0010】
また、撮像画面上における焦点検出領域を追跡・記録することを特徴とする撮像装置、並びに該処理を実行するプログラム及び該プログラムを格納した記録媒体もある。
【0011】
【特許文献1】
特開平5−158132号公報
【特許文献2】
特開平7−319037号公報
【特許文献3】
特開平8−328126号公報
【特許文献4】
特開2001−128034号公報
【0012】
【発明が解決しようとする課題】
しかし、上記の従来技術はいずれも、当該被写体領域情報に基づいて特定部位の画質を最適化することを印刷業者(ラボ)に伝達することが主目的であり、先述のアプリケーションを指向したものではなかった。
【0013】
また、特許文献4記載の発明においては、シャッターボタンを半押ししてフォーカスロック操作を行った後にカメラを動かすと合焦位置が変化するが、当該文献に記載された実施の形態においては、これに対する解決案は何ら記載されていない。したがって、フォーカスロック操作中のカメラの動きにより、誤った合焦位置が記録されてしまうという問題点がある。また、興味対象外の被写体に合焦した場合、ユーザーの撮影意図を後に誤って解釈してしまうなどの問題が生ずる。
【0014】
本発明は、上述の問題点に鑑みてなされたものであり、簡素な構成・動作で、画面上の正確な被写体領域を制御・追跡・記録することを可能とならしめる撮像装置、カメラ、プログラム及び記録媒体を提供することを第1の目的とする。
【0015】
被写体領域の追跡に要する処理コスト及び消費電力を軽減することを可能とならしめる撮像装置、カメラ、プログラム及び記録媒体を提供することを第2の目的とする。
【0016】
ユーザーに面倒な操作を強いることがなく、被写体領域の指定及び追跡を実行することを可能とならしめる撮像装置、カメラ、プログラム及び記録媒体を提供することを第3の目的とする。
【0017】
簡素な構成で、ユーザーが所望の撮影動作を実行できているかを確認することを可能とならしめる撮像装置、カメラ、プログラム及び記録媒体を提供することを第4の目的とする。
【0018】
ユーザーが後になって撮影意図・動作を容易に確認することを可能とならしめる撮像装置、カメラ、プログラム及び記録媒体を提供することを第5の目的とする。
【0019】
【課題を解決するための手段】
請求項1記載の発明によれば、撮像装置は、光学系を介して入力される被写体像を映像信号として出力する撮像手段と、撮像手段の視野内において注目する被写体を指定する被写体指定手段と、映像信号を記録する映像記録手段と、被写体指定手段により指定された被写体領域を追跡する追跡手段と、被写体領域を、映像信号と関連して記録する付加情報記録手段とを有することを特徴とするものである。
【0020】
請求項2記載の発明によれば、撮像装置は、現在の映像信号と、一時刻前に撮像された映像信号との類似度を算出する類似度算出手段をさらに有する請求項1記載の撮像装置であることを特徴とするものである。
【0021】
請求項3記載の発明によれば、撮像装置は、追跡手段は、類似度算出手段の出力に基づき、被写体領域を追跡する請求項2記載の撮像装置であることを特徴とするものである。
【0022】
請求項4記載の発明によれば、撮像装置は、撮像手段の向きを検出する向き検出手段をさらに有する請求項1、2または3記載の撮像装置であることを特徴とするものである。
【0023】
請求項5記載の発明によれば、撮像装置は、追跡手段は、向き検出手段の出力に基づき、被写体領域を追跡する請求項4記載の撮像装置であることを特徴とするものである。
【0024】
請求項6記載の発明によれば、撮像装置は、追跡手段の動作を開始させる開始手段をさらに有する請求項1から5のいずれか1項に記載の撮像装置であることを特徴とするものである。
【0025】
請求項7記載の発明によれば、撮像装置は、被写体指定手段は、追跡手段の動作中は動作を停止する請求項1から6のいずれか1項に記載の撮像装置であることを特徴とするものである。
【0026】
請求項8記載の発明によれば、撮像装置は、追跡手段が出力した被写体領域を表示する表示手段をさらに有する請求項1から7のいずれか1項に記載の撮像装置であることを特徴とするものである。
【0027】
請求項9記載の発明によれば、撮像装置は、追跡手段が被写体領域が画面から外れたと判定したときに警告を発する警告手段をさらに有する請求項1から8のいずれか1項に記載の撮像装置であることを特徴とするものである。
【0028】
請求項10記載の発明によれば、撮像装置は、付加情報記録手段は、被写体領域の追跡結果を記したテキストデータを記録する請求項1から9のいずれか1項に記載の撮像装置であることを特徴とするものである。
【0029】
請求項11記載の発明によれば、カメラは、請求項1から10のいずれか1項に記載の撮像装置を有することを特徴とするものである。
【0030】
請求項12記載の発明によれば、プログラムは、光学系を介して入力される被写体像を映像信号として出力する処理と、撮像手段の視野内において注目する被写体を指定する被写体指定処理と、映像信号を記録する処理と、被写体指定処理により指定された被写体領域を追跡する追跡処理と、被写体領域を、映像信号と関連して記録する処理とを実行させることを特徴とするものである。
【0031】
請求項13記載の発明によれば、プログラムは、現在の映像信号と、一時刻前に撮像された映像信号との類似度を算出する類似度算出処理をさらに実行させる請求項12記載のプログラムであることを特徴とするものである。
【0032】
請求項14記載の発明によれば、プログラムは、類似度算出処理の出力に基づき、被写体領域を追跡する追跡処理をさらに実行させる請求項13記載のプログラムであることを特徴とするものである。
【0033】
請求項15記載の発明によれば、プログラムは、撮像手段の向きを検出する向き検出処理、をさらに実行させる請求項12、13または14記載のプログラムであることを特徴とするものである。
【0034】
請求項16記載の発明によれば、プログラムは、向き検出処理の出力に基づき、被写体領域を追跡する追跡処理、をさらに実行させる請求項15記載のプログラムであることを特徴とするものである。
【0035】
請求項17記載の発明によれば、プログラムは、追跡処理の動作を開始させる処理をさらに実行させる請求項12から16のいずれか1項に記載のプログラムであることを特徴とするものである。
【0036】
請求項18記載の発明によれば、プログラムは、被写体指定処理が、追跡処理の動作中に動作を停止する処理、をさらに実行させる請求項12から17のいずれか1項に記載のプログラムであることを特徴とするものである。
【0037】
請求項19記載の発明によれば、プログラムは、追跡処理により出力された被写体領域を表示する処理をさらに実行させる請求項12から18のいずれか1項に記載のプログラムであることを特徴とするものである。
【0038】
請求項20記載の発明によれば、プログラムは、追跡処理により被写体領域が画面から外れたと判定されたときに警告を発する処理をさらに実行させる請求項12から19のいずれか1項に記載のプログラムであることを特徴とするものである。
【0039】
請求項21記載の発明によれば、プログラムは、被写体領域の追跡結果を記したテキストデータを記録する処理をさらに実行させる請求項12から20のいずれか1項に記載のプログラムであることを特徴とするものである。
【0040】
請求項22記載の発明によれば、記録媒体は、請求項12から21のいずれか1項に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体であることを特徴とするものである。
【0041】
【発明の実施の形態】
次に、添付図面を参照して本発明による撮像装置、カメラ、プログラム及び記録媒体の実施の形態を詳細に説明する。
【0042】
デジタルスチルカメラを例に、まず、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態たる第1実施例について説明する。
【004 3 】
図1は、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態におけるデジタルスチルカメラの構成を示す図である。
【004 4 】
図1において、デジタルスチルカメラ装置1は、システム制御部2と、撮像部3と、画像処理部4と、LCD表示制御部5と、LCD6と、ファインダー表示制御部7と、ファインダー表示器8と、記録メディアインターフェイス部9と、記録メディア10と、ハードキーインターフェイス部11とから構成される。
【004 5 】
システム制御部2は、デジタルスチルカメラ装置1全体の制御を行うために設けられた、CPU(Central Processing Unit )、メモリ、タイマー等からなる。
【004 6 】
撮像部3は、撮像のために設けられた、光学系部品(レンズ及びレンズ駆動モータ)、CCD(Charge Coupled Device )、CCD駆動回路、A/D変換器等からなる。
【004 7 】
画像処理部4は、撮像部3で得られた画像信号に種々の画像処理を施すと共に、撮像部3のCCD駆動タイミング、レンズ駆動モータを制御してフォーカシング、露出調整等を行い、また、画像の圧縮伸長を行うために設けられた、画像処理用DSP(Digital Signal Processor)、メモリ等からなる。
【004 8 】
LCD表示制御部5は、画像処理部4で処理された画像信号をLCD(LiquidCrystal Display)へ表示するための信号処理を行い、また、ユーザーインターフェイスのための種々のグラフィック画像を生成し、LCDへ表示するために設けられた、D/A変換器、オンスクリーンディスプレイコントローラ等からなる。
【0049】
LCD6は、画像を表示し、また、ユーザーインターフェイスのためのグラフィックを表示するために設けられる。
【0050】
ファインダー表示制御部7は、画像処理部4で処理された画像信号をファインダー内部に設置された表示器へ表示するための信号処理を行い、また、ユーザーインターフェイスのための種々のグラフィック画像を生成し該表示器へ表示するために設けられた、D/A変換器、オンスクリーンディスプレイコントローラ等からなる。
【0051】
ファインダー表示器8は、撮像部3の光学系に入射する像を表示し、また、ユーザーインターフェイスのためのグラフィックを表示するために設けられた、
【0052】
記録メディアインターフェイス部9は、記録メディアとのインターフェイスのために設けられた、メモリカードコントローラ等からなる、
【0053】
記録メディア10は、圧縮された画像信号や画像に纏わる種々の情報を記憶するために設けられた、フラッシュメモリ等からなっており、デジタルスチルカメラ装置1から着脱可能となっている。
【0054】
ハードキーインターフェイス部11は、後述するレリーズSW、図示されていないキー、ダイアル等のユーザーインターフェイスのためのハードウェアの状態を検出するために設けられた、パラレルポート等からなっている。
【0055】
ここで、レリーズSWの構成について図2を用いて説明する。図2には、レリーズSWの回路図が示されている。
【0056】
図2において、RL1は、レリーズSWを半押ししたときオンされる接点示している。RL2は、レリーズSWを完全に押したときにオンされる接点を示している。COMは、RL1・RL2の双方で共通な接点を示している。
【0057】
以上の様に、レリーズSWは、2 ストロークの動作を検出できる様に構成されている。RL1、RL2の接点の状態は、前述したように、ハードキーインターフェイス部11を通じてシステム制御部2で判別される。
【0058】
次に、第1の実施例に係る動作を、図3のフローチャートを用いて説明する。
【0059】
ユーザーは撮影に先立ち、図示されていない種々のキー、ダイヤルを操作し、撮影モード(静止画撮影モード、動画撮影モード)を決定する。ユーザーの操作内容はハードキーインターフェイス部11を通じてシステム制御部2で判別され(ステップS1)、静止画撮影モードでは(ステップS1でNo)、以下に説明するように、ステップS2以降の処理が実行される。動画撮影モードでは(ステップS1でYes)、後述するように、図4に示すフローチャートに従って動作する(ステップS23参照)。
【0060】
図3のステップS1においてNo、すなわち、静止画撮影モードの場合、その後、ステップS2で、デジタルスチルカメラ装置1において、以下に示す撮影の準備を整える作業が実行される。
【0061】
すなわち、システム制御部2は、モードに応じた処理パラメタを画像処理部4へ設定する。撮像部3は、画像処理部4からの制御に従い、実際の撮影に先だって、プレビュー画像を表示するための撮像動作を開始する。撮像されたデータは連続的に画像処理部4へ送られ、画像処理部4では色空間変換、ガンマ補正、ホワイトバランス調整などの処理を施した後、画像データをLCD表示制御部5へ送る。
【0062】
LCD表示制御部5では、画像データを信号処理してLCD6へ表示し、ユーザーへ撮像状態を提示する。
【0063】
また、ファインダー表示制御部7では、デジタルスチルカメラ1の種々の状態をファインダー表示器8へ表示し、ユーザーへ撮像状態を提示する。
【0064】
さらに、このステップにおいて、被写体領域の位置が決定される。当該被写体領域は、予め画面中央に固定されており、公知技術である視線検出やハードキーインターフェイス部11などのユーザーインターフェイスを通じて選択されるなどの形態により決定される。
【0065】
ステップS2における撮影の準備が整った後、ステップS4において、システム制御部2が、前述したレリーズSWの半押し、すなわち、RL1接点がオンになったと判定すると(Yes)、ステップS5において、焦点検出(AF)、自動露出(AE)、オートホワイトバランス(AWB)のアルゴリズムプログラムを起動し、画像処理部4から得られる各種評価データを基に、画像処理部4、及び、撮像部3を制御して調整を行う。
ここで、レリーズSWの半押し状態の判定は、モード設定と同様にしてハードキーインターフェイス部11を通じてシステム制御部2で実行される。
【0066】
上記の処理が終了すると、ステップS6において、デジタルスチルカメラ装置1は、撮像部3の撮像範囲において被写体領域の追跡を開始する。すなわち、レリーズSWの半押し操作は、被写体領域の追跡動作を開始させる手段として機能する。この動作の具体的な内容については後述する。
【0067】
なお、後述する被写体領域の追跡動作時には、システム制御部2において処理コスト及び消費電力が少なからず発生する。上述のように、レリーズSWの半押し操作している時にのみ、被写体領域の追跡動作を実行することにより、処理コスト及び消費電力を低減させることができる。
【0068】
また、本実施例では、被写体領域の指定と被写体領域の追跡動作は、排他的に実行される。これにより、ユーザーによる被写体領域の指定と、被写体領域の追跡動作が相互干渉しないので、処理が簡素になる。また、レリーズSWの半押し操作中に注目する被写体に視線を向け続けたり、ハードキーインタフェース部11を操作する必要がないため、撮影動作が非常に簡単になるという利点がある。
【0069】
被写体領域が追跡されると、LCD6又はファインダー表示器8において、図5(a)のように、該被写体領域の位置を示すポインタ21を表示する。また、被写体領域が画面から外れるなど、被写体領域の追跡に失敗した場合には、図5(b)のように、ユーザーにその旨を警告するインジケータ22を表示する(ステップS7)。
【0070】
システム制御部2は、引き続きハードキーインターフェイス部11を通じて、レリーズSWの状態を監視し(ステップS8)、レリーズSWが全押し、すなわちRL2接点がオンになったと判定すると(Yes)、以下に示す撮影動作を開始する(ステップS9)。
ここで、レリーズSWの全押し状態の判定は、レリーズSWの半押し状態の検出動作と同様にして、ハードキーインターフェイス部11を通じてシステム制御部2で実行される。
【0071】
撮像部3は画像処理部4からの制御に従い、所定の画像を取り込み画像処理部4へ送り、画像処理部4は、撮影モードに応じた画像処理、圧縮処理を行う。
そして、システム制御部2は、圧縮された画像データ及び追跡された被写体領域を読み出し、さらにヘッダー情報を付加した後、記録メディアインターフェイス部9を通じて記録メディア10へ記録する(ステップS10)。
被写体領域の記録については、後述する。
【0072】
以上で画像の撮影及び記録を完了すると、被写体領域の追跡処理を終了する(ステップS12)。
【0073】
また、ステップS8において、RL2接点がオフであると判定されると(No)、システム制御部2は、RL1接点の状態を検出する(ステップS11)。RL1接点がオンであると判定されると(Yes)、ステップS6に戻り、ステップS11までの処理を繰り返す。また,RL1接点が解除されたと判定されると(ステップS11でNo)、AE、AF、AWBの処理及び被写体領域の追跡処理を終了する(ステップS12)。
【0074】
最後に、各動作を電源オフ検出で終了した場合には、電源をオフして終了する(ステップS13でYes)。
【0075】
ここで、図3のステップS1において、動画撮影モードが選択されている場合の動作(ステップS3)を、図4のフローチャートに基づいて説明する。
【0076】
まず、図4のステップS21では、デジタルスチルカメラ装置1において、動画撮影の準備を整える作業が実行される。その動作は、図3のステップS2と同様である。
【0077】
撮影の準備が整った後、レリーズSWの半押し、すなわちRL1接点がオンになったと判定すると(ステップS22でYes)、前述したように、焦点検出(AF)、自動露出(AE)、オートホワイトバランス(AWB)の処理を開始する(ステップS23)。この調整動作は、後述するように、レリーズSWの半押し(RL1 接点オン)が検知されるまで、継続的に実行される。
【0078】
また、RL1 接点がオフであると判定すると(ステップS22でNo)、後述するステップS35の処理に進む。
【0079】
システム制御部2は、引き続きハードキーインターフェイス部11を通じて、レリーズSWの状態を監視し、そのままレリーズSWが押し込まれると(RL2接点オンすなわちステップS24でYes)、後述するステップS26以降の動画の記録動作を開始し、逆に、レリーズSWの半押しが解除されると(RL1 接点オフすなわちステップS25でNo)、前述のAF、AE、AWB処理を終了する(ステップS34)。
【0080】
記録動作を開始すると(ステップS26)、システム制御部2は、ハードキーインターフェイス部11を通じて、レリーズSWの状態を監視し、レリーズSWの全押し状態(RL2 接点オン)を検知すると(ステップS27でYes)、動画の記録を終了し(ステップS32)、そうでなければステップS28以降の処理を実行する。すなわち、記録動作中のレリーズSWの全押しが検知されるまで、記録動作を継続する。
【0081】
記録動作中に、レリーズSWの半押しが検知されると(RL1 接点オンすなわちステップS28でYes)、被写体領域を追跡する動作を開始する。
【0082】
ステップS29においては、デジタルスチルカメラ装置1は、撮像部3の撮像範囲において被写体領域の追跡を開始する。すなわち、動画記録中のレリーズSWの半押し操作は、被写体領域の追跡動作を開始させる手段として機能する。 この動作の具体的な内容については後述する。
【0083】
なお、後述する被写体領域の追跡動作時には、システム制御部2において処理コスト及び消費電力が少なからず発生する。上述のように、レリーズSWの半押し操作している時にのみ、被写体領域の追跡動作を実行することにより、前述した処理コスト及び消費電力を低減させることができる。
【0084】
また、静止画モードと同様に、被写体領域の指定と被写体領域の追跡動作は、排他的に実行される。これにより、ユーザーによる被写体領域の指定と、被写体領域の追跡動作が相互干渉しないので、処理が簡素になる。また、撮影中に注目する被写体に視線を向け続けたり、ハードキーインタフェース部11を操作する必要がなく、撮影動作が非常に簡単になるという利点がある。
【0085】
一方、記録動作中に、前記レリーズSWが解除されていた場合には、上述の焦点検出追跡動作を実行しない。
【0086】
被写体領域が追跡されると、LCD6またはファインダー表示器8において、図5(a)のように、当該被写体領域の位置を示すポインタ21を表示する。
【0087】
また、被写体領域が画面から外れるなど、被写体領域の追跡に失敗した場合には、図5(b)のように、ユーザーにその旨を警告するインジケータ22を表示する(ステップS30)。
【0088】
また、焦点検出追跡動作を実行しなかった場合、既定の被写体領域の位置(例えば、画面中央)にポインタ21を表示するとよい。
【0089】
上記のステップS27乃至ステップS31の処理は、レリーズSWの全押し(RL2 接点オン)が検知されるまで、若しくは撮影モードの変更操作又は電源オフ操作が検知される(ステップS31でYes)まで、繰り返し実行される。
【0090】
動画の記録を終了した場合(ステップS32)、システム制御部2は、動画データに関連して、被写体領域の追跡履歴を記録メディア10へ書き込む(ステップS33)。この動作については、後述する。
【0091】
最後に、撮影モードの変更操作又は電源オフ操作が検知された場合、図4のフローを終了し(ステップS35でYes)、さもなければ(ステップS35でNo) 、ステップS22乃至ステップS34の処理が繰り返し実行される。
【0092】
ここで、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態における被写体領域の追跡動作を、図6のフローチャートに基づいて説明する。
【0093】
まず、システム制御部2は、被写体領域の追跡処理が初期状態、すなわち、レリーズSWの半押し(RL1 接点オン)が検知されてから初めて追跡処理を実行する場合(ステップS4 1)には、撮像部3が現在取得している画像(以下、現画像と呼ぶ)のうち、前述のように図3のステップS2で決定された被写体領域に対応する所定の領域(以下、テンプレートと呼ぶ)を切り出し、メモリに記録する(ステップS4 2)。
以上で、処理を終了する。
【0094】
また、初期状態でない場合には(ステップS4 1でNo)、前回の処理で記録されたテンプレートを、メモリより読み出し(ステップS43)、現画像において、当該テンプレートとの類似度が高い領域を検出する。
【0095】
ここで、前述した類似度の高い部分を検出する手段として、テンプレートマッチングを利用した場合の動作を、図7に基づいて説明する。
【0096】
図7(a)のように、テンプレートの大きさが(2du+1)×(2dv+1であるとする。このテンプレート23を、図7(b)のように現画像24上で移動させ、テンプレート23と現画像24における点(m,n)との正規化相互相関値Sを、次式に基づき計算する。
【0097】
【数1】
【0098】
ここで、(1)式における各記号の意味は以下の通りである。
・I1 (u,v):テンプレート上の点(u,v)における画素値
・I2 (u,v):現画像上の点(u,v)における画素値
以上の計算に基づき、正規化相互相関値Sが最大となる現画像における点(m,n)を求める。
【0099】
次に、図6のステップS45において、上述のテンプレートマッチングの成否を判定する。ここで、テンプレートマッチング成否の判定基準は、例えば、正規化相互相関値Sの閾値θを予め決めておき、Sの値がθ以上ならば成功、θ以下ならば失敗とするなどの手法をとればよい。
【0100】
成功と判定された場合には(ステップS45でYes)、ステップS43で求められた点(m,n)を現画像における被写体領域として、システム制御部2に出力すると同時に、現画像の点(m,n)を中心とする大きさ(2du+1) ×(2dv+1)の領域を、前記テンプレートとして更新する(ステップS46)。また、失敗と判定された場合には(ステップS45でNo)、テンプレートの更新は行わずに、追跡に失敗したことを示す信号をシステム制御部2に出力する(ステップS47)。以上で、処理を終了する。
【0101】
次に、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態における被写体領域の記録について説明する。
【0102】
静止画の場合、被写体領域に関するデータは、取得した画像におけるヘッダ情報に記録される。例えば、デジタルスチルカメラの静止画のフォーマットとしてExif(exchangeable image file format)を採用する場合、そのヘッダ情報中のSubject Areaと呼ばれる、主要となる被写体の位置を記述することができるフィールドに、当該被写体領域の位置を記録することができる。
【0103】
また、動画の場合は、図8のように、左から秒単位の時刻、被写体領域の横方向の座標u、被写体領域の縦方向の座標vという順に、テキスト情報として記録される。このテキスト情報は、動画と共に、テキストファイルとして、記録メディアに記録される。
【0104】
このとき、動画データとテキストファイルは、関連して記録される。例えば、動画ファイルの名前が”Video 01.avi”(avi は、Audio Video Interleavingの略)である場合、当該テキストファイルの名前は”Video 01.txt”と、拡張子以前の名前が揃えられた形で記録される。
【0105】
以下、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態たる第2の実施例について説明する。
【0106】
前述の焦点領域の検出処理を、撮像部3の向きを検出することにより実行しても構わない。この方法は、静止している被写体を、該被写体までの距離に相対して撮像部3をあまり平行移動させずに撮影した場合に、特に有効である。
【0107】
図9は、本実施例に係るデジタルスチルカメラの構成を示す図である。図9におけるデジタルスチルカメラ1は、図1のデジタルスチルカメラに姿勢検出センサ12が追加されたものである。
なお、図中同一符号は、前述した第1の実施例と同一又は相当部分を示す。
【0108】
姿勢検出センサ12は、撮像部3の主軸(通例光軸)の向きを検出するために設けられた、姿勢検出センサ、該センサからの信号を取得するA/D変換器、及び該A/D変換器により取得されたデータに演算処理を施すALU等からなる、姿勢検出部、を示している。
【0109】
姿勢検出センサ12は、例えば、加速度センサ、磁気センサ、角速度センサ(ジャイロ)又はそれらの組み合わせにより構成される。
【0110】
第2の実施例における静止画撮影モード及び動画撮影モードの動作は、第1の実施例と同様であり、それぞれ図3、図4のフローチャートに従って動作する。
【0111】
ここで、姿勢検出センサの一例として、加速度センサと磁気センサを使用した場合の、被写体領域の追跡動作を、図10のフローチャートを用いて説明する。
【0112】
まず、システム制御部2は、姿勢検出センサの検出信号より、絶対座標系に対する現在の撮像部3の姿勢を算出し、メモリに記録する(ステップS51)。
【0113】
ここで、絶対座標系は図11のように、東向きをX軸、重力の向きをY軸、北向きをZ軸とする、右手系XYZ座標系であるとする。
【0114】
加速度センサは、重力加速度を、また、磁気センサは、地磁気を検出するのに使用され、これらのセンサの出力信号により、絶対座標系に対する撮像部3の向きを容易に計算することができる。
【0115】
ここで、被写体領域の追跡処理が前述の初期状態である場合には(ステップS52でYes)、以上で処理を終了する。
【0116】
一方、初期状態でない場合には(ステップS52でNo)、前時刻で記録された被写体領域及び撮像部3の姿勢を、メモリより読み出し(ステップS53)、これらの情報と現在の撮像部3の姿勢を利用して、現在の被写体領域を算出し、メモリに記録する(ステップS54)。
【0117】
ここで、現在の被写体領域を算出する方法について説明する。
【0118】
まず、図12に示される2つの座標系を定義する。
カメラ座標系(camera coordinate system)
・x軸:画面右向きを正
・y軸:画面下向きを正
・z軸:光軸、対象に向かう向きを正
・原点0:カメラの光学中心
・f:焦点距離
画像座標系(image coordinate system )
・u軸:画面右向きを正
・v軸:画面下向きを正
・( u0, v0) :画面中心、すなわち光軸と画面とが交わる画像座標
【0119】
カメラ座標系の光学系は、中心射影モデル(perspective projection model)で記述されると仮定する。また、画像座標系は、画素を基本単位とする。
【0120】
また、以下の変数を定義する。
RW,t−1 :前時刻t−1における、絶対座標系に対する撮像部3の姿勢を表す回転行列
RW,t :現在の時刻t の、絶対座標系に対する撮像部3の姿勢を表す回転行列
【0121】
上記2つの回転行列より、前時刻から現在にかけての撮像部3の姿勢の変化を示す回転行列Rを、次式に基づき計算する。
【0122】
【数2】
【0123】
ここで、RW,t−1 の右上の添え字Tは、行列の転置を表す。
【0124】
この回転行列Rにより表される姿勢の変化により、前時刻における被写体領域(ut−1,vt−1 )は、現在の時刻において、次式に示される点(ut , vt ) に移動する。
【0125】
【数3】
【0126】
であり、これらの行列At−1 、At は、それぞれ前時刻、現在における、カメラ座標系と画像座標系との関係を示すもので、カメラ内部行列(camera intrinsic matrix )と呼ばれる(参考文献:徐剛, 辻三郎: 『3次元ビジョン』, 共立出版 (1998))。
【0127】
また、ku 、kv は、それぞれx軸、y軸を基準とした時のu軸、v軸の単位、すなわち画素密度を表す。
【0128】
また、ft−1 、ft は、それぞれ前時刻、現在における焦点距離を表す変数である。また、Sは(3)式の左辺の第3成分を1にするための定数である。
【0129】
一般に、ku 、kv の値は、CCDの設計仕様より容易に知ることができる。
【0130】
また、焦点距離の値は、撮像部3において、レンズ駆動モータの位置をエンコーダにより読み取るなどの方法により、検出することができる。
以上の計算により、現在の被写体領域の位置(ut , vt ) が算出される。
【0131】
続いて、以上の処理で算出された点(ut ,vt ) が、画面内にあるか否かを判定し(ステップS55)、画面内にある場合には(Yes)、ステップS53で求められた点(ut ,vt )を、現在の被写体領域として、システム制御部2に出力する(ステップS56)。
【0132】
また、画面外にあると判定された場合には(ステップS55でNo)、追跡に失敗したことを示す信号をシステム制御部2に出力する(ステップS57)。以上で、処理を終了する。
【0133】
以下、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態たる第3の実施例について説明する。
【0134】
本発明に係る撮像装置等は、PC(Personal Computer )や携帯情報端末により、その機能を実現させることができる。
【0135】
近年、各種処理プログラムを読み取ることにより、種々の機能を実現可能なデジタルカメラも登場するようになった。また、向きを回動可能なカメラを具備したノート型PCや、カメラを搭載したPDA(Personal Digital Assistant)及び携帯電話が普及するようになった。
【0136】
このような場合は、これらの機器に第1の実施例または第2の実施例で説明した機能を実現する処理プログラムを実行させることにより、その機能を実現させることができる。
【0137】
本実施例は、各種媒体やインターネット等の電気通信回線を介して、上記の機器で読み取り可能なプログラムである。動作の内容は、上述の第1の実施例または第2の実施例と同様である。
【0138】
以下、カメラを具備したノート型PCにおいて、該プログラムを実行することにより、第1の実施例または第2の実施例で説明した前述の動作を実現する場合の具体例を説明する。
【0139】
AF等の処理は、該カメラの内部で実行される。
【0140】
撮影モードの選択、撮影の開始・終了の制御、被写体領域の追跡動作の開始(前述の実施例における、レリーズSWの半押し操作に相当)、画像及び被写体領域の表示は、任意のユーザー・インターフェイスを介して行われる。その一例を、以下に記す。
【0141】
撮影モードの選択:カーソルキー
撮影の開始・終了の制御:リターンキー
被写体領域の追跡動作の開始:スペースキー
画像及び被写体領域の表示:LCDに表示
【0142】
以下、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態たる第4の実施例について説明する。
【0143】
本発明に係る撮像装置は、第3の実施例で述べた機器に、第1の実施例又は第2の実施例で説明した機能を実現する処理プログラムを格納した記録媒体を読み取らせることにより、その機能を実現させることができる。
【0144】
例えば、図13(a)に示されるように、当該プログラムを格納したCD−ROM25を、カメラを具備したノート型PC30に装着し、適宜当該プログラムを読み取らせ、実行させることにより、その機能を実現させることができる。
【0145】
また、図13(b)に示されるように、当該プログラムを格納したスマートメディア26を、それを読み取り可能なデジタルスチルカメラ1に装着し、適宜当該プログラムを実行させることにより、その機能を実現させることができる。
【0146】
なお、当該プログラムを格納する記録媒体は上記のものに限られず、例えば、CD−RWやDVD−ROM等の別の媒体であってもよいことはいうまでもない。
【0147】
なお、本実施例における動作は、第3の実施例と同様である。
【0148】
以上の各実施例は、本発明のほんの一例を説明したにすぎない。すなわち、本発明の権利範囲を上記実施の形態の通りに不当に限定・縮小すべきではなく、下記のように、本発明の構成要素を別の要素に変更した例も、本発明と均等の発明として権利範囲に含まれる。
【0149】
例えば、各実施の形態において、2 ストロークの動作を検出できるレリーズSW、及び静止画・動画撮影機能を具備したデジタルスチルカメラを例に挙げて説明したが、静止画撮影専用のデジタルスチルカメラ、及び動画撮影専用のビデオカメラにおいて、上記実施の形態と同様の機能を有するものであっても、本願の権利範囲に含まれる。ここで、該ビデオカメラが、上述の実施の形態で説明したのと同様の動作を実現する為に、被写体領域の追跡動作を開始するボタンを具備すると、さらに好適である。
【0150】
また、被写体領域をLCD6又はファインダー表示器8に表示する形態は、上記の実施の形態に限定されない。例えば、該表示機能を具備しない撮像装置(請求項6を除く請求の範囲に該当)、被写体領域を追跡している時にのみ該表示を行う撮像装置であっても構わない。
【0151】
また、被写体領域の記録については、1 秒毎に被写体領域の位置をテキストファイルに記録すると説明したが、各々のフレーム毎に記録する、またある一定数のフレーム毎に記録するなど、別の形態であっても構わない。また、ファイルフォーマットはテキストファイルではなく、MPEG−7(MPEGは,Motion Picture Experts Groupの略)等の内容記述ファイルとして記録してもよい。このほか、静止画、動画共に、該被写体領域を画像データの中に、ウォーターマーク(電子透かし)として挿入するといった形態であっても構わない。
【0152】
また、第2の実施例において、加速度センサと磁気センサを組み合わせて使用することにより、撮像部の姿勢を検出すると説明したが、ジャイロなどの他の素子を使用しても、同様の動作を実現することが可能である。
【0153】
【発明の効果】
請求項1から22記載の発明によれば、簡素な構成・動作で、画面上の正確な被写体領域を制御・追跡・記録することが可能となり、第1の目的が達成される。
【0154】
請求項6から13、17から22記載の発明によれば、被写体領域の追跡に要する処理コスト及び消費電力を軽減することができ、第2の目的が達成される。
【0155】
請求項7から13、18から22記載の発明によれば、ユーザーに面倒な操作を強いることがなく、被写体領域の指定及び追跡を実行することができ、第3の目的が達成される。
【0156】
請求項8から13、19から22記載の発明によれば、簡素な構成で、ユーザーが所望の撮影動作を実行できているかを確認することができ、第4の目的が達成される。
【0157】
請求項10から13、21、22記載の発明によれば、ユーザーが後になって撮影意図・動作を容易に確認することができ、第5の目的が達成される。
【図面の簡単な説明】
【図1】本発明による撮像装置等の一実施形態に係るデジタルスチルカメラの構成図である。
【図2】本発明による撮像装置等の一実施形態に係るデジタルスチルカメラのレリーズSWの構成図である。
【図3】本発明による撮像装置等の一実施形態に係る処理の流れを示すフローチャートである。
【図4】本発明による撮像装置等の一実施形態に係る動画撮影の流れを示すフローチャートである。
【図5】本発明による撮像装置等の一実施形態に係る被写体領域又は警告の表示の説明図である。(a)は、被写体領域の位置を示すポインタが表示されている場合であり、(b)は被写体領域の追跡に失敗した場合にその旨を警告するインジケータが表示されている場合である。
【図6】本発明による撮像装置等の一実施形態に係る被写体領域の追跡処理の流れを示すフローチャートである。
【図7】本発明による撮像装置等の一実施形態に係る被写体領域の追跡動作の説明図である。(a)は、被写体領域の所定の領域を切出したテンプレートあり、(b)は、テンプレート現画像上で移動させた場合である。
【図8】本発明による撮像装置等の一実施形態に係る被写体領域の記録動作を示す図である。
【図9】本発明による撮像装置等の他の実施形態に係るデジタルスチルカメラの構成図である。
【図10】本発明による撮像装置等の他の実施形態に係る被写体領域の追跡処理の流れを示すフローチャートである。
【図11】本発明による撮像装置等の他の実施形態に係る絶対座標系を示す図である。
【図12】本発明による撮像装置等の他の実施形態に係るカメラ座標系及び画像座標系を示す図である。
【図13】本発明によるプログラム及び記録媒体等の一実施形態の説明図である。(a)には、カメラ付きのノート型PCとCD−ROMが、(b)には、デジタルスチルカメラとスマートメディアが示されている。
【符号の説明】
1 デジタルスチルカメラ
2 システム制御部
3 撮像部
4 画像処理部
5 LCD表示制御部
6 LCD
7 ファインダー表示制御部
8 ファインダー表示器
9 記録メディアインターフェイス部
10 記録メディア
11 ハードキーインターフェイス部
12 姿勢検出センサ
21 ポインタ
22 インジケータ
23 テンプレート
24 現画像
25 CD−ROM
26 スマートメディア
30 ノート型PC[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device, a camera, a program, and a recording medium, and particularly to an imaging device such as a video camera and a digital still camera, a program, and a recording medium.
[0002]
[Prior art]
For applications such as editing, management, search, and display of video signals, it has become increasingly important to add and record additional information to them.
[0003]
Among them, it is important to record the position of the subject of interest on the screen (hereinafter, referred to as the subject area). This is because there are advantages that the user's intention to shoot can be confirmed based on the subject region later, and that only the subject of interest can be managed and searched.
[0004]
Therefore, conventionally, a camera has been proposed in which a subject area is selected by inputting a line of sight and the subject area information is recorded on a recording medium such as a film (see
[0005]
Specifically, there is a main subject information recording camera that determines the position of a main subject in a shooting screen and records position information of the main subject on a recording medium (for example, see Patent Document 1).
[0006]
There is also a gaze detection camera that repeatedly detects a main subject based on the detected photographer's eye position information and records information of the detected plurality of main subjects on a storage medium on a film or a film cartridge ( For example, see Patent Document 2).
[0007]
Also, it is determined which of the plurality of subject position areas has been selected by the line of sight detection, and information on the subject position area, which is selected by the line of sight independently of the selection of the focus detection area, such as a film. There is also a camera with a line-of-sight detection function for recording on a recording medium (for example, see Patent Document 3).
[0008]
Further, a digital camera that records image data obtained by performing a shooting operation focused on a predetermined position in a shooting screen and focus position data defining a focus position on the shooting screen has also been proposed (for example, And Patent Document 4).
[0009]
That is, the digital camera records image data obtained by performing a shooting operation focused on a predetermined position in a shooting screen and focus position data defining a focus position on the shooting screen.
[0010]
There are also an imaging apparatus characterized by tracking and recording a focus detection area on an imaging screen, a program for executing the processing, and a recording medium storing the program.
[0011]
[Patent Document 1]
JP-A-5-158132
[Patent Document 2]
JP-A-7-319037
[Patent Document 3]
JP-A-8-328126
[Patent Document 4]
JP 2001-128034 A
[0012]
[Problems to be solved by the invention]
However, the above-mentioned prior arts have a main purpose of notifying a print trader (lab) of optimizing the image quality of a specific part based on the subject area information, and do not aim at the aforementioned application. Did not.
[0013]
Further, in the invention described in
[0014]
The present invention has been made in view of the above-described problems, and has an image pickup apparatus, a camera, and a program that can control, track, and record an accurate subject area on a screen with a simple configuration and operation. And a recording medium.
[0015]
It is a second object of the present invention to provide an imaging device, a camera, a program, and a recording medium that can reduce processing cost and power consumption required for tracking a subject area.
[0016]
A third object is to provide an imaging device, a camera, a program, and a recording medium that can specify and track a subject area without forcing a user to perform a troublesome operation.
[0017]
A fourth object is to provide an imaging device, a camera, a program, and a recording medium that enable a user to confirm whether a desired photographing operation can be performed with a simple configuration.
[0018]
A fifth object is to provide an imaging device, a camera, a program, and a recording medium that enable a user to easily confirm a photographing intention / operation later.
[0019]
[Means for Solving the Problems]
According to the first aspect of the present invention, the imaging apparatus includes: an imaging unit that outputs a subject image input via an optical system as a video signal; and a subject designation unit that designates a subject of interest in a field of view of the imaging unit. Video recording means for recording a video signal, tracking means for tracking a subject area designated by the subject designating means, and additional information recording means for recording the subject area in association with the video signal. Is what you do.
[0020]
According to the second aspect of the present invention, the imaging apparatus further includes a similarity calculating unit configured to calculate a similarity between the current video signal and the video signal captured one time ago. It is characterized by being.
[0021]
According to a third aspect of the present invention, the imaging device is the imaging device according to the second aspect, wherein the tracking means tracks the subject area based on the output of the similarity calculation means.
[0022]
According to a fourth aspect of the present invention, the imaging apparatus is the imaging apparatus according to the first, second, or third aspect, further including a direction detection unit that detects a direction of the imaging unit.
[0023]
According to a fifth aspect of the present invention, the imaging device is the imaging device according to the fourth aspect, wherein the tracking means tracks the subject area based on the output of the direction detecting means.
[0024]
According to the invention described in
[0025]
According to a seventh aspect of the present invention, the imaging apparatus is the imaging apparatus according to any one of the first to sixth aspects, wherein the subject designating unit stops operating while the tracking unit is operating. Is what you do.
[0026]
According to the invention described in claim 8, the imaging apparatus is the imaging apparatus according to any one of
[0027]
According to the ninth aspect of the present invention, the imaging apparatus further includes a warning unit that issues a warning when the tracking unit determines that the subject area has deviated from the screen. It is characterized by being a device.
[0028]
According to a tenth aspect of the present invention, in the imaging apparatus, the additional information recording unit records text data describing a tracking result of the subject area. It is characterized by the following.
[0029]
According to an eleventh aspect of the present invention, a camera includes the imaging device according to any one of the first to tenth aspects.
[0030]
According to the twelfth aspect of the present invention, the program comprises: a process of outputting a subject image input via an optical system as a video signal; a subject designating process of designating a subject of interest in a field of view of an imaging unit; It is characterized by executing a process of recording a signal, a tracking process of tracking a subject region designated by the subject designation process, and a process of recording the subject region in association with a video signal.
[0031]
According to the thirteenth aspect, the program further executes a similarity calculation process of calculating a similarity between the current video signal and the video signal captured one time ago. It is characterized by having.
[0032]
According to a fourteenth aspect of the present invention, the program is the program according to the thirteenth aspect, further causing a tracking process for tracking a subject area based on an output of the similarity calculation process.
[0033]
According to a fifteenth aspect of the present invention, the program is the program according to the twelfth, thirteenth, or fourteenth aspect, wherein the program further executes a direction detection process for detecting a direction of the imaging unit.
[0034]
According to a sixteenth aspect of the present invention, the program is the program according to the fifteenth aspect, further executing a tracking process of tracking a subject area based on an output of the orientation detection process.
[0035]
According to a seventeenth aspect of the present invention, the program is the program according to any one of the twelfth to sixteenth aspects, wherein the program further executes a process of starting an operation of the tracking process.
[0036]
According to the invention described in claim 18, the program is the program according to any one of
[0037]
According to a nineteenth aspect, the program is the program according to any one of the twelfth to eighteenth aspects, further causing a process of displaying a subject area output by the tracking process to be executed. Things.
[0038]
According to the twentieth aspect of the present invention, the program according to any one of the twelfth to nineteenth aspects, further comprising executing a process of issuing a warning when it is determined by the tracking process that the subject area has deviated from the screen. It is characterized by being.
[0039]
According to a twenty-first aspect, the program is the program according to any one of the twelfth to twentieth aspects, wherein the program further executes a process of recording text data describing a tracking result of the subject area. It is assumed that.
[0040]
According to a twenty-second aspect of the present invention, a recording medium is a computer-readable recording medium that records the program according to any one of the twelfth to twenty-first aspects.
[0041]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of an imaging device, a camera, a program, and a recording medium according to the present invention will be described in detail with reference to the accompanying drawings.
[0042]
First, taking a digital still camera as an example, a first example as an embodiment of an imaging apparatus, a camera, a program, and a recording medium according to the present invention will be described.
[004 3]
FIG. 1 is a diagram illustrating a configuration of a digital still camera according to an embodiment of an imaging apparatus, a camera, a program, and a recording medium according to the present invention.
[004 4]
In FIG. 1, a digital
[004 5]
The
[004 6]
The
[004 7]
The
[004 8]
The LCD
[0049]
The
[0050]
The finder
[0051]
The finder display 8 is provided for displaying an image incident on the optical system of the
[0052]
The recording
[0053]
The
[0054]
The hard
[0055]
Here, the configuration of the release SW will be described with reference to FIG. FIG. 2 shows a circuit diagram of the release SW.
[0056]
In FIG. 2, RL1 indicates a contact that is turned on when the release SW is half-pressed. RL2 indicates a contact that is turned on when the release SW is completely pressed. COM indicates a common contact point for both RL1 and RL2.
[0057]
As described above, the release SW is configured to detect a two-stroke operation. The state of the contacts of RL1 and RL2 is determined by the
[0058]
Next, the operation according to the first embodiment will be described with reference to the flowchart in FIG.
[0059]
Prior to shooting, the user operates various keys and dials (not shown) to determine a shooting mode (still image shooting mode, moving image shooting mode). The contents of the user's operation are determined by the
[0060]
In the case of No in step S1 of FIG. 3, that is, in the case of the still image shooting mode, then, in step S2, the digital
[0061]
That is, the
[0062]
The LCD
[0063]
Further, the finder
[0064]
Further, in this step, the position of the subject area is determined. The subject area is fixed at the center of the screen in advance, and is determined by a known technique such as line-of-sight detection or selection through a user interface such as the hard
[0065]
After the preparation for photographing in step S2 is completed, in step S4, when the
Here, the determination of the half-pressed state of the release SW is executed by the
[0066]
When the above process is completed, the digital
[0067]
At the time of the tracking operation of the subject area, which will be described later, the processing cost and the power consumption of the
[0068]
Further, in the present embodiment, the designation of the subject area and the tracking operation of the subject area are exclusively executed. This simplifies the processing because the designation of the subject area by the user and the tracking operation of the subject area do not interfere with each other. In addition, since it is not necessary to keep the user's gaze on the object of interest during the half-press operation of the release SW or to operate the hard
[0069]
When the subject area is tracked, a
[0070]
The
Here, the determination of the full-press state of the release SW is performed by the
[0071]
The
Then, the
The recording of the subject area will be described later.
[0072]
When the photographing and recording of the image are completed as described above, the tracking process of the subject area ends (step S12).
[0073]
If it is determined in step S8 that the RL2 contact is off (No), the
[0074]
Finally, when each operation is completed by the power-off detection, the power is turned off and the process ends (Yes in step S13).
[0075]
Here, the operation (step S3) when the moving image shooting mode is selected in step S1 of FIG. 3 will be described based on the flowchart of FIG.
[0076]
First, in step S21 of FIG. 4, in the digital
[0077]
When it is determined that the release SW is half-pressed after the preparation for shooting is completed, that is, the RL1 contact is turned on (Yes in step S22), as described above, focus detection (AF), automatic exposure (AE), and auto white The balance (AWB) process is started (step S23). This adjustment operation is continuously performed until a half-press of the release SW (RL1 contact ON) is detected, as described later.
[0078]
If it is determined that the RL1 contact is off (No in step S22), the process proceeds to step S35 described later.
[0079]
The
[0080]
When the recording operation is started (step S26), the
[0081]
During the recording operation, when the half-press of the release SW is detected (RL1 contact is turned on, that is, Yes in step S28), the operation of tracking the subject area is started.
[0082]
In step S29, the digital
[0083]
At the time of the tracking operation of the subject area, which will be described later, the processing cost and the power consumption of the
[0084]
As in the still image mode, the designation of the subject area and the tracking operation of the subject area are exclusively executed. This simplifies the processing because the designation of the subject area by the user and the tracking operation of the subject area do not interfere with each other. In addition, there is no need to keep the line of sight on the subject of interest during shooting or to operate the hard
[0085]
On the other hand, if the release SW is released during the recording operation, the above-described focus detection tracking operation is not performed.
[0086]
When the subject area is tracked, a
[0087]
When the tracking of the subject area has failed, such as when the subject area is off the screen, an
[0088]
When the focus detection tracking operation is not performed, the
[0089]
The processes of steps S27 to S31 are repeated until the full-press of the release SW (RL2 contact ON) is detected, or the change operation of the shooting mode or the power-off operation is detected (Yes in step S31). Be executed.
[0090]
When the recording of the moving image has been completed (step S32), the
[0091]
Finally, when a change operation of the shooting mode or a power-off operation is detected, the flow of FIG. 4 is ended (Yes in step S35), otherwise (No in step S35), the processing of steps S22 to S34 is performed. It is executed repeatedly.
[0092]
Here, the tracking operation of the subject area in the embodiment of the imaging device, the camera, the program, and the recording medium according to the present invention will be described based on the flowchart of FIG.
[0093]
First, when the tracking process of the subject area is in the initial state, that is, when the tracking process is executed for the first time after the half-press of the release SW (RL1 contact ON) is detected (step S41), the
This is the end of the process.
[0094]
If the template is not in the initial state (No in step S41), the template recorded in the previous process is read from the memory (step S43), and an area having a high similarity with the template in the current image is detected. .
[0095]
Here, an operation when template matching is used as a means for detecting a portion having a high degree of similarity will be described with reference to FIG.
[0096]
7A, it is assumed that the size of the template is (2du + 1) × (2dv + 1) The
[0097]
(Equation 1)
[0098]
Here, the meaning of each symbol in the expression (1) is as follows.
・ I 1 (U, v): pixel value at point (u, v) on the template
・ I 2 (U, v): pixel value at point (u, v) on the current image
Based on the above calculation, the point (m, n) in the current image at which the normalized cross-correlation value S is maximum is obtained.
[0099]
Next, in step S45 of FIG. 6, it is determined whether the above-described template matching is successful. Here, as a criterion for determining the success or failure of the template matching, for example, a threshold θ of the normalized cross-correlation value S is determined in advance, and if the value of S is equal to or more than θ, success is determined, and if the value of S is less than θ, failure is determined. Just fine.
[0100]
If it is determined to be successful (Yes in step S45), the point (m, n) obtained in step S43 is output to the
[0101]
Next, recording of a subject area in an embodiment of the imaging device, the camera, the program, and the recording medium according to the present invention will be described.
[0102]
In the case of a still image, data relating to the subject area is recorded in header information in the acquired image. For example, when Exif (exchangeable image file format) is adopted as a format of a still image of a digital still camera, the subject is included in a field called Subject Area in the header information where the position of a main subject can be described. The location of the area can be recorded.
[0103]
Also, in the case of a moving image, as shown in FIG. 8, the time is recorded as text information in the order of the time in seconds from the left, the horizontal coordinate u of the subject area, and the vertical coordinate v of the subject area. This text information is recorded on a recording medium as a text file together with the moving image.
[0104]
At this time, the moving image data and the text file are recorded in association with each other. For example, if the name of the moving image file is "Video 01.avi" (avi is an abbreviation for Audio Video Interleaving), the name of the text file is "Video 01.txt", and the name before the extension is aligned. Recorded in the form.
[0105]
Hereinafter, a second example which is an embodiment of the imaging apparatus, the camera, the program, and the recording medium according to the present invention will be described.
[0106]
The above-described focus area detection processing may be performed by detecting the direction of the
[0107]
FIG. 9 is a diagram illustrating a configuration of the digital still camera according to the present embodiment. The digital
The same reference numerals in the drawings denote the same or corresponding parts as in the first embodiment.
[0108]
The
[0109]
The
[0110]
The operations in the still image shooting mode and the moving image shooting mode in the second embodiment are the same as those in the first embodiment, and operate according to the flowcharts of FIGS.
[0111]
Here, the tracking operation of the subject area when an acceleration sensor and a magnetic sensor are used as an example of the posture detection sensor will be described with reference to the flowchart of FIG.
[0112]
First, the
[0113]
Here, it is assumed that the absolute coordinate system is a right-handed XYZ coordinate system in which the eastward direction is the X axis, the gravity direction is the Y axis, and the northward direction is the Z axis, as shown in FIG.
[0114]
The acceleration sensor is used to detect the gravitational acceleration, and the magnetic sensor is used to detect the terrestrial magnetism. The output signals of these sensors make it possible to easily calculate the orientation of the
[0115]
Here, when the tracking process of the subject area is in the above-described initial state (Yes in step S52), the process ends here.
[0116]
On the other hand, if it is not the initial state (No in step S52), the subject area and the attitude of the
[0117]
Here, a method of calculating the current subject area will be described.
[0118]
First, two coordinate systems shown in FIG. 12 are defined.
Camera coordinate system
X-axis: Positive to the right of the screen
・ Y-axis: Positive screen downward
・ Z axis: optical axis, direction toward object is positive
・ Origin 0: Optical center of camera
・ F: focal length
Image coordinate system
・ U-axis: Positive to screen right
・ V-axis: screen downward is positive
• (u0, v0): center of the screen, ie, image coordinates where the optical axis and the screen intersect
[0119]
It is assumed that the optical system of the camera coordinate system is described by a central projection model. The image coordinate system uses pixels as a basic unit.
[0120]
The following variables are defined.
R W , t-1 : A rotation matrix representing the attitude of the
R W , t : Rotation matrix representing the attitude of the
[0121]
From the two rotation matrices, a rotation matrix R indicating a change in the attitude of the
[0122]
(Equation 2)
[0123]
Where R W , t-1 The subscript T at the upper right of the matrix represents the transposition of the matrix.
[0124]
Due to the change in the posture represented by the rotation matrix R, the subject area (u t-1 , V t-1 ) At the current time point (u t , V t Go to).
[0125]
[Equation 3]
[0126]
And these matrices A t-1 , A t Indicates the relationship between the camera coordinate system and the image coordinate system at the previous time and the present, respectively, and is called a camera internal matrix (reference: Xu Go, Saburo Tsuji: “3D Vision”, Kyoritsu) Publishing (1998)).
[0127]
Also, k u , K v Represents a unit of the u-axis and the v-axis with reference to the x-axis and the y-axis, respectively, that is, a pixel density.
[0128]
Also, f t-1 , F t Are variables representing the focal length at the previous time and the present, respectively. S is a constant for setting the third component on the left side of the equation (3) to 1.
[0129]
In general, k u , K v Can be easily known from the CCD design specifications.
[0130]
Further, the value of the focal length can be detected by a method of reading the position of the lens driving motor by the encoder in the
By the above calculation, the current position (u t , V t ) Is calculated.
[0131]
Subsequently, the points (u t , V t ) Is determined to be within the screen (step S55). If it is within the screen (Yes), the point (u) determined at step S53 is determined. t , V t ) Is output to the
[0132]
If it is determined that it is outside the screen (No in step S55), a signal indicating that the tracking has failed is output to the system control unit 2 (step S57). This is the end of the process.
[0133]
Hereinafter, a third example which is an embodiment of the imaging apparatus, the camera, the program, and the recording medium according to the present invention will be described.
[0134]
The functions of the imaging device and the like according to the present invention can be realized by a personal computer (PC) or a portable information terminal.
[0135]
In recent years, digital cameras that can realize various functions by reading various processing programs have come to appear. In addition, a notebook PC equipped with a camera whose direction can be rotated, a PDA (Personal Digital Assistant) equipped with the camera, and a mobile phone have become widespread.
[0136]
In such a case, the functions can be realized by causing these devices to execute a processing program that realizes the functions described in the first embodiment or the second embodiment.
[0137]
The present embodiment is a program that can be read by the above-described device via various media or an electric communication line such as the Internet. The contents of the operation are the same as those in the above-described first or second embodiment.
[0138]
Hereinafter, a specific example in which the above-described operation described in the first embodiment or the second embodiment is realized by executing the program in a notebook PC including a camera will be described.
[0139]
Processing such as AF is executed inside the camera.
[0140]
Selection of a shooting mode, control of start / end of shooting, start of tracking operation of a subject area (corresponding to half-pressing operation of the release SW in the above-described embodiment), display of an image and a subject area are performed by an arbitrary user interface. Done through. An example is described below.
[0141]
Select the shooting mode: Cursor key
Shooting start / end control: Return key
Start tracking of subject area: Space key
Display of image and subject area: Display on LCD
[0142]
Hereinafter, a fourth example which is an embodiment of the imaging apparatus, the camera, the program, and the recording medium according to the present invention will be described.
[0143]
The imaging apparatus according to the present invention causes a device described in the third embodiment to read a recording medium storing a processing program for realizing the functions described in the first embodiment or the second embodiment, That function can be realized.
[0144]
For example, as shown in FIG. 13A, the function is realized by mounting the CD-
[0145]
Further, as shown in FIG. 13B, the
[0146]
It should be noted that the recording medium for storing the program is not limited to the above-described one, but may be another medium such as a CD-RW or a DVD-ROM.
[0147]
The operation in this embodiment is the same as that in the third embodiment.
[0148]
The above embodiments are merely illustrative of the invention. That is, the scope of the rights of the present invention should not be unduly limited or reduced as in the above-described embodiment, and examples in which the constituent elements of the present invention are changed to other elements as described below are equivalent to the present invention. It is included in the scope of right as an invention.
[0149]
For example, in each embodiment, the release SW capable of detecting a two-stroke operation and a digital still camera having a still image / moving image shooting function have been described as examples. Even a video camera dedicated to shooting moving images having the same function as the above embodiment is also included in the scope of the present application. Here, it is more preferable that the video camera includes a button for starting a tracking operation of the subject area in order to realize the same operation as that described in the above embodiment.
[0150]
The manner in which the subject area is displayed on the
[0151]
In the description of the recording of the subject area, the position of the subject area is recorded in the text file every second. However, another form such as recording each frame or recording a certain number of frames is used. It does not matter. The file format may be recorded as a content description file such as MPEG-7 (MPEG stands for Motion Picture Experts Group) instead of a text file. In addition, for both still images and moving images, the subject area may be inserted into the image data as a watermark (digital watermark).
[0152]
Further, in the second embodiment, it has been described that the attitude of the imaging unit is detected by using the acceleration sensor and the magnetic sensor in combination. However, the same operation can be realized by using another element such as a gyro. It is possible to
[0153]
【The invention's effect】
According to the invention as set forth in
[0154]
According to the inventions described in
[0155]
According to the seventh to thirteenth and eighteenth to twenty-second aspects, designation and tracking of a subject area can be executed without forcing the user to perform a troublesome operation, and the third object is achieved.
[0156]
According to the inventions described in claims 8 to 13 and 19 to 22, it is possible to confirm with a simple configuration whether the user can execute a desired photographing operation, and the fourth object is achieved.
[0157]
According to the tenth to thirteenth, twenty-first, twenty-second, and twenty-second aspects, the user can easily confirm the photographing intention and operation later, and the fifth object is achieved.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a digital still camera according to an embodiment of an imaging device and the like according to the present invention.
FIG. 2 is a configuration diagram of a release switch of a digital still camera according to an embodiment of an imaging device or the like according to the present invention.
FIG. 3 is a flowchart illustrating a flow of a process according to an embodiment of an imaging device or the like according to the present invention.
FIG. 4 is a flowchart illustrating a flow of moving image capturing according to an embodiment of an imaging device or the like according to the present invention.
FIG. 5 is an explanatory diagram of a display of a subject area or a warning according to an embodiment of an imaging device or the like according to the present invention. (A) shows a case where a pointer indicating the position of the subject area is displayed, and (b) shows a case where an indicator for warning that the tracking of the subject area has failed is displayed.
FIG. 6 is a flowchart showing a flow of a tracking process of a subject area according to an embodiment of the imaging device or the like according to the present invention.
FIG. 7 is an explanatory diagram of a tracking operation of a subject area according to an embodiment of an imaging device or the like according to the present invention. (A) shows a template obtained by cutting out a predetermined area of the subject area, and (b) shows a case where the template is moved on the template current image.
FIG. 8 is a diagram illustrating a recording operation of a subject area according to an embodiment of an imaging device or the like according to the present invention.
FIG. 9 is a configuration diagram of a digital still camera according to another embodiment such as an imaging device according to the present invention.
FIG. 10 is a flowchart illustrating a flow of a subject area tracking process according to another embodiment of the imaging apparatus and the like according to the present invention.
FIG. 11 is a diagram showing an absolute coordinate system according to another embodiment such as an imaging device according to the present invention.
FIG. 12 is a diagram illustrating a camera coordinate system and an image coordinate system according to another embodiment of the imaging device and the like according to the present invention.
FIG. 13 is an explanatory diagram of an embodiment of a program, a recording medium, and the like according to the present invention. (A) shows a notebook PC with a camera and a CD-ROM, and (b) shows a digital still camera and a smart media.
[Explanation of symbols]
1 Digital still camera
2 System control unit
3 Imaging unit
4 Image processing unit
5 LCD display controller
6 LCD
7 Finder display control unit
8 Viewfinder display
9 Recording media interface
10 Recording media
11 Hard key interface
12 Attitude detection sensor
21 pointer
22 Indicator
23 templates
24 Current image
25 CD-ROM
26 Smart Media
30 Notebook PC
Claims (22)
前記撮像手段の視野内において注目する被写体を指定する被写体指定手段と、
前記映像信号を記録する映像記録手段と、
前記被写体指定手段により指定された被写体領域を追跡する追跡手段と、
前記被写体領域を、前記映像信号と関連して記録する付加情報記録手段と、
を有することを特徴とする撮像装置。Imaging means for outputting a subject image input via an optical system as a video signal,
Subject designating means for designating a subject of interest in the field of view of the imaging means;
Video recording means for recording the video signal,
Tracking means for tracking a subject area designated by the subject designating means;
Additional information recording means for recording the subject area in association with the video signal,
An imaging device comprising:
をさらに有することを特徴とする請求項1記載の撮像装置。A current video signal, and a similarity calculating unit that calculates a similarity between the video signal captured one time ago,
The imaging device according to claim 1, further comprising:
前記類似度算出手段の出力に基づき、前記被写体領域を追跡することを特徴とする請求項2記載の撮像装置。The tracking means,
The imaging apparatus according to claim 2, wherein the subject area is tracked based on an output of the similarity calculation unit.
をさらに有することを特徴とする請求項1、2または3記載の撮像装置。Direction detection means for detecting the direction of the imaging means,
The imaging device according to claim 1, 2 or 3, further comprising:
前記向き検出手段の出力に基づき、前記被写体領域を追跡することを特徴とする請求項4記載の撮像装置。The tracking means,
The imaging apparatus according to claim 4, wherein the object area is tracked based on an output of the direction detection unit.
をさらに有することを特徴とする請求項1から5のいずれか1項に記載の撮像装置。Starting means for starting the operation of the tracking means,
The imaging device according to any one of claims 1 to 5, further comprising:
前記追跡手段の動作中は動作を停止することを特徴とする請求項1から6のいずれか1項に記載の撮像装置。The subject designating means includes:
The imaging apparatus according to claim 1, wherein the operation is stopped while the tracking unit is operating.
をさらに有することを特徴とする請求項1から7のいずれか1項に記載の撮像装置。Display means for displaying the subject area output by the tracking means,
The imaging device according to any one of claims 1 to 7, further comprising:
をさらに有することを特徴とする請求項1から8のいずれか1項に記載の撮像装置。Warning means for issuing a warning when the tracking means determines that the subject area has deviated from the screen,
The imaging device according to any one of claims 1 to 8, further comprising:
前記被写体領域の追跡結果を記したテキストデータを記録することを特徴とする請求項1から9のいずれか1項に記載の撮像装置。The additional information recording means,
The imaging apparatus according to claim 1, wherein text data describing a tracking result of the subject area is recorded.
撮像手段の視野内において注目する被写体を指定する被写体指定処理と、
前記映像信号を記録する処理と、
前記被写体指定処理により指定された被写体領域を追跡する追跡処理と、
前記被写体領域を、前記映像信号と関連して記録する処理と、を実行させることを特徴とするプログラム。A process of outputting a subject image input via an optical system as a video signal,
Subject designation processing for designating a subject of interest in the field of view of the imaging means;
Processing for recording the video signal;
A tracking process of tracking a subject area designated by the subject designation process;
Recording the subject area in association with the video signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002274160A JP2004112550A (en) | 2002-09-19 | 2002-09-19 | Imaging apparatus, camera, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002274160A JP2004112550A (en) | 2002-09-19 | 2002-09-19 | Imaging apparatus, camera, program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004112550A true JP2004112550A (en) | 2004-04-08 |
Family
ID=32270714
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002274160A Pending JP2004112550A (en) | 2002-09-19 | 2002-09-19 | Imaging apparatus, camera, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004112550A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005341449A (en) * | 2004-05-31 | 2005-12-08 | Toshiba Corp | Digital still camera |
WO2008050674A1 (en) * | 2006-10-26 | 2008-05-02 | Olympus Corporation | Imaging device, image recording method and image recording program |
JP2008244826A (en) * | 2007-03-27 | 2008-10-09 | Casio Comput Co Ltd | Imaging apparatus and its program |
JP2009296030A (en) * | 2008-06-02 | 2009-12-17 | Canon Inc | Imaging device |
JP2010134915A (en) * | 2008-11-04 | 2010-06-17 | Omron Corp | Image processing device |
US7868917B2 (en) | 2005-11-18 | 2011-01-11 | Fujifilm Corporation | Imaging device with moving object prediction notification |
US7978253B2 (en) | 2007-07-18 | 2011-07-12 | Ricoh Company, Ltd. | Image pickup device using blur processing and control method thereof |
US8194158B2 (en) | 2007-07-27 | 2012-06-05 | Ricoh Company, Ltd. | Image processor, image processing method, digital camera, and imaging apparatus |
CN112637550A (en) * | 2020-11-18 | 2021-04-09 | 合肥市卓迩无人机科技服务有限责任公司 | PTZ moving target tracking method for multi-path 4K quasi-real-time spliced video |
-
2002
- 2002-09-19 JP JP2002274160A patent/JP2004112550A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005341449A (en) * | 2004-05-31 | 2005-12-08 | Toshiba Corp | Digital still camera |
US7868917B2 (en) | 2005-11-18 | 2011-01-11 | Fujifilm Corporation | Imaging device with moving object prediction notification |
WO2008050674A1 (en) * | 2006-10-26 | 2008-05-02 | Olympus Corporation | Imaging device, image recording method and image recording program |
JP2008244826A (en) * | 2007-03-27 | 2008-10-09 | Casio Comput Co Ltd | Imaging apparatus and its program |
US7978253B2 (en) | 2007-07-18 | 2011-07-12 | Ricoh Company, Ltd. | Image pickup device using blur processing and control method thereof |
US8194158B2 (en) | 2007-07-27 | 2012-06-05 | Ricoh Company, Ltd. | Image processor, image processing method, digital camera, and imaging apparatus |
JP2009296030A (en) * | 2008-06-02 | 2009-12-17 | Canon Inc | Imaging device |
JP2010134915A (en) * | 2008-11-04 | 2010-06-17 | Omron Corp | Image processing device |
CN112637550A (en) * | 2020-11-18 | 2021-04-09 | 合肥市卓迩无人机科技服务有限责任公司 | PTZ moving target tracking method for multi-path 4K quasi-real-time spliced video |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9019387B2 (en) | Imaging device and method of obtaining image | |
JP4999268B2 (en) | Electronic camera and program | |
JP4872797B2 (en) | Imaging apparatus, imaging method, and imaging program | |
US20080101783A1 (en) | Imaging apparatus with a function of compensating for hand shake, method of compensating for hand shake, and computer program product | |
US8988535B2 (en) | Photographing control method and apparatus according to motion of digital photographing apparatus | |
US20160330366A1 (en) | Image processing device and method, and program | |
JP2009171268A (en) | Electronic camera | |
JP4655708B2 (en) | Camera, camera shake state display method, and program | |
JP2009089220A (en) | Imaging apparatus | |
JP2004112550A (en) | Imaging apparatus, camera, program, and recording medium | |
JP2007166011A (en) | Imaging apparatus and its program | |
JP4807582B2 (en) | Image processing apparatus, imaging apparatus, and program thereof | |
JP2009081530A (en) | Imaging apparatus and imaging method | |
JP2009260599A (en) | Image display apparatus and electronic camera | |
JP2009260600A (en) | Electronic camera | |
JP2004112537A (en) | Imaging apparatus, imaging method, and program for executing the method | |
JP5067323B2 (en) | Imaging apparatus and program | |
JP2008172501A (en) | Imaging apparatus | |
JP2011130198A (en) | Imaging apparatus, control method thereof and program | |
JP4962597B2 (en) | Electronic camera and program | |
JP2006145567A (en) | Camera, method for notifying camera shake amount of camera, and program | |
JP2007180988A (en) | Imaging apparatus, display method, shake image confirming method, program, and storage medium | |
JP2006229697A (en) | Image pickup device | |
JP5274223B2 (en) | Imaging apparatus and control method thereof | |
EP3041219B1 (en) | Image processing device and method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070501 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070821 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071018 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071211 |