JP2004112550A - Imaging apparatus, camera, program, and recording medium - Google Patents

Imaging apparatus, camera, program, and recording medium Download PDF

Info

Publication number
JP2004112550A
JP2004112550A JP2002274160A JP2002274160A JP2004112550A JP 2004112550 A JP2004112550 A JP 2004112550A JP 2002274160 A JP2002274160 A JP 2002274160A JP 2002274160 A JP2002274160 A JP 2002274160A JP 2004112550 A JP2004112550 A JP 2004112550A
Authority
JP
Japan
Prior art keywords
tracking
subject area
subject
imaging
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002274160A
Other languages
Japanese (ja)
Inventor
Norihiko Murata
村田 憲彦
Giichi Watanabe
渡邊 義一
Masami Koide
小出 雅巳
Ryoichi Suzuki
鈴木 良一
Takayuki Kunieda
國枝 孝之
Kiyoshi Suzuki
鈴木 清詞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002274160A priority Critical patent/JP2004112550A/en
Publication of JP2004112550A publication Critical patent/JP2004112550A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus which controls, traces and reads an accurate object area on a picture in simple constitution and operation and designates and traces the object area without forcing complicated operations on a user, and to provide a program and a recording medium. <P>SOLUTION: The imaging apparatus has a means for designating an object of interest within a field of view of an imaging means, a means for tracing the designated object area, and a means for recording the object area in association with a video signal. Further, the imaging apparatus has a means for calculating similarity between a present video signal and a video signal imaged certain time before, a means for detecting a direction of the imaging means, and the like. Based upon the output of the similarity calculating means or the direction detecting means, a tracing means traces the object area. The imaging apparatus further has a means for displaying the object area outputted by the tracing means, a means for raising an alarm when the tracing means judges that the object area gets out of a picture, and the like. The recording means records text data with the traced result of the object area described therein. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、撮像装置、カメラ、プログラム及び記録媒体に関し、特に、ビデオカメラ、デジタルスチルカメラ等の撮像装置、プログラム及び記録媒体に関する。
【0002】
【従来の技術】
映像信号の編集、管理、検索、表示などのアプリケーションのために、これらに付加情報を加え、記録することの重要性が高まっている。
【0003】
その中でも、注目する被写体の画面上の位置(以下、被写体領域と呼ぶ)を記録することは重要である。後になって該被写体領域を基にユーザーの撮影意図を確認できるし、また、興味のある被写体のみを管理・検索できるなどの利点があるからである。
【0004】
そこで、従来、視線入力により被写体領域を選択し、その被写体領域情報をフィルムなどの記録媒体に記録するカメラが提案されている(特許文献1、特許文献2、特許文献3参照)。
【0005】
具体的には、撮影画面内の主要被写体位置を決定し、主要被写体の位置情報を記録媒体に記録する主要被写体情報記録カメラがある(例えば、特許文献1参照)。
【0006】
また、検出された撮影者の眼の位置情報に基づいて繰り返し主要被写体を検出し、検出された複数の主要被写体の情報をフィルム上またはフィルムパトローネ上の記憶媒体に記録する視線検出カメラもある(例えば、特許文献2参照)。
【0007】
また、視線検出によって複数の被写体位置エリアのうち何れの被写体位置エリアが選択されたかを判別し、焦点検出領域の選択とは独立して視線によって選択される、被写体位置エリアの情報をフィルム等の記録媒体に記録する視線検出機能付カメラもある(例えば、特許文献3参照)。
【0008】
さらに、撮影画面内の所定箇所に合焦した撮影動作を行って得られた画像データと、撮影画面上における合焦位置を規定した合焦位置データを記録するデジタルカメラも提案されている(例えば、特許文献4参照)。
【0009】
すなわち、撮影画面内の所定箇所に合焦した撮影動作を行って得られた画像データと、撮影画面上における合焦位置を規定した合焦位置データを記録するデジタルカメラである。
【0010】
また、撮像画面上における焦点検出領域を追跡・記録することを特徴とする撮像装置、並びに該処理を実行するプログラム及び該プログラムを格納した記録媒体もある。
【0011】
【特許文献1】
特開平5−158132号公報
【特許文献2】
特開平7−319037号公報
【特許文献3】
特開平8−328126号公報
【特許文献4】
特開2001−128034号公報
【0012】
【発明が解決しようとする課題】
しかし、上記の従来技術はいずれも、当該被写体領域情報に基づいて特定部位の画質を最適化することを印刷業者(ラボ)に伝達することが主目的であり、先述のアプリケーションを指向したものではなかった。
【0013】
また、特許文献4記載の発明においては、シャッターボタンを半押ししてフォーカスロック操作を行った後にカメラを動かすと合焦位置が変化するが、当該文献に記載された実施の形態においては、これに対する解決案は何ら記載されていない。したがって、フォーカスロック操作中のカメラの動きにより、誤った合焦位置が記録されてしまうという問題点がある。また、興味対象外の被写体に合焦した場合、ユーザーの撮影意図を後に誤って解釈してしまうなどの問題が生ずる。
【0014】
本発明は、上述の問題点に鑑みてなされたものであり、簡素な構成・動作で、画面上の正確な被写体領域を制御・追跡・記録することを可能とならしめる撮像装置、カメラ、プログラム及び記録媒体を提供することを第1の目的とする。
【0015】
被写体領域の追跡に要する処理コスト及び消費電力を軽減することを可能とならしめる撮像装置、カメラ、プログラム及び記録媒体を提供することを第2の目的とする。
【0016】
ユーザーに面倒な操作を強いることがなく、被写体領域の指定及び追跡を実行することを可能とならしめる撮像装置、カメラ、プログラム及び記録媒体を提供することを第3の目的とする。
【0017】
簡素な構成で、ユーザーが所望の撮影動作を実行できているかを確認することを可能とならしめる撮像装置、カメラ、プログラム及び記録媒体を提供することを第4の目的とする。
【0018】
ユーザーが後になって撮影意図・動作を容易に確認することを可能とならしめる撮像装置、カメラ、プログラム及び記録媒体を提供することを第5の目的とする。
【0019】
【課題を解決するための手段】
請求項1記載の発明によれば、撮像装置は、光学系を介して入力される被写体像を映像信号として出力する撮像手段と、撮像手段の視野内において注目する被写体を指定する被写体指定手段と、映像信号を記録する映像記録手段と、被写体指定手段により指定された被写体領域を追跡する追跡手段と、被写体領域を、映像信号と関連して記録する付加情報記録手段とを有することを特徴とするものである。
【0020】
請求項2記載の発明によれば、撮像装置は、現在の映像信号と、一時刻前に撮像された映像信号との類似度を算出する類似度算出手段をさらに有する請求項1記載の撮像装置であることを特徴とするものである。
【0021】
請求項3記載の発明によれば、撮像装置は、追跡手段は、類似度算出手段の出力に基づき、被写体領域を追跡する請求項2記載の撮像装置であることを特徴とするものである。
【0022】
請求項4記載の発明によれば、撮像装置は、撮像手段の向きを検出する向き検出手段をさらに有する請求項1、2または3記載の撮像装置であることを特徴とするものである。
【0023】
請求項5記載の発明によれば、撮像装置は、追跡手段は、向き検出手段の出力に基づき、被写体領域を追跡する請求項4記載の撮像装置であることを特徴とするものである。
【0024】
請求項6記載の発明によれば、撮像装置は、追跡手段の動作を開始させる開始手段をさらに有する請求項1から5のいずれか1項に記載の撮像装置であることを特徴とするものである。
【0025】
請求項7記載の発明によれば、撮像装置は、被写体指定手段は、追跡手段の動作中は動作を停止する請求項1から6のいずれか1項に記載の撮像装置であることを特徴とするものである。
【0026】
請求項8記載の発明によれば、撮像装置は、追跡手段が出力した被写体領域を表示する表示手段をさらに有する請求項1から7のいずれか1項に記載の撮像装置であることを特徴とするものである。
【0027】
請求項9記載の発明によれば、撮像装置は、追跡手段が被写体領域が画面から外れたと判定したときに警告を発する警告手段をさらに有する請求項1から8のいずれか1項に記載の撮像装置であることを特徴とするものである。
【0028】
請求項10記載の発明によれば、撮像装置は、付加情報記録手段は、被写体領域の追跡結果を記したテキストデータを記録する請求項1から9のいずれか1項に記載の撮像装置であることを特徴とするものである。
【0029】
請求項11記載の発明によれば、カメラは、請求項1から10のいずれか1項に記載の撮像装置を有することを特徴とするものである。
【0030】
請求項12記載の発明によれば、プログラムは、光学系を介して入力される被写体像を映像信号として出力する処理と、撮像手段の視野内において注目する被写体を指定する被写体指定処理と、映像信号を記録する処理と、被写体指定処理により指定された被写体領域を追跡する追跡処理と、被写体領域を、映像信号と関連して記録する処理とを実行させることを特徴とするものである。
【0031】
請求項13記載の発明によれば、プログラムは、現在の映像信号と、一時刻前に撮像された映像信号との類似度を算出する類似度算出処理をさらに実行させる請求項12記載のプログラムであることを特徴とするものである。
【0032】
請求項14記載の発明によれば、プログラムは、類似度算出処理の出力に基づき、被写体領域を追跡する追跡処理をさらに実行させる請求項13記載のプログラムであることを特徴とするものである。
【0033】
請求項15記載の発明によれば、プログラムは、撮像手段の向きを検出する向き検出処理、をさらに実行させる請求項12、13または14記載のプログラムであることを特徴とするものである。
【0034】
請求項16記載の発明によれば、プログラムは、向き検出処理の出力に基づき、被写体領域を追跡する追跡処理、をさらに実行させる請求項15記載のプログラムであることを特徴とするものである。
【0035】
請求項17記載の発明によれば、プログラムは、追跡処理の動作を開始させる処理をさらに実行させる請求項12から16のいずれか1項に記載のプログラムであることを特徴とするものである。
【0036】
請求項18記載の発明によれば、プログラムは、被写体指定処理が、追跡処理の動作中に動作を停止する処理、をさらに実行させる請求項12から17のいずれか1項に記載のプログラムであることを特徴とするものである。
【0037】
請求項19記載の発明によれば、プログラムは、追跡処理により出力された被写体領域を表示する処理をさらに実行させる請求項12から18のいずれか1項に記載のプログラムであることを特徴とするものである。
【0038】
請求項20記載の発明によれば、プログラムは、追跡処理により被写体領域が画面から外れたと判定されたときに警告を発する処理をさらに実行させる請求項12から19のいずれか1項に記載のプログラムであることを特徴とするものである。
【0039】
請求項21記載の発明によれば、プログラムは、被写体領域の追跡結果を記したテキストデータを記録する処理をさらに実行させる請求項12から20のいずれか1項に記載のプログラムであることを特徴とするものである。
【0040】
請求項22記載の発明によれば、記録媒体は、請求項12から21のいずれか1項に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体であることを特徴とするものである。
【0041】
【発明の実施の形態】
次に、添付図面を参照して本発明による撮像装置、カメラ、プログラム及び記録媒体の実施の形態を詳細に説明する。
【0042】
デジタルスチルカメラを例に、まず、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態たる第1実施例について説明する。
【004 3 】
図1は、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態におけるデジタルスチルカメラの構成を示す図である。
【004 4 】
図1において、デジタルスチルカメラ装置1は、システム制御部2と、撮像部3と、画像処理部4と、LCD表示制御部5と、LCD6と、ファインダー表示制御部7と、ファインダー表示器8と、記録メディアインターフェイス部9と、記録メディア10と、ハードキーインターフェイス部11とから構成される。
【004 5 】
システム制御部2は、デジタルスチルカメラ装置1全体の制御を行うために設けられた、CPU(Central Processing Unit )、メモリ、タイマー等からなる。
【004 6 】
撮像部3は、撮像のために設けられた、光学系部品(レンズ及びレンズ駆動モータ)、CCD(Charge Coupled Device )、CCD駆動回路、A/D変換器等からなる。
【004 7 】
画像処理部4は、撮像部3で得られた画像信号に種々の画像処理を施すと共に、撮像部3のCCD駆動タイミング、レンズ駆動モータを制御してフォーカシング、露出調整等を行い、また、画像の圧縮伸長を行うために設けられた、画像処理用DSP(Digital Signal Processor)、メモリ等からなる。
【004 8 】
LCD表示制御部5は、画像処理部4で処理された画像信号をLCD(LiquidCrystal Display)へ表示するための信号処理を行い、また、ユーザーインターフェイスのための種々のグラフィック画像を生成し、LCDへ表示するために設けられた、D/A変換器、オンスクリーンディスプレイコントローラ等からなる。
【0049】
LCD6は、画像を表示し、また、ユーザーインターフェイスのためのグラフィックを表示するために設けられる。
【0050】
ファインダー表示制御部7は、画像処理部4で処理された画像信号をファインダー内部に設置された表示器へ表示するための信号処理を行い、また、ユーザーインターフェイスのための種々のグラフィック画像を生成し該表示器へ表示するために設けられた、D/A変換器、オンスクリーンディスプレイコントローラ等からなる。
【0051】
ファインダー表示器8は、撮像部3の光学系に入射する像を表示し、また、ユーザーインターフェイスのためのグラフィックを表示するために設けられた、
【0052】
記録メディアインターフェイス部9は、記録メディアとのインターフェイスのために設けられた、メモリカードコントローラ等からなる、
【0053】
記録メディア10は、圧縮された画像信号や画像に纏わる種々の情報を記憶するために設けられた、フラッシュメモリ等からなっており、デジタルスチルカメラ装置1から着脱可能となっている。
【0054】
ハードキーインターフェイス部11は、後述するレリーズSW、図示されていないキー、ダイアル等のユーザーインターフェイスのためのハードウェアの状態を検出するために設けられた、パラレルポート等からなっている。
【0055】
ここで、レリーズSWの構成について図2を用いて説明する。図2には、レリーズSWの回路図が示されている。
【0056】
図2において、RL1は、レリーズSWを半押ししたときオンされる接点示している。RL2は、レリーズSWを完全に押したときにオンされる接点を示している。COMは、RL1・RL2の双方で共通な接点を示している。
【0057】
以上の様に、レリーズSWは、2 ストロークの動作を検出できる様に構成されている。RL1、RL2の接点の状態は、前述したように、ハードキーインターフェイス部11を通じてシステム制御部2で判別される。
【0058】
次に、第1の実施例に係る動作を、図3のフローチャートを用いて説明する。
【0059】
ユーザーは撮影に先立ち、図示されていない種々のキー、ダイヤルを操作し、撮影モード(静止画撮影モード、動画撮影モード)を決定する。ユーザーの操作内容はハードキーインターフェイス部11を通じてシステム制御部2で判別され(ステップS1)、静止画撮影モードでは(ステップS1でNo)、以下に説明するように、ステップS2以降の処理が実行される。動画撮影モードでは(ステップS1でYes)、後述するように、図4に示すフローチャートに従って動作する(ステップS23参照)。
【0060】
図3のステップS1においてNo、すなわち、静止画撮影モードの場合、その後、ステップS2で、デジタルスチルカメラ装置1において、以下に示す撮影の準備を整える作業が実行される。
【0061】
すなわち、システム制御部2は、モードに応じた処理パラメタを画像処理部4へ設定する。撮像部3は、画像処理部4からの制御に従い、実際の撮影に先だって、プレビュー画像を表示するための撮像動作を開始する。撮像されたデータは連続的に画像処理部4へ送られ、画像処理部4では色空間変換、ガンマ補正、ホワイトバランス調整などの処理を施した後、画像データをLCD表示制御部5へ送る。
【0062】
LCD表示制御部5では、画像データを信号処理してLCD6へ表示し、ユーザーへ撮像状態を提示する。
【0063】
また、ファインダー表示制御部7では、デジタルスチルカメラ1の種々の状態をファインダー表示器8へ表示し、ユーザーへ撮像状態を提示する。
【0064】
さらに、このステップにおいて、被写体領域の位置が決定される。当該被写体領域は、予め画面中央に固定されており、公知技術である視線検出やハードキーインターフェイス部11などのユーザーインターフェイスを通じて選択されるなどの形態により決定される。
【0065】
ステップS2における撮影の準備が整った後、ステップS4において、システム制御部2が、前述したレリーズSWの半押し、すなわち、RL1接点がオンになったと判定すると(Yes)、ステップS5において、焦点検出(AF)、自動露出(AE)、オートホワイトバランス(AWB)のアルゴリズムプログラムを起動し、画像処理部4から得られる各種評価データを基に、画像処理部4、及び、撮像部3を制御して調整を行う。
ここで、レリーズSWの半押し状態の判定は、モード設定と同様にしてハードキーインターフェイス部11を通じてシステム制御部2で実行される。
【0066】
上記の処理が終了すると、ステップS6において、デジタルスチルカメラ装置1は、撮像部3の撮像範囲において被写体領域の追跡を開始する。すなわち、レリーズSWの半押し操作は、被写体領域の追跡動作を開始させる手段として機能する。この動作の具体的な内容については後述する。
【0067】
なお、後述する被写体領域の追跡動作時には、システム制御部2において処理コスト及び消費電力が少なからず発生する。上述のように、レリーズSWの半押し操作している時にのみ、被写体領域の追跡動作を実行することにより、処理コスト及び消費電力を低減させることができる。
【0068】
また、本実施例では、被写体領域の指定と被写体領域の追跡動作は、排他的に実行される。これにより、ユーザーによる被写体領域の指定と、被写体領域の追跡動作が相互干渉しないので、処理が簡素になる。また、レリーズSWの半押し操作中に注目する被写体に視線を向け続けたり、ハードキーインタフェース部11を操作する必要がないため、撮影動作が非常に簡単になるという利点がある。
【0069】
被写体領域が追跡されると、LCD6又はファインダー表示器8において、図5(a)のように、該被写体領域の位置を示すポインタ21を表示する。また、被写体領域が画面から外れるなど、被写体領域の追跡に失敗した場合には、図5(b)のように、ユーザーにその旨を警告するインジケータ22を表示する(ステップS7)。
【0070】
システム制御部2は、引き続きハードキーインターフェイス部11を通じて、レリーズSWの状態を監視し(ステップS8)、レリーズSWが全押し、すなわちRL2接点がオンになったと判定すると(Yes)、以下に示す撮影動作を開始する(ステップS9)。
ここで、レリーズSWの全押し状態の判定は、レリーズSWの半押し状態の検出動作と同様にして、ハードキーインターフェイス部11を通じてシステム制御部2で実行される。
【0071】
撮像部3は画像処理部4からの制御に従い、所定の画像を取り込み画像処理部4へ送り、画像処理部4は、撮影モードに応じた画像処理、圧縮処理を行う。
そして、システム制御部2は、圧縮された画像データ及び追跡された被写体領域を読み出し、さらにヘッダー情報を付加した後、記録メディアインターフェイス部9を通じて記録メディア10へ記録する(ステップS10)。
被写体領域の記録については、後述する。
【0072】
以上で画像の撮影及び記録を完了すると、被写体領域の追跡処理を終了する(ステップS12)。
【0073】
また、ステップS8において、RL2接点がオフであると判定されると(No)、システム制御部2は、RL1接点の状態を検出する(ステップS11)。RL1接点がオンであると判定されると(Yes)、ステップS6に戻り、ステップS11までの処理を繰り返す。また,RL1接点が解除されたと判定されると(ステップS11でNo)、AE、AF、AWBの処理及び被写体領域の追跡処理を終了する(ステップS12)。
【0074】
最後に、各動作を電源オフ検出で終了した場合には、電源をオフして終了する(ステップS13でYes)。
【0075】
ここで、図3のステップS1において、動画撮影モードが選択されている場合の動作(ステップS3)を、図4のフローチャートに基づいて説明する。
【0076】
まず、図4のステップS21では、デジタルスチルカメラ装置1において、動画撮影の準備を整える作業が実行される。その動作は、図3のステップS2と同様である。
【0077】
撮影の準備が整った後、レリーズSWの半押し、すなわちRL1接点がオンになったと判定すると(ステップS22でYes)、前述したように、焦点検出(AF)、自動露出(AE)、オートホワイトバランス(AWB)の処理を開始する(ステップS23)。この調整動作は、後述するように、レリーズSWの半押し(RL1 接点オン)が検知されるまで、継続的に実行される。
【0078】
また、RL1 接点がオフであると判定すると(ステップS22でNo)、後述するステップS35の処理に進む。
【0079】
システム制御部2は、引き続きハードキーインターフェイス部11を通じて、レリーズSWの状態を監視し、そのままレリーズSWが押し込まれると(RL2接点オンすなわちステップS24でYes)、後述するステップS26以降の動画の記録動作を開始し、逆に、レリーズSWの半押しが解除されると(RL1 接点オフすなわちステップS25でNo)、前述のAF、AE、AWB処理を終了する(ステップS34)。
【0080】
記録動作を開始すると(ステップS26)、システム制御部2は、ハードキーインターフェイス部11を通じて、レリーズSWの状態を監視し、レリーズSWの全押し状態(RL2 接点オン)を検知すると(ステップS27でYes)、動画の記録を終了し(ステップS32)、そうでなければステップS28以降の処理を実行する。すなわち、記録動作中のレリーズSWの全押しが検知されるまで、記録動作を継続する。
【0081】
記録動作中に、レリーズSWの半押しが検知されると(RL1 接点オンすなわちステップS28でYes)、被写体領域を追跡する動作を開始する。
【0082】
ステップS29においては、デジタルスチルカメラ装置1は、撮像部3の撮像範囲において被写体領域の追跡を開始する。すなわち、動画記録中のレリーズSWの半押し操作は、被写体領域の追跡動作を開始させる手段として機能する。 この動作の具体的な内容については後述する。
【0083】
なお、後述する被写体領域の追跡動作時には、システム制御部2において処理コスト及び消費電力が少なからず発生する。上述のように、レリーズSWの半押し操作している時にのみ、被写体領域の追跡動作を実行することにより、前述した処理コスト及び消費電力を低減させることができる。
【0084】
また、静止画モードと同様に、被写体領域の指定と被写体領域の追跡動作は、排他的に実行される。これにより、ユーザーによる被写体領域の指定と、被写体領域の追跡動作が相互干渉しないので、処理が簡素になる。また、撮影中に注目する被写体に視線を向け続けたり、ハードキーインタフェース部11を操作する必要がなく、撮影動作が非常に簡単になるという利点がある。
【0085】
一方、記録動作中に、前記レリーズSWが解除されていた場合には、上述の焦点検出追跡動作を実行しない。
【0086】
被写体領域が追跡されると、LCD6またはファインダー表示器8において、図5(a)のように、当該被写体領域の位置を示すポインタ21を表示する。
【0087】
また、被写体領域が画面から外れるなど、被写体領域の追跡に失敗した場合には、図5(b)のように、ユーザーにその旨を警告するインジケータ22を表示する(ステップS30)。
【0088】
また、焦点検出追跡動作を実行しなかった場合、既定の被写体領域の位置(例えば、画面中央)にポインタ21を表示するとよい。
【0089】
上記のステップS27乃至ステップS31の処理は、レリーズSWの全押し(RL2 接点オン)が検知されるまで、若しくは撮影モードの変更操作又は電源オフ操作が検知される(ステップS31でYes)まで、繰り返し実行される。
【0090】
動画の記録を終了した場合(ステップS32)、システム制御部2は、動画データに関連して、被写体領域の追跡履歴を記録メディア10へ書き込む(ステップS33)。この動作については、後述する。
【0091】
最後に、撮影モードの変更操作又は電源オフ操作が検知された場合、図4のフローを終了し(ステップS35でYes)、さもなければ(ステップS35でNo) 、ステップS22乃至ステップS34の処理が繰り返し実行される。
【0092】
ここで、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態における被写体領域の追跡動作を、図6のフローチャートに基づいて説明する。
【0093】
まず、システム制御部2は、被写体領域の追跡処理が初期状態、すなわち、レリーズSWの半押し(RL1 接点オン)が検知されてから初めて追跡処理を実行する場合(ステップS4 1)には、撮像部3が現在取得している画像(以下、現画像と呼ぶ)のうち、前述のように図3のステップS2で決定された被写体領域に対応する所定の領域(以下、テンプレートと呼ぶ)を切り出し、メモリに記録する(ステップS4 2)。
以上で、処理を終了する。
【0094】
また、初期状態でない場合には(ステップS4 1でNo)、前回の処理で記録されたテンプレートを、メモリより読み出し(ステップS43)、現画像において、当該テンプレートとの類似度が高い領域を検出する。
【0095】
ここで、前述した類似度の高い部分を検出する手段として、テンプレートマッチングを利用した場合の動作を、図7に基づいて説明する。
【0096】
図7(a)のように、テンプレートの大きさが(2du+1)×(2dv+1であるとする。このテンプレート23を、図7(b)のように現画像24上で移動させ、テンプレート23と現画像24における点(m,n)との正規化相互相関値Sを、次式に基づき計算する。
【0097】
【数1】

Figure 2004112550
【0098】
ここで、(1)式における各記号の意味は以下の通りである。
・I1 (u,v):テンプレート上の点(u,v)における画素値
・I2 (u,v):現画像上の点(u,v)における画素値
以上の計算に基づき、正規化相互相関値Sが最大となる現画像における点(m,n)を求める。
【0099】
次に、図6のステップS45において、上述のテンプレートマッチングの成否を判定する。ここで、テンプレートマッチング成否の判定基準は、例えば、正規化相互相関値Sの閾値θを予め決めておき、Sの値がθ以上ならば成功、θ以下ならば失敗とするなどの手法をとればよい。
【0100】
成功と判定された場合には(ステップS45でYes)、ステップS43で求められた点(m,n)を現画像における被写体領域として、システム制御部2に出力すると同時に、現画像の点(m,n)を中心とする大きさ(2du+1) ×(2dv+1)の領域を、前記テンプレートとして更新する(ステップS46)。また、失敗と判定された場合には(ステップS45でNo)、テンプレートの更新は行わずに、追跡に失敗したことを示す信号をシステム制御部2に出力する(ステップS47)。以上で、処理を終了する。
【0101】
次に、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態における被写体領域の記録について説明する。
【0102】
静止画の場合、被写体領域に関するデータは、取得した画像におけるヘッダ情報に記録される。例えば、デジタルスチルカメラの静止画のフォーマットとしてExif(exchangeable image file format)を採用する場合、そのヘッダ情報中のSubject Areaと呼ばれる、主要となる被写体の位置を記述することができるフィールドに、当該被写体領域の位置を記録することができる。
【0103】
また、動画の場合は、図8のように、左から秒単位の時刻、被写体領域の横方向の座標u、被写体領域の縦方向の座標vという順に、テキスト情報として記録される。このテキスト情報は、動画と共に、テキストファイルとして、記録メディアに記録される。
【0104】
このとき、動画データとテキストファイルは、関連して記録される。例えば、動画ファイルの名前が”Video 01.avi”(avi は、Audio Video Interleavingの略)である場合、当該テキストファイルの名前は”Video 01.txt”と、拡張子以前の名前が揃えられた形で記録される。
【0105】
以下、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態たる第2の実施例について説明する。
【0106】
前述の焦点領域の検出処理を、撮像部3の向きを検出することにより実行しても構わない。この方法は、静止している被写体を、該被写体までの距離に相対して撮像部3をあまり平行移動させずに撮影した場合に、特に有効である。
【0107】
図9は、本実施例に係るデジタルスチルカメラの構成を示す図である。図9におけるデジタルスチルカメラ1は、図1のデジタルスチルカメラに姿勢検出センサ12が追加されたものである。
なお、図中同一符号は、前述した第1の実施例と同一又は相当部分を示す。
【0108】
姿勢検出センサ12は、撮像部3の主軸(通例光軸)の向きを検出するために設けられた、姿勢検出センサ、該センサからの信号を取得するA/D変換器、及び該A/D変換器により取得されたデータに演算処理を施すALU等からなる、姿勢検出部、を示している。
【0109】
姿勢検出センサ12は、例えば、加速度センサ、磁気センサ、角速度センサ(ジャイロ)又はそれらの組み合わせにより構成される。
【0110】
第2の実施例における静止画撮影モード及び動画撮影モードの動作は、第1の実施例と同様であり、それぞれ図3、図4のフローチャートに従って動作する。
【0111】
ここで、姿勢検出センサの一例として、加速度センサと磁気センサを使用した場合の、被写体領域の追跡動作を、図10のフローチャートを用いて説明する。
【0112】
まず、システム制御部2は、姿勢検出センサの検出信号より、絶対座標系に対する現在の撮像部3の姿勢を算出し、メモリに記録する(ステップS51)。
【0113】
ここで、絶対座標系は図11のように、東向きをX軸、重力の向きをY軸、北向きをZ軸とする、右手系XYZ座標系であるとする。
【0114】
加速度センサは、重力加速度を、また、磁気センサは、地磁気を検出するのに使用され、これらのセンサの出力信号により、絶対座標系に対する撮像部3の向きを容易に計算することができる。
【0115】
ここで、被写体領域の追跡処理が前述の初期状態である場合には(ステップS52でYes)、以上で処理を終了する。
【0116】
一方、初期状態でない場合には(ステップS52でNo)、前時刻で記録された被写体領域及び撮像部3の姿勢を、メモリより読み出し(ステップS53)、これらの情報と現在の撮像部3の姿勢を利用して、現在の被写体領域を算出し、メモリに記録する(ステップS54)。
【0117】
ここで、現在の被写体領域を算出する方法について説明する。
【0118】
まず、図12に示される2つの座標系を定義する。
カメラ座標系(camera coordinate system)
・x軸:画面右向きを正
・y軸:画面下向きを正
・z軸:光軸、対象に向かう向きを正
・原点0:カメラの光学中心
・f:焦点距離
画像座標系(image coordinate system )
・u軸:画面右向きを正
・v軸:画面下向きを正
・( u0, v0) :画面中心、すなわち光軸と画面とが交わる画像座標
【0119】
カメラ座標系の光学系は、中心射影モデル(perspective projection model)で記述されると仮定する。また、画像座標系は、画素を基本単位とする。
【0120】
また、以下の変数を定義する。
t−1 :前時刻t−1における、絶対座標系に対する撮像部3の姿勢を表す回転行列
 :現在の時刻t の、絶対座標系に対する撮像部3の姿勢を表す回転行列
【0121】
上記2つの回転行列より、前時刻から現在にかけての撮像部3の姿勢の変化を示す回転行列Rを、次式に基づき計算する。
【0122】
【数2】
Figure 2004112550
【0123】
ここで、Rt−1 の右上の添え字Tは、行列の転置を表す。
【0124】
この回転行列Rにより表される姿勢の変化により、前時刻における被写体領域(ut−1,vt−1 )は、現在の時刻において、次式に示される点(ut , vt ) に移動する。
【0125】
【数3】
Figure 2004112550
【0126】
であり、これらの行列At−1 、At は、それぞれ前時刻、現在における、カメラ座標系と画像座標系との関係を示すもので、カメラ内部行列(camera intrinsic matrix )と呼ばれる(参考文献:徐剛, 辻三郎: 『3次元ビジョン』, 共立出版 (1998))。
【0127】
また、ku 、kv は、それぞれx軸、y軸を基準とした時のu軸、v軸の単位、すなわち画素密度を表す。
【0128】
また、ft−1 、ft は、それぞれ前時刻、現在における焦点距離を表す変数である。また、Sは(3)式の左辺の第3成分を1にするための定数である。
【0129】
一般に、ku 、kv の値は、CCDの設計仕様より容易に知ることができる。
【0130】
また、焦点距離の値は、撮像部3において、レンズ駆動モータの位置をエンコーダにより読み取るなどの方法により、検出することができる。
以上の計算により、現在の被写体領域の位置(ut , vt ) が算出される。
【0131】
続いて、以上の処理で算出された点(ut  ,vt ) が、画面内にあるか否かを判定し(ステップS55)、画面内にある場合には(Yes)、ステップS53で求められた点(ut  ,vt  )を、現在の被写体領域として、システム制御部2に出力する(ステップS56)。
【0132】
また、画面外にあると判定された場合には(ステップS55でNo)、追跡に失敗したことを示す信号をシステム制御部2に出力する(ステップS57)。以上で、処理を終了する。
【0133】
以下、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態たる第3の実施例について説明する。
【0134】
本発明に係る撮像装置等は、PC(Personal Computer )や携帯情報端末により、その機能を実現させることができる。
【0135】
近年、各種処理プログラムを読み取ることにより、種々の機能を実現可能なデジタルカメラも登場するようになった。また、向きを回動可能なカメラを具備したノート型PCや、カメラを搭載したPDA(Personal Digital Assistant)及び携帯電話が普及するようになった。
【0136】
このような場合は、これらの機器に第1の実施例または第2の実施例で説明した機能を実現する処理プログラムを実行させることにより、その機能を実現させることができる。
【0137】
本実施例は、各種媒体やインターネット等の電気通信回線を介して、上記の機器で読み取り可能なプログラムである。動作の内容は、上述の第1の実施例または第2の実施例と同様である。
【0138】
以下、カメラを具備したノート型PCにおいて、該プログラムを実行することにより、第1の実施例または第2の実施例で説明した前述の動作を実現する場合の具体例を説明する。
【0139】
AF等の処理は、該カメラの内部で実行される。
【0140】
撮影モードの選択、撮影の開始・終了の制御、被写体領域の追跡動作の開始(前述の実施例における、レリーズSWの半押し操作に相当)、画像及び被写体領域の表示は、任意のユーザー・インターフェイスを介して行われる。その一例を、以下に記す。
【0141】
撮影モードの選択:カーソルキー
撮影の開始・終了の制御:リターンキー
被写体領域の追跡動作の開始:スペースキー
画像及び被写体領域の表示:LCDに表示
【0142】
以下、本発明による撮像装置、カメラ、プログラム及び記録媒体の一実施形態たる第4の実施例について説明する。
【0143】
本発明に係る撮像装置は、第3の実施例で述べた機器に、第1の実施例又は第2の実施例で説明した機能を実現する処理プログラムを格納した記録媒体を読み取らせることにより、その機能を実現させることができる。
【0144】
例えば、図13(a)に示されるように、当該プログラムを格納したCD−ROM25を、カメラを具備したノート型PC30に装着し、適宜当該プログラムを読み取らせ、実行させることにより、その機能を実現させることができる。
【0145】
また、図13(b)に示されるように、当該プログラムを格納したスマートメディア26を、それを読み取り可能なデジタルスチルカメラ1に装着し、適宜当該プログラムを実行させることにより、その機能を実現させることができる。
【0146】
なお、当該プログラムを格納する記録媒体は上記のものに限られず、例えば、CD−RWやDVD−ROM等の別の媒体であってもよいことはいうまでもない。
【0147】
なお、本実施例における動作は、第3の実施例と同様である。
【0148】
以上の各実施例は、本発明のほんの一例を説明したにすぎない。すなわち、本発明の権利範囲を上記実施の形態の通りに不当に限定・縮小すべきではなく、下記のように、本発明の構成要素を別の要素に変更した例も、本発明と均等の発明として権利範囲に含まれる。
【0149】
例えば、各実施の形態において、2 ストロークの動作を検出できるレリーズSW、及び静止画・動画撮影機能を具備したデジタルスチルカメラを例に挙げて説明したが、静止画撮影専用のデジタルスチルカメラ、及び動画撮影専用のビデオカメラにおいて、上記実施の形態と同様の機能を有するものであっても、本願の権利範囲に含まれる。ここで、該ビデオカメラが、上述の実施の形態で説明したのと同様の動作を実現する為に、被写体領域の追跡動作を開始するボタンを具備すると、さらに好適である。
【0150】
また、被写体領域をLCD6又はファインダー表示器8に表示する形態は、上記の実施の形態に限定されない。例えば、該表示機能を具備しない撮像装置(請求項6を除く請求の範囲に該当)、被写体領域を追跡している時にのみ該表示を行う撮像装置であっても構わない。
【0151】
また、被写体領域の記録については、1 秒毎に被写体領域の位置をテキストファイルに記録すると説明したが、各々のフレーム毎に記録する、またある一定数のフレーム毎に記録するなど、別の形態であっても構わない。また、ファイルフォーマットはテキストファイルではなく、MPEG−7(MPEGは,Motion Picture Experts Groupの略)等の内容記述ファイルとして記録してもよい。このほか、静止画、動画共に、該被写体領域を画像データの中に、ウォーターマーク(電子透かし)として挿入するといった形態であっても構わない。
【0152】
また、第2の実施例において、加速度センサと磁気センサを組み合わせて使用することにより、撮像部の姿勢を検出すると説明したが、ジャイロなどの他の素子を使用しても、同様の動作を実現することが可能である。
【0153】
【発明の効果】
請求項1から22記載の発明によれば、簡素な構成・動作で、画面上の正確な被写体領域を制御・追跡・記録することが可能となり、第1の目的が達成される。
【0154】
請求項6から13、17から22記載の発明によれば、被写体領域の追跡に要する処理コスト及び消費電力を軽減することができ、第2の目的が達成される。
【0155】
請求項7から13、18から22記載の発明によれば、ユーザーに面倒な操作を強いることがなく、被写体領域の指定及び追跡を実行することができ、第3の目的が達成される。
【0156】
請求項8から13、19から22記載の発明によれば、簡素な構成で、ユーザーが所望の撮影動作を実行できているかを確認することができ、第4の目的が達成される。
【0157】
請求項10から13、21、22記載の発明によれば、ユーザーが後になって撮影意図・動作を容易に確認することができ、第5の目的が達成される。
【図面の簡単な説明】
【図1】本発明による撮像装置等の一実施形態に係るデジタルスチルカメラの構成図である。
【図2】本発明による撮像装置等の一実施形態に係るデジタルスチルカメラのレリーズSWの構成図である。
【図3】本発明による撮像装置等の一実施形態に係る処理の流れを示すフローチャートである。
【図4】本発明による撮像装置等の一実施形態に係る動画撮影の流れを示すフローチャートである。
【図5】本発明による撮像装置等の一実施形態に係る被写体領域又は警告の表示の説明図である。(a)は、被写体領域の位置を示すポインタが表示されている場合であり、(b)は被写体領域の追跡に失敗した場合にその旨を警告するインジケータが表示されている場合である。
【図6】本発明による撮像装置等の一実施形態に係る被写体領域の追跡処理の流れを示すフローチャートである。
【図7】本発明による撮像装置等の一実施形態に係る被写体領域の追跡動作の説明図である。(a)は、被写体領域の所定の領域を切出したテンプレートあり、(b)は、テンプレート現画像上で移動させた場合である。
【図8】本発明による撮像装置等の一実施形態に係る被写体領域の記録動作を示す図である。
【図9】本発明による撮像装置等の他の実施形態に係るデジタルスチルカメラの構成図である。
【図10】本発明による撮像装置等の他の実施形態に係る被写体領域の追跡処理の流れを示すフローチャートである。
【図11】本発明による撮像装置等の他の実施形態に係る絶対座標系を示す図である。
【図12】本発明による撮像装置等の他の実施形態に係るカメラ座標系及び画像座標系を示す図である。
【図13】本発明によるプログラム及び記録媒体等の一実施形態の説明図である。(a)には、カメラ付きのノート型PCとCD−ROMが、(b)には、デジタルスチルカメラとスマートメディアが示されている。
【符号の説明】
1 デジタルスチルカメラ
2 システム制御部
3 撮像部
4 画像処理部
5 LCD表示制御部
6 LCD
7 ファインダー表示制御部
8 ファインダー表示器
9 記録メディアインターフェイス部
10 記録メディア
11 ハードキーインターフェイス部
12 姿勢検出センサ
21 ポインタ
22 インジケータ
23 テンプレート
24 現画像
25 CD−ROM
26 スマートメディア
30 ノート型PC[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device, a camera, a program, and a recording medium, and particularly to an imaging device such as a video camera and a digital still camera, a program, and a recording medium.
[0002]
[Prior art]
For applications such as editing, management, search, and display of video signals, it has become increasingly important to add and record additional information to them.
[0003]
Among them, it is important to record the position of the subject of interest on the screen (hereinafter, referred to as the subject area). This is because there are advantages that the user's intention to shoot can be confirmed based on the subject region later, and that only the subject of interest can be managed and searched.
[0004]
Therefore, conventionally, a camera has been proposed in which a subject area is selected by inputting a line of sight and the subject area information is recorded on a recording medium such as a film (see Patent Documents 1, 2, and 3).
[0005]
Specifically, there is a main subject information recording camera that determines the position of a main subject in a shooting screen and records position information of the main subject on a recording medium (for example, see Patent Document 1).
[0006]
There is also a gaze detection camera that repeatedly detects a main subject based on the detected photographer's eye position information and records information of the detected plurality of main subjects on a storage medium on a film or a film cartridge ( For example, see Patent Document 2).
[0007]
Also, it is determined which of the plurality of subject position areas has been selected by the line of sight detection, and information on the subject position area, which is selected by the line of sight independently of the selection of the focus detection area, such as a film. There is also a camera with a line-of-sight detection function for recording on a recording medium (for example, see Patent Document 3).
[0008]
Further, a digital camera that records image data obtained by performing a shooting operation focused on a predetermined position in a shooting screen and focus position data defining a focus position on the shooting screen has also been proposed (for example, And Patent Document 4).
[0009]
That is, the digital camera records image data obtained by performing a shooting operation focused on a predetermined position in a shooting screen and focus position data defining a focus position on the shooting screen.
[0010]
There are also an imaging apparatus characterized by tracking and recording a focus detection area on an imaging screen, a program for executing the processing, and a recording medium storing the program.
[0011]
[Patent Document 1]
JP-A-5-158132
[Patent Document 2]
JP-A-7-319037
[Patent Document 3]
JP-A-8-328126
[Patent Document 4]
JP 2001-128034 A
[0012]
[Problems to be solved by the invention]
However, the above-mentioned prior arts have a main purpose of notifying a print trader (lab) of optimizing the image quality of a specific part based on the subject area information, and do not aim at the aforementioned application. Did not.
[0013]
Further, in the invention described in Patent Document 4, when the camera is moved after performing a focus lock operation by half-pressing the shutter button, the focus position changes, but in the embodiment described in the document, There is no proposed solution to this. Therefore, there is a problem that an erroneous focus position is recorded due to the movement of the camera during the focus lock operation. In addition, when focusing on a subject that is not the object of interest, there arises a problem that the user's intention to shoot is erroneously interpreted later.
[0014]
The present invention has been made in view of the above-described problems, and has an image pickup apparatus, a camera, and a program that can control, track, and record an accurate subject area on a screen with a simple configuration and operation. And a recording medium.
[0015]
It is a second object of the present invention to provide an imaging device, a camera, a program, and a recording medium that can reduce processing cost and power consumption required for tracking a subject area.
[0016]
A third object is to provide an imaging device, a camera, a program, and a recording medium that can specify and track a subject area without forcing a user to perform a troublesome operation.
[0017]
A fourth object is to provide an imaging device, a camera, a program, and a recording medium that enable a user to confirm whether a desired photographing operation can be performed with a simple configuration.
[0018]
A fifth object is to provide an imaging device, a camera, a program, and a recording medium that enable a user to easily confirm a photographing intention / operation later.
[0019]
[Means for Solving the Problems]
According to the first aspect of the present invention, the imaging apparatus includes: an imaging unit that outputs a subject image input via an optical system as a video signal; and a subject designation unit that designates a subject of interest in a field of view of the imaging unit. Video recording means for recording a video signal, tracking means for tracking a subject area designated by the subject designating means, and additional information recording means for recording the subject area in association with the video signal. Is what you do.
[0020]
According to the second aspect of the present invention, the imaging apparatus further includes a similarity calculating unit configured to calculate a similarity between the current video signal and the video signal captured one time ago. It is characterized by being.
[0021]
According to a third aspect of the present invention, the imaging device is the imaging device according to the second aspect, wherein the tracking means tracks the subject area based on the output of the similarity calculation means.
[0022]
According to a fourth aspect of the present invention, the imaging apparatus is the imaging apparatus according to the first, second, or third aspect, further including a direction detection unit that detects a direction of the imaging unit.
[0023]
According to a fifth aspect of the present invention, the imaging device is the imaging device according to the fourth aspect, wherein the tracking means tracks the subject area based on the output of the direction detecting means.
[0024]
According to the invention described in claim 6, the imaging device is the imaging device according to any one of claims 1 to 5, further including a start unit that starts operation of the tracking unit. is there.
[0025]
According to a seventh aspect of the present invention, the imaging apparatus is the imaging apparatus according to any one of the first to sixth aspects, wherein the subject designating unit stops operating while the tracking unit is operating. Is what you do.
[0026]
According to the invention described in claim 8, the imaging apparatus is the imaging apparatus according to any one of claims 1 to 7, further comprising a display unit that displays a subject area output by the tracking unit. Is what you do.
[0027]
According to the ninth aspect of the present invention, the imaging apparatus further includes a warning unit that issues a warning when the tracking unit determines that the subject area has deviated from the screen. It is characterized by being a device.
[0028]
According to a tenth aspect of the present invention, in the imaging apparatus, the additional information recording unit records text data describing a tracking result of the subject area. It is characterized by the following.
[0029]
According to an eleventh aspect of the present invention, a camera includes the imaging device according to any one of the first to tenth aspects.
[0030]
According to the twelfth aspect of the present invention, the program comprises: a process of outputting a subject image input via an optical system as a video signal; a subject designating process of designating a subject of interest in a field of view of an imaging unit; It is characterized by executing a process of recording a signal, a tracking process of tracking a subject region designated by the subject designation process, and a process of recording the subject region in association with a video signal.
[0031]
According to the thirteenth aspect, the program further executes a similarity calculation process of calculating a similarity between the current video signal and the video signal captured one time ago. It is characterized by having.
[0032]
According to a fourteenth aspect of the present invention, the program is the program according to the thirteenth aspect, further causing a tracking process for tracking a subject area based on an output of the similarity calculation process.
[0033]
According to a fifteenth aspect of the present invention, the program is the program according to the twelfth, thirteenth, or fourteenth aspect, wherein the program further executes a direction detection process for detecting a direction of the imaging unit.
[0034]
According to a sixteenth aspect of the present invention, the program is the program according to the fifteenth aspect, further executing a tracking process of tracking a subject area based on an output of the orientation detection process.
[0035]
According to a seventeenth aspect of the present invention, the program is the program according to any one of the twelfth to sixteenth aspects, wherein the program further executes a process of starting an operation of the tracking process.
[0036]
According to the invention described in claim 18, the program is the program according to any one of claims 12 to 17, wherein the subject designation process further executes a process of stopping the operation during the operation of the tracking process. It is characterized by the following.
[0037]
According to a nineteenth aspect, the program is the program according to any one of the twelfth to eighteenth aspects, further causing a process of displaying a subject area output by the tracking process to be executed. Things.
[0038]
According to the twentieth aspect of the present invention, the program according to any one of the twelfth to nineteenth aspects, further comprising executing a process of issuing a warning when it is determined by the tracking process that the subject area has deviated from the screen. It is characterized by being.
[0039]
According to a twenty-first aspect, the program is the program according to any one of the twelfth to twentieth aspects, wherein the program further executes a process of recording text data describing a tracking result of the subject area. It is assumed that.
[0040]
According to a twenty-second aspect of the present invention, a recording medium is a computer-readable recording medium that records the program according to any one of the twelfth to twenty-first aspects.
[0041]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of an imaging device, a camera, a program, and a recording medium according to the present invention will be described in detail with reference to the accompanying drawings.
[0042]
First, taking a digital still camera as an example, a first example as an embodiment of an imaging apparatus, a camera, a program, and a recording medium according to the present invention will be described.
[004 3]
FIG. 1 is a diagram illustrating a configuration of a digital still camera according to an embodiment of an imaging apparatus, a camera, a program, and a recording medium according to the present invention.
[004 4]
In FIG. 1, a digital still camera device 1 includes a system control unit 2, an imaging unit 3, an image processing unit 4, an LCD display control unit 5, an LCD 6, a finder display control unit 7, a finder display 8, , A recording medium interface unit 9, a recording medium 10, and a hard key interface unit 11.
[004 5]
The system control unit 2 includes a CPU (Central Processing Unit), a memory, a timer, and the like, which are provided for controlling the entire digital still camera device 1.
[004 6]
The imaging unit 3 includes an optical system component (a lens and a lens drive motor), a CCD (Charge Coupled Device), a CCD drive circuit, an A / D converter, and the like, which are provided for imaging.
[004 7]
The image processing unit 4 performs various image processing on the image signal obtained by the imaging unit 3 and performs focusing, exposure adjustment, and the like by controlling the CCD drive timing of the imaging unit 3 and the lens drive motor. It comprises an image processing DSP (Digital Signal Processor), a memory, and the like, which are provided to perform compression and decompression of the image data.
[004 8]
The LCD display control unit 5 performs signal processing for displaying the image signal processed by the image processing unit 4 on an LCD (Liquid Crystal Display), generates various graphic images for a user interface, and outputs the image to the LCD. It comprises a D / A converter, an on-screen display controller, etc., provided for displaying.
[0049]
The LCD 6 is provided for displaying an image and for displaying a graphic for a user interface.
[0050]
The finder display control unit 7 performs signal processing for displaying the image signal processed by the image processing unit 4 on a display installed inside the finder, and generates various graphic images for a user interface. It comprises a D / A converter, an on-screen display controller, etc., provided for displaying on the display.
[0051]
The finder display 8 is provided for displaying an image incident on the optical system of the imaging unit 3 and for displaying graphics for a user interface.
[0052]
The recording medium interface unit 9 includes a memory card controller and the like provided for an interface with the recording medium.
[0053]
The recording medium 10 includes a flash memory or the like provided for storing compressed image signals and various information related to images, and is detachable from the digital still camera device 1.
[0054]
The hard key interface unit 11 includes a parallel port and the like provided for detecting a state of hardware for a user interface such as a release switch (not shown), a key (not shown), and a dial (not shown).
[0055]
Here, the configuration of the release SW will be described with reference to FIG. FIG. 2 shows a circuit diagram of the release SW.
[0056]
In FIG. 2, RL1 indicates a contact that is turned on when the release SW is half-pressed. RL2 indicates a contact that is turned on when the release SW is completely pressed. COM indicates a common contact point for both RL1 and RL2.
[0057]
As described above, the release SW is configured to detect a two-stroke operation. The state of the contacts of RL1 and RL2 is determined by the system control unit 2 through the hard key interface unit 11 as described above.
[0058]
Next, the operation according to the first embodiment will be described with reference to the flowchart in FIG.
[0059]
Prior to shooting, the user operates various keys and dials (not shown) to determine a shooting mode (still image shooting mode, moving image shooting mode). The contents of the user's operation are determined by the system control unit 2 through the hard key interface unit 11 (step S1), and in the still image shooting mode (No in step S1), the processes after step S2 are executed as described below. You. In the moving image shooting mode (Yes in step S1), as described later, the operation is performed according to the flowchart shown in FIG. 4 (see step S23).
[0060]
In the case of No in step S1 of FIG. 3, that is, in the case of the still image shooting mode, then, in step S2, the digital still camera device 1 performs the following work for preparing for shooting.
[0061]
That is, the system control unit 2 sets the processing parameters corresponding to the mode in the image processing unit 4. Under the control of the image processing unit 4, the imaging unit 3 starts an imaging operation for displaying a preview image prior to actual shooting. The captured data is continuously sent to the image processing unit 4, which performs processing such as color space conversion, gamma correction, and white balance adjustment, and then sends the image data to the LCD display control unit 5.
[0062]
The LCD display control unit 5 performs signal processing on the image data, displays the signal on the LCD 6, and presents the imaging state to the user.
[0063]
Further, the finder display control section 7 displays various states of the digital still camera 1 on the finder display 8 and presents an imaging state to the user.
[0064]
Further, in this step, the position of the subject area is determined. The subject area is fixed at the center of the screen in advance, and is determined by a known technique such as line-of-sight detection or selection through a user interface such as the hard key interface unit 11.
[0065]
After the preparation for photographing in step S2 is completed, in step S4, when the system control unit 2 determines that the release SW is half-pressed, that is, the RL1 contact is turned on (Yes), focus detection is performed in step S5. (AF), an automatic exposure (AE), and an automatic white balance (AWB) algorithm program are started, and the image processing unit 4 and the imaging unit 3 are controlled based on various evaluation data obtained from the image processing unit 4. Make adjustments.
Here, the determination of the half-pressed state of the release SW is executed by the system control unit 2 through the hard key interface unit 11 in the same manner as the mode setting.
[0066]
When the above process is completed, the digital still camera device 1 starts tracking the subject area in the imaging range of the imaging unit 3 in step S6. That is, the half-press operation of the release SW functions as means for starting the tracking operation of the subject area. The specific contents of this operation will be described later.
[0067]
At the time of the tracking operation of the subject area, which will be described later, the processing cost and the power consumption of the system control unit 2 are not small. As described above, the processing cost and the power consumption can be reduced by executing the tracking operation of the subject area only when the release SW is half-pressed.
[0068]
Further, in the present embodiment, the designation of the subject area and the tracking operation of the subject area are exclusively executed. This simplifies the processing because the designation of the subject area by the user and the tracking operation of the subject area do not interfere with each other. In addition, since it is not necessary to keep the user's gaze on the object of interest during the half-press operation of the release SW or to operate the hard key interface unit 11, there is an advantage that the photographing operation becomes very simple.
[0069]
When the subject area is tracked, a pointer 21 indicating the position of the subject area is displayed on the LCD 6 or the finder display 8 as shown in FIG. When the tracking of the subject area has failed, such as when the subject area goes off the screen, an indicator 22 is displayed as shown in FIG. 5B to warn the user of the failure (step S7).
[0070]
The system control unit 2 continuously monitors the state of the release SW through the hard key interface unit 11 (step S8). If it is determined that the release SW is fully pressed, that is, the RL2 contact is turned on (Yes), the following shooting is performed. The operation starts (step S9).
Here, the determination of the full-press state of the release SW is performed by the system control unit 2 through the hard key interface unit 11 in the same manner as the detection operation of the half-press state of the release SW.
[0071]
The imaging unit 3 captures a predetermined image and sends it to the image processing unit 4 under the control of the image processing unit 4, and the image processing unit 4 performs image processing and compression processing according to the shooting mode.
Then, the system control unit 2 reads out the compressed image data and the tracked subject area, adds header information thereto, and records the data on the recording medium 10 through the recording medium interface unit 9 (step S10).
The recording of the subject area will be described later.
[0072]
When the photographing and recording of the image are completed as described above, the tracking process of the subject area ends (step S12).
[0073]
If it is determined in step S8 that the RL2 contact is off (No), the system control unit 2 detects the state of the RL1 contact (step S11). If it is determined that the RL1 contact is on (Yes), the process returns to step S6, and the processing up to step S11 is repeated. If it is determined that the RL1 contact has been released (No in step S11), the processing of AE, AF, and AWB and the tracking processing of the subject area are terminated (step S12).
[0074]
Finally, when each operation is completed by the power-off detection, the power is turned off and the process ends (Yes in step S13).
[0075]
Here, the operation (step S3) when the moving image shooting mode is selected in step S1 of FIG. 3 will be described based on the flowchart of FIG.
[0076]
First, in step S21 of FIG. 4, in the digital still camera device 1, an operation of preparing for moving image shooting is performed. The operation is similar to that of step S2 in FIG.
[0077]
When it is determined that the release SW is half-pressed after the preparation for shooting is completed, that is, the RL1 contact is turned on (Yes in step S22), as described above, focus detection (AF), automatic exposure (AE), and auto white The balance (AWB) process is started (step S23). This adjustment operation is continuously performed until a half-press of the release SW (RL1 contact ON) is detected, as described later.
[0078]
If it is determined that the RL1 contact is off (No in step S22), the process proceeds to step S35 described later.
[0079]
The system control unit 2 continuously monitors the state of the release SW through the hard key interface unit 11, and when the release SW is pressed as it is (RL2 contact ON, that is, Yes in step S24), a moving image recording operation in step S26 and later described later. Conversely, when the release SW is half-pressed (RL1 contact OFF, that is, No in step S25), the AF, AE, and AWB processes described above are terminated (step S34).
[0080]
When the recording operation is started (step S26), the system control unit 2 monitors the state of the release SW through the hard key interface unit 11 and detects the fully pressed state (RL2 contact ON) of the release SW (Yes in step S27). ), The recording of the moving image is terminated (step S32), and if not, the processing from step S28 is executed. That is, the recording operation is continued until the full press of the release SW during the recording operation is detected.
[0081]
During the recording operation, when the half-press of the release SW is detected (RL1 contact is turned on, that is, Yes in step S28), the operation of tracking the subject area is started.
[0082]
In step S29, the digital still camera device 1 starts tracking the subject area in the imaging range of the imaging unit 3. That is, the half-press operation of the release SW during recording of a moving image functions as a unit for starting a tracking operation of the subject area. The specific contents of this operation will be described later.
[0083]
At the time of the tracking operation of the subject area, which will be described later, the processing cost and the power consumption of the system control unit 2 are not small. As described above, the processing cost and the power consumption described above can be reduced by executing the tracking operation of the subject area only when the release SW is half-pressed.
[0084]
As in the still image mode, the designation of the subject area and the tracking operation of the subject area are exclusively executed. This simplifies the processing because the designation of the subject area by the user and the tracking operation of the subject area do not interfere with each other. In addition, there is no need to keep the line of sight on the subject of interest during shooting or to operate the hard key interface unit 11, and there is an advantage that the shooting operation is very simple.
[0085]
On the other hand, if the release SW is released during the recording operation, the above-described focus detection tracking operation is not performed.
[0086]
When the subject area is tracked, a pointer 21 indicating the position of the subject area is displayed on the LCD 6 or the finder display 8 as shown in FIG.
[0087]
When the tracking of the subject area has failed, such as when the subject area is off the screen, an indicator 22 is displayed to warn the user of the failure, as shown in FIG. 5B (step S30).
[0088]
When the focus detection tracking operation is not performed, the pointer 21 may be displayed at a position of a predetermined subject area (for example, at the center of the screen).
[0089]
The processes of steps S27 to S31 are repeated until the full-press of the release SW (RL2 contact ON) is detected, or the change operation of the shooting mode or the power-off operation is detected (Yes in step S31). Be executed.
[0090]
When the recording of the moving image has been completed (step S32), the system control unit 2 writes the tracking history of the subject area on the recording medium 10 in association with the moving image data (step S33). This operation will be described later.
[0091]
Finally, when a change operation of the shooting mode or a power-off operation is detected, the flow of FIG. 4 is ended (Yes in step S35), otherwise (No in step S35), the processing of steps S22 to S34 is performed. It is executed repeatedly.
[0092]
Here, the tracking operation of the subject area in the embodiment of the imaging device, the camera, the program, and the recording medium according to the present invention will be described based on the flowchart of FIG.
[0093]
First, when the tracking process of the subject area is in the initial state, that is, when the tracking process is executed for the first time after the half-press of the release SW (RL1 contact ON) is detected (step S41), the system control unit 2 performs the imaging process. A predetermined area (hereinafter, referred to as a template) corresponding to the subject area determined in step S2 of FIG. 3 is extracted from the image (hereinafter, referred to as a current image) currently acquired by the unit 3 as described above. Is recorded in the memory (step S42).
This is the end of the process.
[0094]
If the template is not in the initial state (No in step S41), the template recorded in the previous process is read from the memory (step S43), and an area having a high similarity with the template in the current image is detected. .
[0095]
Here, an operation when template matching is used as a means for detecting a portion having a high degree of similarity will be described with reference to FIG.
[0096]
7A, it is assumed that the size of the template is (2du + 1) × (2dv + 1) The template 23 is moved on the current image 24 as shown in FIG. A normalized cross-correlation value S with the point (m, n) in the image 24 is calculated based on the following equation.
[0097]
(Equation 1)
Figure 2004112550
[0098]
Here, the meaning of each symbol in the expression (1) is as follows.
・ I 1 (U, v): pixel value at point (u, v) on the template
・ I 2 (U, v): pixel value at point (u, v) on the current image
Based on the above calculation, the point (m, n) in the current image at which the normalized cross-correlation value S is maximum is obtained.
[0099]
Next, in step S45 of FIG. 6, it is determined whether the above-described template matching is successful. Here, as a criterion for determining the success or failure of the template matching, for example, a threshold θ of the normalized cross-correlation value S is determined in advance, and if the value of S is equal to or more than θ, success is determined, and if the value of S is less than θ, failure is determined. Just fine.
[0100]
If it is determined to be successful (Yes in step S45), the point (m, n) obtained in step S43 is output to the system control unit 2 as a subject area in the current image, and at the same time, the point (m , N) is updated as the template with a size of (2du + 1) × (2dv + 1) (step S46). If it is determined that the tracking has failed (No in step S45), a signal indicating that tracking has failed is output to the system control unit 2 without updating the template (step S47). This is the end of the process.
[0101]
Next, recording of a subject area in an embodiment of the imaging device, the camera, the program, and the recording medium according to the present invention will be described.
[0102]
In the case of a still image, data relating to the subject area is recorded in header information in the acquired image. For example, when Exif (exchangeable image file format) is adopted as a format of a still image of a digital still camera, the subject is included in a field called Subject Area in the header information where the position of a main subject can be described. The location of the area can be recorded.
[0103]
Also, in the case of a moving image, as shown in FIG. 8, the time is recorded as text information in the order of the time in seconds from the left, the horizontal coordinate u of the subject area, and the vertical coordinate v of the subject area. This text information is recorded on a recording medium as a text file together with the moving image.
[0104]
At this time, the moving image data and the text file are recorded in association with each other. For example, if the name of the moving image file is "Video 01.avi" (avi is an abbreviation for Audio Video Interleaving), the name of the text file is "Video 01.txt", and the name before the extension is aligned. Recorded in the form.
[0105]
Hereinafter, a second example which is an embodiment of the imaging apparatus, the camera, the program, and the recording medium according to the present invention will be described.
[0106]
The above-described focus area detection processing may be performed by detecting the direction of the imaging unit 3. This method is particularly effective when a still object is photographed without moving the imaging unit 3 in parallel with the distance to the object.
[0107]
FIG. 9 is a diagram illustrating a configuration of the digital still camera according to the present embodiment. The digital still camera 1 in FIG. 9 is obtained by adding a posture detection sensor 12 to the digital still camera in FIG.
The same reference numerals in the drawings denote the same or corresponding parts as in the first embodiment.
[0108]
The attitude detection sensor 12 is provided for detecting the direction of the main axis (usually the optical axis) of the imaging unit 3, an attitude detection sensor, an A / D converter that acquires a signal from the sensor, and the A / D 4 shows an attitude detection unit including an ALU or the like that performs arithmetic processing on data acquired by a converter.
[0109]
The posture detection sensor 12 is configured by, for example, an acceleration sensor, a magnetic sensor, an angular velocity sensor (gyro), or a combination thereof.
[0110]
The operations in the still image shooting mode and the moving image shooting mode in the second embodiment are the same as those in the first embodiment, and operate according to the flowcharts of FIGS.
[0111]
Here, the tracking operation of the subject area when an acceleration sensor and a magnetic sensor are used as an example of the posture detection sensor will be described with reference to the flowchart of FIG.
[0112]
First, the system control unit 2 calculates the current attitude of the imaging unit 3 with respect to the absolute coordinate system from the detection signal of the attitude detection sensor, and records the current attitude in the memory (step S51).
[0113]
Here, it is assumed that the absolute coordinate system is a right-handed XYZ coordinate system in which the eastward direction is the X axis, the gravity direction is the Y axis, and the northward direction is the Z axis, as shown in FIG.
[0114]
The acceleration sensor is used to detect the gravitational acceleration, and the magnetic sensor is used to detect the terrestrial magnetism. The output signals of these sensors make it possible to easily calculate the orientation of the imaging unit 3 with respect to the absolute coordinate system.
[0115]
Here, when the tracking process of the subject area is in the above-described initial state (Yes in step S52), the process ends here.
[0116]
On the other hand, if it is not the initial state (No in step S52), the subject area and the attitude of the imaging unit 3 recorded at the previous time are read out from the memory (step S53), and these information and the current attitude of the imaging unit 3 are read. Is used to calculate the current subject area and record it in the memory (step S54).
[0117]
Here, a method of calculating the current subject area will be described.
[0118]
First, two coordinate systems shown in FIG. 12 are defined.
Camera coordinate system
X-axis: Positive to the right of the screen
・ Y-axis: Positive screen downward
・ Z axis: optical axis, direction toward object is positive
・ Origin 0: Optical center of camera
・ F: focal length
Image coordinate system
・ U-axis: Positive to screen right
・ V-axis: screen downward is positive
• (u0, v0): center of the screen, ie, image coordinates where the optical axis and the screen intersect
[0119]
It is assumed that the optical system of the camera coordinate system is described by a central projection model. The image coordinate system uses pixels as a basic unit.
[0120]
The following variables are defined.
R W , t-1 : A rotation matrix representing the attitude of the imaging unit 3 with respect to the absolute coordinate system at the previous time t-1
R W , t : Rotation matrix representing the attitude of the imaging unit 3 with respect to the absolute coordinate system at the current time t 2
[0121]
From the two rotation matrices, a rotation matrix R indicating a change in the attitude of the imaging unit 3 from the previous time to the present is calculated based on the following equation.
[0122]
(Equation 2)
Figure 2004112550
[0123]
Where R W , t-1 The subscript T at the upper right of the matrix represents the transposition of the matrix.
[0124]
Due to the change in the posture represented by the rotation matrix R, the subject area (u t-1 , V t-1 ) At the current time point (u t , V t Go to).
[0125]
[Equation 3]
Figure 2004112550
[0126]
And these matrices A t-1 , A t Indicates the relationship between the camera coordinate system and the image coordinate system at the previous time and the present, respectively, and is called a camera internal matrix (reference: Xu Go, Saburo Tsuji: “3D Vision”, Kyoritsu) Publishing (1998)).
[0127]
Also, k u , K v Represents a unit of the u-axis and the v-axis with reference to the x-axis and the y-axis, respectively, that is, a pixel density.
[0128]
Also, f t-1 , F t Are variables representing the focal length at the previous time and the present, respectively. S is a constant for setting the third component on the left side of the equation (3) to 1.
[0129]
In general, k u , K v Can be easily known from the CCD design specifications.
[0130]
Further, the value of the focal length can be detected by a method of reading the position of the lens driving motor by the encoder in the imaging unit 3.
By the above calculation, the current position (u t , V t ) Is calculated.
[0131]
Subsequently, the points (u t , V t ) Is determined to be within the screen (step S55). If it is within the screen (Yes), the point (u) determined at step S53 is determined. t , V t ) Is output to the system control unit 2 as the current subject area (step S56).
[0132]
If it is determined that it is outside the screen (No in step S55), a signal indicating that the tracking has failed is output to the system control unit 2 (step S57). This is the end of the process.
[0133]
Hereinafter, a third example which is an embodiment of the imaging apparatus, the camera, the program, and the recording medium according to the present invention will be described.
[0134]
The functions of the imaging device and the like according to the present invention can be realized by a personal computer (PC) or a portable information terminal.
[0135]
In recent years, digital cameras that can realize various functions by reading various processing programs have come to appear. In addition, a notebook PC equipped with a camera whose direction can be rotated, a PDA (Personal Digital Assistant) equipped with the camera, and a mobile phone have become widespread.
[0136]
In such a case, the functions can be realized by causing these devices to execute a processing program that realizes the functions described in the first embodiment or the second embodiment.
[0137]
The present embodiment is a program that can be read by the above-described device via various media or an electric communication line such as the Internet. The contents of the operation are the same as those in the above-described first or second embodiment.
[0138]
Hereinafter, a specific example in which the above-described operation described in the first embodiment or the second embodiment is realized by executing the program in a notebook PC including a camera will be described.
[0139]
Processing such as AF is executed inside the camera.
[0140]
Selection of a shooting mode, control of start / end of shooting, start of tracking operation of a subject area (corresponding to half-pressing operation of the release SW in the above-described embodiment), display of an image and a subject area are performed by an arbitrary user interface. Done through. An example is described below.
[0141]
Select the shooting mode: Cursor key
Shooting start / end control: Return key
Start tracking of subject area: Space key
Display of image and subject area: Display on LCD
[0142]
Hereinafter, a fourth example which is an embodiment of the imaging apparatus, the camera, the program, and the recording medium according to the present invention will be described.
[0143]
The imaging apparatus according to the present invention causes a device described in the third embodiment to read a recording medium storing a processing program for realizing the functions described in the first embodiment or the second embodiment, That function can be realized.
[0144]
For example, as shown in FIG. 13A, the function is realized by mounting the CD-ROM 25 storing the program on a notebook PC 30 equipped with a camera, and reading and executing the program as appropriate. Can be done.
[0145]
Further, as shown in FIG. 13B, the smart media 26 storing the program is mounted on the digital still camera 1 that can read the program, and the program is appropriately executed to realize the function. be able to.
[0146]
It should be noted that the recording medium for storing the program is not limited to the above-described one, but may be another medium such as a CD-RW or a DVD-ROM.
[0147]
The operation in this embodiment is the same as that in the third embodiment.
[0148]
The above embodiments are merely illustrative of the invention. That is, the scope of the rights of the present invention should not be unduly limited or reduced as in the above-described embodiment, and examples in which the constituent elements of the present invention are changed to other elements as described below are equivalent to the present invention. It is included in the scope of right as an invention.
[0149]
For example, in each embodiment, the release SW capable of detecting a two-stroke operation and a digital still camera having a still image / moving image shooting function have been described as examples. Even a video camera dedicated to shooting moving images having the same function as the above embodiment is also included in the scope of the present application. Here, it is more preferable that the video camera includes a button for starting a tracking operation of the subject area in order to realize the same operation as that described in the above embodiment.
[0150]
The manner in which the subject area is displayed on the LCD 6 or the finder display 8 is not limited to the above embodiment. For example, an imaging device that does not have the display function (corresponding to claims other than claim 6) or an imaging device that performs the display only when tracking the subject area may be used.
[0151]
In the description of the recording of the subject area, the position of the subject area is recorded in the text file every second. However, another form such as recording each frame or recording a certain number of frames is used. It does not matter. The file format may be recorded as a content description file such as MPEG-7 (MPEG stands for Motion Picture Experts Group) instead of a text file. In addition, for both still images and moving images, the subject area may be inserted into the image data as a watermark (digital watermark).
[0152]
Further, in the second embodiment, it has been described that the attitude of the imaging unit is detected by using the acceleration sensor and the magnetic sensor in combination. However, the same operation can be realized by using another element such as a gyro. It is possible to
[0153]
【The invention's effect】
According to the invention as set forth in claims 1 to 22, it is possible to control, track, and record an accurate subject area on the screen with a simple configuration and operation, and the first object is achieved.
[0154]
According to the inventions described in claims 6 to 13 and 17 to 22, the processing cost and power consumption required for tracking the subject area can be reduced, and the second object is achieved.
[0155]
According to the seventh to thirteenth and eighteenth to twenty-second aspects, designation and tracking of a subject area can be executed without forcing the user to perform a troublesome operation, and the third object is achieved.
[0156]
According to the inventions described in claims 8 to 13 and 19 to 22, it is possible to confirm with a simple configuration whether the user can execute a desired photographing operation, and the fourth object is achieved.
[0157]
According to the tenth to thirteenth, twenty-first, twenty-second, and twenty-second aspects, the user can easily confirm the photographing intention and operation later, and the fifth object is achieved.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a digital still camera according to an embodiment of an imaging device and the like according to the present invention.
FIG. 2 is a configuration diagram of a release switch of a digital still camera according to an embodiment of an imaging device or the like according to the present invention.
FIG. 3 is a flowchart illustrating a flow of a process according to an embodiment of an imaging device or the like according to the present invention.
FIG. 4 is a flowchart illustrating a flow of moving image capturing according to an embodiment of an imaging device or the like according to the present invention.
FIG. 5 is an explanatory diagram of a display of a subject area or a warning according to an embodiment of an imaging device or the like according to the present invention. (A) shows a case where a pointer indicating the position of the subject area is displayed, and (b) shows a case where an indicator for warning that the tracking of the subject area has failed is displayed.
FIG. 6 is a flowchart showing a flow of a tracking process of a subject area according to an embodiment of the imaging device or the like according to the present invention.
FIG. 7 is an explanatory diagram of a tracking operation of a subject area according to an embodiment of an imaging device or the like according to the present invention. (A) shows a template obtained by cutting out a predetermined area of the subject area, and (b) shows a case where the template is moved on the template current image.
FIG. 8 is a diagram illustrating a recording operation of a subject area according to an embodiment of an imaging device or the like according to the present invention.
FIG. 9 is a configuration diagram of a digital still camera according to another embodiment such as an imaging device according to the present invention.
FIG. 10 is a flowchart illustrating a flow of a subject area tracking process according to another embodiment of the imaging apparatus and the like according to the present invention.
FIG. 11 is a diagram showing an absolute coordinate system according to another embodiment such as an imaging device according to the present invention.
FIG. 12 is a diagram illustrating a camera coordinate system and an image coordinate system according to another embodiment of the imaging device and the like according to the present invention.
FIG. 13 is an explanatory diagram of an embodiment of a program, a recording medium, and the like according to the present invention. (A) shows a notebook PC with a camera and a CD-ROM, and (b) shows a digital still camera and a smart media.
[Explanation of symbols]
1 Digital still camera
2 System control unit
3 Imaging unit
4 Image processing unit
5 LCD display controller
6 LCD
7 Finder display control unit
8 Viewfinder display
9 Recording media interface
10 Recording media
11 Hard key interface
12 Attitude detection sensor
21 pointer
22 Indicator
23 templates
24 Current image
25 CD-ROM
26 Smart Media
30 Notebook PC

Claims (22)

光学系を介して入力される被写体像を映像信号として出力する撮像手段と、
前記撮像手段の視野内において注目する被写体を指定する被写体指定手段と、
前記映像信号を記録する映像記録手段と、
前記被写体指定手段により指定された被写体領域を追跡する追跡手段と、
前記被写体領域を、前記映像信号と関連して記録する付加情報記録手段と、
を有することを特徴とする撮像装置。
Imaging means for outputting a subject image input via an optical system as a video signal,
Subject designating means for designating a subject of interest in the field of view of the imaging means;
Video recording means for recording the video signal,
Tracking means for tracking a subject area designated by the subject designating means;
Additional information recording means for recording the subject area in association with the video signal,
An imaging device comprising:
現在の前記映像信号と、一時刻前に撮像された前記映像信号との類似度を算出する類似度算出手段、
をさらに有することを特徴とする請求項1記載の撮像装置。
A current video signal, and a similarity calculating unit that calculates a similarity between the video signal captured one time ago,
The imaging device according to claim 1, further comprising:
前記追跡手段は、
前記類似度算出手段の出力に基づき、前記被写体領域を追跡することを特徴とする請求項2記載の撮像装置。
The tracking means,
The imaging apparatus according to claim 2, wherein the subject area is tracked based on an output of the similarity calculation unit.
前記撮像手段の向きを検出する向き検出手段、
をさらに有することを特徴とする請求項1、2または3記載の撮像装置。
Direction detection means for detecting the direction of the imaging means,
The imaging device according to claim 1, 2 or 3, further comprising:
前記追跡手段は、
前記向き検出手段の出力に基づき、前記被写体領域を追跡することを特徴とする請求項4記載の撮像装置。
The tracking means,
The imaging apparatus according to claim 4, wherein the object area is tracked based on an output of the direction detection unit.
前記追跡手段の動作を開始させる開始手段、
をさらに有することを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
Starting means for starting the operation of the tracking means,
The imaging device according to any one of claims 1 to 5, further comprising:
前記被写体指定手段は、
前記追跡手段の動作中は動作を停止することを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
The subject designating means includes:
The imaging apparatus according to claim 1, wherein the operation is stopped while the tracking unit is operating.
前記追跡手段が出力した前記被写体領域を表示する表示手段、
をさらに有することを特徴とする請求項1から7のいずれか1項に記載の撮像装置。
Display means for displaying the subject area output by the tracking means,
The imaging device according to any one of claims 1 to 7, further comprising:
前記追跡手段が前記被写体領域が画面から外れたと判定したときに警告を発する警告手段、
をさらに有することを特徴とする請求項1から8のいずれか1項に記載の撮像装置。
Warning means for issuing a warning when the tracking means determines that the subject area has deviated from the screen,
The imaging device according to any one of claims 1 to 8, further comprising:
前記付加情報記録手段は、
前記被写体領域の追跡結果を記したテキストデータを記録することを特徴とする請求項1から9のいずれか1項に記載の撮像装置。
The additional information recording means,
The imaging apparatus according to claim 1, wherein text data describing a tracking result of the subject area is recorded.
請求項1から10のいずれか1項に記載の撮像装置を有するカメラ。A camera comprising the imaging device according to claim 1. 光学系を介して入力される被写体像を映像信号として出力する処理と、
撮像手段の視野内において注目する被写体を指定する被写体指定処理と、
前記映像信号を記録する処理と、
前記被写体指定処理により指定された被写体領域を追跡する追跡処理と、
前記被写体領域を、前記映像信号と関連して記録する処理と、を実行させることを特徴とするプログラム。
A process of outputting a subject image input via an optical system as a video signal,
Subject designation processing for designating a subject of interest in the field of view of the imaging means;
Processing for recording the video signal;
A tracking process of tracking a subject area designated by the subject designation process;
Recording the subject area in association with the video signal.
現在の前記映像信号と、一時刻前に撮像された前記映像信号との類似度を算出する類似度算出処理、をさらに実行させることを特徴とする請求項12記載のプログラム。13. The program according to claim 12, further comprising executing a similarity calculation process of calculating a similarity between the current video signal and the video signal captured one time before. 前記類似度算出処理の出力に基づき、前記被写体領域を追跡する前記追跡処理、をさらに実行させることを特徴とする請求項13記載のプログラム。14. The non-transitory computer-readable storage medium according to claim 13, further comprising: executing the tracking process of tracking the subject area based on an output of the similarity calculation process. 前記撮像手段の向きを検出する向き検出処理、をさらに実行させることを特徴とする請求項12、13または14記載のプログラム。15. The program according to claim 12, further comprising executing a direction detection process for detecting a direction of the imaging unit. 前記向き検出処理の出力に基づき、前記被写体領域を追跡する前記追跡処理、をさらに実行させることを特徴とする請求項15記載のプログラム。16. The program according to claim 15, further comprising: executing the tracking processing for tracking the subject area based on an output of the orientation detection processing. 前記追跡処理の動作を開始させる処理、をさらに実行させることを特徴とする請求項12から16のいずれか1項に記載のプログラム。17. The program according to claim 12, further comprising executing a process of starting the operation of the tracking process. 前記被写体指定処理が、前記追跡処理の動作中に動作を停止する処理、をさらに実行させることを特徴とする請求項12から17のいずれか1項に記載のプログラム。18. The program according to claim 12, wherein the subject specifying process further executes a process of stopping an operation during the operation of the tracking process. 前記追跡処理により出力された前記被写体領域を表示する処理、をさらに実行させることを特徴とする請求項12から18のいずれか1項に記載のプログラム。19. The program according to claim 12, further comprising executing a process of displaying the subject area output by the tracking process. 前記追跡処理により前記被写体領域が画面から外れたと判定されたときに警告を発する処理, をさらに実行させることを特徴とする請求項12から19のいずれか1項に記載のプログラム。20. The program according to claim 12, further comprising: executing a process of issuing a warning when it is determined that the subject area has deviated from the screen by the tracking process. 前記被写体領域の追跡結果を記したテキストデータを記録する処理、をさらに実行させることを特徴とする請求項12から20のいずれか1項に記載のプログラム。21. The program according to claim 12, further comprising the step of: recording text data describing a tracking result of the subject area. 請求項12から21のいずれか1項に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。A computer-readable recording medium on which the program according to any one of claims 12 to 21 is recorded.
JP2002274160A 2002-09-19 2002-09-19 Imaging apparatus, camera, program, and recording medium Pending JP2004112550A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002274160A JP2004112550A (en) 2002-09-19 2002-09-19 Imaging apparatus, camera, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002274160A JP2004112550A (en) 2002-09-19 2002-09-19 Imaging apparatus, camera, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2004112550A true JP2004112550A (en) 2004-04-08

Family

ID=32270714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002274160A Pending JP2004112550A (en) 2002-09-19 2002-09-19 Imaging apparatus, camera, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2004112550A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341449A (en) * 2004-05-31 2005-12-08 Toshiba Corp Digital still camera
WO2008050674A1 (en) * 2006-10-26 2008-05-02 Olympus Corporation Imaging device, image recording method and image recording program
JP2008244826A (en) * 2007-03-27 2008-10-09 Casio Comput Co Ltd Imaging apparatus and its program
JP2009296030A (en) * 2008-06-02 2009-12-17 Canon Inc Imaging device
JP2010134915A (en) * 2008-11-04 2010-06-17 Omron Corp Image processing device
US7868917B2 (en) 2005-11-18 2011-01-11 Fujifilm Corporation Imaging device with moving object prediction notification
US7978253B2 (en) 2007-07-18 2011-07-12 Ricoh Company, Ltd. Image pickup device using blur processing and control method thereof
US8194158B2 (en) 2007-07-27 2012-06-05 Ricoh Company, Ltd. Image processor, image processing method, digital camera, and imaging apparatus
CN112637550A (en) * 2020-11-18 2021-04-09 合肥市卓迩无人机科技服务有限责任公司 PTZ moving target tracking method for multi-path 4K quasi-real-time spliced video

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341449A (en) * 2004-05-31 2005-12-08 Toshiba Corp Digital still camera
US7868917B2 (en) 2005-11-18 2011-01-11 Fujifilm Corporation Imaging device with moving object prediction notification
WO2008050674A1 (en) * 2006-10-26 2008-05-02 Olympus Corporation Imaging device, image recording method and image recording program
JP2008244826A (en) * 2007-03-27 2008-10-09 Casio Comput Co Ltd Imaging apparatus and its program
US7978253B2 (en) 2007-07-18 2011-07-12 Ricoh Company, Ltd. Image pickup device using blur processing and control method thereof
US8194158B2 (en) 2007-07-27 2012-06-05 Ricoh Company, Ltd. Image processor, image processing method, digital camera, and imaging apparatus
JP2009296030A (en) * 2008-06-02 2009-12-17 Canon Inc Imaging device
JP2010134915A (en) * 2008-11-04 2010-06-17 Omron Corp Image processing device
CN112637550A (en) * 2020-11-18 2021-04-09 合肥市卓迩无人机科技服务有限责任公司 PTZ moving target tracking method for multi-path 4K quasi-real-time spliced video

Similar Documents

Publication Publication Date Title
US9019387B2 (en) Imaging device and method of obtaining image
JP4999268B2 (en) Electronic camera and program
JP4872797B2 (en) Imaging apparatus, imaging method, and imaging program
US20080101783A1 (en) Imaging apparatus with a function of compensating for hand shake, method of compensating for hand shake, and computer program product
US8988535B2 (en) Photographing control method and apparatus according to motion of digital photographing apparatus
US20160330366A1 (en) Image processing device and method, and program
JP2009171268A (en) Electronic camera
JP4655708B2 (en) Camera, camera shake state display method, and program
JP2009089220A (en) Imaging apparatus
JP2004112550A (en) Imaging apparatus, camera, program, and recording medium
JP2007166011A (en) Imaging apparatus and its program
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP2009081530A (en) Imaging apparatus and imaging method
JP2009260599A (en) Image display apparatus and electronic camera
JP2009260600A (en) Electronic camera
JP2004112537A (en) Imaging apparatus, imaging method, and program for executing the method
JP5067323B2 (en) Imaging apparatus and program
JP2008172501A (en) Imaging apparatus
JP2011130198A (en) Imaging apparatus, control method thereof and program
JP4962597B2 (en) Electronic camera and program
JP2006145567A (en) Camera, method for notifying camera shake amount of camera, and program
JP2007180988A (en) Imaging apparatus, display method, shake image confirming method, program, and storage medium
JP2006229697A (en) Image pickup device
JP5274223B2 (en) Imaging apparatus and control method thereof
EP3041219B1 (en) Image processing device and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071211