JP4047231B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP4047231B2
JP4047231B2 JP2003169723A JP2003169723A JP4047231B2 JP 4047231 B2 JP4047231 B2 JP 4047231B2 JP 2003169723 A JP2003169723 A JP 2003169723A JP 2003169723 A JP2003169723 A JP 2003169723A JP 4047231 B2 JP4047231 B2 JP 4047231B2
Authority
JP
Japan
Prior art keywords
subject
moving image
attribute information
imaging apparatus
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003169723A
Other languages
Japanese (ja)
Other versions
JP2005006195A5 (en
JP2005006195A (en
Inventor
浩史 須田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003169723A priority Critical patent/JP4047231B2/en
Publication of JP2005006195A publication Critical patent/JP2005006195A/en
Publication of JP2005006195A5 publication Critical patent/JP2005006195A5/ja
Application granted granted Critical
Publication of JP4047231B2 publication Critical patent/JP4047231B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えばビデオカメラやデジタルカメラ等である撮像装置およびその撮像方法に関する。
【0002】
【従来の技術】
従来から、動画像や静止画像を記録し、その記録された画像を再生する画像記録再生装置としては、画像信号をデジタル信号に変換した後、磁気テープにシーケンシャル記録するデジタルVTR(Video Tape Recorder)がある。これに対して、さらに、データのハンドリングを容易にするために、最近では、メモリカード等のランダムアクセスメディアにも、動画像や静止画像を記録可能にするデジタルVTRやデジタルカメラなどの画像記録再生装置も開発され、普及しつつある。
【0003】
上述した画像記録再生装置では、情報量の削減のため、入力デジタル信号に圧縮処理を施しており、少ない記憶容量で多くの画像情報や静止画情報の記録を可能にしている。このような画像記録再生装置の圧縮方式は種々の方式がある。例えばDCT(離散コサイン変換)方式では、画像を、複数のブロックに分割し、各ブロックに直交変換を施し、各係数を所定のビット数に丸めることで、量子化する。この処理において、画像情報は低域に偏っているため、高周波成分のビット数を減らすことでデータ量を削減することができる。また、DCT方式ではなく、ウェーブレット変換を用いてサブバンド化してから量子化を行なう方式もある。そしてこれに加えて、ハフマン符号化等の可変長符号化を行い、出現確立のより高いビットシーケンスに対してはより短い長さの符号を割り当てることにより、効率のよいデータ圧縮を行なうことができる。
【0004】
さらに、動画像を圧縮する場合には、動画像の画像はフレーム間での相関が強いという性質を利用して、フレーム間の差分を抽出するなどして、さらに、大幅に圧縮をかけることも可能になる。
【0005】
上述のさまざまな圧縮技術を組み合わせて動画像や静止画像の圧縮を行い、データ量を削減した上で、ランダムアクセスメディアである半導体メモリカードや、固体磁気ディスクメモリや光ディスクメモリに記録するのが、近年の一般的なデジタル画像記録再生装置(デジタルビデオカメラやデジタルカメラ)である。
【0006】
これら、ビデオカメラやデジタルカメラでは、単に映像を撮影するだけではなく、撮影した画像が電子データである特質を生かして、もう一歩進んだ活用しようとする試みがなされている。従来から、電子データである電子画像(撮影データ)には、その画像にさまざまな情報を付加することが可能である。この付加情報を、一般的にメタデータと称している。このメタデータには、デジタルカメラの撮影状態や特性、撮影日時やデジタルカメラの種別などを入れるのが一般的である。
【0007】
上述したデジタルカメラやデジタルビデオカメラについて使用方法という観点でみると、単なる撮影ではなく、さまざまな用途に使用されるようになってきている。その用途の一つとして、商品撮影が上げられる。インターネット等での商品を販売するにあたり、ホームページでの商品説明のための電子画像を掲載することが必要になっている。商売を専門にしている人のみではなく、一般の人でも、インターネットのオークションに商品を出展するために、デジタルカメラなどで商品の撮影を行なうことが多くなってきている。この商品の電子画像には、画像のみではなく、コンピュータによる情報検索を容易にするために、上述のメタデータに、被写体の情報である、商品のメーカや種別、具体的な商品コード、商品の特性などを、容易に付加することが望まれている。
【0008】
一方、被写体の被写体情報発信について考えると、一般の商品などは、従来からバーコードなどを付与することで、電子的に、メーカや商品が識別可能になっている。これに対して、最近では、ID−TAGと呼ばれる、無線チップ(または無線チップIC(Integrated Circuit))を貼り付けて、バーコード以上の情報量を組み込み、そのID−TAGからその商品に関する情報(メタデータ)を無線で受信する試みが成されており、実用化されつつある。
【0009】
この無線チップ(ID−TAG)を組み込む試みは、商品のみではなく、さまざまな分野で行われており、たとえば、ペット動物などの生き物にも無線チップを埋め込んで、個別管理を行なうシステムが開発されている。また、人間にも無線チップICを埋め込んで健康管理しようとする動きも始まっている。
【0010】
この様な技術として、例えば対象物および対象物データを確認するためのシステムが開示されている(例えば特許文献1参照。)。
【0011】
【特許文献1】
特開2000−261751号公報
【0012】
【発明が解決しようとする課題】
しかし、上述のメタデータに埋め込むことが望まれる被写体の情報は、撮像装置内に存在する情報では無いので、撮影と同時にメタデータに埋め込むことは難しいという問題があった。そこで、撮影後に、撮影者が外部から入力する等して被写体の情報をメタデータに埋め込む方法や、予め撮像装置内部に被写体の情報を取り込んでおいて、撮影と同時にメタデータにその情報を埋め込む方法など、いくつかの方法は考えられるが、いずれの方法でも実用的とは言えなかった。
【0013】
本発明は上記問題点を鑑みてなされたものであり、撮影時にメタデータに被写体情報を埋め込むことを容易に行なうことができる撮像装置、および撮像方法を提供することを目的とする。
【0014】
【課題を解決するための手段】
この発明は、上述した課題を解決すべくなされたもので、本発明による撮像装置においては、被写体を撮像して動画像データを出力する撮像手段と、所定期間毎に被写体より被写体に関する属性情報を被写体に対して非接触で検出する属性情報検出手段と、撮像手段が出力する動画像データと属性情報検出手段が検出した属性情報とを記録媒体に記録する記録手段とを具備することを特徴とする。
【0015】
また、本発明による撮像装置においては、動画像と静止画像とを撮影して記録する撮像装置であって、被写体を撮像して動画像または静止画像の画像データを出力する撮像手段と、被写体より被写体に関する属性情報を被写体に対して非接触で検出する属性情報検出手段と、撮像手段が出力する画像データと属性情報検出手段が検出した属性情報とを記録媒体に記録する記録手段と、静止画像を撮影する静止画撮影モードと動画像を撮影する動画撮影モードとを切り替えるモード切り替え手段と、静止画撮影モードにおいて静止画像を撮影して記録する場合には、静止画像の画面に含まれる被写体の属性情報を撮影に同期して検出するよう属性情報検出手段を制御して、検出された属性情報を静止画像の各画面に対応付けて記録媒体に記録するよう記録手段を制御し、動画撮影モードにおいて動画像を撮影して記録する場合には、所定期間毎に属性情報を検出するよう属性情報検出手段を制御し、検出された属性情報を動画像に対応付けて記録媒体に記録するよう記録手段を制御する制御手段とを具備することを特徴とする。
【0016】
また、本発明による撮像方法においては、動画像を撮影して記録する撮像装置を用いた撮像方法であって被写体を撮像して動画像データを出力する第1のステップと、所定期間毎に被写体より被写体に関する属性情報を被写体に対して非接触で検出する第2のステップと、第1のステップで出力する動画像データと第2のステップで検出した属性情報とを記録媒体に記録する第3のステップとを有することを特徴とする。
【0017】
また、本発明による撮像方法においては、動画撮影モードにおいて動画像を撮影して記録し、静止画撮影モードにおいて静止画像を撮影して記録する撮像装置を用いた撮像方法であって、被写体を撮像して動画像データを出力する第1のステップと、所定期間毎に被写体より被写体に関する属性情報を被写体に対して非接触で検出する第2のステップと、第1のステップで出力する動画像データと第2のステップで検出した属性情報とを記録媒体に記録する第3のステップとを有し、静止画撮影モードにおいて静止画像を撮影して記録する場合には、静止画像の画面に含まれる被写体の属性情報を撮影に同期して検出するよう第2のステップを制御して、検出された属性情報を静止画像の各画面に対応付けて記録媒体に記録するよう第3のステップを制御し、動画撮影モードにおいて動画像を撮影して記録する場合には、所定期間毎に属性情報を検出するよう第2のステップを制御し、検出された属性情報を動画像に対応付けて記録媒体に記録するよう第3のステップを制御することを特徴とする。
【0022】
これにより、本発明の撮像装置および撮像方法においては、被写体を撮像して動画像データを出力して、所定期間毎に被写体より被写体に関する属性情報を被写体に対して非接触で検出して、出力した動画像データと検出した属性情報とを記録媒体に記録するので、例えば、無線通信を利用して被写体より属性情報(被写体情報)を取得することで、撮影時にメタデータに属性情報(被写体情報)を埋め込むことを容易に行なうことができる。
【0023】
また、本発明の撮像装置および撮像方法においては、被写体を撮像して動画像データを出力する処理と、所定期間毎に被写体より被写体に関する属性情報を被写体に対して非接触で検出する処理と、出力した動画像データと検出した属性情報とを記録媒体に記録する処理とを撮像装置に実行させる際に、静止画撮影モードにおいて静止画像を撮影して記録する場合には、静止画像の画面に含まれる被写体の属性情報を撮影に同期して検出するよう制御して、検出された属性情報を静止画像の各画面に対応付けて記録媒体に記録するよう制御し、動画撮影モードにおいて動画像を撮影して記録する場合には、所定期間毎に属性情報を検出するよう制御して、検出された属性情報を動画像に対応付けて記録媒体に記録するよう制御するので、静止画または動画の撮影時に、撮影する画像の種類に応じて最適なタイミングで被写体の無線チップから属性情報(被写体情報)の検出を行い、記録媒体における最適な場所に属性情報(被写体情報)を格納することができる。
【0024】
【発明の実施の形態】
以下、図面を用いて本発明の実施形態について説明する。なお、以下に示す実施形態において、画像と表現しているものは、静止画の画像と動画の画像の両方を含むものであり、その画像の圧縮方式や、画像データのサイズ等も特定の種類に限定するものではない。
まず、本発明の一実施形態である撮像装置の概略構成について説明する。
【0025】
図1は、本発明の一実施形態である撮像装置の概略構成を示す図である。図1において、符号100は、撮像装置であり、被写体150の電子画像を撮影可能な以下に示す構成を有する。撮像装置100内の各ユニット(撮像信号処理回路109、撮像部制御器110、操作スイッチ122、画像圧縮解凍器123、CPU(中央演算装置)124、RAM(Random Access Memory)125、フラッシュメモリ126、ディスプレイ127、メモリインターフェース128、変復調器140)はバス121を介して接続されている。また、撮像装置100の各ユニットは、CPU124によってバス121を介して制御される。
【0026】
レンズユニット101は、ズームレンズ102、ズームモータ105、絞り(アイリス)103、アイリスモータ106、フォーカスレンズ104、フォーカスモータ107を含む構成である。また、レンズユニット101内のズームモータ105、アイリスモータ106、フォーカスモータ107、撮像素子108、撮像信号処理回路109、撮像信号処理回路109内のオートフォーカス検出回路111は、CPU124で制御された撮像部制御器110により制御される。
【0027】
また、メモリインターフェース128は、コネクタ129を介して画像記録用メモリカード130に画像データを書き込む処理や、コネクタ129を介して画像記録用メモリカード130から画像データを読み出す処理を行なう。また、変復調器140は、アンテナ141を介して被写体150のID−TAG(無線チップ)151と情報を送受信可能である。
【0028】
最初に、撮像装置100の起動時の動作について説明する。撮像装置100が起動すると、フラッシュメモリ126に格納されていた起動プログラムがRAM125の一部にロードされCPU124はこのRAM125にロードされた起動プログラムにしたがって動作を行なう。尚、CPU124は、起動プログラムをフラッシュメモリ126上で実行しても構わない。また、RAM125にロードする起動プログラムは、ROM(Read Only Memory)等に記憶していてもよい。
【0029】
尚、本実施形態における撮像装置100の動作モードには、例えば、動画像を撮影する動画像撮影モード、静止画像を撮影する静止画像撮影モード、動画像を再生する動画像再生モード、静止画像を再生する静止画像再生モード、動画像を編集する動画像編集モードの5種類があり、起動前にいずれかの動作モードを操作スイッチ122に含まれる動作モードスイッチ(モード切り替え手段)で指定して起動することで、各動作モードに対応した起動プログラムが実行される。
【0030】
次に、撮像部制御器110のレンズユニット101に対するレンズ制御動作について説明する。撮像部制御器110は、被写体150に対する露出が最適になるようにアイリスモータ106を駆動して、絞り103を調整するAE(自動露出)調整を行なう。すなわち、撮像部制御器110のAE調整に従い、アイリスモータ106は、絞り103の開口度を調整して露出調整を行なう。このときアイリスモータ106は、絞り103の調整後の開口度を撮像部制御器110へ返す。
【0031】
また、撮像部制御器110は、オートフォーカス検出回路111の出力信号を用いて、たとえば山登り制御でフォーカスモータ107を駆動して、被写体150に対するピントが最適になるようにフォーカスレンズ104の位置を調節するオートフォーカス調整を行なう。すなわち、撮像部制御器110のオートフォーカス調整に応じて、フォーカスモータ107は、フォーカスレンズ104を移動させて被写体150に対するピントを最適にする。このとき、フォーカスモータ107は、同時にフォーカスレンズ104の調整後の位置に関する情報を撮像部制御器110へ返す。
【0032】
また、撮像部制御器110は、操作スイッチ122に含まれるズームスイッチ(不図示)で設定された画角になるように、ズームモータ105を駆動して、ズームレンズ102の位置設定を行なう。このとき、ズームモータ105は、ズームレンズ102の移動後の位置に関する情報を撮像部制御回路110へ通知する。以上に示した動作により、撮像部制御器110は、撮像素子108の撮像面上に適切な被写体150の被写体像を結像するように、レンズユニット101を制御する。尚、レンズユニット101の構成およびレンズユニット101に対する制御方法は、上述した限りではなく、撮像素子108の撮像面上に適切な被写体150の被写体像を結像可能な構成および制御方法であればよい。
【0033】
次に、撮像装置100の撮像動作(動画像撮影モードまたは静止画像撮影モード)について説明する。被写体150からの光はレンズユニット101のレンズ群を通して、撮像素子108の撮像面上に結像される。撮像素子108は、撮像面上に結像された被写体像を光電変換して、電気信号(以下、画像信号とする)を出力する。撮像信号処理回路109は、撮像素子108が出力する画像信号に対する画像処理を行い、デジタルの動画像データや静止画像データを生成する。以上が、撮像装置100の撮像動作である。
【0034】
また、撮像装置100は撮像動作と同時に画像の記録動作も行なう。以下に、撮像装置100における画像の記録動作について説明する。画像圧縮解凍器123は、CPU124からの画像を記録する指示に従い、撮像信号処理回路109が出力する動画像データや静止画像データに対して、例えばJPEGやMPEG等の画像圧縮処理を行い、圧縮動画像データまたは圧縮静止画像データを生成する。尚、画像圧縮解凍器123が生成した圧縮動画像データまたは圧縮静止画像データは、一次的にRAM125に格納される。
【0035】
次に、RAM125に格納された圧縮動画像データまたは圧縮静止画像データは、CPU124の制御により、メモリインターフェース128、コネクタ129を通して、画像記録用メモリカード130に記録される。尚、本実施形態の画像記録用メモリカード130は、コネクタ129が出力する画像データを記録することに適している不揮発性のメモリカードであればよい。さらに、撮像装置100が画像を記録する対象はメモリカードに限定されるものではなく、メモリカードの代わりに、ハードディスクや光ディスク、光磁気ディスクなどのランダムアクセスメディアまたは磁気テープなどの記録メディアに記録しても構わない。
【0036】
次に、撮像装置100におけるID−TAG151からの被写体情報(属性情報)の情報取得動作について説明する。例えば、操作スイッチ122に含まれる記録開始スイッチ(またはシャッターボタンなど)にて、画像の記録の指示が行われると、撮像装置100は、上述したの撮像動作やレンズ制御動作を開始する。また、これと同時、もしくは前後して、撮像装置100は、アンテナ141を通して被写体150のID−TAG151へ電力を供給する。これにより、被写体150のID−TAG151は、電力が供給されることで起動して、被写体150に関する被写体情報を発信する。尚、ID−TAG151への電力を供給の詳細については後述する。
【0037】
次に、アンテナ141は、ID−TAG151から発信された被写体情報を受信して変復調器140へ受信信号を出力する。次に、変復調器140は、アンテナ141が出力する受信信号を基に復調したデジタル情報を被写体情報として出力する。尚、変復調器140が出力した被写体情報は、一時的にRAM125へ格納される。また、上述したID−TAG151は電源を内蔵していない構成であったが、この限りではなく、ID−TAG151が、電源を内蔵してもよい。上述したようにID−TAG151が電源を内蔵する場合は、アンテナ141から電力供給することなく、アンテナ141にて、被写体情報を受信することができる。また、ID−TAG151が、電源を内蔵する場合および電源を内蔵しない場合の構成等については詳細を後述する。
【0038】
次に、上述した画像の記録動作と平行して、撮像装置100は、上述した被写体情報を含むメタデータを画像記録用メモリカード130に記録する動作を行なう。このメタデータとは、上述したように画像記録用メモリカード130に記録する画像の付加情報である。具体的には、撮像装置100は、メタデータとして、アンテナ141および変復調器140を経由してID−TAG151から得た被写体情報と合わせて、インデックスを示す画像情報であるサムネイルや、画像を撮影した日時情報(または画像を記録した日時情報)、画像のファイル名等を画像記録用メモリカード130に記録する。
【0039】
また、画像記録用メモリカード130に記録する画像の種類(動画像、静止画像など)やデータ形式(JPEG形式、MPEG形式など)に合わせて被写体情報の記録方法を適時変えても良い。
例えば、動画像データを画像記録用メモリカード130に記録する場合には、撮像装置100は、一定周期ごとにアンテナ141および変復調器140を経由して被写体150の被写体情報を検出し、動画像データ列の中に埋め込んで、画像記録用メモリカード130に記録する。これとは別に、撮像装置100は、検出された被写体情報を、画像のメタデータに含めて、例えばフッタ領域やヘッダ領域などメタデータを記録する領域にも記録する。
【0040】
ここで、被写体情報の具体例について説明する。被写体150に関する情報であり、ID−TAG151に格納された被写体情報とは、被写体150の名称や種類、被写体150の製造メーカ、被写体150の個々を識別するシリアルナンバー、被写体150の性能や特性や状態、被写体10の過去の履歴、被写体150の製造年月日(または生年月日)、賞味期限、使用期限、色などであり、被写体150に関する情報ならば種々の情報を被写体情報として好適である。また、更に、被写体が複数の固定物ならば複数の被写体の中での位置関係など被写体周辺との関係に関する情報を被写体情報に含めてもよい。
【0041】
次に、撮像装置100における再生処理の動作について説明する。撮像装置100が再生モード(動画像再生モードまたは静止画像再生モード)で起動すると、フラッシュメモリ126に格納されていた起動プログラムがRAM125の一部にロードされる。次に、CPU124はこのRAM125にロードされた起動プログラムに従って動作を開始する。この起動時の動作は、上述した撮影モード時と同様である。
【0042】
まず、撮像装置100は、画像記録用メモリカード130に記録されたJPEG形式やMPEG形式等の圧縮動画像または圧縮静止画像画像を、コネクタ129、メモリインターフェース128を通して、RAM125に読み出す。次に、撮像装置100は、読み出した圧縮動画像または圧縮静止画像画像の一部、もしくは全部を画像圧縮解凍器123にて解凍する。次に、撮像装置100は、画像圧縮解凍123にて解凍した動画像または静止画像をディスプレイ127に表示する。以上の動作により、撮像装置100は再生処理を行なう。
【0043】
尚、上述した動作に先立って、再生する画像を選択する操作等が必要である。これには、画像記録用メモリカード130に記録している画像データのヘッダ領域やフッタ領域、もしくは動画像データ本体に埋め込まれた被写体情報を参照してCPU124にて解析してディスプレイ127に表示することで、利用者が検索したり選別したりすることが可能になる。このアルゴリズムの詳細は後述する。
【0044】
次に、図1に示したID−TAG151と、アンテナ141および変復調器140の詳細な構成例について電源を内蔵しない場合と電源を内蔵する場合とで説明する。まず、電源を内蔵しないID−TAG151と、それに対応するアンテナ141および変復調器140の詳細な構成例について説明する。
【0045】
図2は、図1に示した電源を内蔵しないID−TAG151と、それに対応するアンテナ141および変復調器140の詳細な構成例を示す図である。図2に示すように、ID−TAG151は、送信アンテナ201、変調器202、受信アンテナ203、復調器204、制御回路205、メモリ回路206、電源供給回路207より構成されている。尚、メモリ回路206には、少なくとも被写体150に関する情報である被写体情報が格納されている。また、変復調器140は、変調器214と復調器212より構成されている。また、アンテナ141は、受信アンテナ211と送信アンテナ213より構成されている。
【0046】
次に、撮像装置100およびID−TAG151間における通信動作について説明する。
まず、撮像装置100からID−TAG151へ通信データを送信する場合について説明する。撮像装置100に含まれる変復調器140内の変調器214は、CPU124から被写体150のID−TAG151へ送信する通信データが入力されると、この通信データを変調して、送信アンテナ213を通じて無線でID−TAG151へ送信する。これにより、ID−TAG151側の受信アンテナ203では、この変調された通信データを受信する。復調器204は、受信アンテナ203が受信した通信データを復調して制御回路205へ出力する。制御回路205は、この復調された通信データを種々の動作を行なう。例えば、通信データが被写体情報を要求するものであれば、制御回路205は、被写体情報の送信処理を行なう。
【0047】
次に、ID−TAG151から撮像装置100へ通信データを送信する場合について説明する。まず、制御回路205は、ID−TAG151から撮像装置100へ送られる通信データを、変調器202へ入力する。具体的に、制御回路205が変調器202へ入力する通信データとは、メモリ回路206より読み出した被写体情報である。変調器202は、入力された通信データを変調して、送信アンテナ201を通して無線で送信する。これにより、撮像装置100の受信アンテナ211は、通信データを受信する。次に、復調器212は、受信アンテナ211が受信した通信データを復調して、CPU124へ通信データを送る。
【0048】
尚、以上に示した無線通信動作に先立って、送信アンテナ213を通して撮像装置100から電磁波を送信することで、電磁誘導にて、電源供給回路207に対して電圧供給を行なう。これにより、電源供給回路207は、ID−TAG151の全体に電源供給を行なう。また、制御回路205は、撮像装置100との通信を行なうと同時に、メモリ回路206に対してデータの読み出し書き込みを行なう。これにより、制御回路205は、メモリ回路206に記録された被写体情報などのデータを外部に発信することができる。
【0049】
次に、電源を内蔵しないID−TAG151と、それに対応するアンテナ141および変復調器140の詳細な構成例について説明する。
図3は、電源を内蔵するID−TAG151と、それに対応するアンテナ141および変復調器140の詳細な構成例を示す図である。図3に示すように、ID−TAG151は、例えば電池などの電源301を備える構成である。これにより、上述した電源301を内蔵しないID−TAG151と比べて、撮像装置100から電源供給用の電磁波を送信しなくてもID−TAG151全体に電圧を供給することができる。
【0050】
尚、図3のID−TAG151は、図2に示したID−TAG151と比べて、電源供給回路207の替わりに電源301を内蔵している以外は、同じ構成であり説明を省略する。また、図3に示した撮像装置100は、上述したようにID−TAG151全体に電圧を供給する電磁波を送信する機能を備えなくてもよい。
【0051】
次に、撮像装置100が、撮影する画像の種類(動画または静止画)に応じて、被写体情報の格納場所や、被写体情報の検出タイミングを変更する動作について説明する。
まず、画像の種類に応じた被写体情報の格納場所について説明する。図4は、静止画ファイルや動画ファイルに被写体情報を書き込むにあたり、書き込む場所を説明する図である。尚、静止画ファイルは、撮像装置100が静止画像撮影モードでの撮影において生成する画像ファイルであり、動画ファイルは、撮像装置100が動画像撮影モードでの撮影において生成する画像ファイルである。
【0052】
まず、図4に示す静止画ファイル41のファイル構成について説明する。静止画ファイル42は、JPEGフォーマット等で圧縮された静止画データ41b本体に加えて、ヘッダ部分41aが存在するファイル構成である。このヘッダ部分41aにメタデータが格納される。このメタデータには、例えば、インデックスを示す画像情報であるサムネイルや、静止画像を撮影した日時情報、静止画像を記録した日時情報、静止画像のファイル名等と共に、被写体情報も記録される。
【0053】
次に、図4に示す動画ファイル42のファイル構成について説明する。動画ファイル42は、MPEGのフォーマット等で圧縮された動画ファイルであり、動画データ42b本体に対して、ヘッダ42aとフッタ42cの領域がある。このヘッダ42aおよびフッタ42cの領域に、メタデータが記録可能である。ヘッダ42aやフッタ42cに記録されるメタデータは、上述した静止画のヘッダ部分41aに格納されるメタデータと同様の情報に加えて、動画特有の時間に関する情報等が加わる。
【0054】
また、動画データ42b本体の構造は、フレーム内だけで圧縮が完結するIピクチャ、過去のIピクチャやPピクチャから予測符号化するPピクチャ、前後のIピクチャとPピクチャから予測符号化するBピクチャで構成される。また、Iピクチャ、Pピクチャ、Bピクチャがそれぞれ所定のフレーム数あつまってGOP(Group of Pictures)を構成する。このGOPが複数集まって、一つの動画データ42b本体になる。
【0055】
次に、撮像装置100における、撮影する画像の種類に応じた被写体情報の検出タイミングについて説明する。
まず、静止画撮影モードの場合は、一枚づつ静止画を撮影するので、その検出タイミングは、一回の撮影につき一回だけ被写体情報を検出する。すなわち、撮像装置100は、一回の撮影で一度だけ被写体情報を検出してメタデータとして、静止画のヘッダ部分41aにそのメタデータを格納する。
【0056】
これに対して、動画撮影モードの場合は、所定時間の撮影を行なうため、撮像装置100は、連続して被写体情報を検出し続ける必要がある。しかし、連続して検出しつづけることは、消費電力や処理能力的に大変なので、現実的ではない。そこで、本実施形態の撮像装置100は、動画撮影モード時に被写体情報の検出を一定時間の間隔ごとに行なう。具体的には、撮像装置100は、GOP区間ごとに被写体情報の検出を行い、そのGOP区間で検出された被写体情報は、GOP先頭のIフレームに同期して埋め込む。
【0057】
尚、上述した検出タイミングは一例であり、この限りではない。例えば、被写体情報の検出の間隔は、複数GOP間隔でも構わない。更に、モーションJPEGやDV(デジタル ビデオ)圧縮のような全てフレーム内で完結する動画圧縮方式の動画ファイルを撮影する場合では、撮像装置は、所定のフレーム間隔で被写体情報を検出しても構わない。また、メタデータを記録する場所は、Iフレーム以外のたとえばGOPヘッダでも構わないし、フッタ42cの中にIフレームと関連付けて記録しても構わないし、その他、動画ファイルの一部であればどこでも構わない。
【0058】
さらに、1カットの動画を撮影し終わった時点で、撮像装置100は、全動画撮影時間に、一回でも登場したすべての被写体情報を列挙したり、全動画撮影時間に連続して登場した被写体情報などを、動画ファイル42のフッタ42c部分に格納したりする。尚、上述した被写体情報の格納場所は、フッタ42cに限定されるものではなく、ヘッダ42aでも構わないし、ヘッダ42aおよびフッタ42cの両方の領域に、被写体情報ごとに分けて記録しても構わない。
【0059】
次に、図1に示した撮像装置100が、静止画撮影モードで被写体情報を検出する処理のアルゴリズムについて説明する。
図5は、図1に示した撮像装置100が、静止画撮影モードで被写体情報を検出する処理を示すフロー図である。まず、ステップS401において、撮像装置100は、静止画撮影モードでの撮影を開始する。
【0060】
次に、ステップS402において、撮像装置100は、操作スイッチ122に含まれるシャッターボタンが半押しされた否かを判別する。ここで、シャッターボタンが半押しされたと判別した場合(ステップS402のNo)には、撮像装置100は、ステップS402を繰り返す。また、シャッターボタンが半押しされたと判別した場合(ステップS402のYes)には、撮像装置100は、ステップS403およびステップS404へと進む。ステップS403において、撮像装置100は、上述したように被写体情報の検出を行なう。これと平行して、ステップS404において、撮像装置100は、自動焦点調節や自動露出調節を行なう。
【0061】
次に、ステップS405において、撮像装置100は、シャッターボタンが全押しされたか否かを判別する。ここで、シャッターボタンが全押しされたと判別した場合(ステップS405のNo)には、撮像装置100は、ステップS405を繰り返す。また、シャッターボタンが全押しされたと判別した場合(ステップS405のYes)には、撮像装置100は、ステップS406へ進み、静止画の撮影を行なう。次に、ステップS407に進み、撮像装置100は、静止画の撮影に伴い被写体150に関連付ける被写体情報の抽出を行なう。尚、この被写体情報の抽出は、上述したように、撮像装置100が、無線通信により被写体150のID−TAG151より被写体情報を取得することで実現している。
【0062】
次に、ステップS408に進み、撮像装置100は、抽出した被写体情報(抽出情報)をメタデータとして、撮影した画像(静止画データ)と一緒に、画像記録用メモリカード130に記録する。以上により、ステップS409に進み、撮像装置100は、静止画像モードでの撮影処理を終了する。以上により、撮影像値100は、静止画撮影時に静止画データに被写体情報を含むメタデータを関連付けて画像記録用メモリカード130に記録することができる。
【0063】
次に、図1に示した撮像装置100が、動画撮影モードで被写体情報を検出する処理のアルゴリズムについて説明する。
図6は、図1に示した撮像装置100が、動画撮影モードで被写体情報を検出する処理を示すフロー図である。まず、ステップS501において、撮像装置100は、動画撮影モードでの撮影を開始する。
【0064】
次に、ステップS502において、撮像装置100は、撮影開始操作が行われたかどうかの判別を行なう。ここで、撮影開始動作が行われていないと判別した場合(ステップS502のNo)には、撮像装置100は、ステップS502を繰り返す。また、撮影開始動作が行われたと判別した場合は、ステップS503およびS504へ進む。ステップS503において、撮像装置100は、上述した処理により被写体情報の検出を行なう。また、ステップS504において、撮像装置100は、自動焦点調節や自動露出調節を行なう。但し、ステップS504の処理は、動画撮影中に行なわれる処理であり、撮像装置100が図6のステップS503〜S508を実行している間(動画撮影を行っている間)は継続的に行なわれる処理である。
【0065】
次に、ステップS505において、撮像装置100は、MPEG形式での動画撮影を開始して、動画データの生成を行なう。次に、ステップS506において、撮像装置100は、1つのGOPの撮影が完了したかどうかの判別を行なう。ここで、1つのGOPの撮影が完了していない場合(ステップS506のNo)には、撮像装置100は、ステップS505に戻る。また、1つのGOP撮影が完了した場合(ステップS506のYes)には、撮像装置100は、ステップS507へ進み、ステップS503で検出した被写体情報を、直前に撮影済みのGOP内のメタデータに埋め込む。以上により、撮像装置100は、GOP単位でメタデータに被写体情報を含ませることができる。
【0066】
次に、ステップS508に進み、撮像装置100は、撮影終了操作が行われたかどうかの判別を行なう。ここで、撮影終了操作が行われていないと判別した場合(ステップS508のNo)は、撮像装置100は、ステップS503へと戻り次のGOP撮影のために被写体情報の検出を行なう。また、撮影終了操作が行われたと判別した場合(ステップS508のYes)には、ステップS509へと進み、撮像装置100は、撮影開始操作から撮影終了操作までの間に検出されたすべての被写体情報をフッタ42c内おメタデータ領域に埋め込み、画像記録用メモリカード130に記録する。以上により、ステップS510において、撮像装置100は、動画撮影モードでの撮影処理を終了する。
【0067】
以上に示したように、本実施形態における撮像装置100は、静止画または動画などの画像の種類に応じて、最適なタイミングで被写体情報の検出を行ない、最適な場所にデータを格納することができる。特に、被写体情報の検出の処理では、撮像装置100は、無線通信により被写体150の有するID−TAG151より任意のタイミングで被写体情報を取得することができる。また、動画の撮影時には、撮像装置100は、定期的に被写体150の有するID−TAG151と無線通信を行なって、被写体情報を取得することができる。
【0068】
次に、図1に示した撮像装置100が、動画再生モードで被写体情報を検索しながら再生する処理のアルゴリズムについて説明する。尚、以下の説明においては、動画を再生するにあたり、被写体情報を用いることで、ユーザが視聴希望被写体を指定して、視聴希望被写体のシーンのみを抽出して動画再生する実施例を説明する。
【0069】
図7は、図1に示した撮像装置100が、動画再生モードで被写体情報を検索しながら再生する処理を示すフロー図である。まず、ステップS601において、撮像装置100は、動画再生モードでの動画再生を開始する。
【0070】
次に、ステップS602において、撮像装置100は、動画ファイル42のフッタ42cから、記録されている全被写体情報を抽出する。次に、ステップS603において、撮像装置100は、抽出した全被写体情報から全被写体リストを作成してディスプレイ127に表示する。次に、ステップS604において、撮像装置100は、表示した全被写体リストから視聴希望被写体を選択するようユーザに促す。これにより、ユーザは、ディスプレイ127に表示された全被写体リストから視聴希望被写体を操作スイッチ122などからの操作により選択することができる。
【0071】
ここで、ユーザにより視聴希望被写体が選択されると、ステップS605に進み、撮像装置100は、再生ポインタを先頭GOPに移動させて動画再生の準備(初期化)を行なう。次に、ステップS606において、撮像装置100は、GOP内のメタデータ領域から被写体情報を抽出する。次に、ステップS607において、撮像装置100は、視聴希望被写体とGOP内から抽出された被写体情報を比較することで、GOP内に視聴希望被写体が存在するか否かの判別を行なう。
【0072】
ここで、GOP内に視聴希望被写体が存在しないと判別した場合(ステップS607のNo)には、ステップS608へ進み、撮像装置100は、再生ポインタを次のGOPへと移動させ、再びステップS606に戻る。また、視聴希望被写体が存在すると判別した場合(ステップS607のYes)には、ステップS609へ進み、撮像装置100は、再生ポインタのGOPの再生を開始する。次に、ステップS610で操作スイッチ122に含まれるスキップボタン(不図示)が押されたか否かの判別を行なう。
【0073】
ここで、スキップボタンが押されたと判別した場合(ステップS610のYes)には、撮像装置100は、ステップS608に進む。また、スキップボタンが押されていないと判別した場合(ステップS610のNo)には、ステップS611へと進み、撮像装置100は、再生中のGOPが終了したか否かを判別する。ここで、再生中のGOPが終了していると判別した場合(ステップS611のYes)には、撮像装置100は、ステップS608に進む。また、再生中のGOPが終了していないと判別した場合(ステップS611のNo)には、撮像装置100は、ステップS610に戻る。
【0074】
以上に示したように、本実施形態の撮像装置100は、動画を再生するにあたり、メタデータに埋め込まれた被写体情報を用いることで、ユーザが視聴希望被写体を指定でき、指定された視聴希望被写体のシーンのみを抽出して動画再生することができる。これにより、メタデータに埋め込まれた被写体情報を有効に活用することができる。
【0075】
尚、上述した本実施形態において、視聴希望被写体は一つでも構わないし複数でも構わない。また、視聴希望被写体の特定の方法は、商品とか人物などのうち固有の被写体を特定しても構わないし、人物一般とか商品一般などの分類を表すもので特定しても構わないし、被写体の製造(生年)年月日や特性などの分類で特定でも構わないし、その他、被写体情報で得られる情報ならばどのように特定しても構わない。
【0076】
また、上述した本実施形態では、GOP単位で再生する/しないの判定を行ったが、この限りではなく、複数のGOP単位で再生の可否を判定しても構わない。更には、GOPにとらわれずに、もっと短い単位や、もっと長い単位で再生の可否を判定しても構わない。
【0077】
次に、図1に示した撮像装置100が動画編集モードで被写体情報を利用して編集する場合の、編集前後の動画ファイルのファイル構成について説明する。尚、被写体情報を利用する編集とは、ユーザが被写体情報を利用して編集希望被写体を指定して、編集希望被写体のシーンのみを抽出して動画編集することである。
【0078】
図8は、編集前の動画ファイル42のファイル構成および編集後の動画ファイル43のファイル構成を示す図である。図8に示すように、編集前の動画ファイル42は、図4に示したものと同様に、ヘッダ42aと動画データ42bとフッタ42cとから構成される。また、動画データ42bは、GOP1・b1、GOP2・b2、GOP3・b3、…、GOPn・bn(図8においてnは8以上の整数)のn個のGOPが並ぶ構成である。尚、図8に示したnは8以上の整数であったが、この限りではなく、GOPの数に応じて、nは2以上の整数であればよい。
【0079】
また、編集後の動画ファイル43は、ヘッダ43a、編集動画データ43b、フッタ43cより構成される。上述した編集前の動画ファイル42を編集希望被写体の有無に応じてGOP単位で編集することにより、編集後の動画ファイル43が生成される。本実施例では、編集前の動画ファイル42の動画データ42bにおいて、編集希望被写体が含まれているGOPとして、GOP1・b1、GOP3・b3、GOP5・b5、GOP6・b6、…、GOPn・bnが検索されたとする。これにより、編集後の動画ファイル43の編集動画データ43bは、GOP1・b1、GOP3・b3、GOP5・b5、GOP6・b6、…、GOPn・bnを含む構成となる。
【0080】
次に、図1に示した撮像装置100が、動画編集モードで被写体情報を利用して動画ファイルを編集する際の処理のアルゴリズムについて説明する。尚、被写体情報を利用する編集とは、ユーザが被写体情報を利用して編集希望被写体を指定して、編集希望被写体のシーンのみを抽出して動画編集することである。
図9は、図1に示した撮像装置100が、動画再生モードで被写体情報を利用して動画ファイルを編集する際の処理を示すフロー図である。まず、ステップS801において、撮像装置100は、動画編集モードでの編集を開始する。
【0081】
次に、ステップS802において、撮像装置100は、動画ファイル42のフッタ42cから、記録されている全被写体情報を抽出する。次に、ステップS803において、撮像装置100は、抽出した全被写体情報から全被写体リストを作成してディスプレイ127に表示する。次に、ステップS804において、撮像装置100は、表示した全被写体リストから編集希望被写体を選択するようユーザに促す。これにより、ユーザは、ディスプレイ127に表示された全被写体リストから編集希望被写体を操作スイッチ122などからの操作により選択することができる。
【0082】
ここで、ユーザにより編集希望被写体が選択されると、ステップS805に進み、撮像装置100は、編集ポインタを先頭GOPに移動させて動画編集の準備(初期化)を行なう。次に、ステップS806において、撮像装置100は、GOP内のメタデータ量域から被写体情報を抽出する。次に、ステップS807において、撮像装置100は、編集希望被写体とGOP内から抽出された被写体情報を比較することで、GOP内に編集希望被写体が存在するか否かの判別を行なう。
【0083】
ここで、GOP内に編集希望被写体が存在しないと判別した場合(ステップS807のNo)には、ステップS809へと進む。また、GOP内に視聴希望被写体が存在すると判別した場合(ステップS807のYes)には、ステップS808へ進み、撮像装置100は、編集動画データ43bに編集ポインタの指すGOPを加える。次に、ステップS809において、撮像装置100は、最終GOPに到達したか否かの判別を行なう。
【0084】
ここで、最終GOPに到達していないと判別した場合(ステップS809のNo)には、ステップS810へ進み、撮像装置100は、編集ポインタを次のGOPに移動させ、ステップS806に戻る。また、最終GOPに到達したと判別した場合(ステップS809のYes)には、ステップS811へ進み、撮像装置100は、編集済み動画ファイル43にヘッダ43aおよびフッタ43cを付加する。以上により、撮像装置100は、図8に示した編集後の動画ファイル43を生成する。次に、ステップS812に進み、撮像装置100は、動画編集モードでの編集を終了する。
【0085】
以上に示したように、本実施形態の撮像装置100は、動画を編集するにあたり、メタデータに埋め込まれた被写体情報を用いることで、ユーザが編集希望被写体を指定でき、指定された編集希望被写体のシーンのみを抽出して動画編集することができる。これにより、メタデータに埋め込まれた被写体情報を有効に活用することができる。
【0086】
次に、図1に示した撮像装置100が、画像の表示と合わせて被写体情報を表示する場合の表示例について説明する。図10(a)〜(c)は、図1に示した撮像装置100が、画像の表示と合わせて被写体情報を表示する場合の表示例を示す図である。図10(a)〜(c)に示すように、撮像装置100は、被写体情報をスーパーインポーズでディスプレイ127に表示している。また、図10(a)〜(c)に示すように、撮像装置100は、再生する被写体に応じた被写体情報をディスプレイ127に表示している。
【0087】
図10(a)は、人物の集合写真の表示例を示す図である。図10(a)に示すように、集合写真に写っている各人物の名前の一覧である被写体情報91がスーパーインポーズで表示されている。これは、撮像装置100が、撮影時に各個人に付いているID−TAGと無線通信を行い、各個人の属性情報(=被写体情報)を検出してメタデータに埋め込み集合写真の画像データと関連付けて画像記録用メモリカード130に格納することで実現できる。すなわち、撮像装置100は、集合写真の再生時に、メタデータに埋め込まれた被写体情報より各人物の名前情報を特定して、集合写真に登場する人物の名前を被写体情報91としてスーパーインポーズで表示している。
【0088】
図10(b)は、動物園での動物(ライオン)を撮影した画像の表示例を示す図である。図10(b)に示すように、動物の名前、種類、年齢、その他の事項などの一覧である被写体情報92がスーパーインポーズで表示されている。これは、撮像装置100が、撮影時に、ライオン(またはライオンが入っている檻)に付いているID−TAGと無線通信を行い、動物(ライオン)の名前、種類、年齢、その他の事項などの被写体情報を抽出して、メタデータに埋め込みライオンの画像データと関連付けて画像記録用メモリカード130に格納することで実現できる。すなわち、撮像装置100は、ライオンの画像の再生時に、画像データのメタデータに埋め込まれた被写体情報よりライオンに関する情報を特定して、スーパーインポーズで被写体情報92を表示している。
【0089】
図10(c)は、商品を撮影した画像の表示例を示す図である。図10(c)に示すように、商品の情報(型番、種類、価格、性能、商品スペックなど)などの一覧である被写体情報93がスーパーインポーズで表示されている。これは、撮像装置100が、撮影時に、商品についているID−TAGから商品の情報(型番、種類、価格、性能、商品スペックなど)である被写体情報を抽出して、メタデータに埋め込み商品の画像データと関連付けて画像記録用メモリカード130に格納することで実現できる。これにより、ユーザは手間をかけて調べること無しに、商品に関する情報をスーパーインポーズで表示することが可能になる。尚、図10(c)の表示例は、インターネットオークションなどに出品する際に掲示する商品画像などに利用して好適である。
【0090】
以上に示したように、本実施形態の撮像装置100は、画像再生時に被写体情報を抽出して画像表示と合わせて被写体情報の表示を行なうことができる。これにより、メタデータに埋め込まれた被写体情報を有効に活用することができる。尚、上述した実施形態においては、ディスプレイ127に被写体情報をスーパーインポーズする表示方法を示したが、この限りではなく、例えば、プリンタに印刷するときにスーパーインポーズで被写体情報を合わせて印刷しても構わない。
【0091】
次に、図1に示した撮像装置100が、被写体情報を利用してファイル検索を行なう場合のアルゴリズムについて説明する。
図11は、図1に示した撮像装置100が、被写体情報を利用してファイル検索を行なう処理を示すフロー図である。まず、ステップS1001において、撮像装置100は、再生モードにおいて被写体情報を利用したファイル検索を開始する。尚、以下の説明において、画像ファイルとは画像記録用メモリカード130に記録されている静止画ファイルまたは動画ファイルのことを示す。また、上述した再生モードとは、静止画再生モードまたは動画再生モードのことを示す。
【0092】
次に、ステップS1002において、撮像装置100は、全画像ファイルのヘッダから、記録されている全被写体情報を抽出する。次に、ステップS1003において、撮像装置100は、抽出した全被写体情報から全被写体リストを作成してディスプレイ127に表示する。次に、ステップS1004において、撮像装置100は、表示した全被写体リストから閲覧希望被写体を選択するようユーザに促す。これにより、ユーザは、ディスプレイ127に表示された全被写体リストから閲覧希望被写体を操作スイッチ122などからの操作により選択することができる。
【0093】
ここで、ユーザにより閲覧希望被写体が選択されると、ステップS1005に進み、撮像装置100は、再生ポインタを先頭画像ファイルに移動させてファイル検索の準備を行なう。次に、ステップS1006に進み、撮像装置100は、現在ポイントされている画像ファイルのヘッダから被写体情報を抽出する。次に、ステップS1007において、撮像装置100は、選択された閲覧希望被写体と、抽出した被写体情報と比較することで、ファイル内に閲覧希望被写体が存在するか否かの判別を行なう。
【0094】
ここで、閲覧希望被写体が存在しないと判別した場合(ステップS1007のNo)には、撮像装置100は、ステップS1008へ進み、再生ポインタを次の画像ファイルへと移動し、ステップS1006へと戻る。また、閲覧希望被写体が存在すると判別した場合(ステップS1007のYes)には、ステップS1009へ進み、撮像装置100は、再生ポインタの画像ファイルの再生を始める。次に、ステップS1010において、撮像装置100は、操作スイッチ122に含まれるスキップボタンが押されたか否かを判別する。ここで、スキップボタンが押された場合(ステップS1010のYes)には、撮像装置100は、ステップ008へと進む。また、スキップボタンが押されない場合(ステップS1010のNo)には、ステップS1009へと進み、撮像装置100は、現在の画像ファイルの再生を継続する。
【0095】
以上に示したように、本実施形態の撮像装置100は、画像ファイルを再生するにあたり、メタデータに埋め込まれた被写体情報を用いることで、ユーザが閲覧希望被写体を指定でき、指定された閲覧希望被写体を含む画像ファイルのみを抽出して再生することができる。これにより、メタデータに埋め込まれた被写体情報を有効に活用することができる。
【0096】
また、図5〜7、図9および図11に示した撮像装置100の各種処理は、専用のハードウェアにより実現されるものであってもよく、また、各処理の一部または全部は、メモリ(RAM125やフラッシュメモリ126)およびCPU124により構成され、各種処理を実現する為のプログラムをメモリに読み込んで実行することによりその処理を実現させるものであってもよい。
また、上記メモリは、ハードディスク装置や光磁気ディスク装置、フラッシュメモリ等の不揮発性のメモリや、CD−ROM等の読み出しのみが可能な記録媒体、RAMのような揮発性のメモリ、あるいはこれらの組み合わせによるコンピュータ(CPU124)読み取り、書き込み可能な記録媒体より構成されてもよい。
【0097】
また、コンピュータが読み出したプログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の各種制御回路の機能が実現される場合も含まれる。
【0098】
さらに、記憶媒体から読み出されたプログラムコードが、撮像装置100に挿入された機能拡張ボードや撮像装置100に接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示にもとづき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって図5〜7、図9および図11に示した各種処理の機能が実現されてもよい。
【0099】
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
以上説明したように、本実施形態の撮像装置および撮像方法によれば、被写体を撮像して動画像データを出力して、所定期間毎に被写体より被写体に関する属性情報を被写体に対して非接触で検出して、出力した動画像データと検出した属性情報とを記録媒体に記録するので、例えば、無線通信を利用して被写体より属性情報(被写体情報)を取得することで、撮影時にメタデータに属性情報(被写体情報)を埋め込むことを容易に行なうことができる。
また、本実施形態の撮像装置および撮像方法によれば、静止画・動画の撮影時に、最適なタイミングで被写体の無線チップから被写体情報検出を行い、最適な場所に被写体情報を格納することができる。
更に、本実施形態の撮像装置および撮像方法によれば、メタデータに埋め込まれた被写体情報を有効に活用することができる。
【0100】
【発明の効果】
以上説明したように、本発明の撮像装置および撮像方法によれば、撮影時にメタデータに属性情報(被写体情報)を埋め込むことを容易に行なうことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態である撮像装置の概略構成を示す図である。
【図2】図1に示した電源を内蔵しないID−TAG151と、それに対応するアンテナ141および変復調器140の詳細な構成例を示す図である。
【図3】電源を内蔵するID−TAG151と、それに対応するアンテナ141および変復調器140の詳細な構成例を示す図である。
【図4】静止画ファイルや動画ファイルに被写体情報を書き込むにあたり、書き込む場所を説明する図である。
【図5】図1に示した撮像装置100が、静止画撮影モードで被写体情報を検出する処理を示すフロー図である。
【図6】図1に示した撮像装置100が、動画撮影モードで被写体情報を検出する処理を示すフロー図である。
【図7】図1に示した撮像装置100が、動画再生モードで被写体情報を検索しながら再生する処理を示すフロー図である。
【図8】編集前の動画ファイル42のファイル構成および編集後の動画ファイル43のファイル構成を示す図である。
【図9】図1に示した撮像装置100が、動画再生モードで被写体情報を利用して動画ファイルを編集する際の処理を示すフロー図である。
【図10】図1に示した撮像装置100が、画像の表示と合わせて被写体情報を表示する場合の表示例を示す図である。
【図11】図1に示した撮像装置100が、被写体情報を利用してファイル検索を行なう処理を示すフロー図である。
【符号の説明】
100 撮像装置
101 レンズユニット
102 ズームレンズ
103 絞り
104 フォーカスレンズ
105 ズームモータ
106 アイリスモータ
107 フォーカスモータ
108 撮像素子
109 撮像信号処理回路
110 撮像部制御器
111 オートフォーカス検出回路
121 バス
122 操作スイッチ
123 画像圧縮解凍器
124 CPU
125 RAM
126 フラッシュメモリ
127 ディスプレイ
128 メモリインターフェース
129 コネクタ
130 画像記録用メモリカード
150 被写体
151 ID−TAG
201 送信アンテナ
202 変調器
203 受信アンテナ
204 復調器
205 制御回路
206 メモリ回路
207 電源供給回路
41 静止画ファイル
41a ヘッダ
41b 静止画データ
42 動画ファイル
42a ヘッダ
42b 動画データ
42c フッタ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging apparatus such as a video camera or a digital camera, and an imaging method thereof.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as an image recording / reproducing apparatus for recording a moving image or a still image and reproducing the recorded image, a digital VTR (Video Tape Recorder) that converts an image signal into a digital signal and then sequentially records it on a magnetic tape. There is. On the other hand, in order to facilitate data handling, recently, image recording / playback of digital VTRs, digital cameras, etc. that can record moving images and still images on random access media such as memory cards. Devices have also been developed and are becoming popular.
[0003]
In the image recording / reproducing apparatus described above, the input digital signal is subjected to compression processing in order to reduce the amount of information, and a large amount of image information and still image information can be recorded with a small storage capacity. There are various compression methods for such an image recording / reproducing apparatus. For example, in the DCT (Discrete Cosine Transform) method, an image is divided into a plurality of blocks, orthogonal transformation is performed on each block, and each coefficient is rounded to a predetermined number of bits for quantization. In this processing, since the image information is biased toward a low frequency, the data amount can be reduced by reducing the number of bits of the high frequency component. There is also a method of performing quantization after subbanding using wavelet transform instead of the DCT method. In addition to this, variable length coding such as Huffman coding is performed, and a code having a shorter length is assigned to a bit sequence having a higher occurrence probability, thereby enabling efficient data compression. .
[0004]
Furthermore, when compressing a moving image, it is possible to further compress the moving image by extracting the difference between frames using the property that the moving image has a strong correlation between frames. It becomes possible.
[0005]
Combining the above-mentioned various compression techniques to compress moving images and still images, reducing the amount of data, and then recording to a random access media semiconductor memory card, solid magnetic disk memory or optical disk memory, This is a recent digital image recording / reproducing apparatus (digital video camera or digital camera).
[0006]
In these video cameras and digital cameras, an attempt has been made not only to shoot video, but to take advantage of the characteristic that the captured image is electronic data to take it one step further. Conventionally, various information can be added to an electronic image (photographed data) that is electronic data. This additional information is generally referred to as metadata. In general, the metadata includes the shooting state and characteristics of the digital camera, the shooting date and time, the type of the digital camera, and the like.
[0007]
From the viewpoint of how to use the above-described digital camera and digital video camera, they are used for various purposes, not just photographing. One of the uses is product photography. When selling products on the Internet or the like, it is necessary to publish electronic images for product description on the homepage. In order to exhibit products at Internet auctions, not only people who specialize in business but also general people are increasingly shooting products with digital cameras. The electronic image of this product includes not only the image but also the information on the subject, such as the manufacturer and type of the product, the specific product code, It is desired to easily add characteristics and the like.
[0008]
On the other hand, when considering transmission of subject information on a subject, a general product or the like can conventionally be identified electronically by providing a barcode or the like. On the other hand, recently, a wireless chip (or wireless chip IC (Integrated Circuit)) called ID-TAG is pasted, an amount of information more than a barcode is incorporated, and information on the product (from the ID-TAG ( Attempts to receive (metadata) wirelessly have been made and are being put into practical use.
[0009]
Attempts to incorporate this wireless chip (ID-TAG) have been made not only in products but also in various fields. For example, a system has been developed that embeds a wireless chip in creatures such as pet animals and performs individual management. ing. In addition, a movement to embed wireless chip ICs in humans and manage their health has begun.
[0010]
As such a technique, for example, a system for confirming an object and object data has been disclosed (see, for example, Patent Document 1).
[0011]
[Patent Document 1]
JP 2000-261551 A
[0012]
[Problems to be solved by the invention]
However, there is a problem that it is difficult to embed in the metadata at the same time as photographing because the information on the subject desired to be embedded in the metadata is not information existing in the imaging apparatus. Therefore, after shooting, a method of embedding subject information in the metadata by the photographer inputting it from the outside, or by pre-loading subject information in the imaging device and embedding the information in the metadata at the same time as shooting. Some methods such as methods are conceivable, but none of them is practical.
[0013]
The present invention has been made in view of the above problems, and an object thereof is to provide an imaging apparatus and an imaging method that can easily embed subject information in metadata at the time of shooting.
[0014]
[Means for Solving the Problems]
The present invention has been made to solve the above-described problems. In the imaging apparatus according to the present invention, imaging means for imaging a subject and outputting moving image data, and attribute information about the subject from the subject at predetermined intervals. Attribute information detecting means for detecting a subject in a non-contact manner, and recording means for recording moving image data output by the imaging means and attribute information detected by the attribute information detecting means on a recording medium. To do.
[0015]
The imaging device according to the present invention is an imaging device that captures and records a moving image and a still image, an imaging unit that images a subject and outputs image data of the moving image or the still image, and a subject Attribute information detecting means for detecting attribute information relating to the subject in a non-contact manner with respect to the subject, recording means for recording the image data output by the imaging means and the attribute information detected by the attribute information detecting means on a recording medium, and a still image Mode switching means for switching between still image shooting mode for shooting images and moving image shooting mode for shooting moving images, and when shooting and recording still images in still image shooting mode, The attribute information detecting means is controlled so as to detect the attribute information in synchronization with shooting, and the detected attribute information is recorded on the recording medium in association with each screen of the still image. When the moving image is shot and recorded in the moving image shooting mode, the attribute information detecting unit is controlled to detect the attribute information every predetermined period, and the detected attribute information is converted into the moving image. And a control means for controlling the recording means to record the information on the recording medium in association with each other.
[0016]
The imaging method according to the present invention is an imaging method using an imaging device that captures and records a moving image, the first step of imaging a subject and outputting moving image data, and the subject every predetermined period. A second step of detecting attribute information related to the subject in a non-contact manner with respect to the subject, a moving image data output in the first step, and attribute information detected in the second step are recorded on a recording medium. These steps are included.
[0017]
The imaging method according to the present invention is an imaging method using an imaging device that captures and records a moving image in the moving image capturing mode and captures and records a still image in the still image capturing mode. The first step of outputting moving image data, the second step of detecting attribute information about the subject from the subject in a non-contact manner for each predetermined period, and the moving image data output in the first step And a third step of recording the attribute information detected in the second step on a recording medium, and a still image is captured and recorded in the still image shooting mode, it is included in the still image screen. The second step is controlled so that the attribute information of the subject is detected in synchronization with the shooting, and the detected attribute information is recorded on the recording medium in association with each screen of the still image. When the moving image is shot and recorded in the moving image shooting mode, the second step is controlled to detect the attribute information every predetermined period, and the detected attribute information corresponds to the moving image. In addition, the third step is controlled so as to record on the recording medium.
[0022]
Accordingly, in the imaging apparatus and imaging method of the present invention, the subject is imaged and moving image data is output, and attribute information related to the subject is detected from the subject in a non-contact manner for each predetermined period and output. Since the moving image data and the detected attribute information are recorded on a recording medium, for example, attribute information (subject information) is acquired from the subject using wireless communication, so that the attribute information (subject information) is recorded in the metadata at the time of shooting. ) Can be easily embedded.
[0023]
Further, in the imaging apparatus and imaging method of the present invention, a process of imaging a subject and outputting moving image data, a process of detecting attribute information about the subject from the subject in a non-contact manner with respect to the subject for each predetermined period, When the imaging apparatus executes the process of recording the output moving image data and the detected attribute information on the recording medium, when shooting and recording a still image in the still image shooting mode, the still image screen is displayed. Control is performed to detect the attribute information of the included subject in synchronization with shooting, and control is performed to record the detected attribute information in a recording medium in association with each screen of the still image. When shooting and recording, control is performed to detect attribute information every predetermined period, and control is performed to record the detected attribute information in a recording medium in association with a moving image. Alternatively, at the time of shooting a movie, the attribute information (subject information) is detected from the wireless chip of the subject at an optimal timing according to the type of image to be shot, and the attribute information (subject information) is stored in an optimal location on the recording medium. be able to.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following embodiment, what is expressed as an image includes both a still image and a moving image, and the compression method of the image, the size of the image data, and the like are also of a specific type. It is not limited to.
First, a schematic configuration of an imaging apparatus that is an embodiment of the present invention will be described.
[0025]
FIG. 1 is a diagram showing a schematic configuration of an imaging apparatus according to an embodiment of the present invention. In FIG. 1, reference numeral 100 denotes an imaging device, which has the following configuration capable of capturing an electronic image of a subject 150. Each unit in the imaging apparatus 100 (imaging signal processing circuit 109, imaging unit controller 110, operation switch 122, image compression / decompression unit 123, CPU (Central Processing Unit) 124, RAM (Random Access Memory) 125, flash memory 126, The display 127, the memory interface 128, and the modem 140 are connected via a bus 121. Each unit of the imaging apparatus 100 is controlled by the CPU 124 via the bus 121.
[0026]
The lens unit 101 includes a zoom lens 102, a zoom motor 105, a diaphragm (iris) 103, an iris motor 106, a focus lens 104, and a focus motor 107. In addition, the zoom motor 105, the iris motor 106, the focus motor 107, the image sensor 108, the image signal processing circuit 109, and the autofocus detection circuit 111 in the image signal processing circuit 109 in the lens unit 101 are image capturing units controlled by the CPU 124. It is controlled by the controller 110.
[0027]
The memory interface 128 performs processing for writing image data to the image recording memory card 130 via the connector 129 and processing for reading image data from the image recording memory card 130 via the connector 129. Also, the modem 140 can transmit and receive information to and from the ID-TAG (wireless chip) 151 of the subject 150 via the antenna 141.
[0028]
First, the operation at the time of starting the imaging apparatus 100 will be described. When the imaging apparatus 100 is activated, the activation program stored in the flash memory 126 is loaded into a part of the RAM 125, and the CPU 124 operates according to the activation program loaded in the RAM 125. Note that the CPU 124 may execute the activation program on the flash memory 126. Further, the startup program loaded into the RAM 125 may be stored in a ROM (Read Only Memory) or the like.
[0029]
The operation modes of the imaging apparatus 100 in the present embodiment include, for example, a moving image shooting mode for shooting a moving image, a still image shooting mode for shooting a still image, a moving image playback mode for playing back a moving image, and a still image. There are five types of still image playback mode for playback and moving image editing mode for editing moving images. Before starting, one of the operation modes is designated by the operation mode switch (mode switching means) included in the operation switch 122 and started. As a result, the activation program corresponding to each operation mode is executed.
[0030]
Next, a lens control operation for the lens unit 101 of the imaging unit controller 110 will be described. The imaging unit controller 110 drives the iris motor 106 so that the exposure to the subject 150 is optimal, and performs AE (automatic exposure) adjustment for adjusting the diaphragm 103. That is, in accordance with the AE adjustment of the imaging unit controller 110, the iris motor 106 adjusts the aperture of the diaphragm 103 to adjust the exposure. At this time, the iris motor 106 returns the adjusted aperture of the diaphragm 103 to the imaging unit controller 110.
[0031]
Further, the imaging unit controller 110 uses the output signal of the autofocus detection circuit 111 to drive the focus motor 107 by, for example, hill climbing control and adjust the position of the focus lens 104 so that the focus on the subject 150 is optimized. Perform auto focus adjustment. That is, the focus motor 107 moves the focus lens 104 to optimize the focus on the subject 150 in accordance with the autofocus adjustment of the imaging unit controller 110. At this time, the focus motor 107 returns information regarding the adjusted position of the focus lens 104 to the imaging unit controller 110 at the same time.
[0032]
Further, the imaging unit controller 110 drives the zoom motor 105 to set the position of the zoom lens 102 so that the angle of view set by a zoom switch (not shown) included in the operation switch 122 is obtained. At this time, the zoom motor 105 notifies the imaging unit control circuit 110 of information regarding the position after the zoom lens 102 has moved. Through the operation described above, the imaging unit controller 110 controls the lens unit 101 so as to form an appropriate subject image of the subject 150 on the imaging surface of the imaging element 108. The configuration of the lens unit 101 and the control method for the lens unit 101 are not limited to those described above, and any configuration and control method that can form an appropriate subject image of the subject 150 on the imaging surface of the image sensor 108 may be used. .
[0033]
Next, the imaging operation (moving image shooting mode or still image shooting mode) of the imaging apparatus 100 will be described. Light from the subject 150 is focused on the imaging surface of the imaging element 108 through the lens group of the lens unit 101. The image sensor 108 photoelectrically converts a subject image formed on the imaging surface and outputs an electrical signal (hereinafter referred to as an image signal). The imaging signal processing circuit 109 performs image processing on the image signal output from the imaging element 108 to generate digital moving image data and still image data. The above is the imaging operation of the imaging apparatus 100.
[0034]
The imaging device 100 also performs an image recording operation simultaneously with the imaging operation. Hereinafter, an image recording operation in the imaging apparatus 100 will be described. The image compression / decompression unit 123 performs image compression processing such as JPEG or MPEG on the moving image data and still image data output from the imaging signal processing circuit 109 in accordance with an instruction to record an image from the CPU 124, thereby compressing the moving image data. Image data or compressed still image data is generated. Note that the compressed moving image data or compressed still image data generated by the image compression / decompression unit 123 is temporarily stored in the RAM 125.
[0035]
Next, the compressed moving image data or the compressed still image data stored in the RAM 125 is recorded on the image recording memory card 130 through the memory interface 128 and the connector 129 under the control of the CPU 124. The image recording memory card 130 of the present embodiment may be a non-volatile memory card that is suitable for recording the image data output from the connector 129. Further, the object on which the image capturing apparatus 100 records an image is not limited to the memory card, and instead of the memory card, the image is recorded on a random access medium such as a hard disk, an optical disk, or a magneto-optical disk, or a recording medium such as a magnetic tape. It doesn't matter.
[0036]
Next, information acquisition operation of subject information (attribute information) from the ID-TAG 151 in the imaging apparatus 100 will be described. For example, when an image recording instruction is given by a recording start switch (or a shutter button or the like) included in the operation switch 122, the imaging device 100 starts the above-described imaging operation and lens control operation. At the same time or before or after this, the imaging apparatus 100 supplies power to the ID-TAG 151 of the subject 150 through the antenna 141. As a result, the ID-TAG 151 of the subject 150 is activated when power is supplied and transmits subject information regarding the subject 150. The details of supplying power to the ID-TAG 151 will be described later.
[0037]
Next, the antenna 141 receives subject information transmitted from the ID-TAG 151 and outputs a received signal to the modem 140. Next, the modem 140 outputs digital information demodulated based on the received signal output from the antenna 141 as subject information. Note that the subject information output from the modem 140 is temporarily stored in the RAM 125. In addition, the ID-TAG 151 described above has a configuration in which a power source is not built in, but the present invention is not limited to this, and the ID-TAG 151 may have a built-in power source. As described above, when the ID-TAG 151 has a built-in power supply, the subject information can be received by the antenna 141 without supplying power from the antenna 141. Details of the configuration and the like in the case where the ID-TAG 151 includes a power source and in the case where a power source is not included will be described later.
[0038]
Next, in parallel with the image recording operation described above, the imaging apparatus 100 performs an operation of recording the metadata including the subject information described above on the image recording memory card 130. The metadata is additional information of an image recorded on the image recording memory card 130 as described above. Specifically, the image capturing apparatus 100 captures, as metadata, a thumbnail that is image information indicating an index or an image together with subject information obtained from the ID-TAG 151 via the antenna 141 and the modem 140. The date / time information (or date / time information when the image is recorded), the file name of the image, and the like are recorded in the image recording memory card 130.
[0039]
Also, the subject information recording method may be changed as appropriate in accordance with the type of image (moving image, still image, etc.) to be recorded on the image recording memory card 130 and the data format (JPEG format, MPEG format, etc.).
For example, when moving image data is recorded on the image recording memory card 130, the imaging apparatus 100 detects subject information of the subject 150 via the antenna 141 and the modem 140 at regular intervals, and the moving image data The image is embedded in the row and recorded on the image recording memory card 130. Apart from this, the imaging apparatus 100 includes the detected subject information in the metadata of the image, and also records it in an area for recording metadata such as a footer area and a header area.
[0040]
Here, a specific example of subject information will be described. Information about the subject 150, and subject information stored in the ID-TAG 151 includes the name and type of the subject 150, the manufacturer of the subject 150, a serial number for identifying each subject 150, and the performance, characteristics, and state of the subject 150. The history of the subject 10, the date of manufacture (or date of birth) of the subject 150, the expiration date, the expiration date, the color, and the like. Various information regarding the subject 150 is suitable as the subject information. Furthermore, if the subject is a plurality of fixed objects, information on the relationship with the periphery of the subject such as the positional relationship among the plurality of subjects may be included in the subject information.
[0041]
Next, the operation of reproduction processing in the imaging apparatus 100 will be described. When the imaging apparatus 100 is activated in the reproduction mode (moving image reproduction mode or still image reproduction mode), the activation program stored in the flash memory 126 is loaded into a part of the RAM 125. Next, the CPU 124 starts an operation according to the startup program loaded in the RAM 125. The startup operation is the same as that in the above-described shooting mode.
[0042]
First, the imaging apparatus 100 reads a compressed moving image or a compressed still image image in JPEG format or MPEG format recorded on the image recording memory card 130 to the RAM 125 through the connector 129 and the memory interface 128. Next, the imaging apparatus 100 decompresses part or all of the read compressed moving image or compressed still image with the image compression / decompression unit 123. Next, the imaging apparatus 100 displays the moving image or the still image decompressed by the image compression / decompression 123 on the display 127. With the above operation, the imaging apparatus 100 performs a reproduction process.
[0043]
Prior to the above-described operation, an operation for selecting an image to be reproduced is required. For this purpose, the CPU 124 analyzes the header information and footer area of the image data recorded in the image recording memory card 130 or the subject information embedded in the moving image data body, and displays it on the display 127. Thus, the user can search and select. Details of this algorithm will be described later.
[0044]
Next, detailed configuration examples of the ID-TAG 151 and the antenna 141 and the modulator / demodulator 140 shown in FIG. 1 will be described with respect to a case where no power source is incorporated and a case where a power source is incorporated. First, detailed configuration examples of the ID-TAG 151 having no built-in power source and the corresponding antenna 141 and modulator / demodulator 140 will be described.
[0045]
FIG. 2 is a diagram illustrating a detailed configuration example of the ID-TAG 151 that does not include the power source illustrated in FIG. 1 and the antenna 141 and the modem 140 corresponding thereto. As shown in FIG. 2, the ID-TAG 151 includes a transmission antenna 201, a modulator 202, a reception antenna 203, a demodulator 204, a control circuit 205, a memory circuit 206, and a power supply circuit 207. The memory circuit 206 stores at least subject information that is information about the subject 150. The modulator / demodulator 140 includes a modulator 214 and a demodulator 212. The antenna 141 includes a reception antenna 211 and a transmission antenna 213.
[0046]
Next, a communication operation between the imaging device 100 and the ID-TAG 151 will be described.
First, a case where communication data is transmitted from the imaging apparatus 100 to the ID-TAG 151 will be described. When the communication data to be transmitted from the CPU 124 to the ID-TAG 151 of the subject 150 is input from the CPU 124, the modulator 214 in the modulator / demodulator 140 included in the imaging apparatus 100 modulates the communication data and wirelessly transmits the ID through the transmission antenna 213. -Send to TAG 151. As a result, the reception antenna 203 on the ID-TAG 151 side receives the modulated communication data. The demodulator 204 demodulates the communication data received by the receiving antenna 203 and outputs the demodulated data to the control circuit 205. The control circuit 205 performs various operations on the demodulated communication data. For example, if the communication data requires subject information, the control circuit 205 performs subject information transmission processing.
[0047]
Next, a case where communication data is transmitted from the ID-TAG 151 to the imaging apparatus 100 will be described. First, the control circuit 205 inputs communication data sent from the ID-TAG 151 to the imaging apparatus 100 to the modulator 202. Specifically, the communication data input to the modulator 202 by the control circuit 205 is subject information read from the memory circuit 206. The modulator 202 modulates the input communication data and transmits it wirelessly through the transmission antenna 201. Thereby, the receiving antenna 211 of the imaging device 100 receives the communication data. Next, the demodulator 212 demodulates the communication data received by the receiving antenna 211 and sends the communication data to the CPU 124.
[0048]
Prior to the above-described wireless communication operation, voltage is supplied to the power supply circuit 207 by electromagnetic induction by transmitting electromagnetic waves from the imaging device 100 through the transmission antenna 213. As a result, the power supply circuit 207 supplies power to the entire ID-TAG 151. The control circuit 205 reads and writes data from and to the memory circuit 206 at the same time as communicating with the imaging device 100. Thereby, the control circuit 205 can transmit data such as subject information recorded in the memory circuit 206 to the outside.
[0049]
Next, detailed configuration examples of the ID-TAG 151 having no built-in power source and the corresponding antenna 141 and modulator / demodulator 140 will be described.
FIG. 3 is a diagram illustrating a detailed configuration example of the ID-TAG 151 having a built-in power source, and the antenna 141 and the modem 140 corresponding thereto. As shown in FIG. 3, the ID-TAG 151 is configured to include a power source 301 such as a battery. Accordingly, compared to the ID-TAG 151 that does not include the power supply 301 described above, it is possible to supply a voltage to the entire ID-TAG 151 without transmitting an electromagnetic wave for power supply from the imaging apparatus 100.
[0050]
3 is the same as the ID-TAG 151 shown in FIG. 2 except that it includes a power supply 301 instead of the power supply circuit 207, and a description thereof will be omitted. In addition, the imaging apparatus 100 illustrated in FIG. 3 may not have a function of transmitting an electromagnetic wave that supplies a voltage to the entire ID-TAG 151 as described above.
[0051]
Next, an operation in which the imaging apparatus 100 changes the storage location of the subject information and the detection timing of the subject information according to the type of image to be taken (moving image or still image) will be described.
First, the storage location of subject information corresponding to the type of image will be described. FIG. 4 is a diagram for explaining a writing location when writing subject information to a still image file or a moving image file. Note that the still image file is an image file generated by the imaging device 100 in shooting in the still image shooting mode, and the moving image file is an image file generated by the imaging device 100 in shooting in the moving image shooting mode.
[0052]
First, the file structure of the still image file 41 shown in FIG. 4 will be described. The still image file 42 has a file structure in which a header portion 41a exists in addition to the main body of the still image data 41b compressed in the JPEG format or the like. Metadata is stored in the header portion 41a. In this metadata, for example, subject information is recorded together with thumbnails, which are image information indicating indexes, date / time information when still images are captured, date / time information when still images are recorded, file names of still images, and the like.
[0053]
Next, the file structure of the moving image file 42 shown in FIG. 4 will be described. The moving image file 42 is a moving image file compressed in the MPEG format or the like, and has an area of a header 42a and a footer 42c with respect to the main body of the moving image data 42b. Metadata can be recorded in the header 42a and footer 42c areas. The metadata recorded in the header 42a and the footer 42c is added with information related to the time specific to a moving image in addition to the same information as the metadata stored in the header portion 41a of the still image described above.
[0054]
The structure of the main body of the moving image data 42b includes an I picture that is compressed only within a frame, a P picture that is predictively encoded from a past I picture or P picture, and a B picture that is predictively encoded from preceding and following I pictures and P pictures. Consists of. In addition, a GOP (Group of Pictures) is configured by combining a predetermined number of frames each of the I picture, the P picture, and the B picture. A plurality of GOPs are collected to form one moving image data 42b main body.
[0055]
Next, the detection timing of subject information corresponding to the type of image to be captured in the imaging apparatus 100 will be described.
First, in the still image shooting mode, since still images are shot one by one, the detection timing of the subject information is detected only once for each shooting. That is, the imaging apparatus 100 detects subject information only once in one shooting and stores the metadata in the header portion 41a of the still image as metadata.
[0056]
On the other hand, in the moving image shooting mode, the imaging apparatus 100 needs to continuously detect subject information in order to perform shooting for a predetermined time. However, continuous detection is difficult in terms of power consumption and processing capability, and is not realistic. Therefore, the imaging apparatus 100 of the present embodiment detects subject information at regular time intervals in the moving image shooting mode. Specifically, the imaging apparatus 100 detects subject information for each GOP section, and the subject information detected in the GOP section is embedded in synchronization with the I frame at the head of the GOP.
[0057]
The detection timing described above is an example, and is not limited to this. For example, the object information detection interval may be a plurality of GOP intervals. Furthermore, in the case of shooting a video file of a video compression method that is completed within all frames, such as motion JPEG or DV (digital video) compression, the imaging device may detect subject information at predetermined frame intervals. . Further, the metadata may be recorded at a location other than the I frame, for example, a GOP header, may be recorded in the footer 42c in association with the I frame, or may be anywhere as long as it is a part of the moving image file. Absent.
[0058]
Furthermore, at the time when one cut video has been shot, the imaging apparatus 100 lists all the subject information that has appeared even once during the entire video shooting time, or the subject that has appeared continuously during the entire video shooting time. Information or the like is stored in the footer 42c portion of the moving image file 42. The storage location of the subject information described above is not limited to the footer 42c, but may be the header 42a, or may be recorded separately for each subject information in both the header 42a and the footer 42c. .
[0059]
Next, an algorithm of processing in which the imaging apparatus 100 illustrated in FIG. 1 detects subject information in the still image shooting mode will be described.
FIG. 5 is a flowchart illustrating processing in which the imaging apparatus 100 illustrated in FIG. 1 detects subject information in the still image shooting mode. First, in step S401, the imaging apparatus 100 starts shooting in the still image shooting mode.
[0060]
Next, in step S402, the imaging apparatus 100 determines whether or not the shutter button included in the operation switch 122 has been half-pressed. If it is determined that the shutter button is half-pressed (No in step S402), the imaging apparatus 100 repeats step S402. If it is determined that the shutter button is half-pressed (Yes in step S402), the imaging apparatus 100 proceeds to step S403 and step S404. In step S403, the imaging apparatus 100 detects subject information as described above. In parallel with this, in step S404, the imaging apparatus 100 performs automatic focus adjustment and automatic exposure adjustment.
[0061]
Next, in step S405, the imaging apparatus 100 determines whether or not the shutter button has been fully pressed. If it is determined that the shutter button has been fully pressed (No in step S405), the imaging apparatus 100 repeats step S405. If it is determined that the shutter button is fully pressed (Yes in step S405), the imaging apparatus 100 proceeds to step S406 and takes a still image. In step S407, the imaging apparatus 100 extracts subject information associated with the subject 150 as the still image is captured. The extraction of the subject information is realized by the subject image information being acquired from the ID-TAG 151 of the subject 150 by wireless communication, as described above.
[0062]
In step S408, the imaging apparatus 100 records the extracted subject information (extraction information) as metadata on the image recording memory card 130 together with the captured image (still image data). Thus, the process proceeds to step S409, and the imaging apparatus 100 ends the shooting process in the still image mode. As described above, the photographed image value 100 can be recorded on the image recording memory card 130 in association with still image data and metadata including subject information at the time of still image photographing.
[0063]
Next, an algorithm of processing in which the imaging apparatus 100 illustrated in FIG. 1 detects subject information in the moving image shooting mode will be described.
FIG. 6 is a flowchart illustrating processing in which the imaging apparatus 100 illustrated in FIG. 1 detects subject information in the moving image shooting mode. First, in step S501, the imaging device 100 starts shooting in the moving image shooting mode.
[0064]
Next, in step S502, the imaging apparatus 100 determines whether a shooting start operation has been performed. If it is determined that the shooting start operation has not been performed (No in step S502), the imaging apparatus 100 repeats step S502. If it is determined that the photographing start operation has been performed, the process proceeds to steps S503 and S504. In step S503, the imaging apparatus 100 detects subject information through the above-described processing. In step S504, the imaging apparatus 100 performs automatic focus adjustment and automatic exposure adjustment. However, the process in step S504 is a process performed during moving image shooting, and is continuously performed while the imaging apparatus 100 executes steps S503 to S508 in FIG. 6 (while moving image shooting is performed). It is processing.
[0065]
Next, in step S505, the imaging apparatus 100 starts moving image shooting in the MPEG format, and generates moving image data. Next, in step S506, the imaging apparatus 100 determines whether shooting of one GOP is completed. Here, when shooting of one GOP has not been completed (No in step S506), the imaging apparatus 100 returns to step S505. When one GOP shooting is completed (Yes in step S506), the imaging apparatus 100 proceeds to step S507, and embeds the subject information detected in step S503 in the metadata in the GOP that has been shot immediately before. . As described above, the imaging apparatus 100 can include subject information in the metadata in units of GOPs.
[0066]
In step S508, the imaging apparatus 100 determines whether a shooting end operation has been performed. If it is determined that the shooting end operation has not been performed (No in step S508), the imaging apparatus 100 returns to step S503 to detect subject information for the next GOP shooting. If it is determined that the shooting end operation has been performed (Yes in step S508), the process advances to step S509, and the imaging apparatus 100 detects all subject information detected between the shooting start operation and the shooting end operation. Are embedded in the metadata area in the footer 42c and recorded in the image recording memory card 130. As described above, in step S510, the imaging apparatus 100 ends the shooting process in the moving image shooting mode.
[0067]
As described above, the imaging apparatus 100 according to the present embodiment can detect subject information at an optimal timing and store data in an optimal location according to the type of image such as a still image or a moving image. it can. In particular, in the process of detecting subject information, the imaging apparatus 100 can acquire subject information at an arbitrary timing from the ID-TAG 151 included in the subject 150 by wireless communication. Further, at the time of shooting a moving image, the imaging apparatus 100 can acquire subject information by periodically performing wireless communication with the ID-TAG 151 included in the subject 150.
[0068]
Next, an algorithm of processing in which the imaging apparatus 100 shown in FIG. 1 reproduces while searching for subject information in the moving image reproduction mode will be described. In the following description, an embodiment will be described in which the subject information is used to reproduce the moving image by reproducing the moving image by specifying the desired viewing subject and extracting only the scene of the desired viewing subject.
[0069]
FIG. 7 is a flowchart illustrating processing in which the imaging apparatus 100 illustrated in FIG. 1 reproduces while searching for subject information in the moving image reproduction mode. First, in step S601, the imaging apparatus 100 starts moving image reproduction in the moving image reproduction mode.
[0070]
Next, in step S602, the imaging apparatus 100 extracts all recorded subject information from the footer 42c of the moving image file 42. In step S <b> 603, the imaging apparatus 100 creates an all subject list from the extracted all subject information and displays the list on the display 127. Next, in step S604, the imaging apparatus 100 prompts the user to select a viewing desired subject from the displayed all subject list. As a result, the user can select a desired viewing subject from the entire subject list displayed on the display 127 by an operation from the operation switch 122 or the like.
[0071]
When the user selects a desired viewing subject, the process advances to step S605, and the imaging apparatus 100 moves the playback pointer to the first GOP and prepares (initializes) moving image playback. Next, in step S606, the imaging apparatus 100 extracts subject information from the metadata area in the GOP. Next, in step S607, the imaging apparatus 100 determines whether or not the desired viewing subject exists in the GOP by comparing the desired viewing subject and subject information extracted from the GOP.
[0072]
If it is determined that there is no desired viewing subject in the GOP (No in step S607), the process advances to step S608, and the imaging apparatus 100 moves the reproduction pointer to the next GOP, and again returns to step S606. Return. If it is determined that there is a viewing desired subject (Yes in step S607), the process proceeds to step S609, and the imaging apparatus 100 starts reproduction of the reproduction pointer GOP. Next, in step S610, it is determined whether or not a skip button (not shown) included in the operation switch 122 has been pressed.
[0073]
If it is determined that the skip button has been pressed (Yes in step S610), the imaging apparatus 100 proceeds to step S608. If it is determined that the skip button has not been pressed (No in step S610), the process advances to step S611, and the imaging apparatus 100 determines whether the GOP being reproduced has ended. Here, when it is determined that the GOP being reproduced has ended (Yes in step S611), the imaging apparatus 100 proceeds to step S608. If it is determined that the GOP being reproduced has not ended (No in step S611), the imaging apparatus 100 returns to step S610.
[0074]
As described above, the image capturing apparatus 100 according to the present embodiment can use the subject information embedded in the metadata to reproduce the moving image, so that the user can specify the desired viewing subject. It is possible to extract only those scenes and play a movie. Thereby, the subject information embedded in the metadata can be used effectively.
[0075]
In the above-described embodiment, the number of viewing desired subjects may be one or plural. In addition, the method of specifying the desired viewing object may be to identify a unique object among products or people, or may be specified by representing a classification of a general person or general product. (Birth year) It may be specified by classification such as date and characteristics, or any other information that can be obtained from subject information.
[0076]
In the above-described embodiment, it is determined whether or not to reproduce in units of GOP. However, the present invention is not limited to this, and it may be determined whether or not reproduction is possible in units of a plurality of GOPs. Furthermore, it may be determined whether or not playback is possible in a shorter unit or a longer unit without being bound by GOP.
[0077]
Next, the file structure of the moving image file before and after editing when the imaging apparatus 100 shown in FIG. 1 performs editing using subject information in the moving image editing mode will be described. Note that the editing using the subject information means that the user designates a subject to be edited using the subject information, extracts only the scene of the subject to be edited, and edits the moving image.
[0078]
FIG. 8 is a diagram showing the file structure of the moving image file 42 before editing and the file structure of the moving image file 43 after editing. As shown in FIG. 8, the unedited moving image file 42 is composed of a header 42a, moving image data 42b, and a footer 42c, as shown in FIG. The moving image data 42b has a configuration in which n GOPs of GOP1 · b1, GOP2 · b2, GOP3 · b3,..., GOPn · bn (n is an integer of 8 or more in FIG. 8) are arranged. Note that n shown in FIG. 8 is an integer of 8 or more, but is not limited to this, and n may be an integer of 2 or more according to the number of GOPs.
[0079]
The edited moving image file 43 includes a header 43a, edited moving image data 43b, and a footer 43c. The edited moving image file 43 is generated by editing the unedited moving image file 42 in units of GOPs depending on the presence or absence of the subject to be edited. In this embodiment, GOP1 · b1, GOP3 · b3, GOP5 · b5, GOP6 · b6,..., GOPn · bn are included in the moving image data 42b of the moving image file 42 before editing. Suppose that it was searched. Thus, the edited moving image data 43b of the edited moving image file 43 includes GOP1 · b1, GOP3 · b3, GOP5 · b5, GOP6 · b6,..., GOPn · bn.
[0080]
Next, an algorithm of processing when the imaging apparatus 100 shown in FIG. 1 edits a moving image file using subject information in the moving image editing mode will be described. Note that the editing using the subject information means that the user designates a subject to be edited using the subject information, extracts only the scene of the subject to be edited, and edits the moving image.
FIG. 9 is a flowchart showing processing when the imaging apparatus 100 shown in FIG. 1 edits a moving image file using subject information in the moving image playback mode. First, in step S801, the imaging apparatus 100 starts editing in the moving image editing mode.
[0081]
In step S <b> 802, the imaging apparatus 100 extracts all recorded subject information from the footer 42 c of the moving image file 42. In step S <b> 803, the imaging apparatus 100 creates an all subject list from the extracted all subject information and displays the list on the display 127. In step S <b> 804, the imaging apparatus 100 prompts the user to select an edit desired subject from the displayed all subject list. As a result, the user can select an edit desired subject from the all subject list displayed on the display 127 by an operation from the operation switch 122 or the like.
[0082]
When the user selects a subject to be edited, the process advances to step S805, and the imaging apparatus 100 prepares (initializes) moving image editing by moving the editing pointer to the first GOP. Next, in step S806, the imaging apparatus 100 extracts subject information from the metadata amount range in the GOP. Next, in step S807, the imaging apparatus 100 determines whether or not the edit desired subject exists in the GOP by comparing the edit desired subject and subject information extracted from the GOP.
[0083]
Here, when it is determined that the subject to be edited does not exist in the GOP (No in step S807), the process proceeds to step S809. If it is determined that there is a desired viewing subject in the GOP (Yes in step S807), the process advances to step S808, and the imaging apparatus 100 adds the GOP indicated by the edit pointer to the edited moving image data 43b. Next, in step S809, the imaging apparatus 100 determines whether or not the final GOP has been reached.
[0084]
If it is determined that the final GOP has not been reached (No in step S809), the process advances to step S810, and the imaging apparatus 100 moves the edit pointer to the next GOP and returns to step S806. If it is determined that the final GOP has been reached (Yes in step S809), the process advances to step S811, and the imaging apparatus 100 adds a header 43a and a footer 43c to the edited moving image file 43. As described above, the imaging apparatus 100 generates the edited moving image file 43 shown in FIG. Next, proceeding to step S812, the imaging apparatus 100 ends editing in the moving image editing mode.
[0085]
As described above, the image capturing apparatus 100 according to the present embodiment can use the subject information embedded in the metadata to edit the moving image so that the user can specify the desired edit subject. It is possible to edit video by extracting only those scenes. Thereby, the subject information embedded in the metadata can be used effectively.
[0086]
Next, a display example when the imaging apparatus 100 illustrated in FIG. 1 displays the subject information together with the image display will be described. 10A to 10C are diagrams illustrating display examples when the imaging apparatus 100 illustrated in FIG. 1 displays subject information together with image display. As shown in FIGS. 10A to 10C, the imaging apparatus 100 displays subject information on the display 127 in a superimposition. As shown in FIGS. 10A to 10C, the imaging apparatus 100 displays subject information corresponding to the subject to be reproduced on the display 127.
[0087]
FIG. 10A is a diagram illustrating a display example of a group photo of people. As shown in FIG. 10A, subject information 91, which is a list of names of persons in the group photo, is displayed in a superimposition. This is because the imaging apparatus 100 performs wireless communication with an ID-TAG attached to each individual at the time of shooting, detects attribute information (= subject information) of each individual, and associates it with the image data of the group photo embedded in the metadata. This can be realized by storing in the image recording memory card 130. That is, when reproducing the group photo, the imaging apparatus 100 identifies the name information of each person from the subject information embedded in the metadata, and displays the name of the person appearing in the group photo as subject information 91 in a superimposed manner. is doing.
[0088]
FIG. 10B is a diagram illustrating a display example of an image obtained by photographing an animal (lion) in the zoo. As shown in FIG. 10B, subject information 92 that is a list of animal names, types, ages, and other matters is displayed in a superimposition. This is because the imaging device 100 performs wireless communication with the ID-TAG attached to the lion (or the lion containing the lion) at the time of shooting, and the name, type, age, and other matters of the animal (lion) This can be realized by extracting subject information and storing it in the image recording memory card 130 in association with the embedded lion image data in the metadata. In other words, the imaging device 100 identifies information related to the lion from the subject information embedded in the metadata of the image data and displays the subject information 92 in a superimposed manner when reproducing the lion image.
[0089]
FIG.10 (c) is a figure which shows the example of a display of the image which image | photographed goods. As shown in FIG. 10C, subject information 93 which is a list of product information (model number, type, price, performance, product specifications, etc.) is displayed in a superimposed manner. This is because the imaging apparatus 100 extracts subject information that is product information (model number, type, price, performance, product specifications, etc.) from the ID-TAG attached to the product at the time of shooting, and embeds the product information in the metadata. This can be realized by storing in the image recording memory card 130 in association with the data. Thereby, the user can display information on the product in a superimposition without taking time and effort. Note that the display example of FIG. 10C is suitable for use in a product image or the like posted when an item is exhibited at an Internet auction or the like.
[0090]
As described above, the imaging apparatus 100 according to the present embodiment can extract subject information during image reproduction and display subject information together with image display. Thereby, the subject information embedded in the metadata can be used effectively. In the above-described embodiment, the display method for superimposing the subject information on the display 127 is shown. However, the present invention is not limited to this. For example, when printing on a printer, the subject information is printed together with the superimpose. It doesn't matter.
[0091]
Next, an algorithm when the imaging apparatus 100 shown in FIG. 1 performs file search using subject information will be described.
FIG. 11 is a flowchart illustrating processing in which the imaging apparatus 100 illustrated in FIG. 1 performs file search using subject information. First, in step S1001, the imaging apparatus 100 starts a file search using subject information in the playback mode. In the following description, an image file refers to a still image file or a moving image file recorded on the image recording memory card 130. Further, the above-described reproduction mode indicates a still image reproduction mode or a moving image reproduction mode.
[0092]
In step S1002, the imaging apparatus 100 extracts all recorded subject information from the headers of all image files. Next, in step S <b> 1003, the imaging apparatus 100 creates an all subject list from the extracted all subject information and displays it on the display 127. In step S <b> 1004, the imaging apparatus 100 prompts the user to select a viewing desired subject from the displayed all subject list. As a result, the user can select a viewing desired subject from the all subject list displayed on the display 127 by an operation from the operation switch 122 or the like.
[0093]
Here, when the user selects a viewing desired subject, the process advances to step S1005, and the imaging apparatus 100 moves the playback pointer to the top image file and prepares for file search. In step S1006, the imaging apparatus 100 extracts subject information from the header of the currently pointed image file. In step S <b> 1007, the imaging apparatus 100 determines whether or not there is a browse desired subject in the file by comparing the selected browse desired subject with the extracted subject information.
[0094]
If it is determined that there is no desired viewing object (No in step S1007), the imaging apparatus 100 proceeds to step S1008, moves the playback pointer to the next image file, and returns to step S1006. If it is determined that there is a viewing desired subject (Yes in step S1007), the process advances to step S1009, and the imaging apparatus 100 starts to reproduce the image file of the reproduction pointer. Next, in step S1010, the imaging apparatus 100 determines whether or not the skip button included in the operation switch 122 has been pressed. Here, when the skip button is pressed (Yes in step S1010), the imaging apparatus 100 proceeds to step 008. If the skip button is not pressed (No in step S1010), the process advances to step S1009, and the imaging apparatus 100 continues to reproduce the current image file.
[0095]
As described above, the image capturing apparatus 100 according to the present embodiment uses the subject information embedded in the metadata to reproduce the image file, so that the user can specify the desired viewing subject, and the designated viewing hope. Only the image file including the subject can be extracted and reproduced. Thereby, the subject information embedded in the metadata can be used effectively.
[0096]
Further, various processes of the imaging apparatus 100 illustrated in FIGS. 5 to 7, 9, and 11 may be realized by dedicated hardware, and a part or all of each process may be performed by a memory. (RAM 125 or flash memory 126) and CPU 124 may be implemented by loading a program for realizing various processes into the memory and executing the program.
The memory is a non-volatile memory such as a hard disk device, a magneto-optical disk device, or a flash memory, a recording medium such as a CD-ROM that can only be read, a volatile memory such as a RAM, or a combination thereof. The computer (CPU 124) may read and write recording media.
[0097]
Further, based on the instructions of the program read by the computer, an operating system (OS) operating on the computer performs part or all of the actual processing, and the functions of the various control circuits of the above-described embodiments are performed by the processing. Is also included.
[0098]
Further, after the program code read from the storage medium is written in the memory provided in the function expansion board inserted into the image capturing apparatus 100 or the function expansion unit connected to the image capturing apparatus 100, the program code is read based on the instruction of the program code. Even if the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, the various processing functions shown in FIGS. 5 to 7, 9 and 11 are realized by the processing. Good.
[0099]
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
As described above, according to the imaging apparatus and imaging method of this embodiment, a subject is imaged and moving image data is output, and attribute information about the subject is contacted to the subject by the subject in a non-contact manner for each predetermined period. Since the detected and output moving image data and the detected attribute information are recorded on a recording medium, for example, by acquiring attribute information (subject information) from the subject using wireless communication, it is stored in the metadata at the time of shooting. It is possible to easily embed attribute information (subject information).
Further, according to the imaging apparatus and imaging method of the present embodiment, when shooting a still image / moving image, subject information can be detected from the subject wireless chip at an optimal timing, and the subject information can be stored in an optimal location. .
Furthermore, according to the imaging apparatus and the imaging method of the present embodiment, it is possible to effectively use subject information embedded in metadata.
[0100]
【The invention's effect】
As described above, according to the imaging apparatus and imaging method of the present invention, it is possible to easily embed attribute information (subject information) in metadata at the time of shooting.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a schematic configuration of an imaging apparatus according to an embodiment of the present invention.
2 is a diagram illustrating a detailed configuration example of an ID-TAG 151 that does not include a power source illustrated in FIG. 1, and an antenna 141 and a modem 140 that correspond to the ID-TAG 151. FIG.
FIG. 3 is a diagram illustrating a detailed configuration example of an ID-TAG 151 having a built-in power supply and an antenna 141 and a modem 140 corresponding to the ID-TAG 151;
FIG. 4 is a diagram illustrating a writing location when writing subject information to a still image file or a moving image file.
FIG. 5 is a flowchart illustrating processing in which the imaging apparatus 100 illustrated in FIG. 1 detects subject information in a still image shooting mode.
6 is a flowchart showing processing in which the imaging apparatus 100 shown in FIG. 1 detects subject information in a moving image shooting mode. FIG.
7 is a flowchart showing processing in which the imaging apparatus 100 shown in FIG. 1 reproduces while searching for subject information in a moving image reproduction mode. FIG.
FIG. 8 is a diagram showing a file structure of a moving image file 42 before editing and a file structure of a moving image file 43 after editing.
9 is a flowchart showing processing when the imaging apparatus 100 shown in FIG. 1 edits a moving image file using subject information in the moving image reproduction mode. FIG.
10 is a diagram illustrating a display example when the imaging apparatus 100 illustrated in FIG. 1 displays subject information together with image display. FIG.
11 is a flowchart showing processing in which the imaging apparatus 100 shown in FIG. 1 performs file search using subject information. FIG.
[Explanation of symbols]
100 Imaging device
101 Lens unit
102 Zoom lens
103 aperture
104 Focus lens
105 Zoom motor
106 Iris motor
107 Focus motor
108 Image sensor
109 Imaging signal processing circuit
110 Imaging unit controller
111 Autofocus detection circuit
121 bus
122 Operation switch
123 Image compression decompressor
124 CPU
125 RAM
126 flash memory
127 display
128 memory interface
129 connector
130 Memory card for image recording
150 subjects
151 ID-TAG
201 Transmitting antenna
202 Modulator
203 Receiving antenna
204 Demodulator
205 Control circuit
206 Memory circuit
207 Power supply circuit
41 Still image file
41a header
41b Still image data
42 video files
42a header
42b Movie data
42c footer

Claims (14)

被写体を撮像して動画像データを出力する撮像手段と、
所定期間毎に前記被写体より前記被写体に関する属性情報を前記被写体に対して非接触で検出する属性情報検出手段と、
前記撮像手段が出力する動画像データと前記属性情報検出手段が検出した前記属性情報とを記録媒体に記録する記録手段と
を具備することを特徴とする撮像装置。
Imaging means for imaging a subject and outputting moving image data;
Attribute information detecting means for detecting attribute information related to the subject from the subject in a non-contact manner for each predetermined period;
An imaging apparatus comprising: recording means for recording moving image data output by the imaging means and the attribute information detected by the attribute information detection means on a recording medium.
前記記録手段は、前記属性情報検出手段が前記被写体より検出した前記属性情報を、前記属性情報に対応する前記被写体の動画像データに対応付けて前記記録媒体に記録することを特徴とする請求項1に記載の撮像装置。  The recording means records the attribute information detected from the subject by the attribute information detection means on the recording medium in association with moving image data of the subject corresponding to the attribute information. The imaging apparatus according to 1. 前記記録手段は、前記動画像データに含まれる前記所定期間内に記録される複数の画面データの全てに対して、前記所定期間毎に検出された同じ属性情報を付加して前記記録媒体に記録することを特徴とする請求項2に記載の撮像装置。  The recording means adds the same attribute information detected every predetermined period to all of the plurality of screen data recorded within the predetermined period included in the moving image data, and records it on the recording medium The imaging apparatus according to claim 2, wherein: 前記記録手段は、一連の前記動画像データの記録中に前記属性情報検出手段により検出された属性情報を前記一連の動画像データに対応付けて更に前記記録媒体に記録することを特徴とする請求項2に記載の撮像装置。  The recording means further records the attribute information detected by the attribute information detection means during recording of the series of moving image data in association with the series of moving image data on the recording medium. Item 3. The imaging device according to Item 2. 前記記録手段は、前記一連の動画像データを一つのファイルとして前記記録媒体に記録し、更に、前記一連の動画像データの記録中に検出された属性情報を前記ファイルに付加して記録することを特徴とする請求項4に記載の撮像装置。  The recording means records the series of moving image data as one file on the recording medium, and further adds and records attribute information detected during the recording of the series of moving image data to the file. The imaging apparatus according to claim 4. 前記記録媒体に記録された複数の前記ファイルに付加された前記属性情報に基づき、前記記録媒体に記録された複数のファイルより所望の被写体を示す動画像情報を含むファイルを検索する検索手段を更に具備することを特徴とする請求項5に記載の撮像装置。  Search means for searching for a file including moving image information indicating a desired subject from the plurality of files recorded on the recording medium based on the attribute information added to the plurality of files recorded on the recording medium. The imaging apparatus according to claim 5, further comprising: 前記検索手段は、前記属性情報に基づき検索したファイルに含まれる動画像データから所望の被写体を含む画面データを更に検索することを特徴とする請求項6に記載の撮像装置。  The imaging apparatus according to claim 6, wherein the search unit further searches screen data including a desired subject from moving image data included in a file searched based on the attribute information. 前記動画像データを符号化する符号化手段を更に具備し、
前記記録手段は、前記所定期間として前記符号化手段による符号化処理に関連した期間を用いることを特徴とする請求項1に記載の撮像装置。
Further comprising encoding means for encoding the moving image data;
The imaging apparatus according to claim 1, wherein the recording unit uses a period related to an encoding process by the encoding unit as the predetermined period.
前記符号化手段は、画面内符号化処理と画面間符号化処理とを選択的に用いて前記動画像データを符号化し、
前記記録手段は、前記所定期間として前記符号化手段が前記画面内符号化処理を行うタイミングに関連した期間を用いることを特徴とする請求項8に記載の撮像装置。
The encoding means encodes the moving image data selectively using an intra-screen encoding process and an inter-screen encoding process,
The imaging apparatus according to claim 8, wherein the recording unit uses a period related to a timing at which the encoding unit performs the intra-frame encoding process as the predetermined period.
前記符号化手段は、n画面(nは2以上の整数)毎に前記画面内符号化処理を行い、
前記記録手段は、前記所定期間として前記n画面の整数倍の期間を用いることを特徴とする請求項8に記載の撮像装置。
The encoding means performs the in-screen encoding process every n screens (n is an integer of 2 or more),
The imaging apparatus according to claim 8, wherein the recording unit uses a period that is an integral multiple of the n screens as the predetermined period.
前記属性情報検出手段は、前記被写体に設けられたIDタグチップに対して非接触にて電力を供給して前記IDタグチップから前記属性情報を読み取ることを特徴とする請求項1に記載の撮像装置。  The imaging apparatus according to claim 1, wherein the attribute information detection unit reads the attribute information from the ID tag chip by supplying power to the ID tag chip provided on the subject in a non-contact manner. 動画像と静止画像とを撮影して記録する撮像装置であって、
被写体を撮像して動画像または静止画像の画像データを出力する撮像手段と、
前記被写体より前記被写体に関する属性情報を前記被写体に対して非接触で検出する属性情報検出手段と、
前記撮像手段が出力する前記画像データと前記属性情報検出手段が検出した前記属性情報とを記録媒体に記録する記録手段と、
静止画像を撮影する静止画撮影モードと動画像を撮影する動画撮影モードとを切り替えるモード切り替え手段と、
前記静止画撮影モードにおいて前記静止画像を撮影して記録する場合には、前記静止画像の画面に含まれる前記被写体の属性情報を撮影に同期して検出するよう前記属性情報検出手段を制御して、検出された前記属性情報を前記静止画像の各画面に対応付けて前記記録媒体に記録するよう前記記録手段を制御し、前記動画撮影モードにおいて前記動画像を撮影して記録する場合には、所定期間毎に前記属性情報を検出するよう前記属性情報検出手段を制御し、検出された前記属性情報を前記動画像に対応付けて前記記録媒体に記録するよう前記記録手段を制御する制御手段と
を具備することを特徴とする撮像装置。
An imaging device that captures and records moving images and still images,
Imaging means for imaging a subject and outputting image data of a moving image or a still image;
Attribute information detection means for detecting attribute information related to the subject from the subject in a non-contact manner with respect to the subject;
Recording means for recording the image data output by the imaging means and the attribute information detected by the attribute information detection means on a recording medium;
Mode switching means for switching between a still image shooting mode for shooting still images and a moving image shooting mode for shooting moving images;
When shooting and recording the still image in the still image shooting mode, the attribute information detection unit is controlled to detect the attribute information of the subject included in the still image screen in synchronization with shooting. When the recording means is controlled to record the detected attribute information in the recording medium in association with each screen of the still image, and the moving image is shot and recorded in the moving image shooting mode, Control means for controlling the attribute information detecting means to detect the attribute information every predetermined period, and controlling the recording means to record the detected attribute information in association with the moving image on the recording medium; An imaging apparatus comprising:
動画像を撮影して記録する撮像装置を用いた撮像方法であって、
被写体を撮像して動画像データを出力する第1のステップと、
所定期間毎に前記被写体より前記被写体に関する属性情報を前記被写体に対して非接触で検出する第2のステップと、
前記第1のステップで出力する動画像データと前記第2のステップで検出した前記属性情報とを記録媒体に記録する第3のステップと
を有することを特徴とする撮像方法。
An imaging method using an imaging device that captures and records a moving image,
A first step of imaging a subject and outputting moving image data;
A second step of detecting attribute information about the subject from the subject in a non-contact manner for each predetermined period;
An imaging method comprising: a third step of recording the moving image data output in the first step and the attribute information detected in the second step on a recording medium.
動画撮影モードにおいて動画像を撮影して記録し、静止画撮影モードにおいて静止画像を撮影して記録する撮像装置を用いた撮像方法であって、
被写体を撮像して動画像データを出力する第1のステップと、
所定期間毎に前記被写体より前記被写体に関する属性情報を前記被写体に対して非接触で検出する第2のステップと、
前記第1のステップで出力する動画像データと前記第2のステップで検出した前記属性情報とを記録媒体に記録する第3のステップと
を有し、
前記静止画撮影モードにおいて前記静止画像を撮影して記録する場合には、前記静止画像の画面に含まれる前記被写体の属性情報を撮影に同期して検出するよう前記第2のステップを制御して、検出された前記属性情報を前記静止画像の各画面に対応付けて前記記録媒体に記録するよう前記第3のステップを制御し、前記動画撮影モードにおいて前記動画像を撮影して記録する場合には、所定期間毎に前記属性情報を検出するよう前記第2のステップを制御し、検出された前記属性情報を前記動画像に対応付けて前記記録媒体に記録するよう前記第3のステップを制御することを特徴とする撮像方法。
An imaging method using an imaging device that shoots and records a moving image in a moving image shooting mode and shoots and records a still image in a still image shooting mode,
A first step of imaging a subject and outputting moving image data;
A second step of detecting attribute information about the subject from the subject in a non-contact manner for each predetermined period;
A third step of recording the moving image data output in the first step and the attribute information detected in the second step on a recording medium;
When shooting and recording the still image in the still image shooting mode, the second step is controlled to detect the subject attribute information included in the still image screen in synchronization with the shooting. When the third step is controlled to record the detected attribute information on the recording medium in association with each screen of the still image, and the moving image is shot and recorded in the moving image shooting mode. Controls the second step to detect the attribute information every predetermined period, and controls the third step to record the detected attribute information in the recording medium in association with the moving image. An imaging method characterized by:
JP2003169723A 2003-06-13 2003-06-13 Imaging apparatus and imaging method Expired - Fee Related JP4047231B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003169723A JP4047231B2 (en) 2003-06-13 2003-06-13 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003169723A JP4047231B2 (en) 2003-06-13 2003-06-13 Imaging apparatus and imaging method

Publications (3)

Publication Number Publication Date
JP2005006195A JP2005006195A (en) 2005-01-06
JP2005006195A5 JP2005006195A5 (en) 2006-07-13
JP4047231B2 true JP4047231B2 (en) 2008-02-13

Family

ID=34094772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003169723A Expired - Fee Related JP4047231B2 (en) 2003-06-13 2003-06-13 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP4047231B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1710996B1 (en) * 2005-04-06 2020-07-08 Provenance Asset Group LLC Object perception method and a related perceiving device
JP4868217B2 (en) * 2006-01-25 2012-02-01 ソニー株式会社 Imaging apparatus and method, recording medium, and program
US9865306B2 (en) * 2015-03-30 2018-01-09 International Business Machines Corporation System to distinguish between visually identical objects
JP2017142753A (en) 2016-02-12 2017-08-17 キヤノン株式会社 Information processing device, method, program, and storage medium
WO2023127366A1 (en) * 2021-12-27 2023-07-06 富士フイルム株式会社 Image file conversion method, image file conversion device, and program

Also Published As

Publication number Publication date
JP2005006195A (en) 2005-01-06

Similar Documents

Publication Publication Date Title
US8289410B2 (en) Recording apparatus and method, playback apparatus and method, and program
US7417667B2 (en) Imaging device with function to image still picture during moving picture imaging
EP1981272B1 (en) Image capturing apparatus, image processing apparatus and control methods thereof
JP2004032690A (en) System for capturing and archiving moving video segment
US8428121B2 (en) Image pick-up apparatus for shooting and reproducing a moving image
KR100971741B1 (en) Image pickup apparatus
JP4047231B2 (en) Imaging apparatus and imaging method
JP2007274505A (en) Imaging device
KR20060102673A (en) Apparatus and method for photographing during video recording
JP2009060355A (en) Imaging apparatus, imaging method, and program
JP2004015580A (en) Recorder
JP2005184610A (en) Camera, camera photographing support system, and camera with photographing aid function
JP2010237911A (en) Electronic apparatus
KR101001488B1 (en) Digital camera device and printing method of digital camera device
JP2004228886A (en) Image processor, image processing method, and recording medium
JP4251614B2 (en) Memory card
JP3667065B2 (en) Imaging recording apparatus and control method thereof
KR20090071317A (en) Recording apparatus, reproducing apparatus, recoding method, reproducing method and storing medium having program to perform the method
JP2009111841A (en) Image management apparatus and method
JP2004032105A (en) Image processing apparatus, image processing system, image processing method, storage medium, and program
JP5733615B2 (en) Image display device, image display program, and image display system
JP2005005764A (en) Imaging apparatus
US20050084235A1 (en) Image processing apparatus
JP5386915B2 (en) Movie imaging apparatus, movie imaging method, and program
US8482811B2 (en) Recording apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4047231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131130

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees