JP2007049332A - 記録再生装置および記録再生方法、並びに、記録装置および記録方法 - Google Patents

記録再生装置および記録再生方法、並びに、記録装置および記録方法 Download PDF

Info

Publication number
JP2007049332A
JP2007049332A JP2005230410A JP2005230410A JP2007049332A JP 2007049332 A JP2007049332 A JP 2007049332A JP 2005230410 A JP2005230410 A JP 2005230410A JP 2005230410 A JP2005230410 A JP 2005230410A JP 2007049332 A JP2007049332 A JP 2007049332A
Authority
JP
Japan
Prior art keywords
recording
reproducing apparatus
video signal
data
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005230410A
Other languages
English (en)
Inventor
Nariaki Tagami
就章 田上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005230410A priority Critical patent/JP2007049332A/ja
Publication of JP2007049332A publication Critical patent/JP2007049332A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 記録媒体に記録されたAVデータを効率的に検索できるようにする。
【解決手段】 記録再生装置は、ビデオカメラから入力されたAVデータの特徴を抽出し、特徴に基づきメタデータを生成する。再生時、検索が指示されると、特徴に基づく検索メニュー画面200が表示される。選択項目201のフラグが選択され、検索開始ボタン204が押されると、メタデータ管理部は、検索項目201で選択されたフラグに基づきメタデータを検索し、検索の結果、条件を満たすチャプタがあると判断された場合、タイトルやチャプタに対応するフレーム番号を取得する。取得したフレーム番号に基づく所定のフレーム画像がHDDから読み出され、サムネイル画像作成部でフレーム画像からサムネイル画像が作成され、サムネイル画像を並べた検索結果画面が作成される。このように、メタデータに記述されたフラグに基づき検索を行うことで、効率的に検索できる。
【選択図】 図17

Description

この発明は、外部から入力された映像および音声を記録し、記録された映像および音声の検索を効率的に行うようにした記録再生装置および記録再生方法、並びに、記録装置および記録方法に関する。
近年、複数の番組を録画することができる大容量のハードディスクを記録媒体としたHD(Hard Disc)レコーダなどの記録再生装置が急速に普及している。HDレコーダは、例えば、ディジタルテレビジョン放送に重畳されて送られるSI(Service Information)信号により提供されるEPG(Electronic Program Guide)と呼ばれる機能により、キーワードによる番組検索や番組録画予約を行うことができる。EPG情報は、番組のタイトルや放送時間、放送局の情報、出演者や番組の概要など、番組に関する様々な情報からなり、このEPG情報をキーワードとして番組を記録媒体であるハードディスクに録画することができる。
また、HDレコーダは、番組を録画すると共に、EPG情報をハードディスクに記録しておくことにより、録画された番組を再生する際に、この番組情報を利用することが可能である。EPG情報は、例えば、録画した番組を一覧表示するサムネイル表示に利用されたり、番組情報に基づくキーワード検索を行う場合に利用されている。
ここで、従来の記録再生装置100の一例の構成について、図21を参照して概略的に説明する。記録再生装置100は、映像データおよび音声データからなるAV(Audio/Video)データを記録媒体に記録すると共に、EPG情報に記述された番組情報を、記録されるAVデータのメタデータとして記録媒体に記録する。そして、記録された複数のAVデータの中から、メタデータに基づいて所定のAVデータを検索し、再生するようにしている。ここでは、記録再生装置100として、ハードディスクを記録媒体としたHDレコーダを例にとって説明する。
先ず、記録時の動作について説明する。操作部114は、記録再生装置100のパネルに設けられた操作部や、リモートコントロールコマンダなどが用いられる。リモートコントロールコマンダは、例えば、赤外線信号を用いて記録再生装置100を操作することができる。
リモートコントロールコマンダは、ユーザによる操作により、操作に応じた制御信号を生成する。生成された制御信号は、赤外線信号に変調され、記録再生装置100に送信される。リモートコントロールコマンダから送信された赤外線信号は、記録再生装置100の図示されない赤外線受光部により受信され、赤外線信号から制御信号に復調される。復調された制御信号は、CPU115に供給される。CPU(Central Processing Unit)115は、図示されないROM(Read Only Memory)に予め記憶されたプログラムに従い、例えば操作部114から供給された制御信号に応じて、記録再生装置100の各部を制御する。
アンテナ107は、ディジタルテレビジョン放送の電波を受信し、チューナ部101に供給する。チューナ部101は、アンテナ107から供給された電波を復調して、選択されたチャンネルの信号を取り出し、取り出された信号からAVデータとEPG情報とを抽出し、AVデータを入力処理部102に供給し、EPG情報を記録データ管理部104に供給する。
入力処理部102は、外部からAVデータを入力することもでき、チューナ部101から供給されるAVデータと外部から供給されるAVデータとのうち一方のAVデータを、例えば操作部114に対する操作に応じて選択する。選択されたAVデータは、記録信号処理部105に供給される。
予約管理部106は、例えば操作部114への操作に応じて、ディジタルテレビジョン放送番組の録画予約を管理する予約情報を生成する。生成された予約情報は、記録データ管理部104に供給される。
記録データ管理部104は、チューナ部101から供給されたEPG情報や、予約管理部106から供給された予約情報に基づき、記録信号処理部105における記録を制御する記録制御情報を生成し、記録信号処理部105に供給する。また、記録データ管理部104は、EPG情報や予約情報に基づき、記録されるAVデータに関するメタデータを生成し、HDD110に記録する。
記録信号処理部105は、入力処理部102から供給されたAVデータに対して所定の信号処理を施す。信号処理が施されたAVデータは、記録データ管理部104から供給されたメタデータと関連付けられてHDD110に記録される。
なお、EPG情報は、例えば、外部のサーバからインターネットを介してEPG情報を取得するiEPG(Internet Electronic Program Guide)機能を用いて取得することもできる。
タイトル管理部111は、ユーザの操作部114に対する操作に応じて検索情報を生成し、生成された検索情報とHDD110から読み出したメタデータとを用いて、再生するAVデータの検索を行う。そして、タイトル管理部111は、検索結果に基づき、AVデータの再生を制御する再生制御情報を生成し、再生信号処理部112に供給する。
再生信号処理部112は、タイトル管理部111から供給された再生制御情報に基づき、HDD110からAVデータを読み出し、読み出されたAVデータに所定に復号処理を施して出力処理部113に供給する。出力処理部113は、再生信号処理部112から供給されたAVデータを外部に出力する。外部には、テレビジョン受像機やディスプレイなどの表示装置が接続され、この表示装置により映像の表示や音声の出力が行われる。
EPG情報には、番組名や放送日時情報だけでなく、番組の出演者情報など、様々な情報が含まれているので、これらの情報を用いて多彩な検索を行うことができる。例えば、出演している俳優の名前から検索したり、番組のジャンルから検索したりすることができる。
ところで、記録再生装置は、テレビジョン放送の録画を行うだけでなく、例えば、家庭で使われる携帯型ビデオカメラなどのカメラ一体型ビデオ信号記録装置で撮像した映像や音声を入力し、記録媒体に記録することができる。ビデオカメラは、ビデオテープやDVD(Digital Versatile Disc)、半導体メモリなどの記録媒体に、撮像した映像や音声を記録する。また、ビデオカメラは、撮影した映像や音声と共に、撮影時のホワイトバランス、絞り、シャッタースピードなどのビデオカメラの設定情報や撮影日時情報などが記述されたデータコードを記録している。ビデオカメラで撮影したAVデータを記録再生装置の記録媒体に記録する場合は、このデータコードがAVデータと共に記録再生装置へ記録されるようになっている。
設定情報や日時情報が記述されたデータコードを用いて、記録再生装置の記録媒体に記録された複数のAVデータの中から所望のAVデータを検索することができる。このデータコードに含まれる日時情報をキーワードとして検索する技術が特許文献1に記載されている。
特開2005−20070号公報
ビデオカメラで撮影されたAVデータを記録媒体に記録することができる記録再生装置120の一例の構成について、図22を参照して概略的に説明する。この例では、ビデオカメラで撮像されたAVデータをHDレコーダの記録媒体に記録する場合について説明する。なお、上述の図21と共通する部分については、同一の符号を付し、説明を省略する。
記録再生装置120とビデオカメラとを接続し、ビデオカメラから出力されたAVデータを入力処理部122に入力する。入力処理部122は、撮影時のビデオカメラの設定情報や撮影日時情報が含まれるデータコードを抽出し、デコード部121でデコードして得られるカメラデータを記録データ管理部124に供給する。記録データ管理部124は、カメラデータに基づき、記録再生装置120の記録媒体に記録されたAVデータのメタデータを生成し、メタデータに基づいて生成される記録制御情報により記録信号処理部105を制御する。また、記録データ管理部124は、メタデータとAVデータとを関連付けてHDD110に記録する。
ビデオカメラで撮影されたAVデータを記録再生装置120の記録媒体に記録する場合、AVデータに対して、例えば、カメラデータの日付データに基づきタイトルを生成する。また、撮影スタートや撮影ストップによる時間の切れ目によるシーンチェンジ情報や撮影日時情報に基づき、チャプタを自動的に生成する。HDD110に記録されたAVデータは、例えばタイトル単位で管理される。
なお、ビデオカメラから入力され、記録再生装置120の記録媒体に記録されたAVデータに対して、操作部114を操作することにより、AVデータに対してテキスト情報を付加することができる。例えば、リモートコントロールコマンダを用いて、文字が割り当てられたキーを押したり、十字キーを操作して文字を1文字ずつ入力し、さらに必要に応じて漢字やカタカナに変換することにより、テキスト情報を作成する。また、ネットワークインタフェース123を介して、例えばPC(Personal Computer)で生成したテキスト情報をネットワーク経由でAVデータに付加することもできる。例えば、記録再生装置とPCとを接続し、PCに備えられたキーボードを用いて文字を入力し、テキスト情報を作成する。
このようにして作成されたテキスト情報は、記録データ管理部124に供給され、記録データ管理部124は、このテキスト情報に基づきメタデータを生成することもできる。そして、カメラデータやテキスト情報に基づくメタデータを用いて、記録媒体に記録されたAVデータの中から、所定のAVデータを検索することができる。
記録媒体に記録されたAVデータを再生する場合、タイトル管理部111は、操作部114の操作に応じて検索情報を生成し、生成された検索情報とHDD110から読み出したメタデータとを比較して、記録媒体に記録されているAVデータの検索を行う。そして、検索結果に基づく再生制御情報により再生信号処理部112を制御する。再生信号処理部112は、再生制御情報に基づき、HDD110からAVデータを読み出し、読み出されたAVデータに対して復号処理を施し、出力処理部113を介して外部に出力する。
ここで、ビデオカメラから入力され、記録再生装置に記録されたAVデータを検索する場合について考える。ビデオカメラから入力され、記録再生装置に記録されたタイトルには、EPG情報で録画された番組と異なり、メタデータに含まれる情報が少ないため、目的のタイトルを的確に検索することが困難であった。例えば、メタデータを用いて検索する場合は、日時や時間といった時間情報で検索するしかないという問題点があった。
ところで、この記録再生装置は、テキスト情報を作成し、記録媒体に記録されたAVデータに付加することでAVデータに関する情報を増やすことができる。テキスト情報は、例えば、リモートコントロールコマンダなどの操作部を操作して文字を入力したり、記録再生装置にPCを接続し、接続されたPCのキーボードなどを用いて文字を入力することにより、作成することができる。
しかしながら、テキスト情報を作成するには、操作部を操作したり、記録再生装置にPCをいちいち接続しなければならないので、文字を入力するための操作が煩わしく、手間がかかるという問題点があった。そのため、テキスト情報を作成しないユーザも多い。
一方、検索時においては、例えば、AVデータに対応付けられたタイトルなどのテキスト情報に対してキーワードを直接入力して検索する方法が考えられる。しかしながら、この検索方法の場合、入力されたキーワードと、メタデータやテキスト情報に含まれている文字列とが一致するか否かによって検索を行っているため、記録されているタイトルが多い場合や、メタデータに含まれる情報が多い場合には、検索に時間を要してしまうという問題点があった。
また、キーワードを入力するには、リモートコントロールコマンダなどの操作部や、外部に接続されたPCのキーボードなどを使用して、テキスト情報の作成と同様に、文字を入力する必要があるため、キーワードの入力に手間がかかるという問題点があった。
従って、この発明の目的は、ビデオカメラから入力され、記録媒体に記録されたタイトルの検索を効率的且つ的確に行うことができる記録再生装置および記録再生方法、並びに、記録装置および記録方法を提供することにある。
上述した課題を解決するために、第1の発明は、映像信号を入力する入力部と、映像信号により表示される映像の視覚的な特徴を映像信号に基づき抽出する特徴抽出部と、特徴抽出部で抽出された特徴と映像信号とを関連付けて記録媒体に記録する記録制御部とを有し、特徴に基づき、記録媒体に記録された映像信号を検索するようにしたことを特徴とする記録再生装置である。
また、第2の発明は、映像信号を入力部に入力し、映像信号により表示される映像の視覚的な特徴を映像信号に基づき抽出し、抽出された特徴と映像信号とを関連付けて記録媒体に記録し、特徴に基づき、記録媒体に記録された映像信号を検索するようにしたことを特徴とする記録再生方法である。
また、第3の発明は、映像信号を入力する入力部と、映像信号により表示される映像の視覚的な特徴を映像信号に基づき抽出する特徴抽出部と、特徴抽出部で抽出された特徴と映像信号とを関連付けて記録媒体に記録する記録制御部とを有することを特徴とする記録装置である。
また、第4の発明は、映像信号を入力部に入力し、映像信号により表示される映像の視覚的な特徴を映像信号に基づき抽出し、抽出された特徴と映像信号とを関連付けて記録媒体に記録するようにしたことを特徴とする記録方法である。
上述したように、第1および第2の発明は、入力部に入力された映像信号により表示される映像から抽出された視覚的な特徴と映像信号とを関連付けて記録媒体に記録し、特徴に基づき、記録媒体に記録された映像信号を検索するようにしているため、効率的に検索を行うことができる。
また、第3および第4の発明は、入力部に入力された映像信号により表示される映像から抽出された視覚的な特徴と映像信号とを関連付けて記録媒体に記録するようにしているため、映像信号に関する情報を自動的に付加することができる。
この発明は、ビデオカメラから入力されたAVデータを記録再生装置の記録媒体に記録する際に、映像および音声から特徴を抽出し、抽出された特徴に基づくメタデータを生成し、AVデータと対応付けて記録媒体に記録しているため、記録媒体に記録されたAVデータを検索する際に、抽出された特徴に基づくメタデータを用いてAVデータを検索することで、効率的に検索を行うことができるという効果がある。
以下、この発明の実施の一形態について説明する。この発明は、携帯型ビデオカメラなどのカメラ一体型ビデオ信号記録装置で撮影した撮像映像信号を記録再生装置に供給し、記録する際に、撮像映像信号に含まれる特徴を抽出する。そして、抽出された特徴と撮影時のビデオカメラの設定情報や撮影日時などのデータコードとに基づきメタデータを生成して、カメラ一体型ビデオ信号記録装置から供給されたAV(Audio/Video)データと共に記録媒体に記録する。また、AVデータの再生時には、記録媒体に記録されたメタデータに基づき検索を行い、所定のAVデータを選択して再生するようにしている。このように、ビデオカメラから入力され、記録再生装置に記録されたAVデータの特徴を用いることにより、感覚的に検索することができる。
図1は、この発明の実施の一形態による記録再生装置1の使用形態を示す。この図1の例は、例えば、記録再生装置1とカメラ一体型ビデオ信号記録装置(以下、ビデオカメラと適宜称する)2とを接続し、記録再生装置1とビデオカメラ2との間でAVデータを伝送する場合の例である。
ビデオカメラ2に記録再生装置1を接続し、ビデオカメラ2でAVデータを再生する際に、再生されたAVデータと当該AVデータの撮影時のビデオカメラ2の設定や撮影日時が記述されたデータコードとが記録再生装置1に供給され、記録再生装置1の記録媒体に記録される。
なお、ビデオカメラ2では、記録媒体として、例えば、DV(Digital Video)テープが用いられ、撮像された撮像映像信号をDVフォーマットに基づき圧縮符号化し、AVデータとしてDVテープに記録する。
図2は、この発明の実施の一形態における記録再生装置1の一例の構成を示す。ここでは、記録再生装置1として、ハードディスクを記録媒体としたHD(Hard Disc)レコーダを例にとって説明する。外部からAVデータおよび当該AVデータの撮影時の設定や撮影日時が記述されたデータコードを入力処理部12に入力し、入力処理部12は、DVフォーマットのAVデータをデコードし、記録信号処理部15に供給する。また、入力処理部12は、AVデータと共に供給されるデータコードをデコード部11に供給する。
入力処理部12は、例えば、IEEE(Institute of Electrical and Electronic Engineers)1394の規格に準じたプロトコルにより通信が可能なインタフェースを有し、外部に接続されたビデオカメラとデータのやりとりを行うことができる。
なお、データの通信に用いられるインタフェースは、IEEE1394に限らず、高速でデータを転送できるインタフェース、例えばUSB(Universal Serial Bus)2.0を用いてもよい。
デコード部11は、入力処理部12から供給されたデータコードをデコードし、撮影時のビデオカメラの設定や撮影日時が記述されたカメラデータを生成してメタデータ生成部14に供給する。
記録信号処理部15は、入力処理部12から供給されたAVデータに対して所定の圧縮符号化処理を施す。また、記録信号処理部15は、映像データと当該映像データの圧縮符号化の際に発生する属性情報を特徴抽出部10に供給する。特徴抽出部10は、記録信号処理部15から供給された映像データおよび属性情報に基づき当該映像データの特徴を抽出し、特徴データを生成する。生成された特徴データは、メタデータ生成部14に供給される。
メタデータ生成部14は、特徴データをフラグに変換する。フラグは、抽出された特徴に対して設定されるパラメータであり、例えば、全種のパラメータを互いに区別して表現できるような、なるべく短いデータ長のデータが用いられる。こうすることで、検索の際にフラグを高速で検索することができる。メタデータ生成部14は、特徴抽出部10で抽出された特徴に対してフラグの値と意味とが対応付けられたフラグリストを予め有しており、このフラグリストに基づき、特徴データとフラグとを所定に対応付け、メタデータを生成する。生成されたメタデータは、例えばメタデータデータベースとして管理され、AVデータと互いに対応付けられてHDD(Hard Disc Drive)20に記録される。
また、メタデータ生成部14は、カメラデータに基づき、記録信号処理部15における記録を制御する記録制御情報を生成する。記録信号処理部15によるAVデータのHDD20への記録は、この記録制御情報に基づき制御される。
さらに、メタデータ生成部14は、カメラデータに基づき、AVデータに対するタイトルやチャプタを生成する。例えば、カメラデータの日付データに基づきタイトルを設定し、カメラデータの時間データに基づき、時間の不連続部分でタイトルをチャプタに分割する。また、各チャプタの先頭フレームを抽出し、チャプタとフレームとの関係を示すフレームリストを生成し、HDD20に記録する。
なお、ネットワークインタフェース13は、例えばPC(Personal Computer)と接続可能なインタフェースを有し、PCと互いに通信して、例えば、PC側で作成されたテキスト情報を記録再生装置1に取り込むことができる。取り込まれたテキスト情報は、例えばメタデータ生成部14に供給され、メタデータの一部として用いられる。
メタデータ管理部21は、操作部24の操作に応じて、検索の際に、特徴および撮影日時を選択して検索を行うための検索メニュー画面をフラグリストに基づき作成し、HDD20に記録されているメタデータデータベースを検索する。そして、メタデータ管理部21は、検索結果に基づき、AVデータの再生を制御する再生制御情報を生成し、再生信号処理部22に供給する。また、メタデータ管理部21は、HDD20から所定のフレーム画像を受け取り、サムネイル画像作成部26に供給する。
サムネイル画像作成部26は、メタデータ管理部21から供給されたフレーム画像を所定に間引いて縮小したサムネイル画像を作成する。そして、サムネイル画像作成部26は、作成されたサムネイル画像を一覧表示したサムネイル画面を作成し、出力処理部23に供給する。
再生信号処理部22は、メタデータ管理部21から供給された再生制御情報に基づき、所定の圧縮AVデータをHDD20から読み出し、復号処理を施す。復号処理が施されたAVデータは、出力処理部23に供給される。
出力処理部23は、再生信号処理部22から供給されたAVデータを外部に出力する。外部には、テレビジョン受像機やディスプレイなどの表示装置が接続され、この表示装置により映像の表示や音声の出力が行われる。
操作部24は、例えば、記録再生装置1のパネルに設けられた操作部や、リモートコントロールコマンダが用いられる。リモートコントロールコマンダは、例えば、上下左右の方向を指示することができる十字キーや、決定キーなどの記録再生装置1を操作するためのキーが設けられ、ユーザによる操作により、操作に応じた制御信号を生成する。生成された制御信号は、赤外線信号に変調されて送信される。記録再生装置1は、図示されない赤外線受光部によりリモートコントロールコマンダから送信された赤外線信号を受信すると、赤外線信号を制御信号に復調する。復調された制御信号は、CPU25に供給される。CPU25は、図示されないROMに予め記憶されたプログラムに従い、例えば操作部24から供給された制御信号に基づき、記録再生装置1の各部を制御する。
図3は、記録信号処理部15において、圧縮符号化処理を行う回路の一例の構成を示す。記録信号処理部15では、例えばMPEG2(Moving Picture Experts Group 2)方式に準じた圧縮符号化を行う。MPEG2方式では、時系列方向の予測符号化を用いたフレーム間圧縮符号化と、DCT(Discrete Cosine Transform:離散コサイン変換)を用いたフレーム内圧縮符号化とを組み合わせることにより、圧縮符号化を行っている。
端子30から供給された信号は、ブロック化回路31で、例えば16画素×16ラインのマクロブロックに分割される。このマクロブロックは、減算器34の一方の入力端に供給されると共に、動き検出回路40に供給される。さらに、入力された画像データは、統計処理回路32にも供給される。統計処理回路32では、所定の統計処理により入力画像データの複雑さが算出される。算出結果は、ビットレート制御回路33に供給される。
動き検出回路40では、ブロック化回路31から供給されたマクロブロックと、後述する逆量子化回路43および逆DCT回路42とを介して供給される、1フレーム(あるいは1フィールド)前のマクロブロックとを比較して、例えばブロックマッチングにより動きベクトルを得る。得られた動きベクトルは、動き補償回路41に供給される。また、マクロブロック毎の動きベクトルを示す情報が出力端44を介して特徴抽出部10に供給される。動き補償回路41では、この動きベクトルに基づく動き補償が行われ、動き補償された結果が減算器34の他方の入力端に供給される。
減算器34で入力画像データと動き補償結果との差分が求められ、DCT回路35に供給される。DCT回路35では、この差分のマクロブロックをさらに8画素×8ラインからなるDCTブロックに分割し、それぞれのDCTブロックについて、DCTを行う。DCT回路35から出力されたDCT係数は、量子化回路36で量子化される。量子化の際に、ビットレート制御回路33からの制御情報に基づき、ビットレートが制御される。量子化されたDCT係数は、逆量子化回路43およびジグザグスキャン回路37に供給される。
ジグザグスキャン回路37は、DCT係数がジグザグスキャンで出力される。このDCT係数は、VLC回路38で可変長符号化され、圧縮AVデータとして出力端39を介してHDD20に供給される。
VLC回路38での可変長符号化の際の符号化情報がビットレート制御回路33に供給される。ビットレート制御回路33では、この符号化情報と、上述した統計処理回路32によるマクロブロックの複雑さの算出結果とに基づき、出力において適切なビットレートが得られるように、ビットレート制御情報を量子化回路36に供給する。
一方、逆量子化回路43に供給されたDCT係数は、逆量子化され逆DCT回路42によって画像データに復号され、動き検出回路40および動き補償回路41に供給される。
次に、この発明の実施の一形態による記録再生装置1の動作について説明する。外部からDVフォーマットのAVデータと共に、当該AVデータの撮影時のビデオカメラの設定情報や撮影日時が記述されたデータコードが入力処理部12に入力される。入力されたAVデータは、入力処理部12で、DVフォーマットのデコードがなされ、記録信号処理部15に供給される。
記録信号処理部15に供給されたAVデータは、所定の圧縮符号化処理を施され、圧縮AVデータとして、HDD20に記録される。また、圧縮符号化の際に発生する属性情報および映像データが特徴抽出部10に供給される。特徴抽出部10は、記録信号処理部15から供給された属性情報および映像データに基づき特徴データを生成し、メタデータ生成部14に供給する。
一方、入力処理部12に入力されたデータコードは、デコード部11でカメラデータにデコードされ、メタデータ生成部14に供給される。メタデータ生成部14は、カメラデータおよび特徴データに基づき、撮影時の時間に関する時間情報と、AVデータの特徴を示す特徴情報とをタイトルまたはチャプタ毎に生成する。そして、時間情報および特徴情報がメタデータとして、HDD20に記録される。また、メタデータ生成部14は、デコード部11から供給されたカメラデータに基づき、AVデータに対してタイトルおよびチャプタを生成する。
タイトルは、1まとまりのAVデータである。例えば、撮影日時や撮影時に使用されたテープなどを単位としてタイトルが生成される。また、チャプタは、タイトル内で所定に位置を決めて生成される。例えば、撮影時間の不連続部分や一定間隔でチャプタが生成される。
再生時には、操作部24の操作に応じて検索が指示されると、メタデータ管理部21により検索メニュー画面が作成される。検索メニュー画面は、例えば、日時を検索すると共に、特徴をフラグで検索するような画面である。メタデータ管理部21は、検索画面に基づく操作部24の操作に応じてメタデータデータベースに対して検索を行い、検索結果に基づき、HDD20からチャプタの例えば先頭フレームにあたるフレーム画像を読み出し、サムネイル画像作成部26に供給する。
サムネイル画像作成部26は、メタデータ管理部21から供給されたフレーム画像に基づきタイトルまたはチャプタのサムネイル画像を作成し、サムネイル画面を作成する。作成されたサムネイル画面は、出力処理部23を介して外部に出力される。操作部24の操作に応じて、サムネイル画面の中から1のサムネイル画像が選択されると、メタデータ管理部21は、選択されたサムネイル画像に対応するAVデータをHDD20から読み出すための再生制御信号を生成し、再生信号処理部22に供給する。再生信号処理部22は、メタデータ管理部21から供給された再生制御情報に基づき、HDD20から圧縮AVデータを読み出して復号し、復号されたAVデータを、出力処理部23を介して外部に出力する。
ビデオカメラから入力され、記録媒体に記録されたAVデータに対する、タイトルおよびチャプタについて説明する。図4は、記録媒体に記録されたAVデータの具体的な例を示す。AVデータには、例えば、カメラデータの撮影日付データに基づき、タイトルが設定される。この時、設定されたタイトルと撮影日時とが対応付けられ、タイトルと撮影日時との対応関係を示すタイトルリストが生成される。
図5は、タイトルリストの一例を示す。タイトルリストは、撮影時のビデオカメラの設定や日時が記述されたカメラデータに基づき、それぞれのタイトルに対して撮影日時が対応付けられて生成されるリストである。「タイトル」は、AVデータのタイトル番号を示す。また、「時間」は、AVデータが撮影された「年」、「月」、「日」、「時」および「分」を示す。
タイトルは、チャプタに分割することができる。タイトルは、例えば、カメラデータの撮影時間データに基づき、時間の不連続部分でチャプタに分割され、チャプタの先頭にタイトルの先頭フレームからのフレーム数が対応付けられる。図6は、チャプタとフレーム数との対応関係を示すフレームリストの一例を示す。例えば、指定されたチャプタから再生する場合は、フレームリストに記述された対応関係に基づき、対応付けられたフレームからの再生を開始する。例えば、タイトル「1」のチャプタ#3を再生する場合には、フレームリストに基づき、第121フレームから再生する。
上述したように、この発明では、ビデオカメラから入力され、記録媒体に記録された映像データを、例えば、MPEG2方式により圧縮符号化している。この場合、DCTを用いたフレーム内圧縮符号化と、時系列方向の予測符号化を用いたフレーム間圧縮符号化とを用いて映像データを圧縮符号化する。ここで、時系列方向に予測符号化を行ったB(Bidirectionally)ピクチャおよびP(Predictive)ピクチャと、1画面(1フレーム)で完結するI(Intra)ピクチャとが定義される。最低1枚のIピクチャを含むそれ自身で完結したグループをGOP(Group Of Picture)と呼び、MPEGの映像データにおいて独立してアクセス可能な最小の単位とされる。例えば、1GOPは、1枚のIピクチャと、複数枚のPピクチャおよびBピクチャからなる15フレームから構成することができる。この場合、チャプタの先頭は、GOPのIピクチャに対応付けられる。
なお、チャプタの設定は、カメラデータの時間データに基づいて設定するように説明したが、これに限らず、例えば、5分間隔や10分間隔など、所定時間毎に設定するようにしてもよい。
次に、特徴抽出部10において、AVデータから特徴を抽出する方法について説明する。AVデータに含まれる映像データおよび音声データは、映像の動きや色、音声の周波数帯や音声レベルなど、様々な特徴を有している。この発明の実施の一形態では、このような特徴を抽出し、抽出された特徴をAVデータに対応付ける。特徴の抽出は、例えば、チャプタ単位で行われ、抽出された特徴がそれぞれのチャプタに対応付けられるようにしている。
先ず、映像データから抽出される特徴の例について説明する。撮影した映像を後に検索する際に、有用であると思われる撮影時の状況は以下のものが考えられる。
(1)三脚使用の有無
(2)背景の色
(3)被写体の色
(4)明るさ
(5)撮影対象
これらの状況は、ビデオカメラから入力され、記録媒体に記録された映像データを圧縮符号化する際に用いられるフレーム間の動きベクトルやフレーム内の画素データなどを解析することにより判別できると考えられる。
(1)三脚使用の有無について
三脚使用の有無は、映像のブレの度合いにより判断することができる。例えば、三脚を使用して撮影した場合、ビデオカメラが固定されるため、映像は、殆どブレることがないと考えられる。一方、ビデオカメラを手で持って撮影した場合、ビデオカメラを固定することができないため、映像がブレてしまうと考えられる。例えば、ステージや室内においてビデオカメラを三脚で固定して撮影した場合、背景の映像は、ブレることがないので、背景のブレる度合いによって、三脚を使用しているか否かを判断することができると考えられる。
映像がブレているか否かは、例えば、背景の映像データの動きベクトルに基づき、背景のブレの度合いを検出することにより判断することができる。上述したように、例えば、1フレーム分の画像データは、16画素×16ラインのマクロブロックに分割されている。これらのマクロブロックの中から、被写体の動きを考慮して背景とみなす領域、例えば、画面枠周辺の内側の所定領域におけるフレーム間のマクロブロックに基づき求められる動きベクトルを用いる。
図7は、ステージを撮影した場合の画面の一例を示す。この時、例えば、ステージの段や、左右および上部の幕は、動かないと考えられる。すなわち、撮像対象である被写体の動きを考慮して、画面枠周辺の内側の所定領域(領域a)は、背景の領域とみなすことができる。
映像のブレが発生しているか否かは、この背景とみなす領域aの動きベクトルに基づき判断できる。この領域aにおける動きベクトルに基づき算出される動き量が所定量以上の場合は、ブレが発生しているとみなし、三脚を使用していないと判断する。一方、動き量が所定量以下である場合は、ブレが発生していないとみなし、三脚を使用していると判断する。
なお、背景とみなす領域は、状況に応じて、例えば、画面の上下端の周辺の領域や左右端の周辺の領域のみなど、適宜設定するようにしてもよい。また、例えば、画面の周辺の所定領域の幅を広げたり、または狭めたりしてもよい。
(2)背景の色について
背景の色は、背景の映像データの色により判断することができる。例えば、木々や芝生のある公園などで撮影した場合には、背景の色として「緑」が多いと考えられる。また、海などの水辺で撮影した場合には、背景の色として「青」が多いと考えられる。このように、背景には、撮影する場所に応じて代表的な色があることが多い。
そこで、撮影された映像データのうち、背景の領域の色を解析することにより、背景の代表的な色を抽出する。例えば、先ず、RGB(Red/Green/Blue)値によって表される全ての色を、RGB値の範囲に応じて、例えば、一般的によく知られた複数種類の色名に分類する。
次に、1フレームを所定の複数の領域に分割し、分割された領域のうち、背景と考えられる領域、例えば、画面の上端や下端の所定の領域内の画素のRGB値を検出する。検出されたRGB値から、背景と考えられる領域内のそれぞれの画素の色が、複数種類に分類された色名のうちどの色名に対応付けられるかを判断する。そして、最も多い画素が対応付けられた色名を背景の代表色とする。なお、領域を分割する方法としては、例えば、マクロブロックを用いてもよい。
(3)被写体の色について
被写体の色は、被写体の映像データの色により判断することができる。撮影された映像データのうち、被写体が映っている領域の色を解析することにより、被写体の代表的な色を抽出する。例えば、先ず、背景の色の場合と同様に、RGB値によって表される全ての色を、RGB値の範囲に応じて複数種類の色名に分類する。
次に、1フレームを所定の複数の領域に分割し、分割された領域のうち、被写体が映っていると考えられる領域、例えば、映像データの中心部分などの領域の画素についてRGB値を検出する。背景の色の場合と同様に、所定領域内の画素は、検出されたRGB値に基づき、複数種類に分類された色名から、RGB値の範囲に応じて対応付けられる。そして、最も多い画素が対応付けられた色名を被写体の代表色とする。
図8は、屋外である人物を撮影した場合の画面の一例である。この例では、RGB値によって表される全ての値を、RGB値の範囲に応じて、一般的によく知られた色名、例えば、「黒」、「茶」、「赤」、「橙」、「黄」、「緑」、「青」、「紫」、「白」および「灰」の10色に分類した場合について考える。
先ず、背景色の判断方法について説明する。図8に示す例の場合、例えば、空の部分や芝生の部分は、背景であると考えられる。すなわち、画面の上端の周辺の所定の領域(領域b)や、画面の下端の周辺の所定領域(領域c)は、背景の領域とみなすことができる。
例えば、領域bを背景の領域とみなした場合、領域b内には、空と雲と木とがある。これらの画素のRGB値を検出すると、空の部分の画素が「青」、雲の部分の画素が「白」、木の部分の画素が「緑」に分類されると考えられる。また、領域bのうち、空と雲と木との割合は、それぞれ約75%、約10%、約15%であると考えられる。領域bの画素が分類される色名で最も多いのは、10種類に分類された色名のうち、「青」であると考えられるので、検出されたRGB値に基づき、領域bの色名は、例えば「青」であると判断することができる。
また、例えば、領域cを背景の領域とみなした場合、領域c内には、芝生がある。これらの画素のRGB値を検出すると、芝生の部分の画素は、検出されたRGB値から「緑」に分類されると考えられる。領域c内の殆どの画素は、10種類に分類された色名のうち、「緑」に分類されると考えられるので、検出されたRGB値に基づき、領域cの色名は、例えば「緑」であると判断することができる。
次に、被写体色の判断方法について説明する。図8に示す例の場合、例えば、人物Aの部分は、被写体であると考えられる。すなわち、画面の中心部分の所定領域(領域d)は、被写体の領域とみなすことができる。例えば、領域dを被写体の領域とみなした場合、領域d内には、人物Aと芝生と空とがある。これらの画素のRGB値を検出すると、人物Aの部分の画素が「赤」、芝生の部分の画素が「緑」、空の部分の画素が「青」に分類されると考えられる。また、領域dのうち、人物Aと芝生と空との割合は、それぞれ約60%、約30%、約10%であると考えられる。領域dの画素が分類される色名で最も多いのは、10種類に分類された色名のうち、「赤」であると考えら得るので、検出されたRGB値に基づき、領域dの色名は、例えば「赤」であると判断することができる。
なお、背景または被写体の色の判断方法は、この例に限られない。例えば、背景の領域または被写体が映っていると考えられる領域内の画素のRGB値を累積し、累積されたRGB値を正規化することによって得られるRGB値に基づき、代表的な色を判断してもよい。
また、この例では、撮影された映像データから、予め背景の領域と被写体の領域とに分けて、それぞれの代表的な色を抽出するように説明したが、これはこの例に限られない。例えば、動きベクトルを用いて背景および被写体の領域を分けることによっても、それぞれの代表的な色を抽出することができる。
例えば、撮影された映像データのどの部分が背景で、どの部分が被写体であるかは、所定時間内におけるフレーム間のマクロブロックついて求められた動きベクトルに基づき判断することができる。
例えば、図9に示すように、人物Aが移動する映像を撮影している場合について考える。この場合、人物Aから少し離れた芝生は、殆ど動かないと考えられるため、この芝生が含まれるマクロブロック(領域e)の動きベクトルに基づく動き量は小さいと考えられる。一方、人物Aは動いているため、人物Aが含まれるマクロブロック(領域f)の動きベクトルに基づく動き量は大きいと考えられる。
このようにして、所定の領域における動きベクトルに基づき算出される動き量が所定量以下である場合は、そのマクロブロック内の映像データが背景であると判断し、動き量が所定量以上である場合は、そのマクロブロック内の映像データが被写体であると判断する。こうすることにより、撮影された映像データから背景の領域と被写体の領域とを判断することができる。そして、上述と同様の方法を用いることにより、背景および被写体の代表的な色を抽出することができる。
なお、上述の例では、ビデオカメラを固定した場合について説明したが、例えば、被写体を追って撮影した場合には、背景が動き、被写体が固定されると考えられるので、背景と被写体との関係は、上述と異なり、動きベクトルに基づく動き量が大きい部分が背景となり、また、動き量が小さい部分が被写体となると考えられる。
また、代表的な色の抽出方法は、これに限られず、例えば、背景や被写体の代表的な色を抽出する際に、複数の色名を代表的な色としてもよい。例えば、所定の画素数以上の画素が対応付けられた色名が複数ある場合は、最も多い画素が対応付けられた色名と、その次に多い画素が対応付けられた色名とを代表的な色としてもよい。
さらに、上述では、背景と被写体の映像データに分類して、それぞれの映像データの代表的な色を抽出したが、背景と被写体とに分けずに、1つのチャプタに対して1つの代表的な色を抽出するようにしてもよい。この場合、映像データの領域の分割を行わずに、1つのチャプタ内の全ての映像データについてのヒストグラムをRGBそれぞれについて解析することで、代表的な色を抽出することが考えられる。
(4)明るさについて
明るさは、例えば、1フレーム(あるいは1フィールド)の全ての画素の明るさにより判断することができる。映像データの明るさは、撮像時の光量により異なり、例えば、晴れた日の日中に戸外で撮影した場合、映像データは、明るいものとなる。また、夕方や夜などに撮影した場合、映像データは、暗くなる。
そこで、例えば、1フレーム(あるいは1フィールド)の画素について輝度値を検出し、検出された輝度値の和を算出する。明るい映像データは、画面全体の輝度値の合計が高い値を示し、暗い映像データは、輝度値の合計が低い値を示す。そして、例えば、算出された輝度値の和に対して1または複数の閾値を所定に設け、輝度値の和を閾値により分類する。
(5)撮影対象について
撮影対象は、映像データから撮影されている人物を認識することにより判断できる。人相は、例えば、顔に対する目や鼻の位置や大きさなど、人物によって異なるという特徴がある。そこで、撮影された映像データから被写体の顔を解析することにより、撮影の対象を判断することができる。
以下、撮影対象を判断する方法について、概略的に説明する。先ず、撮影対象となる人物、例えばユーザや配偶者、子供などの人相の画像を予め登録しておく。次に、撮影された画像データに対して人物認識処理を行い、顔らしきイメージが認識されたら、人相の認識を行う。この、画像データから顔らしきイメージを認識する技術は、既に幾つかが実用化されている。人相の認識では、顔として認識された部分に複数の特徴点を設け、これら複数の特徴点の位置関係に基づき、人物画像マスタに登録済みの人相画像に対するスコアを算出し、スコアが所定値以上の登録済み画像を一致度が高い人相画像として抽出する。1つの画像データから一致度が所定値以上の人相画像が複数、得られた場合は、得られた複数の登録済み画像をそれぞれ抽出する。
このような人相画像の抽出技術としては、例えば、既に実用化されている、ガボールウェーブレット変換およびグラフマッチングを併用した顔認証技術や、摂動空間法および適用的領域混合マッチング法を併用した顔認証技術などを用いることができる。
なお、例えば、予め登録された人相画像に基づき、複数の人物が抽出された場合には、抽出された複数の人物を撮影対象としてもよい。
次に、音声データから抽出される特徴について説明する。音声データから得られる特徴で、有用であると考えられる情報は、以下の通りである。
(6)人声の有無
(7)音声レベル
(8)盛り上がりシーンの有無
これらの特徴は、音声のスペクトルや音声パターン、レベルなどを解析することにより抽出できる。
(6)人声の有無について
人声の有無は、収音された音声のスペクトルにより判断することができる。例えば、人声は、性別や年齢層によって、スペクトル分布や音圧レベルが異なるという特徴がある。音声データの統計的性質に基づくと、男女の発声には、それぞれ特徴があることが知られている。図10に示すように、100Hz程度の低い周波数帯に関して、男性の音圧レベルは、女性の音圧レベルに比べて高いことがわかる。
また、図11及び図12に示すように、男女の基本周波数及び発声頻度が高い周波数は、それぞれ125Hzおよび250Hz付近であり、男性に比べて女性は、基本周波数が2倍程度であることがわかる。さらに、音声の音響的特性を決める物理的要因には、音源の特性、音道の共鳴特性及び口唇ないし鼻孔からの音波の放射特性がある。音声のスペクトルには、声道の共鳴に対応したいくつかの山、すなわちフォルマントがあり、例えば図13に示すように、母音のフォルマントや子音のフォルマント等のおおよその領域がわかる。
このように、収音された音声から人声を抽出し、抽出された人声のスペクトル分布や音圧レベルを解析することにより、人声の有無を判断することができる。
また、例えば、特定の音声パターンを予め登録しておき、撮影時に収音された音声データと、予め登録した音声パターンとを比較することにより、特定の人物の音声の有無を判断することもできる。
例えば、ユーザや配偶者、子供など、撮影をする可能性のある人物の音声パターンを予め登録する。そして、撮影時に収音された音声データと、予め登録した音声パターンとを比較する。比較の結果、撮影時に収音された音声データの中から、登録してある音声パターンと同一の音声パターンが検出された場合には、撮影者が音声を発していると判断する。一方、撮影時に収音された音声データの中から、登録してある音声パターンと同一の音声パターンが検出されなかった場合には、撮影者は音声を発していないと判断する。
(7)音声レベルについて
音声レベルは、例えば、収音された音声のレベルによって判断することができる。音声レベルは、撮影する場所によって異なる。例えば、室内で撮影する場合、音声が壁などに反射するため、収音される音声は、平均的に高くなる。一方、屋外で撮影する場合、音声の反射の度合いが低く、また、地面などに音声が吸収されてしまうため、収音される音声は、平均的に低くなる。
そこで、例えば、収音された音声の音声レベルを検出し、検出された音声レベルの平均値を算出する。そして、算出された音声レベルの平均値に対して、1または複数の閾値を所定に設け、音声レベルの平均値を閾値により分類する。
(8)盛り上がりシーンの有無について
盛り上がりシーンの有無は、例えば、収音された音声の波形によって判断することができる。例えば、盛り上がるシーンでは、多人数による拍手や歓声が起こることが多いと考えられる。一方、盛り上がらないシーンでは、多人数による拍手や歓声は起こることは少ないと考えられる。そこで、収音された音声から多人数による拍手や歓声を検出することにより、盛り上がり場面の有無を検出することができる。
図14を用いて、音声信号を用いて盛り上がりシーンを検出する例について説明する。この図14の例の場合は、歓声、拍手および全体の音量に注目して、盛り上がっていると考えられる期間を盛り上がりシーンとして特定する。図14Aに示されるように、テレビジョン放送による音声データと映像データとが、時間軸に沿って、特徴抽出部10に供給される。特徴抽出部10では、これらの信号のうち音声信号を用いて、以下の3種類の解析を行う。
第1は、音量の時間当たりの変化量の解析である(図14B参照)。例えば音声信号の波形のエンベロープを求め、このエンベロープを微分する。微分値の絶対値が閾値以上の時刻を求め、微分値が正の値の時刻を盛り上がりシーンの開始時刻tsの候補、負の値の時刻を終了時刻teの候補としてメモリなどに記憶する。
第2は、音声信号を解析し、歓声の部分を抽出する(図14C参照)。歓声は、特定の人声の集合であるから、人声に基づく所定の周波数fVにピークを持つと考えられる。音声信号を、例えば中心周波数がfVであるバンドパスフィルタを用いてフィルタリングしてこの周波数fV近傍の周波数成分を抽出し、平均音量からの増加量を調べる。平均音量から増加している期間の先頭および終端の時刻を、盛り上がりシーンの開始時刻tsの候補、終了時刻teの候補として、メモリなどに記憶する。
第3は、音声信号を解析し、拍手の部分を抽出する(図14D参照)。拍手は、打撃音であって、人声の周波数fVよりも高い周波数fPにピークを持つと考えられる。音声信号を、例えば中心周波数がfPであるバンドパスフィルタを用いてフィルタリングしてこの周波数fP近傍の周波数成分を抽出し、平均音量からの増加量を調べる。平均音量から増加している期間の先頭および終端の時刻を、盛り上がりシーンの開始時刻tsの候補、終了時刻teの候補として、メモリなどに記憶する。
音声信号に対してこれら3種類の解析を行い、解析結果に対してそれぞれ重み付けをした結果を演算し、演算結果に基づき盛り上がりシーンを判断する。図14の例では、図14Eに一例が示されるように、時刻ts1から時刻te1までを第1の盛り上がりシーンとし、時刻ts2から時刻te2までを第2の盛り上がりシーンとして、それぞれ判断している。
なお、上述では、チャプタ毎に特徴を抽出したが、複数のチャプタにより構成されるタイトルとしての特徴を抽出することもできる。この場合、例えば、タイトル内の全てのチャプタで抽出された特徴の平均値を用いるようにしてもよい。
さらに、これに限らず、タイトル全体でそれぞれの特徴抽出を行い、特徴データを生成するようにしてもよい。
次に、フラグリストについて説明する。図15は、フラグリストの一例を示す。フラグリストは、上述のように抽出されたそれぞれの特徴の内容と、解析結果に応じて設定されるフラグとを表している。図15に示す「項目」は、抽出された特徴に対応付けられる番号を示す。「内容」は、特徴抽出部10で抽出される特徴の内容を示す。「フラグ」は、それぞれの特徴内容に対する解析結果に応じて設定される値を示す。
項目「1」は、三脚使用の有無を示す。「三脚使用」は、例えば、三脚を使用している場合と使用していない場合とに分類される。例えば、三脚を使用していないと判断された場合は、フラグに値「0」が設定され、三脚を使用していると判断された場合は、フラグに値「1」が設定される。
項目「2」は、背景色を示す。「背景色」は、この例においては、一般的によく知られている色名、例えば、「黒」、「茶」、「赤」、「橙」、「黄」、「緑」、「青」、「紫」、「白」および「灰」の10色に分類され、それぞれの色名に対してフラグに値「0」、「1」、「2」、「3」、「4」、「5」、「6」、「7」、「8」および「9」がそれぞれ対応付けられる。例えば、背景の色が黒であると判断された場合は、フラグに値「0」が設定され、緑であると判断された場合は、フラグに値「5」が設定される。
項目「3」は、被写体色を示す。「被写体色」は、この例においては、背景色の分類と同様に、一般的によく知られている色名、例えば、「黒」、「茶」、「赤」、「橙」、「黄」、「緑」、「青」、「紫」、「白」および「灰」の10色に分類され、それぞれの色に対してフラグに値「0」、「1」、「2」、「3」、「4」、「5」、「6」、「7」、「8」および「9」がそれぞれ対応付けられる。例えば、被写体の色が黒であると判断された場合は、フラグの値「0」が設定され、赤であると判断された場合は、フラグに値「2」が設定される。
項目「4」は、明るさを示す。「明るさ」は、例えば、ビデオカメラが撮影時にとり得る輝度値の範囲を複数の閾値によって段階的に分類している。この例では、輝度値に対して9個の閾値を設定し、輝度値を10段階に分類している。例えば、算出された輝度値の和が一番低い閾値以下である場合は、フラグに値「0」が設定され、輝度値の和が一番高い閾値以上である場合は、フラグに値「9」が設定される。
項目「5」は、撮影対象を示す。「撮影対象」は、例えば、予め登録されている人相画像に基づき、撮影対象の人物に対してフラグに値が対応付けられる。この例では、「ユーザ」、「配偶者」、「子供」、「父」、「母」、「友人A」、「友人B」に対して、それぞれフラグに値「0」、「1」、「2」、「3」、「4」、「5」、「6」が対応付けられる。例えば、撮影対象がユーザであると判断した場合は、フラグに値「0」が設定され、撮影対象が子供であると判断した場合には、フラグに値「2」が設定される。
項目「6」は、撮影者音声の有無を示す。「撮影者音声」は、例えば、予め登録されている特定の人物の音声パターンがある場合とない場合とに分類される。例えば、撮影者の音声がないと判断された場合は、フラグに値「0」が設定され、撮影者の音声があると判断された場合は、フラグに値「1」が設定される。
項目「7」は、撮影時の音声レベルを示す。「音声レベル」は、例えば、ビデオカメラが撮影時にとり得る音声レベルの範囲を複数の閾値によって段階的に分類している。この例では、音声レベルに対して9個の閾値を設定し、音声レベルを10段階に分類している。例えば、算出された音声レベルの平均値が一番低い閾値以下である場合は、フラグに値「0」が設定され、音声レベルの平均値が一番高い閾値以上である場合は、フラグに値「9」が設定される。
項目「8」は、盛り上がりシーンの有無を示す。「盛り上がりシーン」は、例えば、盛り上がるシーンがある場合とない場合とに分類される。例えば、盛り上がりシーンがないと判断された場合は、フラグに値「0」が設定され、盛り上がりシーンがあると判断された場合は、フラグに値「1」が設定される。
なお、図15のフラグリストは一例であって、これはこの例に限られない。例えば、図15に記載された項目以外にも特徴となる項目を持たせてもよいし、項目の数がこれより少なくてもよい。
次に、上述のように抽出された特徴に基づいて、特徴情報を生成する方法について説明する。図16は、特徴リストの一例を示す。特徴リストは、特徴抽出部10で抽出された特徴と図15に示すフラグリストとを照合し、抽出された特徴の「項目」と、その項目に対して設定されたフラグの「値」とが対応付けられたリストである。
特徴リストのそれぞれの項目の値の決定方法について、具体的な例を挙げて説明する。例えば、「天気の良い日中に、芝生におおわれた公園で遊んでいる、赤い服を着た撮影者の子供を、ビデオカメラを手に持ちながら、撮影者と子供とが会話をしながら」撮影した映像について考える。この時、抽出される特徴に対するフラグは、次のようになる。
三脚使用の有無(項目「1」)については、「ビデオカメラを手に持って撮影している」ことから、撮影された映像には、ブレが発生すると考えられる。そのため、特徴抽出部10では、ブレが検出され、三脚を使用していないと判断されるので、項目「1」の値を「0」とする。
背景色(項目「2」)は、「芝生におおわれた公園で遊んでいる」ことから、撮影された映像のうち、芝生を含む領域が背景とみなす領域になると考えられる。背景とみなす領域では、図15に示す10色に分類された色名のうち、緑に対応付けられる画素が最も多いと考えられる。そのため、撮影された映像データの背景色は、緑であると判断されるので、項目「2」の値を「5」とする。
被写体色(項目「3」)は、「赤い服の子供」を撮影していることから、撮影された映像のうち、子供を含む領域が被写体とみなす領域になると考えられる。被写体とみなす領域では、図15に示す10色に分類された色名のうち、赤に対応付けられる画素が最も多いと考えられる。そのため、撮影された映像データの被写体色は、赤であると判断されるので、項目「3」の値を「2」とする。
明るさ(項目「4」)は、「天気の良い日中」であることから、撮影された映像データの画素の輝度値の和は、高い値を示すと考えられる。そのため、映像データの輝度値の和に基づき、明るさは、かなり明るいと判断されるので、項目「4」の値を「8」とする。撮影対象(項目「5」)は、「撮影者の子供」を撮影していることから、予め登録されている子供の人相画像に近い人相の人物が検出されると考えられる。そのため、撮影対象が子供であると判断されるので、項目「5」の値を「2」とする。
撮影者音声(項目「6」)は、「撮影者の子供と会話しながら」撮影していることから、収音された音声から、予め登録されている撮影者の音声パターンが検出されると考えられる。そのため、撮影者の音声があると判断されるので、項目「6」の値を「1」とする。音声レベル(項目「7」)は、「公園で遊んでいる」ことから、屋外での撮影であり、音声の反射などが少ないと考えられる。そのため、特徴抽出部10では、音声レベルの平均値に基づき、音声レベルは、標準的であると判断されるので、項目「7」の値を「5」とする。盛り上がりシーンの有無(項目「8」)は、「公園で遊んでいる撮影者の子供」を撮影していることから、多人数による拍手や歓声の音声は、収音されないと考えられる。そのため、収音された音声には、特定の周波数にピークを持つ音声はないと考えられ、盛り上がりシーンはないと判断されるので、項目「8」の値を「0」とする。
このようにして、抽出されたそれぞれの特徴に対するフラグの値が設定され、これらの値が記述された特徴情報は、メタデータとして、記録媒体に記録される。
なお、上述の特徴リストは一例であって、これはこの例に限られない。例えば、フラグリストの項目に応じて、生成される特徴リストに項目を多く持たせてもよいし、少なくてもよい。
次に、記録媒体に記録されたAVデータを再生する際の検索方法について、より詳細に説明する。この発明の実施の一形態では、フラグリストに記述された特徴や撮影日時に基づき検索メニュー画面を作成し、作成された検索メニュー画面に表示される項目について、フラグを選択することにより、検索を行う。そして、検索メニュー画面で入力された各項目のフラグと一致するタイトルやチャプタを探し、該当するタイトルやチャプタを一覧表示して、選択できるようにしている。
図17は、検索メニュー画面200の一例を示す。検索メニュー画面200には、例えば、検索項目201、フラグ表示領域202、プルダウン表示ボタン203、検索開始ボタン204および単位選択項目205が表示される。検索項目201は、映像や音声の特徴や撮影日時といった、検索条件となる項目を表す。
検索項目201のうち、特徴を選択する項目としては、例えば、図15に示すフラグリストに記述された特徴に基づき、「三脚」、「背景色」、「被写体色」、「明るさ」、「撮影対象」、「撮影者音声」、「音声レベル」および「盛り上がり」が表示される。そして、これらの特徴に対して、フラグリストに記述されたフラグが設定される。
また、検索項目201のうち、撮影日時を選択する項目としては、例えば、カメラデータの撮影日時データに基づき、「撮影時期」、「季節」および「時間帯」が表示される。「撮影時期」の項目は、例えば、2003年や2004年など、撮影した年をフラグとして設定することができる。「季節」の項目は、例えば、春や夏など、撮影した季節をフラグとして設定することができる。例えば、3月〜5月に撮影されたタイトルまたはチャプタには「春」、6月〜8月に撮影されたタイトルまたはチャプタには「夏」、9月〜11月に撮影されたタイトルまたはチャプタには「秋」、12月〜2月に撮影されたタイトルまたはチャプタには「冬」のフラグがそれぞれ設定される。
「時間帯」の項目は、例えば、午前や午後など、撮影した時間帯をフラグとして設定することができる。例えば、6時から12時に撮影されたタイトルまたはチャプタには「午前」、12時から18時までに撮影されたタイトルまたはチャプタには「午後」、18時から6時までに撮影されたタイトルまたはチャプタには「夜」のフラグがそれぞれ設定される。
なお、撮影日時は、撮影した時間まで細かく限定すると、検索結果が得られない可能性が高い。そのため、例えば、上述のように「季節」や「時間帯」など、幅を持たせることで、検索の対象を増やすことができる。
単位選択項目205は、検索の単位がタイトル単位であるか、チャプタ単位であるかを選択する項目である。
フラグ表示領域202は、それぞれの検索項目201に設けられ、検索項目201で現在選択されているフラグとフラグに対応付けられた名称とを表示する。なお、フラグの値は、省略することができる。プルダウン表示ボタン203は、それぞれの検索項目201に設けられ、検索項目201に設定されているフラグをプルダウン形式で表示するためのボタンである。検索開始ボタン204は、各検索項目201のフラグを選択した後、検索を開始するためのボタンである。
次に、検索項目201に対してフラグを選択する方法について、図18を参照して、具体的に説明する。ここでは、例えば、背景色の項目を選択し、フラグとして「青」を選択する場合について説明する。
例えば、操作部24であるリモートコントロールコマンダ(以下、リモコンと適宜称する)に設けられた十字キーを操作してカーソルを移動させて「背景色」の検索項目201のプルダウンボタン203を選択し、リモコンに設けられた決定キーを押すと、「背景色」の検索項目201に設定されているフラグ一覧206がプルダウン形式で表示される。
フラグ一覧206には、フラグリストに設定されているフラグとフラグに対応付けられた名称とが一覧表示される。リモコンの十字キーを操作して、表示されたフラグ一覧206の中から「青」のフラグを選択し、決定キーを押すと、フラグ一覧206が閉じ、「背景色」の項目にフラグ「6」が設定され、フラグ表示領域202に選択されたフラグの名称(青)が表示される。このようにして、他の検索項目201についても上述と同様に、設定する検索項目201を選択し、フラグを決定する。
なお、フラグ一覧206には、フラグリストに記述されているフラグの他に、「選択なし」が表示される。フラグ一覧206の中から「選択なし」を選択した場合、検索の際にその検索項目201を無視して検索を行うことができる。
全ての検索項目201について、フラグを設定した後、十字キーを操作して、カーソルを検索開始ボタン204に移動させて検索開始ボタン204を選択し、決定キーを押すことにより、それぞれの検索項目201に設定されたフラグに基づき、検索が開始される。検索は、選択された項目についてand検索が行われる。なお、検索は、and検索に限らず、例えば、or検索でもよい。
検索が完了すると、上述のようにして設定された全ての検索項目201におけるフラグに合致するタイトルまたはチャプタの一覧が表示される。図19は、検索結果画面210の一例を示す。検索結果画面210には、検索時に設定した検索項目201のフラグに合致した、タイトルまたはチャプタのサムネイル画像211、211、・・・とそのタイトルまたはチャプタの日付212が一覧表示される。
検索結果として一覧表示されたタイトルまたはチャプタを再生するには、リモコンの十字キーを操作することにより、カーソルを移動させ、検索結果として表示されているサムネイル画像211、211、・・・の中から目的のサムネイル画像を選択する。サムネイル画像を選択後、リモコンの決定キーを押すことにより、AVデータが再生される。
検索結果画面210に一覧表示の中に、所望のタイトルまたはチャプタがない場合には、十字キーを操作してカーソルを再検索ボタン213に移動させ、決定キーを押すことにより、検索メニュー画面200に戻り、再度検索を行うことができる。
なお、検索の結果、多数のタイトルまたはチャプタが表示された場合は、絞り込み検索ボタン214を選択することにより、表示された内容に対して、さらに検索を行い、タイトルまたはチャプタを絞り込むことができる。絞り込み検索ボタン214を選択した場合、検索条件が設定された状態の検索メニュー画面200が再度表示され、例えば、選択されていない項目についてフラグを選択したり、選択されているフラグを変更したりすることができる。
次に、図20のフローチャートを用いて、この発明の実施の一形態によるタイトルまたはチャプタの検索方法について説明する。ここでは、選択された項目についてand検索を行う場合を例にとって説明する。先ず、ステップS10で、メタデータ管理部21は、HDD20からフラグリストを読み出し、読み出されたフラグリストに記述された項目に基づき、検索メニュー画面200を作成する。作成された検索メニュー画面200は、OSD(On Screen Display)機能により、外部に接続された表示装置などに表示される。
ユーザの操作部24への操作により、特徴および日時に関する項目のフラグが選択され、検索開始ボタンが押されると、ステップS11において、各項目のフラグが選択されたか否かが判断される。フラグが選択されたと判断された場合、処理は、ステップS12に移行する。一方、検索メニューから項目が全て選択されていないと判断された場合は、処理は、S10に戻る。
ステップS12では、メタデータ管理部21は、検索メニュー画面200で選択された検索項目201のフラグに基づき、メタデータデータベースを検索する。ステップS13では、ステップS12における検索の結果、検索項目201で選択したフラグを満たすチャプタがあるか否かが判断される。選択された全てのフラグを満たすチャプタがあると判断された場合、処理は、ステップS14に移行する。一方、選択された全てのフラグを満たすチャプタがない判断された場合、処理は、ステップS10に戻る。
ステップS14では、検索するAVデータの単位が判断される。検索メニュー画面200の単位選択項目205で選択された単位がタイトルである場合、処理は、ステップS15に移行し、特徴および日付が合致するチャプタが含まれたタイトルを抽出し、当該タイトルの先頭チャプタのフレーム番号を取得する。一方、検索の単位がチャプタである場合、処理は、ステップS16に移行し、特徴および日付が合致するチャプタと、そのチャプタが含まれるタイトルとを抽出し、当該チャプタのフレーム番号と、そのチャプタが含まれるタイトルの先頭チャプタのフレーム番号とを取得する。
ステップS17において、メタデータ管理部21は、取得したフレーム番号に基づき、例えば、抽出されたチャプタの先頭フレームや5秒後のフレーム画像をHDD20から読み出し、サムネイル画像作成部26に供給し、サムネイル画像作成部26で所定に間引いてサムネイル画像を作成する。そして、サムネイル画像作成部26は、作成されたサムネイル画像と日付情報とを並べて検索結果画面210を作成する。作成された検索結果画面210は、OSD機能により、表示装置などに表示される。
なお、検索の結果、一覧表示の中に所望のタイトルまたはチャプタがない場合には、再検索ボタン213を選択し、検索メニュー画面200を表示させて、再度検索を行うことができる。
このように、抽出された特徴をフラグに置き換えてメタデータを生成することにより、メタデータの容量を小さくすることができる。また、検索を行う際には、メタデータに記述されたフラグに基づき検索を行うため、例えばキーワードによりテキスト情報に対して全文一致検索を行う場合と比べて、高速で検索することができる。
なお、この発明は、上述したこの発明の実施の一形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。例えば、上述では、記録媒体としてハードディスクを用いた例について説明したが、これに限らず、記録媒体として、記録型DVDや半導体メモリなどを用いることができる。
また、例えば、動画だけでなく、静止画について特徴を抽出するようにしてもよい。
この発明の実施の一形態による記録再生装置の使用形態を示す略線図である。 この発明の実施の一形態による記録再生装置の一例の構成を示すブロック図である。 記録信号処理部における圧縮符号化を行う回路の一例の構成を示すブロック図である。 AVデータの具体例を示す略線図である。 タイトルリストの一例を示す略線図である。 フレームリストの一例を示す略線図である。 撮影された映像から三脚の使用有無を抽出する方法を説明するための略線図である。 撮影された映像から色を抽出する方法を説明するための略線図である。 撮影された映像から動きベクトルを用いて被写体と背景とを判断する方法を説明するための略線図である。 スペクトル解析による男女の発声の特徴を示す略線図である。 スペクトル解析による男女の発声の特徴を示す略線図である。 スペクトル解析による男女の発声の特徴を示す略線図である。 発声の特徴を示す略線図である。 収音された音声から盛り上がりシーンを抽出する方法を説明するための略線図である。 フラグリストの一例を示す略線図である。 特徴リストの一例を示す略線図である。 検索時のメニュー画面の一例を示す略線図である。 検索時のメニュー画面の一例を示す略線図である。 検索結果画面の一例を示す略線図である。 検索時の流れを示すフローチャートである。 従来の記録再生装置において、テレビジョン放送を受信する場合の一例の構成を示すブロック図である。 従来の記録再生装置において、ビデオカメラから入力されたAVデータを記録する場合の一例の構成を示すブロック図である。
符号の説明
1 記録再生装置
10 特徴抽出部
11 デコード部
12 入力処理部
13 ネットワークインタフェース
14 メタデータ生成部
15 記録信号処理部
20 HDD
21 メタデータ管理部
22 再生信号処理部
23 出力処理部
24 操作部
25 CPU
26 サムネイル画像作成部
200 検索メニュー画面
210 検索結果画面

Claims (15)

  1. 映像信号を入力する入力部と、
    上記映像信号により表示される映像の視覚的な特徴を上記映像信号に基づき抽出する特徴抽出部と、
    上記特徴抽出部で抽出された上記特徴と上記映像信号とを関連付けて記録媒体に記録する記録制御部と
    を有し、
    上記特徴に基づき、上記記録媒体に記録された上記映像信号を検索するようにした
    ことを特徴とする記録再生装置。
  2. 請求項1に記載の記録再生装置において、
    上記映像信号は、カメラ一体型ビデオ信号記録装置から出力された映像信号であることを特徴とする記録再生装置。
  3. 請求項1に記載の記録再生装置において、
    上記特徴抽出部は、上記映像信号により表示される撮像対象の動きに基づき上記特徴を抽出することを特徴とする記録再生装置。
  4. 請求項1に記載の記録再生装置において、
    上記特徴抽出部は、上記映像信号により表示される色に基づき上記特徴を抽出することを特徴とする記録再生装置。
  5. 請求項1に記載の記録再生装置において、
    上記特徴抽出部は、上記映像信号により表示される映像の明るさに基づき上記特徴を抽出することを特徴とする記録再生装置。
  6. 請求項1に記載の記録再生装置において、
    上記入力部は、上記映像信号と対応した音声信号がさらに入力され、
    上記特徴抽出部は、上記音声信号による聴覚的な特徴をさらに抽出し、
    上記記録制御部は、上記特徴抽出部で抽出された上記特徴と上記映像信号とを関連付けて上記記録媒体に記録するようにした
    ことを特徴とする記録再生装置。
  7. 請求項6に記載の記録再生装置において、
    上記特徴抽出部は、上記音声信号に含まれる人声の音声パターンに基づき上記特徴を抽出することを特徴とする記録再生装置。
  8. 請求項6に記載の記録再生装置において、
    上記特徴抽出部は、上記音声信号のレベルに基づき上記特徴を抽出することを特徴とする記録再生装置。
  9. 請求項6に記載の記録再生装置において、
    上記特徴抽出部は、上記音声信号の周波数特性に基づき上記特徴を抽出することを特徴とする記録再生装置。
  10. 請求項1に記載の記録再生装置において、
    上記記録制御部は、上記特徴をフラグとして上記記録媒体に記録するようにしたことを特徴とする記録再生装置。
  11. 請求項10に記載の記録再生装置において、
    上記記録媒体に記録された映像信号を、上記特徴抽出部で抽出可能なフラグのリストを用いて検索を行う検索部をさらに有することを特徴とする記録再生装置。
  12. 請求項11に記載の記録再生装置において、
    上記検索部は、上記フラグのリストに基づき、上記特徴の項目を一覧表示する検索画面を作成し、
    上記検索画面で選択された上記特徴の項目において、上記フラグに対応する名称を一覧表示するようにしたことを特徴とする記録再生装置。
  13. 映像信号を入力部に入力し、
    上記映像信号により表示される映像の視覚的な特徴を上記映像信号に基づき抽出し、
    上記抽出された特徴と上記映像信号とを関連付けて記録媒体に記録し、
    上記特徴に基づき、上記記録媒体に記録された上記映像信号を検索するようにした
    ことを特徴とする記録再生方法。
  14. 映像信号を入力する入力部と、
    上記映像信号により表示される映像の視覚的な特徴を上記映像信号に基づき抽出する特徴抽出部と、
    上記特徴抽出部で抽出された上記特徴と上記映像信号とを関連付けて記録媒体に記録する記録制御部と
    を有する
    ことを特徴とする記録装置。
  15. 映像信号を入力部に入力し、
    上記映像信号により表示される映像の視覚的な特徴を上記映像信号に基づき抽出し、
    上記抽出された特徴と上記映像信号とを関連付けて記録媒体に記録するようにした
    ことを特徴とする記録方法。
JP2005230410A 2005-08-09 2005-08-09 記録再生装置および記録再生方法、並びに、記録装置および記録方法 Pending JP2007049332A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005230410A JP2007049332A (ja) 2005-08-09 2005-08-09 記録再生装置および記録再生方法、並びに、記録装置および記録方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005230410A JP2007049332A (ja) 2005-08-09 2005-08-09 記録再生装置および記録再生方法、並びに、記録装置および記録方法

Publications (1)

Publication Number Publication Date
JP2007049332A true JP2007049332A (ja) 2007-02-22

Family

ID=37851811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005230410A Pending JP2007049332A (ja) 2005-08-09 2005-08-09 記録再生装置および記録再生方法、並びに、記録装置および記録方法

Country Status (1)

Country Link
JP (1) JP2007049332A (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009049574A (ja) * 2007-08-15 2009-03-05 Canon Inc アダプタ装置及びその制御方法、コンピュータプログラム
JP2009055445A (ja) * 2007-08-28 2009-03-12 Toshiba Corp 映像検索システム及び映像検索装置
JP2009055446A (ja) * 2007-08-28 2009-03-12 Toshiba Corp 映像検索システム及び映像検索装置
JP2009055447A (ja) * 2007-08-28 2009-03-12 Toshiba Corp 映像検索システム及び映像検索装置
JP2009089032A (ja) * 2007-09-28 2009-04-23 Toshiba Corp 電子機器およびシーン種類表示方法
JP2009207043A (ja) * 2008-02-29 2009-09-10 Casio Comput Co Ltd 動画再生装置、動画再生方法、及びプログラム
JP2009295054A (ja) * 2008-06-06 2009-12-17 Nippon Hoso Kyokai <Nhk> 映像コンテンツ検索装置及びコンピュータプログラム
JP2010187185A (ja) * 2009-02-12 2010-08-26 Kddi Corp 映像コンテンツ保管視聴システムおよび方法
JP2010539628A (ja) * 2007-09-11 2010-12-16 サムスン エレクトロニクス カンパニー リミテッド メタデータを自動的に生成/更新するマルチメディア・データの記録方法及び装置
WO2011044058A2 (en) * 2009-10-08 2011-04-14 Hewlett-Packard Development Company, L.P. Detecting near duplicate images
US8331691B2 (en) 2008-07-03 2012-12-11 Sony Corporation Image data processing apparatus and image data processing method
JP2013218589A (ja) * 2012-04-11 2013-10-24 I-Cubed Research Center Inc 信号処理装置、信号処理方法、およびプログラム
JP2014063508A (ja) * 2008-05-09 2014-04-10 Ltu Technologies Sas 色照合ツールボックス
US8792728B2 (en) 2010-09-27 2014-07-29 Hewlett-Packard Development Company, L.P. Near-duplicate image detection
US9159368B2 (en) 2008-05-19 2015-10-13 Hitachi Maxell, Ltd. Recording and reproducing apparatus and method thereof
JP2018010607A (ja) * 2016-07-11 2018-01-18 日本放送協会 コンテンツ提示装置、コンテンツ提示方法、およびプログラム
US10471212B2 (en) 2009-10-29 2019-11-12 W. L. Gore & Associates, Inc. Silicone free drug delivery devices
JP2020052785A (ja) * 2018-09-27 2020-04-02 キヤノン株式会社 画像データ格納装置、画像データ格納方法、及び、プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299829A (ja) * 1999-04-13 2000-10-24 Canon Inc 画像処理装置及び方法
JP2005286524A (ja) * 2004-03-29 2005-10-13 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラム、および、それらを記録する記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299829A (ja) * 1999-04-13 2000-10-24 Canon Inc 画像処理装置及び方法
JP2005286524A (ja) * 2004-03-29 2005-10-13 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラム、および、それらを記録する記録媒体

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009049574A (ja) * 2007-08-15 2009-03-05 Canon Inc アダプタ装置及びその制御方法、コンピュータプログラム
JP2009055445A (ja) * 2007-08-28 2009-03-12 Toshiba Corp 映像検索システム及び映像検索装置
JP2009055446A (ja) * 2007-08-28 2009-03-12 Toshiba Corp 映像検索システム及び映像検索装置
JP2009055447A (ja) * 2007-08-28 2009-03-12 Toshiba Corp 映像検索システム及び映像検索装置
US8255395B2 (en) 2007-09-11 2012-08-28 Samsung Electronics Co., Ltd. Multimedia data recording method and apparatus for automatically generating/updating metadata
JP2010539628A (ja) * 2007-09-11 2010-12-16 サムスン エレクトロニクス カンパニー リミテッド メタデータを自動的に生成/更新するマルチメディア・データの記録方法及び装置
JP2009089032A (ja) * 2007-09-28 2009-04-23 Toshiba Corp 電子機器およびシーン種類表示方法
US8559683B2 (en) 2007-09-28 2013-10-15 Kabushiki Kaisha Toshiba Electronic apparatus and scene-type display method
JP2009207043A (ja) * 2008-02-29 2009-09-10 Casio Comput Co Ltd 動画再生装置、動画再生方法、及びプログラム
JP2014063508A (ja) * 2008-05-09 2014-04-10 Ltu Technologies Sas 色照合ツールボックス
US11948605B2 (en) 2008-05-19 2024-04-02 Maxell, Ltd. Recording and reproducing apparatus and method thereof
US11727960B2 (en) 2008-05-19 2023-08-15 Maxell, Ltd. Recording and reproducing apparatus and method thereof
US9159368B2 (en) 2008-05-19 2015-10-13 Hitachi Maxell, Ltd. Recording and reproducing apparatus and method thereof
US11094350B2 (en) 2008-05-19 2021-08-17 Maxell, Ltd. Recording and reproducing apparatus and method thereof
US10176848B2 (en) 2008-05-19 2019-01-08 Maxell, Ltd. Recording and reproducing apparatus and method thereof
US10418069B2 (en) 2008-05-19 2019-09-17 Maxell, Ltd. Recording and reproducing apparatus and method thereof
JP2009295054A (ja) * 2008-06-06 2009-12-17 Nippon Hoso Kyokai <Nhk> 映像コンテンツ検索装置及びコンピュータプログラム
US8331691B2 (en) 2008-07-03 2012-12-11 Sony Corporation Image data processing apparatus and image data processing method
JP2010187185A (ja) * 2009-02-12 2010-08-26 Kddi Corp 映像コンテンツ保管視聴システムおよび方法
WO2011044058A3 (en) * 2009-10-08 2011-09-29 Hewlett-Packard Development Company, L.P. Detecting near duplicate images
WO2011044058A2 (en) * 2009-10-08 2011-04-14 Hewlett-Packard Development Company, L.P. Detecting near duplicate images
US10471212B2 (en) 2009-10-29 2019-11-12 W. L. Gore & Associates, Inc. Silicone free drug delivery devices
US8792728B2 (en) 2010-09-27 2014-07-29 Hewlett-Packard Development Company, L.P. Near-duplicate image detection
JP2013218589A (ja) * 2012-04-11 2013-10-24 I-Cubed Research Center Inc 信号処理装置、信号処理方法、およびプログラム
JP2018010607A (ja) * 2016-07-11 2018-01-18 日本放送協会 コンテンツ提示装置、コンテンツ提示方法、およびプログラム
JP6999257B2 (ja) 2016-07-11 2022-01-18 日本放送協会 コンテンツ提示装置、コンテンツ提示方法、およびプログラム
JP2020052785A (ja) * 2018-09-27 2020-04-02 キヤノン株式会社 画像データ格納装置、画像データ格納方法、及び、プログラム
WO2020066607A1 (ja) * 2018-09-27 2020-04-02 キヤノン株式会社 画像データ格納装置、画像データ格納方法、及び、プログラム
JP7267703B2 (ja) 2018-09-27 2023-05-02 キヤノン株式会社 画像データ格納装置、画像データ格納方法、及び、プログラム

Similar Documents

Publication Publication Date Title
JP2007049332A (ja) 記録再生装置および記録再生方法、並びに、記録装置および記録方法
JP5322550B2 (ja) 番組推奨装置
US8780756B2 (en) Image processing device and image processing method
US8015490B2 (en) Image processing device and image processing method
US8750681B2 (en) Electronic apparatus, content recommendation method, and program therefor
CN100409236C (zh) 流式视频书签
JP4202316B2 (ja) 黒フィールド検出システムおよび方法
JP3738631B2 (ja) 画像検索システムおよび画像検索方法
JP5515890B2 (ja) 画像処理装置、画像処理方法、画像処理システム、制御プログラムおよび記録媒体
US9137562B2 (en) Method of viewing audiovisual documents on a receiver, and receiver for viewing such documents
US20190182466A1 (en) Display Control Device, Recording Control Device, And Display Control Method
US20110292288A1 (en) Method for determining key video frames
JP2004508756A (ja) 記憶媒体上に記憶された情報信号を再生する装置
US20070286579A1 (en) Information signal processing method and apparatus, and computer program product
JP2014511138A5 (ja)
JP2008211777A (ja) 映像提示においてコマーシャルに索引を付けるシステムおよび方法
JP2014511138A (ja) シーンタイプに基づくビデオストリームのエンコーディング
JP2005513663A (ja) コマーシャル及び他のビデオ内容の検出用のファミリーヒストグラムに基づく技術
US8619150B2 (en) Ranking key video frames using camera fixation
CN101287089A (zh) 摄像设备、图像处理设备及其控制方法
WO2013056311A1 (en) Keypoint based keyframe selection
US8437611B2 (en) Reproduction control apparatus, reproduction control method, and program
JP2008269628A (ja) 画像検索システムおよび画像検索方法
JP2013207530A (ja) 情報処理装置、情報処理方法、及びプログラム
JP4341503B2 (ja) 情報信号処理方法、情報信号処理装置及びプログラム記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110712