JP2004221712A - 情報処理装置および情報処理方法、プログラム、並びにデータ構造および記録媒体 - Google Patents

情報処理装置および情報処理方法、プログラム、並びにデータ構造および記録媒体 Download PDF

Info

Publication number
JP2004221712A
JP2004221712A JP2003003980A JP2003003980A JP2004221712A JP 2004221712 A JP2004221712 A JP 2004221712A JP 2003003980 A JP2003003980 A JP 2003003980A JP 2003003980 A JP2003003980 A JP 2003003980A JP 2004221712 A JP2004221712 A JP 2004221712A
Authority
JP
Japan
Prior art keywords
information
unit
related information
extracting
embedding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003003980A
Other languages
English (en)
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yoshinori Kanamaru
昌憲 金丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003003980A priority Critical patent/JP2004221712A/ja
Publication of JP2004221712A publication Critical patent/JP2004221712A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】編集作業の容易化等を図る。
【解決手段】オブジェクト抽出部21は、オブジェクトを抽出し、関連情報抽出部22は、オブジェクト抽出部21で抽出されたオブジェクトに関連する音声情報や文字情報などの関連情報を抽出する。そして、埋め込みエンコード部16は、オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号を生成する。
【選択図】 図2

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理装置および情報処理方法、プログラム、並びにデータ構造および記録媒体に関し、特に、例えば、編集を容易に行うことができるようにする情報処理装置および情報処理方法、プログラム、並びにデータ構造および記録媒体に関する。
【0002】
【従来の技術】
従来においては、コンテンツを構成する画像信号や、音声信号、文字情報は、それぞれ別のメディアとして扱われ、それぞれ異なる信号として記録されていた。
【0003】
また、例えば、特許文献1においては、素材データを識別するために、その素材データに、識別コードをウォータマークとして挿入する方法が開示されている。
【0004】
【特許文献1】
特開2001−216763号公報。
【0005】
【発明が解決しようとする課題】
上述のように、コンテンツを構成する画像信号や、音声信号、文字情報が、それぞれ別のメディアとして扱われる場合、ユーザは、コンテンツを編集するのに、メディア毎に編集を行わなければならず、編集作業が大変であった。
【0006】
即ち、コンテンツ中のあるオブジェクト (画像信号と音声信号(文字)が一体となってオブジェクトとして成立しているもの)として、例えば、映画中のある俳優が、声を発しながら騒音の中を歩いている等のシチュエーションにおける、その俳優のオブジェクトに注目し、その注目オブジェクトを、同一のコンテンツ中の他の時間の所に移動させる編集作業は、次のようにして行われていた。
【0007】
まず画像信号というメディアについて、注目オブジェクトの画像信号を切り出して、バッファにためておいてから、移動先(他の時間)の画像信号上に合成する。又、オブジェクトを切り出した元には、その穴を埋める画像編集作業を行う。次に、音声信号というメディアについて、注目オブジェクトの音声信号のみを騒音の中から切り出して、バッファにためておいてから、移動先の音声信号上に重畳する。
【0008】
以上のように、従来においては、オブジェクトを構成する異なるメディアの信号について、メディア毎に編集を行う必要があった。
【0009】
また、ユーザは、コンテンツの中から任意のオブジェクトに関する情報(画像、音声、文字等)だけを抽出して、オブジェクト単位で編集することが困難であった。
【0010】
本発明は、このような状況に鑑みてなされたものであり、例えば、編集作業の容易化を図ること等ができるようにするものである。
【0011】
【課題を解決するための手段】
本発明の第1の情報処理装置は、オブジェクトを抽出するオブジェクト抽出手段と、オブジェクトに関連する関連情報を抽出する関連情報抽出手段と、オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号を生成する関連情報埋め込み手段とを備えることを特徴とする。
【0012】
本発明の第1の情報処理方法は、オブジェクトを抽出するオブジェクト抽出ステップと、オブジェクトに関連する関連情報を抽出する関連情報抽出ステップと、オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号を生成する関連情報埋め込みステップとを備えることを特徴とする。
【0013】
本発明の第1のプログラムは、オブジェクトを抽出するオブジェクト抽出ステップと、オブジェクトに関連する関連情報を抽出する関連情報抽出ステップと、オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号を生成する関連情報埋め込みステップとを備えることを特徴とする。
【0014】
本発明のデータ構造は、抽出されたオブジェクトに、そのオブジェクトに関連する、抽出された関連情報が埋め込まれることにより生成された、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号と、オブジェクトのインデックスとなる、作成されたインデックス情報とを備えることを特徴とする。
【0015】
本発明の記録媒体は、抽出されたオブジェクトに、そのオブジェクトに関連する、抽出された関連情報が埋め込まれることにより生成された、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号と、オブジェクトのインデックスとなる、作成されたインデックス情報とを備えるデータ構造のデータが記録されていることを特徴とする。
【0016】
本発明の第2の情報処理装置は、オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより生成された、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号を取得するオブジェクト統合信号取得手段と、オブジェクト統合信号から、オブジェクトと、そのオブジェクトに関連する関連情報とを抽出する抽出手段と、オブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声を合成して再生する再生手段とを備えることを特徴とする。
【0017】
本発明の第2の情報処理方法は、オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより生成された、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号を取得するオブジェクト統合信号取得ステップと、オブジェクト統合信号から、オブジェクトと、そのオブジェクトに関連する関連情報とを抽出する抽出ステップと、オブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声を合成して再生する再生ステップとを備えることを特徴とする。
【0018】
本発明の第2のプログラムは、オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより生成された、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号を取得するオブジェクト統合信号取得ステップと、オブジェクト統合信号から、オブジェクトと、そのオブジェクトに関連する関連情報とを抽出する抽出ステップと、オブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声を合成して再生する再生ステップとを備えることを特徴とする。
【0019】
本発明の第3の情報処理装置は、オブジェクトを抽出するオブジェクト抽出手段と、オブジェクトに関連する関連情報を抽出する関連情報抽出手段と、オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号を生成する関連情報埋め込み手段と、オブジェクト統合信号を取得するオブジェクト統合信号取得手段と、オブジェクト統合信号から、オブジェクトと、そのオブジェクトに関連する関連情報とを抽出する抽出手段と、オブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声を合成して再生する再生手段とを備えることを特徴とする。
【0020】
本発明の第1の情報処理装置および情報処理方法、並びにプログラムにおいては、オブジェクトと、そのオブジェクトに関連する関連情報が抽出され、オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号が生成される。
【0021】
本発明のデータ構造および記録媒体においては、抽出されたオブジェクトに、そのオブジェクトに関連する、抽出された関連情報が埋め込まれることにより生成された、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号と、オブジェクトのインデックスとなる、作成されたインデックス情報とを備える。
【0022】
本発明の第2の情報処理装置および情報処理方法、並びにプログラムにおいては、オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより生成された、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号が取得され、そのオブジェクト統合信号から、オブジェクトと、そのオブジェクトに関連する関連情報とが抽出される。そして、オブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声が合成されて再生される。
【0023】
本発明の第3の情報処理装置においては、オブジェクトと、そのオブジェクトに関連する関連情報が抽出され、オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号が生成される。さらに、オブジェクト統合信号が取得され、そのオブジェクト統合信号から、オブジェクトと、そのオブジェクトに関連する関連情報とが抽出される。そして、オブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声が合成されて再生される。
【0024】
【発明の実施の形態】
図1は、本発明を適用した記録再生装置の一実施の形態の構成例を示している。
【0025】
記録装置1は、例えば、映画などのコンテンツからオブジェクトを抽出するとともに、各オブジェクトに関連する関連情報を抽出し、各オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより、各オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト単位のオブジェクト統合信号を生成する。さらに、記録装置1は、オブジェクト統合信号を、例えば、光ディスクや、光磁気ディスク、磁気ディスク、磁気テープ、半導体メモリなどの記録媒体3に記録する。
【0026】
再生装置2は、記録媒体3からオブジェクト統合信号を取得し、そのオブジェクト統合信号から、各オブジェクトと、そのオブジェクトに関連する関連情報とを抽出する。さらに、再生装置2は、オブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声を合成して再生する。
【0027】
なお、記録装置1においては、オブジェクト統合信号を、記録媒体3に記録するのではなく、例えば、電話回線や、CATV(Cable Television)網、衛星回線、LAN(Local Area Network)、インターネット、バスなどの伝送媒体4を介して、再生装置2に伝送することが可能である。
【0028】
次に、図2は、図1の記録装置1の構成例を示している。
【0029】
画像データ入力部11は、例えば、映画などの所定のコンテンツの(動)画像データ(画像情報)を、データ処理部14に入力する。音声データ入力部12は、所定のコンテンツの音声データ(音声情報)を、データ処理部14に入力する。文字データ入力部13は、所定のコンテンツの文字データ(文字情報)を、データ処理部14に入力する。
【0030】
データ処理部14は、オブジェクト抽出部21と関連情報抽出部22から構成され、画像データ入力部11、音声データ入力部12、文字データ入力部13それぞれから入力される画像データ、音声データ、文字データから、オブジェクトと、そのオブジェクトに関連する関連情報を抽出する。
【0031】
即ち、オブジェクト抽出部21は、画像データ入力部11から入力される所定のコンテンツの画像データから、例えば、前景となっている人物等のオブジェクト(の画像情報)を抽出する。
【0032】
関連情報抽出部22は、画像データ入力部11、音声データ入力部12、文字データ入力部13それぞれから入力される画像データ、音声データ、文字データから、オブジェクト抽出部21で抽出されたオブジェクトに関連する関連情報を抽出する。
【0033】
具体的には、関連情報抽出部22は、例えば、画面上でのオブジェクトの位置を表す位置情報、オブジェクトの動きを表す動き情報、オブジェクトの変形の仕方を表す変形情報、オブジェクトから発せられる音声(音)の音声情報、オブジェクトを説明する文字情報などを、オブジェクトに関連する関連情報として抽出する。
【0034】
ここで、オブジェクトの位置情報としては、例えば、そのオブジェクトの画面上における座標などを採用することができる。オブジェクトの動き情報としては、例えば、そのオブジェクトの各フレームにおける動きベクトルなどを採用することができる。オブジェクトの変形情報としては、例えば、オブジェクトの画像情報のフレーム間差分などを採用することができる。オブジェクトの音声情報としては、例えば、そのオブジェクトが人物である場合には、その人物が発する音声などを採用することができる。オブジェクトの文字情報としては、例えば、そのオブジェクトが人物である場合には、その人物の名前や、その人物を演じている俳優の名前などを採用することができる。
【0035】
ここで、オブジェクト抽出部21は、画像データ入力部11から入力される所定のコンテンツの画像データから、前景の他、背景も、オブジェクトとして抽出する。さらに、関連情報抽出部22は、前景であるオブジェクトのいずれにも関連しない音声情報と文字情報を、背景であるオブジェクトに関連する関連情報として抽出する。
【0036】
オブジェクト抽出部21で抽出された各オブジェクト(の画像情報)と、関連情報抽出部22で抽出された各オブジェクトに関連する関連情報は、インデックス作成部15および埋め込みエンコード部16に供給される。
【0037】
インデックス作成部15は、オブジェクト抽出部21から供給されるオブジェクト(の画像情報)や、関連情報抽出部22から供給される関連情報を用い、オブジェクト抽出部21で抽出された各オブジェクトについて、そのインデックスとなるインデックス情報を作成し、記録データ作成部17に供給する。
【0038】
ここで、インデックス情報としては、例えば、オブジェクトを識別するのに役立つ情報を採用することができる。即ち、オブジェクトのインデックス情報としては、例えば、そのオブジェクトが人物である場合には、その人物の名前を表す文字情報や、その人物を演じている俳優の名前を表す文字情報、その人物のせりふの一部の音声情報、さらには、例えば、オブジェクトが人物の顔の画像である旨の情報や、オブジェクトの画像情報の画素を間引いて、いわゆるサムネイルとした画像情報などを採用することができる。
【0039】
埋め込みエンコード部16は、オブジェクト抽出部21から供給される各オブジェクト(の画像情報)に関連する関連情報を、関連情報抽出部22から供給される関連情報の中から選択する。さらに、埋め込みエンコード部16は、各オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより、オブジェクトと、そのオブジェクトに関連する関連情報とを統合したオブジェクト統合信号を生成し、記録データ作成部17に供給する。
【0040】
ここで、埋め込みエンコード部16は、オブジェクト(の画像情報)に、他の情報である関連情報を埋め込み、オブジェクトと同一のデータ量のオブジェクト統合信号を生成する。このようにデータ量が不変の埋め込みの方法としては、例えば、オブジェクトとしての画像の画素値の下位1ビットや数ビットを、関連情報にしたがって変更する方法がある。この場合、オブジェクト統合信号のデコード時には、そのオブジェクト統合信号の下位1ビットや数ビットが関連情報として抽出されるとともに、オブジェクト統合信号が、そのまま、元のオブジェクトとして抽出される。従って、この埋め込み方法では、オブジェクト統合信号のデコードにより得られるオブジェクトとしての画像の画質は、多少なりとも劣化する。
【0041】
そこで、埋め込みエンコード部16では、データ量が不変の埋め込み方法として、例えば、オブジェクト統合信号と、オブジェクトおよび関連情報との間の可逆変換が可能な、後述する埋め込み方法を採用することができる。
【0042】
記録データ作成部17は、埋め込みエンコード部16から供給される各オブジェクトについてのオブジェクト統合信号と、インデックス作成部15から供給されるインデックス情報とを配置したデータ構造の記録データを作成する。さらに、記録データ作成部17は、記録データに、オブジェクト統合信号の配置位置を表す位置情報を含め、その記録データを、記録部18に供給する。
【0043】
記録部18は、記録データを、記録媒体3に記録する。なお、記録部18では、記録データを、伝送媒体4(図1)を介して伝送するようにすることも可能である。
【0044】
次に、図3を参照して、図2の記録装置1が行う、データを記録媒体3に記録する記録処理について説明する。
【0045】
記録処理では、まず最初に、ステップS1において、画像データ入力部11、音声データ入力部12、文字データ入力部13それぞれが、例えば、映画などの所定のコンテンツの画像情報、音声情報、文字情報を、データ処理部14に入力し、ステップS2に進む。ステップS2では、データ処理部14において、オブジェクト抽出部21が、画像データ入力部11から入力される画像情報から、オブジェクトを抽出するとともに、関連情報抽出部22が、画像データ入力部11、音声データ入力部12、文字データ入力部13それぞれから入力される画像データ、音声データ、文字データから、オブジェクト抽出部21で抽出されたオブジェクトに関連する関連情報を抽出する。
【0046】
オブジェクト抽出部21で抽出された各オブジェクト(の画像情報)と、関連情報抽出部22で抽出された各オブジェクトに関連する関連情報は、インデックス作成部15および埋め込みエンコード部16に供給される。
【0047】
そして、ステップS3に進み、埋め込みエンコード部16が、オブジェクト抽出部21から供給される各オブジェクトに、関連情報抽出部22から供給される、そのオブジェクトに関連する関連情報を埋め込み、これにより、オブジェクト統合信号を生成して、記録データ作成部17に供給する。さらに、ステップS3では、インデックス作成部15が、オブジェクト抽出部21から供給されるオブジェクトや、関連情報抽出部22から供給される関連情報を用い、オブジェクト抽出部21で抽出された各オブジェクトについて、インデックス情報を作成し、記録データ作成部17に供給して、ステップS4に進む。
【0048】
ステップS4では、記録データ作成部17は、埋め込みエンコード部16から供給される各オブジェクトについてのオブジェクト統合信号と、インデックス作成部15から供給されるインデックス情報とを配置したデータ構造の記録データを作成する。さらに、ステップS4では、記録データ作成部17は、記録データに、オブジェクト統合信号の配置位置を表す位置情報を含め、その記録データを、記録部18に供給して、ステップS5に進む。ステップS5では、記録部18が、記録データ作成部17から供給される記録データを、記録媒体3に記録して、記録処理を終了する。
【0049】
なお、記録部18では、オブジェクト統合信号だけを記録媒体3に記録するようにすることが可能である。また、記録部18では、オブジェクト統合信号と、その記録媒体3上の位置を表すアドレスなどの位置情報だけを記録媒体3に記録するようにすることも可能である。さらに、記録部18では、オブジェクト統合信号とインデックス情報だけを記録媒体3に記録するようにすることも可能である。
【0050】
次に、図4は、図2の記録データ作成部17が作成する記録データのフォーマットを示している。
【0051】
記録データは、インデックス情報格納部と統合信号格納部とから構成される。
【0052】
インデックス情報格納部には、各オブジェクトのオブジェクト統合信号の位置情報としてのアドレスと、そのオブジェクトのインデックス情報とのセットが、オブジェクトの数だけ繰り返し配置される。統合信号格納部には、オブジェクト単位のオブジェクト統合信号が、オブジェクトの数だけ繰り返し配置される。
【0053】
なお、インデックス情報格納部に配置されるオブジェクト統合信号の位置情報となるアドレスとしては、例えば、そのオブジェクト統合信号が記録される記録媒体3上の論理的または物理的なアドレス(例えば、セクタナンバなど)などを採用することができる。
【0054】
また、記録データのフォーマットは、図4に示したものに限定されるものではない。
【0055】
次に、図5のフローチャートを参照して、図3のステップS2で行われるオブジェクトと関連情報の抽出処理(オブジェクト/関連情報抽出処理)について、さらに説明する。
【0056】
なお、ここでは、関連情報として、例えば、オブジェクトの画面内での位置情報、オブジェクトの動き情報、およびオブジェクトの変形情報を抽出するものとして説明を行う。
【0057】
まず最初に、ステップS11において、オブジェクト抽出部21は、画像データ入力部11から入力されるコンテンツの画像情報の中の、例えば、先頭フレームなどの所定の1フレームを注目フレームとし、その注目フレームの中から、オブジェクトが表示されている領域であるオブジェクト領域を抽出する。
【0058】
ここで、オブジェクト領域の抽出方法としては、例えば、画像情報における輝度や、色、エッジの情報を用いて、注目フレームを小さな領域に分割する領域分割を行い、その分割された各領域が、他の領域とともに同一のオブジェクトを形成するかどうかを判定(連結判定)し、同一のオブジェクトを形成する領域どうしを連結することにより、1つのオブジェクトのオブジェクト領域を抽出する方法がある。なお、同一のオブジェクトの領域は、その他、例えば、ユーザによって指定してもらっても良い。さらに、オブジェクト領域の抽出は、例えば、ユーザに、オブジェクトの輪郭を指定してもらうことによって行うようにすることも可能である。
【0059】
ステップS11においてオブジェクト領域を抽出した後は、ステップS12に進み、オブジェクト抽出部21は、ステップS11で抽出したオブジェクト領域のオブジェクトの全体を含む、例えば、矩形領域を抽出する。
【0060】
ここで、オブジェクトを含む矩形領域の抽出方法としては、注目フレーム上にxy平面を定義し、そのxy平面において、オブジェクト領域のx座標の最大値と最小値、およびy座標の最大値と最小値を求める方法がある。即ち、この場合、最大値のx座標とy座標で表される点と、最小値のx座標とy座標で表される点とを結ぶ線分を対角線とする長方形の領域を、オブジェクトを含む矩形領域として抽出することができる。
【0061】
ステップS12においてオブジェクトを囲む矩形領域を抽出した後は、ステップS13に進み、オブジェクト抽出部21は、その矩形領域を、オブジェクトの画像情報として一時記憶するとともに、インデックス作成部15および埋め込みエンコード部16に供給し、ステップS14に進む。
【0062】
ステップS14では、オブジェクト抽出部21は、オブジェクトを含む矩形領域(以下、適宜、オブジェクト矩形領域という)の重心、即ち、例えば、オブジェクト矩形領域としての長方形の対角線どうしの交点を算出し、ステップS15に進む。ステップS15では、オブジェクト抽出部21は、オブジェクト矩形領域の重心の位置を、そのオブジェクト矩形領域に含まれるオブジェクトの位置情報として一時記憶するとともに、関連情報の1つとして、インデックス作成部15および埋め込みエンコード部16に供給し、ステップS16に進む。
【0063】
ステップS16では、オブジェクト抽出部21は、ステップS12で抽出したオブジェクト矩形領域をテンプレート(標準パターン)として、画像データ入力部11から入力されたコンテンツの画像情報の注目フレーム以外のフレームを対象に、テンプレートマッチングを行い、各フレームから、オブジェクト矩形領域にマッチングした領域(マッチング領域)を抽出する。
【0064】
ここで、オブジェクト矩形領域をテンプレートとして、画像データ入力部11から入力されたコンテンツの画像情報の注目フレーム以外のフレームを対象に、テンプレートマッチングを行い、各フレームから、オブジェクト矩形領域にマッチングしたマッチング領域を抽出することは、オブジェクト矩形領域に含まれるオブジェクトの位置を、時間方向に、いわばトラッキングしているということができる。
【0065】
ステップS16においてマッチング領域を抽出した後は、ステップS17に進み、オブジェクト抽出部21は、ステップS16で各フレームから抽出したマッチング領域の重心を、例えば、ステップS14でオブジェクト矩形領域の重心を求めた場合と同様にして求め、各フレームのマッチング領域の位置情報として一時記憶して、ステップS18に進む。
【0066】
ステップS18では、オブジェクト抽出部21は、オブジェクト矩形領域について求められた各フレームのマッチング領域の位置情報のうちの、隣接するフレームのものどうしの差分である動きベクトルを、オブジェクト矩形領域に含まれるオブジェクトの動き情報として求め、ステップS19に進む。ステップS19では、オブジェクト抽出部21は、ステップS18で求められた動きベクトルを一時記憶するとともに、関連情報の1つとして、インデックス作成部15および埋め込みエンコード部16に供給し、ステップS20に進む。
【0067】
ステップS20では、オブジェクト抽出部21は、オブジェクト矩形領域と、そのオブジェクト矩形領域について各フレームから抽出されたマッチング領域との差分を求め、ステップS21に進む。ステップS21では、オブジェクト抽出部21は、オブジェクト矩形領域と、そのオブジェクト矩形領域について各フレームから抽出されたマッチング領域との差分それぞれを、そのオブジェクト矩形領域に含まれるオブジェクトの変形情報として一時記憶するとともに、関連情報として、インデックス作成部15および埋め込みエンコード部16に供給し、オブジェクト/関連情報抽出処理を終了する。
【0068】
なお、図5のオブジェクト/関連情報抽出処理は、例えば、注目フレームに存在するすべてのオブジェクトを対象に行われる。
【0069】
次に、図6は、図1の再生装置2の第1の構成例を示している。
【0070】
データ読み込み部31は、記録媒体3から各オブジェクトのオブジェクト統合信号を読み出し、各オブジェクト統合信号取得部32および背景統合信号取得部33に供給する。なお、データ読み込み部31は、例えば、記録媒体3に記録されている図4に示したデータのうちのアドレスに基づいて、各オブジェクトのオブジェクト統合信号が記録されている記録媒体3の位置を認識する。
【0071】
各オブジェクト統合信号取得部32は、データ読み込み部31から供給されるオブジェクト統合信号の中から、前景であるオブジェクトについてのオブジェクト統合信号を取得し、埋め込みデコード部34の埋め込みデコーダ51に供給する。背景統合信号取得部33は、データ読み込み部31から供給されるオブジェクト統合信号の中から、背景であるオブジェクトについてのオブジェクト統合信号を取得し、埋め込みデコード部34の埋め込みデコーダ52に供給する。
【0072】
埋め込みデコード部34は、埋め込みデコーダ51と52から構成され、埋め込みデコーダ51は、各オブジェクト統合信号取得部32から供給される前景であるオブジェクトについてのオブジェクト統合信号をデコードし、埋め込みデコーダ52は、背景統合信号取得部33から供給される背景であるオブジェクトについてのオブジェクト統合信号をデコードする。
【0073】
即ち、埋め込みデコーダ51は、各オブジェクト統合信号取得部32から供給される前景であるオブジェクトについてのオブジェクト統合信号から、前景であるオブジェクト(の画像情報)と、その関連情報を抽出し、オブジェクトデータ蓄積部35に供給する。埋め込みデコーダ52は、背景統合信号取得部33から供給される背景であるオブジェクトについてのオブジェクト統合信号から、背景であるオブジェクト(の画像情報)と、その関連情報を抽出し、背景データ蓄積部36に供給する。
【0074】
オブジェクトデータ蓄積部35は、蓄積部53と54から構成され、蓄積部53は、埋め込みデコーダ51から供給される前景である各オブジェクト(の画像情報)を一時記憶し、蓄積部54は、埋め込みデコーダ51から供給される各オブジェクトの関連情報を一時記憶する。背景データ蓄積部36は、蓄積部55と56から構成され、蓄積部55は、埋め込みデコーダ52から供給される背景であるオブジェクト(の画像情報)を一時記憶し、蓄積部54は、埋め込みデコーダ52から供給されるオブジェクトの関連情報を記憶する。なお、上述したように、背景であるオブジェクトの関連情報は、ここでは、前景であるオブジェクトのいずれにも関連しない音声情報と文字情報である。
【0075】
オブジェクト合成部37は、画像信号合成部57と音声信号合成部58から構成され、オブジェクトデータ蓄積部35と背景データ蓄積部36それぞれから、オブジェクトおよび関連情報を読み出し、そのオブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声を合成して再生する。
【0076】
即ち、画像信号合成部57は、オブジェクトデータ蓄積部35の蓄積部53から前景の各オブジェクト(の画像情報)を読み出すとともに、オブジェクトデータ蓄積部35の蓄積部54から各オブジェクトの関連情報のうちの位置情報、動きベクトル、変形情報を読み出し、各オブジェクトと、その位置情報、動きベクトル、および変形情報を用いて、各フレームの前景の画像を構成する。さらに、画像信号合成部57は、背景データ蓄積部36の蓄積部55から背景のオブジェクト(の画像情報)を読み出し、各フレームの背景の画像を構成する。そして、画像信号合成部57は、各フレームの前景と背景の画像を合成し、これにより、一連の動画像を再生して、画像信号出力部38に供給する。
【0077】
音声信号合成部58は、オブジェクトデータ蓄積部35の蓄積部54から前景の各オブジェクトの関連情報のうちの音声情報を読み出すとともに、背景データ蓄積部36の蓄積部56から背景のオブジェクトの関連情報のうちの音声情報を読み出し、その音声情報を、例えばフレーム単位で合成して、音声信号出力部39に供給する。
【0078】
画像信号出力部38は、例えば、ディスプレイなどで構成され、オブジェクト合成部37の画像信号合成部57から供給される各フレームの画像情報を表示(出力)する。音声信号出力部39は、例えば、スピーカなどで構成され、オブジェクト合成部37の音声信号合成部58から供給される各フレームの音声情報を出力する。文字情報出力部40は、例えば、ディスプレイなどで構成され、オブジェクトデータ蓄積部35の蓄積部54から前景のオブジェクトの関連情報のうちの文字情報を読み出すとともに、背景データ蓄積部36の蓄積部56から背景のオブジェクトの関連情報のうちの文字情報を読み出し、必要に応じて表示(出力)する。
【0079】
次に、図7のフローチャートを参照して、図6の再生装置2が行う、画像や音声等の再生処理について説明する。
【0080】
再生処理では、まず最初に、ステップS31において、データ読み込み部31が、記録媒体3から各オブジェクトのオブジェクト統合信号を読み出し、各オブジェクト統合信号取得部32および背景統合信号取得部33に供給して、ステップS32に進む。ステップS32では、背景統合信号取得部33が、データ読み込み部31から供給されるオブジェクト統合信号の中から、背景であるオブジェクトについてのオブジェクト統合信号を取得し、埋め込みデコード部34の埋め込みデコーダ52に供給して、ステップS33に進む。ステップS33では、埋め込みデコーダ52は、背景統合信号取得部33から供給される背景であるオブジェクトについてのオブジェクト統合信号をデコードすることにより、背景であるオブジェクトと、その関連情報を抽出し、背景データ蓄積部36に供給して、ステップS34に進む。
【0081】
ステップS34では、背景データ蓄積部36の蓄積部55が、埋め込みデコーダ52から供給される背景であるオブジェクトを一時記憶し、ステップS35に進む。ステップS35では、背景データ蓄積部36の蓄積部54が、埋め込みデコーダ52から供給されるオブジェクトの関連情報(前景であるオブジェクトのいずれにも関連しない音声情報と文字情報)を記憶して、ステップS36に進む。
【0082】
ステップS36では、各オブジェクト統合信号取得部32は、データ読み込み部31から供給されるオブジェクト統合信号の中から、ある前景のオブジェクトについてのオブジェクト統合信号を取得し、埋め込みデコード部34の埋め込みデコーダ51に供給し、ステップS37に進む。ステップS37では、埋め込みデコーダ51は、各オブジェクト統合信号取得部32から供給される前景であるオブジェクトについてのオブジェクト統合信号をデコードすることにより、前景であるオブジェクトと、その関連情報を抽出し、オブジェクトデータ蓄積部35に供給して、ステップS38に進む。ステップS38では、オブジェクトデータ蓄積部35の蓄積部53が、埋め込みデコーダ51から供給される前景のオブジェクトを一時記憶し、ステップS39に進む。ステップS39では、オブジェクトデータ蓄積部35の蓄積部54が、埋め込みデコーダ51から供給されるオブジェクトの関連情報を一時記憶し、ステップS40に進む。
【0083】
ステップS40では、各オブジェクト統合信号取得部32は、データ読み込み部31から供給されるオブジェクト統合信号の中から、すべての前景のオブジェクトについてのオブジェクト統合信号を取得したかどうかを判定する。ステップS40において、データ読み込み部31から供給されるオブジェクト統合信号の中から、すべての前景のオブジェクトについてのオブジェクト統合信号を、まだ取得していないと判定された場合、ステップS36に戻り、各オブジェクト統合信号取得部32は、データ読み込み部31から供給されるオブジェクト統合信号の中から、まだ取得していない前景のオブジェクトについてのオブジェクト統合信号を取得し、以下、同様の処理を繰り返す。
【0084】
また、ステップS40において、データ読み込み部31から供給されるオブジェクト統合信号の中から、すべての前景のオブジェクトについてのオブジェクト統合信号を取得したと判定された場合、ステップS41に進み、オブジェクト合成部37の画像信号合成部57は、オブジェクトデータ蓄積部35の蓄積部53から、ある前景のオブジェクトを読み出すとともに、オブジェクトデータ蓄積部35の蓄積部54から、そのオブジェクトの関連情報のうちの位置情報、動きベクトル、変形情報を読み出し、オブジェクトと、その位置情報、動きベクトル、および変形情報を用いて、各フレームの前景の画像を構成する。即ち、画像信号合成部57は、例えば、位置情報が表す先頭フレームの位置にオブジェクトの画像情報を配置し、以降のフレームについては、先頭フレームのオブジェクトの画像情報に変形情報を加算することによって、各フレームのオブジェクトの画像情報を生成する。そして、画像信号合成部57は、各フレームのオブジェクトの画像情報を、先頭フレームの位置から動きベクトルに対応する分だけ移動した位置に配置し、これにより、各フレームの前景の画像を構成する。
【0085】
ステップS41では、さらに、画像信号合成部57は、各フレームの前景の画像を、その内蔵するバッファ(図示せず)に記憶している各フレームの画像にそれぞれ合成し、ステップS42に進む。ステップS42では、画像信号合成部57は、ステップS41で合成した各フレームの画像を、その内蔵するバッファに上書きする形で記憶し、ステップS43に進む。
【0086】
ステップS43では、オブジェクト合成部37の音声信号合成部58が、オブジェクトデータ蓄積部35の蓄積部53から、画像信号合成部57が読み出したオブジェクトの関連情報のうちの音声情報を読み出し、その内蔵するバッファ(図示せず)に記憶している各フレームの音声情報に合成して、ステップS44に進む。ステップS44では、音声信号合成部58は、ステップS43で合成した各フレームの音声を、その内蔵するバッファに上書きする形で記憶し、ステップS45に進む。
【0087】
ステップS45では、オブジェクト合成部37が、すべての前景のオブジェクトについての画像の合成(ステップS41)と音声の合成(ステップS43)が完了したかどうかを判定する。ステップS45において、すべての前景のオブジェクトについての画像の合成と音声の合成が、まだ完了していないと判定された場合、ステップS41に戻り、画像信号合成部57は、オブジェクトデータ蓄積部35の蓄積部53から、まだ読み出していない前景のオブジェクトを読み出すとともに、オブジェクトデータ蓄積部35の蓄積部54から、そのオブジェクトの関連情報のうちの位置情報、動きベクトル、変形情報を読み出し、以下、ステップS45において、すべての前景のオブジェクトについての画像の合成と音声の合成が完了したと判定されるまで、ステップS41乃至S45の処理が繰り返される。
【0088】
ここで、画像信号合成部57は、ステップS41の処理を最初に行う場合、背景データ蓄積部36の蓄積部55から背景のオブジェクトを読み出し、その内蔵するバッファに記憶する。従って、画像信号合成部57の内蔵するバッファには、まず背景が記憶され、その後、ステップS41乃至S45の処理が繰り返されることにより、背景に対して、順次、前景のオブジェクトが重畳されていく。
【0089】
また、音声信号合成部58は、ステップS43の処理を最初に行う場合、背景データ蓄積部36の蓄積部56から背景のオブジェクトの関連情報としての音声情報を読み出し、その内蔵するバッファに記憶する。従って、音声信号合成部58の内蔵するバッファには、まず背景の音声情報が記憶され、その後、ステップS41乃至S45の処理が繰り返されることにより、背景の音声情報に対して、順次、前景のオブジェクトの音声情報が重畳されていく。
【0090】
その後、ステップS45において、すべての前景のオブジェクトについての画像の合成と音声の合成が完了したと判定された場合、ステップS46に進み、オブジェクト合成部37は、所定のフレーム(最初にステップS46の処理が行われるときには、例えば、先頭フレーム)を注目フレームとして、その注目フレームについて、画像信号合成部57の内蔵するバッファに記憶された画像情報と、音声信号合成部58に記憶された音声情報との同期をとり、ステップS47,S48に順次進む。ステップS47では、画像信号合成部57が、注目フレームの画像情報を画像信号出力部38に供給し、ステップS48では、音声信号合成部58が、注目フレームの音声情報を音声信号出力部39に供給して、ステップS49に進む。これにより、画像信号出力部38において、注目フレームの画像が表示されるとともに、その画像の表示に同期しながら、音声信号出力部39において、注目フレームの音声が出力される。
【0091】
ステップS49では、文字情報出力部40が、文字情報を出力するかどうかを判定し、文字情報を出力すると判定した場合、即ち、例えば、文字情報を出力するように、再生装置2の設定が、ユーザによって行われている場合、ステップS50に進み、文字情報出力部40は、オブジェクトデータ蓄積部35の蓄積部54から前景のオブジェクトの関連情報のうちの文字情報を読み出すとともに、背景データ蓄積部36の蓄積部56から背景のオブジェクトの関連情報のうちの文字情報を読み出して表示し、ステップS51に進む。
【0092】
なお、文字情報は、画像信号出力部38とは別の文字情報出力部40を設けて表示する他、例えば、画像信号出力部38において、いわゆるOSD(On Screen Display)表示することも可能である。
【0093】
ステップS51では、オブジェクト合成部37が、すべてのフレームの再生が終了したか、または再生を終了するように、ユーザから指示があったかどうかを判定する。ステップS51において、すべてのフレームの再生が、まだ終了していないし、また、再生を終了する旨の指示もないと判定された場合、ステップS46に戻り、オブジェクト合成部37は、いま注目フレームとなっているフレームの次のフレームを、新たな注目フレームとして、その注目フレームについて、画像信号合成部57の内蔵するバッファに記憶された画像情報と、音声信号合成部58の内蔵するバッファに記憶された音声情報との同期をとる。そして、以下、同様の処理が繰り返される。
【0094】
また、ステップS51において、すべてのフレームの再生が終了したか、または、再生を終了する旨の指示があったと判定された場合、再生処理を終了する。
【0095】
以上の再生処理によれば、元のコンテンツと同一のコンテンツが再生される。
【0096】
次に、図8は、図1の再生装置2の第2の構成例を示している。なお、図中、図6における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図8の再生装置2は、インデックス情報取得部41、インデックス情報蓄積部42、インデックス情報提示部43、およびユーザ入力部44が新たに設けられている他は、基本的に、図6における場合と同様に構成されている。
【0097】
図8の実施の形態では、データ読み込み部31は、記録媒体3からオブジェクト統合信号の他、インデックス情報も読み出し、その記録媒体3から読み出したデータを、各オブジェクト統合信号取得部32および背景統合信号取得部33の他、インデックス情報取得部41にも供給する。
【0098】
インデックス情報取得部41は、データ読み込み部31から供給されるデータからインデックス情報を取得し、インデックス情報蓄積部42に供給する。インデックス情報蓄積部42は、インデックス情報取得部41から供給されるインデックス情報を一時記憶する。インデックス情報提示部43は、例えばディスプレイやスピーカなどで構成され、インデックス情報蓄積部32に記憶されたインデックス情報の一覧を提示(画像として表示、または音声として出力)する。さらに、インデックス情報提示部43は、ユーザ入力部44からの、インデックス情報の選択指示を受信し、その選択指示によって選択されたインデックス情報に対応するオブジェクトを表す情報を、オブジェクトデータ蓄積部35に供給する。
【0099】
ユーザ入力部44は、例えば、マウスや、キーボード、マイク(マイクロフォン)などのユーザの指示を入力することのできるI/F(Interface)で構成され、ユーザの指示を、インデックス情報提示部43に供給する。
【0100】
次に、図9のフローチャートを参照して、図8の再生装置2が行う再生処理について説明する。
【0101】
図9では、ステップS61乃至S70において、図7のステップS31乃至S40における場合とそれぞれ同様の処理が行われる。但し、ステップS61では、データ読み込み部31は、記録媒体3から各オブジェクトのオブジェクト統合信号の他、各オブジェクトのインデックス情報も読み出し、各オブジェクト統合信号取得部32、背景統合信号取得部33、およびインデックス情報取得部41に供給する。
【0102】
ステップS70において、対応する図7のステップS40における場合と同様に、データ読み込み部31から供給されるオブジェクト統合信号の中から、すべての前景のオブジェクトについてのオブジェクト統合信号を取得したかどうかが判定され、取得したと判定された場合、ステップS71に進み、インデックス情報取得部41は、データ読み込み部31から供給されるデータの中から、ある前景のオブジェクトについてのインデックス情報を取得し、インデックス情報蓄積部42に供給して、ステップS72に進む。ステップS72では、インデックス情報蓄積部42が、インデックス情報取得部41から供給されるインデックス情報を一時記憶して、ステップS73に進む。
【0103】
ステップS73では、インデックス情報取得部41は、データ読み込み部31から供給されるデータの中から、すべての前景のオブジェクトについてのインデックス情報を取得したかどうかを判定する。ステップS73において、データ読み込み部31から供給されるデータの中から、すべての前景のオブジェクトについてのインデックス情報を、まだ取得していないと判定された場合、ステップS71に戻り、インデックス情報取得部41は、データ読み込み部31から供給されるデータの中から、まだ取得していない前景のオブジェクトについてのインデックス情報を取得し、以下、同様の処理を繰り返す。
【0104】
また、ステップS73において、データ読み込み部31から供給されるデータの中から、すべての前景のオブジェクトについてのインデックス情報を取得したと判定された場合、ステップS74に進み、インデックス情報提示部43は、インデックス情報蓄積部42に記憶されたインデックス情報の一覧を提示し、ステップS75に進む。
【0105】
ステップS75では、ユーザ入力部44が、インデックス情報提示部43で提示されたインデックス情報のいずれか1以上の選択を指示する選択指示の入力が、ユーザからあったかどうかを判定し、なかったと判定した場合、ステップS75に戻り、以下、同様の処理を繰り返す。
【0106】
また、ステップS75において、インデックス情報提示部43で提示されたインデックス情報のいずれか1以上の選択を指示する選択指示の入力があったと判定された場合、ステップS76乃至S79に順次進み、図7のステップS41乃至S44における場合とそれぞれ同様の処理、即ち、画像と音声の合成が行われる。
【0107】
但し、ステップS76乃至S79では、すべてのオブジェクトではなく、ユーザ入力部44によって選択指示がされた前景のオブジェクトと、背景のオブジェクトを対象に、処理が行われる。従って、ステップS76乃至S79では、ユーザ入力部44によって選択されなかったオブジェクトについては、処理は行われない。
【0108】
ステップS79の処理後は、ステップS80に進み、オブジェクト合成部37は、ユーザ入力部44によって選択指示がされたすべての前景のオブジェクトについての画像の合成(ステップS76)と音声の合成(ステップS78)が完了したかどうかを判定する。ステップS79において、ユーザ入力部44によって選択指示がされたすべての前景のオブジェクトについての画像の合成と音声の合成が、まだ完了していないと判定された場合、ステップS76に戻り、以下、ステップS80において、ユーザ入力部44によって選択指示がされたすべての前景のオブジェクトについての画像の合成と音声の合成が完了したと判定されるまで、ステップS76乃至S80の処理が繰り返される。
【0109】
そして、ステップS80において、ユーザ入力部44によって選択指示がされたすべての前景のオブジェクトについての画像の合成と音声の合成が完了したと判定された場合、ステップS81に進み、以下、ステップS81乃至S86において、図7のステップS46乃至S51における場合とそれぞれ同様の処理が行われ、再生処理を終了する。
【0110】
以上の再生処理によれば、元のコンテンツに存在する前景のオブジェクトのうち、ユーザ入力部44によって選択指示がされたオブジェクトが存在し、選択指示がされなかったオブジェクトが存在しないコンテンツが再生される。
【0111】
なお、図9の実施の形態では、埋め込みデコーダ51において、すべての前景のオブジェクトについてのオブジェクト統合信号がデコードされるが、埋め込みデコーダ51においては、その他、例えば、ユーザ入力部44によって選択指示のあったインデックス情報に対応する前景のオブジェクトのオブジェクト統合信号だけを選択してデコードするようにすることが可能である。後述する図11の実施の形態においても、同様である。
【0112】
次に、図10は、図1の再生装置2の第3の構成例を示している。なお、図中、図6または図8における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図10の再生装置2は、編集部45、オブジェクトデータ更新部46、編集履歴蓄積部47、および記録部48が新たに設けられている他は、基本的に、図8における場合と同様に構成されている。
【0113】
図10の再生装置2においては、コンテンツの再生の他、コンテンツの編集を行うことができるようになっており、さらに、その編集後のコンテンツの再生を行うことができるようになっている。
【0114】
即ち、図10の再生装置2では、ユーザ入力部44から、インデックス情報の選択指示の他、コンテンツに対する編集指示を入力することができるようになっており、編集指示は、編集部45に供給される。
【0115】
編集部45は、ユーザ入力部44からの編集指示にしたがい、オブジェクトデータ蓄積部35に記憶された前景のオブジェクト(の画像情報)や、その関連情報を編集し、その編集履歴を、オブジェクトデータ更新部46と編集履歴蓄積部47に供給する。
【0116】
オブジェクトデータ更新部46は、編集部45から供給される編集履歴にしたがって、オブジェクトデータ蓄積部35に記憶された前景のオブジェクト(の画像情報)やその関連情報を更新し、これにより、オブジェクトデータ蓄積部35に記憶された前景のオブジェクト(の画像情報)やその関連情報が編集後のものとなる。
【0117】
編集履歴蓄積部47は、編集部45から供給される編集履歴を一時記憶する。記録部48は、編集履歴蓄積部47に記憶された編集履歴を読み出し、例えば、記録媒体3に記録する。
【0118】
次に、図11のフローチャートを参照して、図10の再生装置2が行う再生処理について説明する。
【0119】
図11では、ステップS91乃至S105において、図9のステップS61乃至S75における場合とそれぞれ同様の処理が行われる。
【0120】
そして、ステップS75において、インデックス情報提示部43で提示されたインデックス情報のいずれか1以上の選択を指示する選択指示の入力がユーザからあったかどうかを、ユーザ入力部44が判定し、あったと判定した場合、ステップS106に進み、編集部45は、ユーザ入力部44によって選択指示がされた前景のオブジェクトとその関連情報を、オブジェクトデータ蓄積部35から読み出すことで取得し、ステップS107に進む。ステップS107では、編集部45が、ユーザ入力部44から編集指示が入力されるのを待って、その編集指示にしたがい、ステップS107で取得したオブジェクトやその関連情報を編集する。
【0121】
即ち、ステップS107では、例えば、オブジェクトの画像情報が変更される。また、ステップS107では、例えば、オブジェクトの関連情報のうちの位置情報が変更される。この場合、オブジェクトが表示される画面上の位置が変更されることになる。その他、ステップS107では、オブジェクトの他の関連情報、即ち、動きベクトル(動き情報)や、変形情報、音声情報、文字情報を、編集によって変更することができる。
【0122】
なお、ここでは、前景のオブジェクトとその関連情報を編集の対象とするようにしたが、その他、背景のオブジェクトやその関連情報、さらには、インデックス情報も、編集の対象とするようにすることが可能である。
【0123】
編集部45は、ステップS107において編集を行うと、その編集履歴を、オブジェクトデータ更新部46および編集履歴蓄積部47に供給して、ステップS108に進む。ステップS108では、編集履歴蓄積部47が、編集部45から供給される編集履歴を記憶し、ステップS109に進む。
【0124】
ステップS109では、オブジェクトデータ更新部46が、編集部45から供給された編集履歴にしたがって、オブジェクトデータ蓄積部35に記憶された前景のオブジェクト(の画像情報)やその関連情報を更新し、これにより、オブジェクトデータ蓄積部35に記憶された前景のオブジェクトやその関連情報を編集後のものとする。
【0125】
その後、ステップS110に進み、以下、ステップS110乃至S120において、図7のステップS41乃至S51における場合とそれぞれ同様の処理が行われる。
【0126】
なお、図11の実施の形態では、ステップS109において、オブジェクトデータ蓄積部35に記憶された前景のオブジェクトやその関連情報が編集後のものとされているので、ステップS116,S117、またはS119では、その編集後の画像、音声、または文字が出力される。
【0127】
ステップS120において、図7のステップS51における場合と同様に、すべてのフレームの再生が終了したか、または再生を終了するように、ユーザから指示があったかどうかが判定され、すべてのフレームの再生が終了したか、または、再生を終了する旨の指示があったと判定された場合、ステップS121に進み、記録部48が、編集履歴蓄積部47に記憶された編集履歴を、記録媒体3に記録し、再生処理を終了する。
【0128】
以上の再生処理によれば、元のコンテンツを編集した、その編集後のコンテンツが再生される。
【0129】
なお、図11の実施の形態では、すべてのオブジェクトが存在するコンテンツを再生するようにしたが、その他、例えば、図9の実施の形態における場合のように、ユーザ入力部44によって選択指示がされたオブジェクトが存在し、選択指示がされなかったオブジェクトは存在しないコンテンツを再生するようにすることが可能である。この場合、再生されるコンテンツには、元のコンテンツに存在する前景のオブジェクトのうち、編集されたものだけが存在することになる。
【0130】
ところで、図10の記録部48においては、編集履歴を、図4に示したデータとは別個独立に、記録媒体3に記録することができる。
【0131】
そこで、図12は、編集履歴が、図4に示したデータとは別個独立に記録されている場合の記録媒体3の再生を行う図1の再生装置2の構成例を示している。なお、図中、図6または図10における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図12の再生装置2は、編集履歴取得部61と、図10に示したオブジェクトデータ更新部46とが、新たに設けられている他は、図6における場合と同様に構成されている。
【0132】
図12の実施の形態においては、データ読み込み部31が、記録媒体3から、オブジェクト統合信号の他、編集履歴も読み出し、各オブジェクト統合信号取得部32、背景統合信号取得部33、および編集履歴取得部61に供給するようになっている。
【0133】
編集履歴取得部61は、データ読み込み部31から供給されるデータの中から、編集履歴を取得し、オブジェクトデータ更新部46に供給する。
【0134】
オブジェクトデータ更新部46は、編集履歴取得部61から供給される編集履歴にしたがい、図10および図11で説明したように、オブジェクトデータ蓄積部35に記憶された前景のオブジェクト(の画像情報)やその関連情報を更新し、これにより、オブジェクトデータ蓄積部35に記憶された前景のオブジェクトやその関連情報を編集後のものとする。
【0135】
そして、図12の再生装置2では、以下、図6における場合と同様にして、コンテンツが再生される。
【0136】
従って、図12の再生装置2においては、図11における場合と同様に、元のコンテンツを編集した、その編集後のコンテンツが再生される。
【0137】
ところで、図10の記録部48において、上述のように、編集履歴を、図4に示したデータとは別個独立に、記録媒体3に記録する場合には、その新たに記録する編集履歴のデータ量の分だけ、記録媒体3の空き領域が必要となる。
【0138】
従って、編集履歴を、図4に示したデータとは別個独立に、記録媒体3に記録する場合には、記録媒体3の空き領域がないと、編集履歴を記録媒体3に記録することができないことになる。
【0139】
そこで、図13は、記録媒体3に空き領域がなくても、編集履歴を、記録媒体3に記録することができる図10の記録部48の構成例を示している。
【0140】
データ読み込み部71は、記録媒体3に記録されたデータを読み出し、各オブジェクト統合信号取得部72に供給する。各オブジェクト統合信号取得部72は、データ読み込み部71から供給されるデータの中から、図6の各オブジェクト信号取得部32における場合と同様に、前景のオブジェクトのオブジェクト統合信号を取得し、埋め込みエンコード部73に供給する。
【0141】
埋め込みエンコード部73には、各オブジェクト統合信号取得部72から前景のオブジェクトのオブジェクト統合信号が供給される他、図10の編集履歴蓄積部47に記憶された編集履歴が供給されるようになっている。そして、埋め込みエンコード部73は、図2の記録装置1における埋め込みエンコード部16が、オブジェクトに関連情報を埋め込むのと同様にして、各オブジェクト統合信号取得部72から供給されるオブジェクト統合信号におけるオブジェクトの画像情報に、編集履歴を埋め込み、これにより、新たなオブジェクト統合信号を生成する。
【0142】
ここで、オブジェクト統合信号におけるオブジェクトには、例えば、そのオブジェクトおよびそのオブジェクトの関連情報に対する編集履歴を埋め込むようにすることができる。
【0143】
埋め込みエンコード部73で得られた新たなオブジェクト統合信号は、記録部74に供給され、記録部74は、埋め込みエンコード部73から供給される新たなオブジェクト統合信号を、記録媒体3上の元のオブジェクト統合信号に上書きする形で記録する。
【0144】
以上のように、埋め込みエンコード部73では、図2の埋め込みエンコード部16における場合と同様に、データ量を増加させずに、オブジェクト統合信号におけるオブジェクトの画像情報に、編集履歴が埋め込まれるので、記録媒体3に空き領域がなくても、編集履歴を、記録媒体3に記録することができる。
【0145】
次に、図14は、図13で説明したように、編集履歴を、オブジェクト統合信号におけるオブジェクトの画像情報に埋め込んで記録した場合の記録媒体3の再生を行う図1の再生装置2の構成例を示している。なお、図中、図6または図12における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図14の再生装置2は、編集履歴取得部61が設けられていない他は、基本的に、図12における場合と同様に構成されている。
【0146】
図14の実施の形態においては、埋め込みデコード部34において、埋め込みデコーダ51が、各オブジェクト統合信号取得部32から供給されるオブジェクト統合信号をデコードすることにより、前景であるオブジェクトおよびその関連情報の他、編集履歴も抽出する。即ち、本実施の形態では、オブジェクト統合信号におけるオブジェクトの画像情報に、関連情報の他、編集履歴が埋め込まれているので、埋め込みデコーダ51では、オブジェクト統合信号から、オブジェクトおよびその関連情報の他、編集履歴も抽出する。
【0147】
埋め込みデコーダ51で抽出された編集履歴は、オブジェクトデータ更新部46に供給され、オブジェクトデータ更新部46は、埋め込みデコーダ51から供給される編集履歴にしたがい、オブジェクトデータ蓄積部35に記憶された前景のオブジェクト(の画像情報)やその関連情報を更新し、これにより、オブジェクトデータ蓄積部35に記憶された前景のオブジェクトやその関連情報を編集後のものとする。
【0148】
そして、図14の再生装置2では、以下、図6における場合と同様にして、コンテンツが再生される。
【0149】
従って、図14の再生装置2においても、図12の再生装置2と同様に、元のコンテンツを編集した、その編集後のコンテンツが再生される。
【0150】
以上のように、オブジェクトの画像情報と、そのオブジェクトに関連する関連情報としての音声情報や文字情報などとの複数のメディアの情報を、埋め込みによって1つのオブジェクト統合信号として扱うようにしたので、ユーザは、コンテンツを編集する際に、メディアごとの編集を行わずに済み、コンテンツの編集作業を、容易に行うことが可能となる。
【0151】
また、ユーザは、コンテンツの中から所望のオブジェクトだけの画像情報や、音声情報、文字情報を抽出して編集することも可能であり、これにより、あるコンテンツを元に、新たなコンテンツ制作を行うことが可能となる。
【0152】
以上のように、ユーザは、容易に、オリジナルコンテンツの編集、さらには再編集を行うことが可能となり、例えば、複数のコンテンツのオブジェクトを合成して得られる新しいコンテンツの制作などを、容易に行うことが可能となる。
【0153】
次に、図2の埋め込みエンコード部16や、図13の埋め込みエンコード部73で行われる、オブジェクトの画像情報に、関連情報や編集情報を埋め込む埋め込みエンコード処理と、図6の埋め込みデコーダ51と52で行われる、オブジェクト統合信号から、オブジェクトの画像情報と、そこに埋め込まれた情報を抽出する埋め込みデコード処理について説明する。
【0154】
まず、図15のフローチャートを参照して、埋め込みエンコード処理について説明する。なお、ここでは、例えば、図2の埋め込みエンコード部16が埋め込みエンコード処理を行うものとする。
【0155】
埋め込みエンコード部16は、データ処理部14から供給されるオブジェクトの画像情報と、そのオブジェクトの関連情報とを、その内蔵するバッファ(図示せず)に記憶する。
【0156】
ここで、埋め込みエンコード処理においては、ある情報に、他の情報(ある情報の一部であっても良い)が埋め込まれるが、ある情報に埋め込まれる他の情報を、以下、適宜、埋め込み情報という。
【0157】
埋め込みエンコード部16は、ステップS131において、その内蔵するバッファに記憶した埋め込み情報としての関連情報から、まだ、オブジェクトの画像情報に埋め込んでいない1ビットの埋め込み情報を、注目埋め込み情報として選択するとともに、その1ビットの注目埋め込み情報を埋め込む処理の対象とする画素を、その内蔵するバッファに記憶したオブジェクトの画像情報のうちの、まだ埋め込み情報が埋め込まれていないものの中から、処理対象画素として選択する。
【0158】
ここで、本実施の形態では、例えば、図16に示すように、埋め込みエンコード部16の内蔵するバッファに記憶されたオブジェクトの画像情報から、五の目格子状に、処理対象画素が選択される。即ち、埋め込みエンコード部16では、ステップS131の処理が行われるごとに、図16において、斜線を付していない画素が、例えば、ラインスキャン順に、順次、処理対象画素として選択される。なお、図16におけるp(x,y)は、左からx番目の、上からy番目の画素を表している(後述する図19においても同様)。
【0159】
その後、埋め込みエンコード部16は、ステップS132において、注目埋め込み情報が1または0のうちのいずれであるかを判定する。ステップS132において、埋め込み情報が、1または0のうちの、例えば0であると判定された場合、ステップS131に戻る。即ち、埋め込みエンコード部16は、埋め込み情報が0である場合には、処理対象画素に、何らの処理も施さずに(所定の定数としての0を加算し)、ステップS131に戻り、新たな注目埋め込み情報と、新たな処理対象画素を選択し、以下、同様の処理を繰り返す。
【0160】
また、ステップS132において、埋め込み情報が、1または0のうちの、例えば1であると判定された場合、ステップS133に進み、埋め込みエンコード部16は、処理対象画素に対して、所定の処理を施す。即ち、埋め込みエンコード部16は、所定の定数としての、例えば、2の、画素に割り当てられているビット数−1乗を、処理対象画素の画素値に加算する。
【0161】
従って、オブジェクトの画像情報を構成する画素の画素値として、例えば、8ビットが割り当てられている場合には、ステップS133では、2が、処理対象画素の画素値に加算されることになる。
【0162】
なお、この加算は、画素値が、例えば、YUVなどで表現されている場合には、輝度成分Y、または色成分U,Vのいずれに対して行っても良い。また、加算は、画素値が、例えば、RGBで表現されている場合には、R,G,Bのいずれに対して行っても良い。
【0163】
ステップS133において、処理対象画素の画素値に、2が加算された後は、ステップS134に進み、埋め込みエンコード部16は、その加算結果がオーバフローしているかどうかを判定する。ステップS134において、加算結果がオーバフローしていないと判定された場合、ステップS135をスキップして、ステップS136に進み、埋め込みエンコード部16は、その加算結果を、処理対象画素の画素値として、その内蔵するバッファに上書きする形で書き込み、ステップS131に戻る。ステップS131では、新たな注目埋め込み情報と、新たな処理対象画素が選択され、以下、同様の処理が繰り返される。
【0164】
また、ステップS134において、加算結果がオーバフローしていると判定された場合、即ち、加算結果が、2以上となった場合、ステップS135に進み、その加算値の補正が行われる。即ち、ステップS135では、オーバフローした加算値が、例えば、そのオーバフローした分(オーバフローした加算値から2を減算した値)に補正される。そして、ステップS136に進み、埋め込みエンコード部16は、その補正後の加算結果を、処理対象画素の画素値として、その内蔵するバッファに上書きする形で書き込み、ステップS131に戻る。ステップS131では、新たな注目埋め込み情報と、新たな処理対象画素が選択され、以下、同様の処理が繰り返される。
【0165】
埋め込みエンコード部16は、以上のステップS131乃至S136の処理を繰り返し、これにより、オブジェクトの画像情報に埋め込み情報を埋め込んで得られる画像情報を、オブジェクト統合信号として出力する。
【0166】
ここで、図15の埋め込みエンコード処理は、オブジェクト単位で行われる。即ち、図15の埋め込みエンコード処理は、あるオブジェクトについては、そのオブジェクトの画像情報に対して埋め込むべき埋め込み情報がなくなった時点で終了し、次のオブジェクトについて開始される。
【0167】
なお、図2の埋め込みエンコード部16では、図15の埋め込みエンコード処理が、オブジェクトの関連情報だけを埋め込み情報として行われるが、図13の埋め込みエンコード部73では、オブジェクトの関連情報と編集履歴を埋め込み情報として行われる。即ち、埋め込みエンコード部73は、例えば、オブジェクトに関連情報を埋め込むことによって得られたオブジェクト統合信号を、一旦、オブジェクトと関連情報にデコードし、デコードされたオブジェクトに対して、デコードされた関連情報と編集履歴を、埋め込み情報として埋め込む。
【0168】
以上のように、オブジェクトの画像情報を構成する一部の画素を選択し、その選択した画素に対して、埋め込み情報に対応した処理であって、画像の相関性を利用して元に戻すことができるものを施すことにより、画素に、埋め込み情報を埋め込むことで、画像の画質の劣化を極力なくし、かつデータ量を増加せずに、画像に埋め込み情報を埋め込むことができる。
【0169】
即ち、埋め込み情報が埋め込まれた画素は、画像の相関性、即ち、ここでは、埋め込み情報が埋め込まれなかった画素との間の相関を利用することにより、後述するように、オーバヘッドなしで、元の画素と埋め込み情報にデコード(戻す)ことができる。従って、その結果得られるオブジェクトのデコード画像(再生画像)には、基本的に、埋め込み情報を埋め込むことによる画質の劣化は生じない。
【0170】
次に、オブジェクト統合信号から、オブジェクトの画像情報と、そこに埋め込まれた埋め込み情報を抽出する埋め込みデコード処理について説明する。なお、ここでは、図6の埋め込みデコーダ51が埋め込みデコード処理を行うものとする。
【0171】
埋め込みデコーダ51は、オブジェクト統合信号を、画像の相関性を利用して元のオブジェクトの画像情報と埋め込み情報にデコードする。具体的には、埋め込みデコーダ51は、埋め込み情報が埋め込まれた画像情報であるオブジェクト統合信号を構成する一部の画素を、処理対象画素として選択し、図17に示すように、その処理対象画素に対して、埋め込みエンコード部16が施した処理と逆の処理を施すことで、その画素値を変更する。さらに、図17に示すように、埋め込みデコーダ51は、画素値の変更前の処理対象画素と、その周辺画素(図17の実施の形態では、左右に隣接する画素)との相関値Rを演算するとともに、画素値の変更された処理対象画素と、その画素の周辺画素との相関値Rを演算し、その相関値RとRとを比較する。そして、埋め込みデコーダ51は、その比較結果に基づいて、画素値の変更前または変更後の処理対象画素のうちのいずれか一方を、その処理対象画素のデコード結果とするとともに、その処理対象画素に埋め込まれた埋め込み情報(ここでは、1ビットの1または0のうちのいずれか一方)をデコードする。
【0172】
次に、図18のフローチャートを参照して、埋め込みデコード処理について説明する。
【0173】
埋め込みデコーダ51は、あるオブジェクトのオブジェクト統合信号を、その内蔵するバッファ(図示せぬ)に記憶し、ステップS141において、その内蔵するバッファに記憶したオブジェクト統合信号である、埋め込み情報が埋め込まれた画像情報を構成する画素のうちの、まだ処理対象画素としていない画素の中から、デコードを行う処理の対象とする画素を、処理対象画素として選択する。
【0174】
ここで、埋め込みデコーダ51では、図6の埋め込みエンコード部16と同様に、その内蔵するバッファに記憶されたオブジェクト統合信号(埋め込み情報が埋め込まれた画像情報)から、五の目格子状に、画素が選択される。即ち、埋め込みデコーダ51では、ステップS141の処理が行われるごとに、上述の図16に示した、斜線を付していない画素が、例えば、ラインスキャン順に、順次、処理対象画素として選択される。
【0175】
その後、ステップS142に進み、埋め込みデコーダ51は、処理対象画素に対し、図6の埋め込みエンコード部16が行った処理と逆の処理を施す。即ち、埋め込みエンコード部16は、所定の定数としての、例えば、2の、画素に割り当てられているビット数−1乗を、処理対象画素の画素値から減算する。
【0176】
従って、上述したように、画像を構成する画素の画素値として、例えば、8ビットが割り当てられている場合においては、ステップS142では、2が、処理対象画素の画素値から減算されることになる。
【0177】
なお、この減算は、画素値が、例えば、YUVなどで表現されている場合には、輝度成分Y、または色成分U,Vのいずれに対して行っても良い。また、減算は、画素値が、例えば、RGBで表現されている場合には、R,G,Bのいずれに対して行っても良い。但し、ステップS142における減算は、図15のステップS133における加算が行われたものと同一のものに対して行う必要がある。即ち、画素値が、例えば、YUVなどで表現されており、図15のステップS1333における加算が、YUVのうちの、例えば、Y成分に対して行われた場合には、ステップS142における減算は、やはり、Y成分に対して行う必要がある。
【0178】
ステップS142において、処理対象画素の画素値から、2が減算された後は、ステップS143に進み、埋め込みデコーダ51は、その減算結果がアンダフローしているかどうかを判定する。ステップS143において、減算結果がアンダフローしていないと判定された場合、ステップS144をスキップして、ステップS145に進む。
【0179】
また、ステップS143において、減算結果がアンダフローしていると判定された場合、即ち、加算結果が、0未満となった場合、ステップS144に進み、埋め込みデコーダ51は、その減算値の補正を行う。即ち、ステップS144では、アンダフローした減算値が、例えば、その減算値に2を加算した値に補正され、ステップS145に進む。
【0180】
ステップS145では、埋め込みデコーダ51は、処理対象画素の画素値(ステップS142で2を減算していないもの)(以下、適宜、第1の画素値という)Pと、その画素値から2を減算した減算値(以下では、ステップS144で補正されたものも含むものとする)(以下、適宜、第2の画素値という)Pのそれぞれについて、処理対象画素の周辺画素としての、例えば、その左右に隣接する画素との間の相関値を演算する。
【0181】
即ち、ステップS145では、例えば、処理対象画素の第1の画素値Pと、その左右の画素それぞれの画素値との差分の絶対値が演算され、その2つの絶対値の加算値が、処理対象画素の第1の画素値Pについての相関値Rとして求められる。さらに、ステップS145では、処理対象画素の第2の画素値Pについても、その左右の画素それぞれの画素値との差分の絶対値どうしの加算値が演算され、それが、処理対象画素の第2の画素値Pの相関値Rとして求められる。
【0182】
なお、ステップS145において、処理対象画素との間の相関を求めるのに用いる画素は、その左右に隣接する画素に限定されるものではなく、上下に隣接する画素であっても良い。また、必ずしも、空間的に隣接する画素である必要もない。但し、処理対象画素との相関を求めるにあたっては、図16において、斜線を付した画素、即ち、埋め込み情報が埋め込まれていない画素を用いるのが望ましい。これは、処理対象画素について、埋め込み情報が埋め込まれた画素との相関を求めても、元の画像についての相関を得ることができず、従って、画像の相関性を利用することができないため、埋め込み情報が埋め込まれた画素から、元の画素値および埋め込み情報を、正確にデコードするのが困難となるからである。また、画像の相関性を利用して、処理対象画素をデコードする以上、処理対象画素との相関値を求めるのに用いる画素は、その処理対象画素との空間的距離が近いものであるのが望ましい。
【0183】
第1の画素値Pについての相関値R、および第2の画素値Pについての相関値Rの算出後は、ステップS146に進み、埋め込みデコーダ51は、その相関値RとRとを比較する。
【0184】
ステップS146において、相関値Rが、相関値Rより大きい(以上である)と判定された場合、ステップS147に進み、埋め込みデコーダ51は、埋め込み情報のデコード結果として、0を出力し、ステップS141に戻る。そして、この場合、埋め込みデコーダ51は、その内蔵するバッファに記憶している処理対象画素の画素値を書き換えず、従って、処理対象画素の画素値のデコード結果は、その画素値Pのままとされる。
【0185】
即ち、第1の画素値Pについての相関値Rの方が、第2の画素値Pについての相関値Rより大きいということは、処理対象画素の画素値としては、画素値Pよりも、画素値Pの方が確からしいこととなるので、処理対象画素の画素値のデコード結果は、その確からしい画素値Pとされる。さらに、画素値Pは、ステップS142で2が減算されていないものであるから、図15のステップS133で2が加算されていないものである。そして、図15の埋め込みエンコード処理では、埋め込み情報が0の場合には、2を加算しないこととしているから、第1の画素値Pについての相関値Rの方が大きく、画素値Pが、処理対象画素の画素値として確からしい場合には、そこに埋め込まれた埋め込み情報は0ということになる。
【0186】
一方、ステップS146において、相関値Rが、相関値Rより大きい(以上である)と判定された場合、ステップS148に進み、埋め込みデコーダ51は、その内蔵するバッファに記憶している処理対象画素の画素値を、その画素値から2を減算した減算値、即ち、第2の画素値Pに書き換える。従って、この場合、処理対象画素の画素値のデコード結果は、その画素値Pとされる。そして、ステップS149に進み、埋め込みデコーダ51は、埋め込み情報のデコード結果として、1を出力し、ステップS141に戻る。
【0187】
即ち、第2の画素値Pについての相関値Rの方が、第1の画素値Pについての相関値Rより大きいということは、処理対象画素の画素値としては、画素値Pよりも、画素値Pの方が確からしいこととなるので、処理対象画素の画素値のデコード結果は、その確からしい画素値Pとされる。さらに、画素値Pは、ステップS142で、画素値Pから2が減算されたものであるから、図15のステップS133で、元の画素値に2が加算されたものである。そして、図15の埋め込みエンコード処理では、埋め込み情報が1の場合には、2を加算することとしているから、第2の画素値Pについての相関値Rの方が大きく、画素値Pが、処理対象画素の画素値として確からしい場合には、そこに埋め込まれた埋め込み情報は1ということになる。
【0188】
ここで、上述のようにして求められる相関値RとRとの差分が小さい場合には、画素値PとPのうちのいずれが、処理対象画素の画素値として確からしいかは、一概にはいえないこともありうる。そこで、このような場合には、処理対象画素の左右に隣接する画素だけでなく、他の画素をも用いて、画素値P,Pそれぞれについての相関値を求め、その相関値を比較することで、画素値P,Pのうちのいずれが、処理対象画素の画素値として確からしいかを決定することができる。
【0189】
以上のように、埋め込み情報が埋め込まれた画像情報であるオブジェクト統合信号を、画像の相関性を利用して、元のオブジェクトの画像情報と埋め込み情報にデコードするようにしたので、そのデコードのためのオーバヘッドがなくても、オブジェクト統合信号を、元の画像情報と埋め込み情報にデコードすることができる。従って、そのデコード画像(再生画像)には、基本的に、埋め込み情報を埋め込むことによる画質の劣化は生じない。
【0190】
なお、上述の場合には、処理対象画素と、他の画素との相関値として、それらの画素値の差分の絶対値を用いるようにしたが、相関値は、これに限定されるものではない。
【0191】
また、上述の場合には、図16に示したように、オブジェクトの画像情報から、五の目格子状に、画素を選択し、その画素に、埋め込み情報を埋め込むようにしたが、埋め込み情報を埋め込む画素の選択パターンは、これに限定されるものではない。但し、埋め込み情報を埋め込んだ画素のデコードにあたっては、上述したように、埋め込み情報が埋め込まれていない画素を用いて相関を求めるのが望ましく、また、画素どうしの相関は、基本的に、それらの間の空間的距離が離れるほど小さくなっていく。従って、正確なデコードを行う観点からは、埋め込み情報を埋め込む画素は、空間的に、いわゆる疎らになるように選択するのが望ましい。一方、多くの埋め込み情報を埋め込む観点からは、埋め込み情報を埋め込む画素は、ある程度多くする必要がある。従って、埋め込み情報を埋め込む画素は、デコードの正確さと、埋め込み情報のデータ量とをバランスさせて選択するのが望ましい。
【0192】
さらに、上述の場合には、処理対象画素として選択された1画素に、1ビットの埋め込み情報を埋め込むようにしたが、1画素に、2ビット以上の埋め込み情報を埋め込むようにすることも可能である。例えば、1画素に、2ビットの埋め込み情報を埋め込む場合には、その2ビットの埋め込み情報にしたがって、例えば、0,2,2,2+2のうちのいずれかを、画素値に加算するようにすれば良い。
【0193】
また、上述の場合には、画素値に、0または2のうちのいずれかを加算することで(画素値に、2を加算しないか、または加算することで)、埋め込み情報を埋め込むようにしたが、画素値に加算する値は、2に限定されるものではない。但し、画素値の下位ビットにしか影響を与えないような値を加算する場合には、その加算値と、元の画素値とが、あまり異なったものとならず、従って、図18のステップS145で求められる相関値RとRも、あまり異なったものとならなくなる。これは、画素値および埋め込み情報のデコード結果の精度を劣化させることとなるから、埋め込み情報にしたがって、画素値に加算する値は、元の画素値の上位ビットに影響を与えるような値とするのが望ましい。
【0194】
さらに、上述の場合には、画素値に、所定値を加算することで、埋め込み情報の埋め込みを行うようにしたが、埋め込み情報の埋め込みは、加算以外の操作(例えば、ビット反転など)を、画素値に施すことによって行うことも可能である。但し、上述したように、画素値および埋め込み情報のデコード結果の精度の劣化を防止する観点から、画素値に施す操作は、元の画素値についての相関と、操作を施した画素値についての相関とが大きく異なるようなものであることが望ましい。
【0195】
また、上述の場合には、処理対象画素として選択された1画素に、1ビットの埋め込み情報を埋め込むようにしたが、複数画素に、1ビットの埋め込み情報を埋め込むようにすることも可能である。即ち、例えば、図19において○印で示す位置関係にある4画素に、1ビットの埋め込み情報を埋め込むようにすることなどが可能である。
【0196】
具体的には、例えば、図19において、4つの画素p(1,4),p(5,4),p(1,8),p(5,8)に注目した場合、埋め込み時には、1ビットの埋め込み情報にしたがい、画素p(1,4),p(5,4),p(1,8),p(5,8)それぞれの画素値に対して、同一の操作を施すことで、1ビットの埋め込み情報を埋め込む。一方、デコード時には、4つの画素p(1,4),p(5,4),p(1,8),p(5,8)それぞれについて、上述したような第1および第2の画素値P,Pの相関値R,Rを求め、その相関値R,Rの大小関係を比較する。そして、その比較結果の多数決などによって、4つの画素p(1,4),p(5,4),p(1,8),p(5,8)それぞれの画素値と、埋め込み情報のデコード結果を決定すれば良い。あるいは、また、4つの画素p(1,4),p(5,4),p(1,8),p(5,8)それぞれについての第1の画素値Pの相関値Rの総和と、第2の画素値Pの相関値Rの総和とを求め、その2つの総和の大小関係などに基づいて、4つの画素p(1,4),p(5,4),p(1,8),p(5,8)それぞれの画素値と、埋め込み情報のデコード結果を決定しても良い。
【0197】
ここで、図16に示したように、処理対象画素として、画像から、五の目格子状に、画素を選択し、その選択された各画素に、1ビットの埋め込み情報を埋め込むようにした場合には、画像の画素数の約半分のビット数の埋め込み情報を埋め込むことができるが、上述したように、4画素に、1ビットの埋め込み情報を埋め込む場合には、画像に埋め込むことのできる埋め込み情報は、その画像の画素数の約半分の1/4のビット数となる。
【0198】
なお、以上のように、画素値に対して、埋め込み情報に応じた操作を施すことによって、オブジェクトの画像情報に埋め込み情報を埋め込む埋め込み方法の詳細については、例えば、特開2000−059743号公報に記載されている。
【0199】
また、オブジェクトの画像情報に埋め込み情報を埋め込む埋め込み方法は、画素値に対して、埋め込み情報に応じた操作を施す方法に限定されるものではなく、例えば、特開2000−184181号公報に記載されている方法などを採用することが可能である。
【0200】
特開2000−184181号公報に記載されている方法では、オブジェクトの画像情報を構成する、例えば、水平ラインが、上から順に、注目ラインとされ、その注目ラインが、埋め込み情報に対応する画素数分だけ、水平方向にローテーションされる。
【0201】
即ち、例えば、いま、図20Aに示すように、第Nライン(上からN番目の水平ライン)が注目ラインとされているとすると、その第Nラインは、埋め込み情報の値と同一の画素数だけ、水平方向である左または右方向のうちの、例えば右方向にスライドされ、そのスライドにより、右にはみ出した第Nラインの部分は、図20Cに示すように、その第Nラインの左側にはめ込まれる。
【0202】
従って、例えば、図21Aに示すようなオブジェクトの画像情報に、埋め込み情報として、10,150,200,・・・を埋め込む場合においては、図21Bに示すように、第1ラインは、そのままとされ、第2ラインは、最初の埋め込み情報と同一の値である10画素だけ、右方向にローテーションされる。さらに、第3ラインは、2番目の埋め込み情報と同一の値である150画素だけ、右方向にローテーションされ、第4ラインは、3番目の埋め込み情報と同一の値である200画素だけ、右方向にローテーションされる。第5ライン以降も、同様に、埋め込み情報に対応する画素数だけ、右方向にローテーションされていく。ここで、第1ラインをローテーションせずにそのままとする理由については、後述する。
【0203】
以上のように、水平ラインを、埋め込み情報に対応した画素数だけ、右方向にローテーションすることにより、各水平ラインに、埋め込み情報を埋め込む場合には、その逆のローテーションを行うことで、元の画像にデコードすることができ、さらに、その逆のローテーションを行ったときのローテーション量が埋め込み情報となる。従って、画像の画質を劣化させずに、かつデータ量を増加せずに、画像に埋め込み情報を埋め込むことができる。
【0204】
即ち、埋め込み情報が埋め込まれた水平ラインとしてのローテーションされた水平ラインは、画像の相関性、即ち、ここでは、正しい位置にあるラインとの間の相関を利用することにより、オーバヘッドなしで、正しい位置のラインと埋め込み情報にデコード(戻す)ことができる。従って、その結果得られるデコード画像(再生画像)には、基本的に、埋め込み情報を埋め込むことによる画質の劣化は生じない。
【0205】
なお、以上のように、オブジェクトの画像情報の各水平ラインを、埋め込み情報に応じた画素数だけローテンションすることにより、オブジェクトの画像情報に埋め込み情報を埋め込んだオブジェクト統合信号を生成する場合、そのオブジェクト統合信号に、正しい位置にある水平ラインが存在しないと、上述のように画像の相関性を利用して、画像と埋め込み情報をデコードするのは困難である。そこで、オブジェクトの画像情報の、例えば、最上行の水平ラインなどの、少なくとも1以上の水平ラインには、埋め込み情報を埋め込まないで(ローテーションしないで)、そのまま、オブジェクト統合信号とするのが望ましい。
【0206】
以上のように、水平ラインをローテーションすることによって得られたオブジェクト統合信号のデコードは、そのオブジェクト統合信号の水平ラインを、1画素ずつ右または左のうちのいずれか一方向にローテーションしながら、例えば、そのローテーション後のラインと、その1つ上の行のラインとの間の相関値を演算することによって行うことができる。即ち、図22Aに示すように、オブジェクト統合信号を構成する、水平ラインを、例えば上から順に、注目ラインとし、その1ライン上の水平ライン(この水平ラインは、注目ラインをデコードするための、いわばキーとなるため、以下、適宜、キーラインという)との相関値を計算する。さらに、図22Bに示すように、注目ラインを、1画素だけ右または左のうちのいずれかにローテーションし(図22では、図20で説明した場合の逆方向である左方向にローテーションしている)、そのローテーション後の注目ラインとキーラインラインとの間の相関値を演算する。以下、同様にして、注目ラインが、オブジェクト統合信号における元の位置に戻るまで、注目ラインをローテーションしながら、キーラインとの間の相関値を計算する。そして、最大の相関値が得られたときの位置に、注目ラインをローテーションすることにより、その注目ラインを、オブジェクトの画像情報における元の位置に戻すことができ、さらに、そのときの注目ラインのローテーション量が、その注目ラインに埋め込まれていた埋め込み情報となる。
【0207】
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
【0208】
そこで、図23は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
【0209】
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
【0210】
あるいはまた、プログラムは、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体111に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。
【0211】
なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部108で受信し、内蔵するハードディスク105にインストールすることができる。
【0212】
コンピュータは、CPU(Central Processing Unit)102を内蔵している。CPU102には、バス101を介して、入出力インタフェース110が接続されており、CPU102は、入出力インタフェース110を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部107が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、また、CPU102は、ハードディスク105に格納されているプログラム、衛星若しくはネットワークから転送され、通信部108で受信されてハードディスク105にインストールされたプログラム、またはドライブ109に装着されたリムーバブル記録媒体111から読み出されてハードディスク105にインストールされたプログラムを、RAM(Random Access Memory)104にロードして実行する。これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
【0213】
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0214】
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
【0215】
【発明の効果】
以上の如く、本発明によれば、編集作業の容易化を図ること等が可能となる。
【図面の簡単な説明】
【図1】本発明を適用した記録再生装置の一実施の形態の構成例を示すブロック図である。
【図2】記録装置1の構成例を示すブロック図である。
【図3】記録装置1による記録処理を説明するフローチャートである。
【図4】記録装置1が記録する記録データのフォーマットを示す図である。
【図5】オブジェクト/関連情報抽出処理を説明するフローチャートである。
【図6】再生装置2の第1の構成例を示すブロック図である。
【図7】再生装置2による再生処理を説明するフローチャートである。
【図8】再生装置2の第2の構成例を示すブロック図である。
【図9】再生装置2による再生処理を説明するフローチャートである。
【図10】再生装置2の第3の構成例を示すブロック図である。
【図11】再生装置2による再生処理を説明するフローチャートである。
【図12】再生装置2の第4の構成例を示すブロック図である。
【図13】記録部48の構成例を示すブロック図である。
【図14】再生装置2の第5の構成例を示すブロック図である。
【図15】埋め込みエンコード処理を説明するフローチャートである。
【図16】処理対象画素の選択方法を説明するための図である。
【図17】相関値の計算を説明するための図である。
【図18】埋め込みでコード処理を説明するフローチャートである。
【図19】処理対象画素の選択方法を説明するための図である。
【図20】水平ラインのローテーションによる埋め込み方法を説明するための図である。
【図21】水平ラインのローテーションによる埋め込みの具体例を示す図である。
【図22】水平ラインのローテーションによる埋め込みのデコードを説明するための図である。
【図23】本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
【符号の説明】
1 記録装置, 2 再生装置, 3 記録媒体, 4 伝送媒体, 11 画像データ入力部, 12 音声データ入力部, 13 文字データ入力部, 14 データ処理部, 15 インデックス作成部, 16 埋め込みエンコード部, 17 記録データ作成部, 18 記録部, 21 オブジェクト抽出部, 22 関連情報抽出部, 31 データ読み込み部, 32 各オブジェクト統合信号取得部, 33 背景統合信号取得部, 34 埋め込みデコード部, 35 オブジェクトデータ蓄積部, 36 背景データ蓄積部, 37 オブジェクト合成部, 38 画像信号出力部, 39 音声信号出力部, 40 文字情報出力部, 41 インデックス情報取得部, 42 インデックス情報蓄積部, 43 インデックス情報提示部, 44 ユーザ入力部, 45編集部, 46 オブジェクトデータ更新部, 47 編集履歴蓄積部, 48 記録部, 51,52 埋め込みデコーダ, 53乃至56 蓄積部, 57 画像信号合成部, 58 音声信号合成部, 61 編集履歴取得部, 71 データ読み込み部, 72 各オブジェクト統合信号取得部, 73 埋め込みエンコード部, 74 記録部, 101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111 リムーバブル記録媒体

Claims (24)

  1. オブジェクトを抽出するオブジェクト抽出手段と、
    前記オブジェクトに関連する関連情報を抽出する関連情報抽出手段と、
    前記オブジェクトに、そのオブジェクトに関連する前記関連情報を埋め込むことにより、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを統合したオブジェクト統合信号を生成する関連情報埋め込み手段と
    を備えることを特徴とする情報処理装置。
  2. 前記オブジェクト統合信号を、記録媒体に記録する記録手段をさらに備える
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記記録手段は、前記オブジェクト単位のオブジェクト統合信号を、前記記録媒体に記録する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記オブジェクト抽出手段は、所定のコンテンツから、画像のオブジェクトを抽出する
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 前記関連情報抽出手段は、前記オブジェクトの動きを表す動き情報、前記オブジェクトに付随する音声情報、または前記オブジェクトを説明する文字情報を、前記関連情報として抽出する
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記オブジェクトのインデックスとなるインデックス情報を作成するインデックス情報作成手段をさらに備える
    ことを特徴とする請求項1に記載の情報処理装置。
  7. 各オブジェクトについてのオブジェクト統合信号と、
    各オブジェクトについての前記オブジェクト統合信号の配置位置を表す位置情報と、
    各オブジェクトについての前記インデックス情報と
    を配置したデータ構造のデータを作成するデータ作成手段をさらに備える
    ことを特徴とする請求項6に記載の情報処理装置。
  8. オブジェクトを抽出するオブジェクト抽出ステップと、
    前記オブジェクトに関連する関連情報を抽出する関連情報抽出ステップと、
    前記オブジェクトに、そのオブジェクトに関連する前記関連情報を埋め込むことにより、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを統合したオブジェクト統合信号を生成する関連情報埋め込みステップと
    を備えることを特徴とする情報処理方法。
  9. コンピュータに実行させるプログラムにおいて、
    オブジェクトを抽出するオブジェクト抽出ステップと、
    前記オブジェクトに関連する関連情報を抽出する関連情報抽出ステップと、
    前記オブジェクトに、そのオブジェクトに関連する前記関連情報を埋め込むことにより、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを統合したオブジェクト統合信号を生成する関連情報埋め込みステップと
    を備えることを特徴とするプログラム。
  10. コンピュータが読みとり可能なデータ構造において、
    抽出されたオブジェクトに、そのオブジェクトに関連する、抽出された関連情報が埋め込まれることにより生成された、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを統合したオブジェクト統合信号と、
    前記オブジェクトのインデックスとなる、作成されたインデックス情報と
    を備えることを特徴とするデータ構造。
  11. コンピュータが読みとり可能なデータ構造のデータが記録された記録媒体において、
    抽出されたオブジェクトに、そのオブジェクトに関連する、抽出された関連情報が埋め込まれることにより生成された、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを統合したオブジェクト統合信号と、
    前記オブジェクトのインデックスとなる、作成されたインデックス情報と
    を備えるデータ構造のデータが記録されている
    ことを特徴とする記録媒体。
  12. オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより生成された、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを統合したオブジェクト統合信号を取得するオブジェクト統合信号取得手段と、
    前記オブジェクト統合信号から、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを抽出する抽出手段と、
    前記オブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声を合成して再生する再生手段と
    を備えることを特徴とする情報処理装置。
  13. 前記オブジェクト統合信号が記録された記録媒体から、前記オブジェクト統合信号を読み出す読み出し手段をさらに備える
    ことを特徴とする請求項12に記載の情報処理装置。
  14. 前記関連情報は、前記オブジェクトの動きを表す動き情報、前記オブジェクトに付随する音声情報、または前記オブジェクトを説明する文字情報である
    ことを特徴とする請求項12に記載の情報処理装置。
  15. 前記オブジェクトのインデックスとなるインデックス情報を取得するインデックス情報取得手段と、
    前記インデックス情報を提示するインデックス情報提示手段と
    をさらに備える
    ことを特徴とする請求項12に記載の情報処理装置。
  16. 前記オブジェクト統合信号と、
    前記オブジェクト統合信号の配置位置を表す位置情報と、
    前記オブジェクトについての前記インデックス情報と
    を配置したデータ構造のデータが記録された記録媒体から、前記オブジェクト統合信号およびインデックス情報を読み出す読み出し手段をさらに備える
    ことを特徴とする請求項15に記載の情報処理装置。
  17. 前記オブジェクトまたは関連情報を編集する編集手段と、
    前記編集手段による編集にしたがい、前記オブジェクトまたは関連情報を更新する更新手段と
    をさらに備え、
    前記再生手段は、前記更新手段による更新後の前記オブジェクトおよび関連情報を用いて、画像と音声を再生する
    ことを特徴とする請求項12に記載の情報処理装置。
  18. 前記編集手段による編集の履歴である編集履歴を記録する記録手段をさらに備える
    ことを特徴とする請求項17に記載の情報処理装置。
  19. 前記記録手段は、前記オブジェクト統合信号が記録された記録媒体に、前記編集履歴を記録する
    ことを特徴とする請求項18に記載の情報処理装置。
  20. 前記オブジェクト統合信号とされた前記オブジェクトに、前記編集履歴を埋め込むことにより、前記オブジェクトと、前記関連情報および編集履歴とを統合した新たなオブジェクト統合信号を生成する編集履歴埋め込み手段をさらに備え、
    前記記録手段は、前記新たなオブジェクト統合信号を記録する
    ことを特徴とする請求項18に記載の情報処理装置。
  21. 前記オブジェクト統合信号は、前記オブジェクトに、前記関連情報の他、前記オブジェクトまたは関連情報の編集の履歴である編集履歴をさらに埋め込んだものとなっており、
    前記編集履歴にしたがい、前記オブジェクトまたは関連情報を更新する更新手段をさらに備え
    前記再生手段は、前記更新手段による更新後の前記オブジェクトおよび関連情報を用いて、画像と音声を再生する
    ことを特徴とする請求項12に記載の情報処理装置。
  22. オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより生成された、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを統合したオブジェクト統合信号を取得するオブジェクト統合信号取得ステップと、
    前記オブジェクト統合信号から、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを抽出する抽出ステップと、
    前記オブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声を合成して再生する再生ステップと
    を備えることを特徴とする情報処理方法。
  23. コンピュータに実行させるプログラムにおいて、
    オブジェクトに、そのオブジェクトに関連する関連情報を埋め込むことにより生成された、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを統合したオブジェクト統合信号を取得するオブジェクト統合信号取得ステップと、
    前記オブジェクト統合信号から、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを抽出する抽出ステップと、
    前記オブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声を合成して再生する再生ステップと
    を備えることを特徴とするプログラム。
  24. 第1の装置と第2の装置とからなる情報処理装置において、
    前記第1の装置は、
    オブジェクトを抽出するオブジェクト抽出手段と、
    前記オブジェクトに関連する関連情報を抽出する関連情報抽出手段と、
    前記オブジェクトに、そのオブジェクトに関連する前記関連情報を埋め込むことにより、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを統合したオブジェクト統合信号を生成する関連情報埋め込み手段と
    を有し、
    前記第2の装置は、
    前記オブジェクト統合信号を取得するオブジェクト統合信号取得手段と、
    前記オブジェクト統合信号から、前記オブジェクトと、そのオブジェクトに関連する前記関連情報とを抽出する抽出手段と、
    前記オブジェクトおよび関連情報を用いて、オブジェクト単位の画像と音声を合成して再生する再生手段と
    を有する
    ことを特徴とする情報処理装置。
JP2003003980A 2003-01-10 2003-01-10 情報処理装置および情報処理方法、プログラム、並びにデータ構造および記録媒体 Pending JP2004221712A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003003980A JP2004221712A (ja) 2003-01-10 2003-01-10 情報処理装置および情報処理方法、プログラム、並びにデータ構造および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003003980A JP2004221712A (ja) 2003-01-10 2003-01-10 情報処理装置および情報処理方法、プログラム、並びにデータ構造および記録媒体

Publications (1)

Publication Number Publication Date
JP2004221712A true JP2004221712A (ja) 2004-08-05

Family

ID=32895085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003003980A Pending JP2004221712A (ja) 2003-01-10 2003-01-10 情報処理装置および情報処理方法、プログラム、並びにデータ構造および記録媒体

Country Status (1)

Country Link
JP (1) JP2004221712A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155483A (ja) * 2004-12-01 2006-06-15 Tokai Rika Co Ltd 物体検知装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023116A (ja) * 1998-07-01 2000-01-21 Hitachi Ltd オブジェクト識別子処理方法および該方法を実現する記録媒体
JP2000059743A (ja) * 1998-08-06 2000-02-25 Sony Corp 画像処理装置および画像処理方法、並びに提供媒体
JP2000069442A (ja) * 1998-08-24 2000-03-03 Sharp Corp 動画システム
JP2000285253A (ja) * 1999-01-28 2000-10-13 Toshiba Corp 物体領域情報記述方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
JP2001069457A (ja) * 1999-08-27 2001-03-16 Canon Inc データ処理方法及びその装置
JP2001094761A (ja) * 1999-09-24 2001-04-06 Canon Inc 画像処理装置、画像処理方法及び記憶媒体
JP2001268479A (ja) * 2000-03-16 2001-09-28 Nippon Hoso Kyokai <Nhk> 動画像検索装置
JP2002320163A (ja) * 2001-04-20 2002-10-31 Sharp Corp メタ情報と映像時間位置情報を利用した映像視聴装置
JP2002335442A (ja) * 2001-05-11 2002-11-22 Nippon Hoso Kyokai <Nhk> シーン記述プログラム
JP2002351878A (ja) * 2001-05-18 2002-12-06 Internatl Business Mach Corp <Ibm> デジタルコンテンツ再生装置、データ取得システム、デジタルコンテンツ再生方法、メタデータ管理方法、電子透かし埋め込み方法、プログラム及び記録媒体
JP2003009102A (ja) * 2001-04-18 2003-01-10 Victor Co Of Japan Ltd オブジェクトデータの符号化方法、オブジェクトデータの伝送方法、オブジェクトデータの復号方法、オブジェクトデータ符号化装置、オブジェクトデータ生成装置、オブジェクトデータ復号装置、オブジェクトデータ符号化用プログラム、オブジェクトデータ復号用プログラム、及びオブジェクトデータ記録媒体

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023116A (ja) * 1998-07-01 2000-01-21 Hitachi Ltd オブジェクト識別子処理方法および該方法を実現する記録媒体
JP2000059743A (ja) * 1998-08-06 2000-02-25 Sony Corp 画像処理装置および画像処理方法、並びに提供媒体
JP2000069442A (ja) * 1998-08-24 2000-03-03 Sharp Corp 動画システム
JP2000285253A (ja) * 1999-01-28 2000-10-13 Toshiba Corp 物体領域情報記述方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
JP2001069457A (ja) * 1999-08-27 2001-03-16 Canon Inc データ処理方法及びその装置
JP2001094761A (ja) * 1999-09-24 2001-04-06 Canon Inc 画像処理装置、画像処理方法及び記憶媒体
JP2001268479A (ja) * 2000-03-16 2001-09-28 Nippon Hoso Kyokai <Nhk> 動画像検索装置
JP2003009102A (ja) * 2001-04-18 2003-01-10 Victor Co Of Japan Ltd オブジェクトデータの符号化方法、オブジェクトデータの伝送方法、オブジェクトデータの復号方法、オブジェクトデータ符号化装置、オブジェクトデータ生成装置、オブジェクトデータ復号装置、オブジェクトデータ符号化用プログラム、オブジェクトデータ復号用プログラム、及びオブジェクトデータ記録媒体
JP2002320163A (ja) * 2001-04-20 2002-10-31 Sharp Corp メタ情報と映像時間位置情報を利用した映像視聴装置
JP2002335442A (ja) * 2001-05-11 2002-11-22 Nippon Hoso Kyokai <Nhk> シーン記述プログラム
JP2002351878A (ja) * 2001-05-18 2002-12-06 Internatl Business Mach Corp <Ibm> デジタルコンテンツ再生装置、データ取得システム、デジタルコンテンツ再生方法、メタデータ管理方法、電子透かし埋め込み方法、プログラム及び記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155483A (ja) * 2004-12-01 2006-06-15 Tokai Rika Co Ltd 物体検知装置

Similar Documents

Publication Publication Date Title
KR100480076B1 (ko) 정지영상 이미지 처리방법
JP3793142B2 (ja) 動画像加工方法及び装置
US20050264669A1 (en) Apparatus and method for image processing
EP1111612A1 (en) Method and device for managing multimedia file
JP4518194B2 (ja) 生成装置、生成方法、及び、プログラム
JP2007018198A (ja) リンク情報付きインデックス情報生成装置、タグ情報付き画像データ生成装置、リンク情報付きインデックス情報生成方法、タグ情報付き画像データ生成方法及びプログラム
CN102811352A (zh) 运动图像生成方法及运动图像生成装置
US8340196B2 (en) Video motion menu generation in a low memory environment
TW201008269A (en) Reproducing device, reproducing method, program, and data structure
US8401302B2 (en) Image processing apparatus, image processing method, and program
JP3637726B2 (ja) 字幕情報付きディジタル情報処理方法及び装置
JP2004221712A (ja) 情報処理装置および情報処理方法、プログラム、並びにデータ構造および記録媒体
JP2005108105A (ja) 画像処理装置及び方法
JP5093317B2 (ja) 画像処理装置、画像処理方法、プログラム
KR101267382B1 (ko) Web Site에 접속한 사용자 PC를 통한 SWF 생성방법
JP4973935B2 (ja) 情報処理装置、情報処理方法、プログラム、および記録媒体
CN112151048B (zh) 音视图数据生成以及处理的方法
CN109285197B (zh) 一种gif图像处理方法和移动终端
JP5371232B2 (ja) 画像処理装置および画像処理方法
JPH0870432A (ja) 部分伸長装置及び方法
CN114286179B (zh) 视频编辑方法、设备和计算机可读存储介质
KR20070098364A (ko) 3차원 영상 데이터를 코드화하여 저장하는 장치 및 방법
JP2009253342A (ja) 情報処理装置および方法
US20060136515A1 (en) Content synthesis device, content synthesis method, contents synthesis program, computer readable recording medium containing the content synthesis program, data structure of content data, and computer readable recording medium containing the content data
Routhier How Will We Preserve the Movies of Tomorrow? Technical and Ethical Considerations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080821