JP2004080094A - Information-processing apparatus, information-processing method and program, and computer-readable recording medium - Google Patents

Information-processing apparatus, information-processing method and program, and computer-readable recording medium Download PDF

Info

Publication number
JP2004080094A
JP2004080094A JP2002233839A JP2002233839A JP2004080094A JP 2004080094 A JP2004080094 A JP 2004080094A JP 2002233839 A JP2002233839 A JP 2002233839A JP 2002233839 A JP2002233839 A JP 2002233839A JP 2004080094 A JP2004080094 A JP 2004080094A
Authority
JP
Japan
Prior art keywords
data
watermark
audio
video
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002233839A
Other languages
Japanese (ja)
Inventor
Mitsuru Maeda
前田 充
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002233839A priority Critical patent/JP2004080094A/en
Publication of JP2004080094A publication Critical patent/JP2004080094A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information-processing apparatus, information-processing method and a program, capable of preventing falsification by which the identity between video data and audio data is destroyed, without the need for using a specified file format, and to provide a computer-readable recording medium. <P>SOLUTION: In this method, a video encoder 109 encodes video data, and an audio encoder 108 encodes the audio data. Also, a watermark generator 110 generates predetermined watermark data. A watermark-embedding device 112 embeds watermark data in the encoded video data by an electronic watermark. Meanwhile, a watermark-embedding device 111 embeds watermark data into the encoded audio data by an electronic watermark. Further, a multiplexer 113 forms multiplexed data, in which the video data and audio data each having embedded watermark data, are multiplexed. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、ビデオデータとそれに関連するオーディオデータに対する改ざんを検出する情報処理装置及び情報処理方法並びにプログラム及びコンピュータ読み取り可能な記録媒体に関する。
【0002】
【従来の技術】
一般に、動画像の符号化方式として、フレーム内符号化方式であるMotion JPEG(Joint Photographic Coding Experts Group)やDigital Video等の符号化方式や、フレーム間予測符号化を用いたH.261、H.263、MPEG(Moving Picture Coding Experts Group)−1、MPEG−2、MPEG−4等の符号化方式が知られている。これらの符号化方式は、ISO(International Organization for Standardization:国際標準化機構)やITU(International Telecommunication Union:国際電気通信連合)によって国際標準化されている。
【0003】
上述したようなデジタル符号化規格の普及に伴い、映像や音楽等のコンテンツ業界からは著作権保護の問題が強く提起されるようになってきた。これに対応して、コンテンツの保護に関する標準化も進み、MPEG−4符号化方式では、ファイルシステムにIPMP ODを用いてセキュリティ情報を記述したり、セキュリティ情報によって再生を制限する方法が標準化された。そして、セキュリティに関する情報や暗号化のために電子透かし技術が開発されている。この電子透かし技術とは、データ再生時にデータが変化しないか、又は変化が知覚できないレベルでデータを埋め込む技術のことである。
【0004】
ビデオデータに対して電子透かしを埋め込む技術としては、特開平10−243398号の「動画像エンコードプログラムを記録した記録媒体及び動画像エンコード装置」や特開平11−341450号の「電子透かし埋め込み装置及び抽出装置」等に開示されている。また、オーディオデータに関しても同様に、特開2001−202089の「音声データに透かし情報を埋め込む方法、透かし情報埋め込み装置、透かし情報検出装置、透かし情報が埋め込まれた記録媒体、及び透かし情報を埋め込む方法を記録した記録媒体」や特開平11−316599号の「電子透かし埋め込み装置、オーディオ符号化装置及び記録媒体」等に電子透かしを埋め込む技術が開示されている。
【0005】
さらに、静止画像の一部を画像処理等によって改ざんした場合、これを検出する方法が、特開2001−78070の「デジタルカメラ及び画像改ざん検出システム」等に開示されている。
【0006】
上述したような電子透かしは、一般に、ビデオデータやオーディオデータ等の改ざん防止や著作権の保護のために用いられている。
【0007】
【発明が解決しようとする課題】
しかしながら、本来のビデオデータとオーディオデータの組み合わせからオーディオデータの一部又は全部を編集ソフト等で置き換えるような場合、従来の著作権保護システムではそれを改ざんとして検知することができない。例えば、あるシーンを撮影した後、同じカメラで音声等を変えて同じように撮影し、音声データを入れ替えても、オリジナルのデータであるかどうかを判断することができない。
【0008】
また、ファイルフォーマットについては、フレームの同期やフレームの制御に関して各種各様の方式が採用されている。例えば、同じMotion JPEGのファイルであっても、AVIファイルフォーマットとQuickTimeファイルフォーマットとでは方式が異なる。従って、MPEG−4符号化方式のファイルフォーマットから別なファイルフォーマットに変換したような場合、あるファイルフォーマットで著作権保護を行っていても、これをサポートしない別のファイルフォーマットに変換すると、その情報が失われてしまうという問題が生じることになる。
【0009】
本発明は、このような事情を考慮してなされたものであり、特定のファイルフォーマットを用いる必要がなく、ビデオデータとオーディオデータとの同一性を破壊するような改ざんを防止することができる情報処理装置及び情報処理方法並びにプログラム及びコンピュータ読み取り可能な記録媒体を提供することを目的とする。
【0010】
【課題を解決するための手段】
上記課題を解決するために、本発明は、ビデオデータと該ビデオデータに同期したオーディオデータとを符号化する情報処理装置であって、前記ビデオデータを符号化する第1の符号化手段と、前記オーディオデータを符号化する第2の符号化手段と、所定の透かしデータを生成する透かしデータ生成手段と、前記透かしデータを符号化された前記ビデオデータに電子透かしによって埋め込む第1の透かし埋め込み手段と、前記透かしデータを符号化された前記オーディオデータに電子透かしによって埋め込む第2の透かし埋め込み手段と、前記透かしデータが埋め込まれた前記ビデオデータと前記オーディオデータとを多重化した多重化データを生成する多重化手段とを備えることを特徴とする。
【0011】
また、本発明に係る情報処理装置は、前記透かしデータ生成手段が、前記ビデオデータと該ビデオデータに同期した前記オーディオデータとに基づいて、前記ビデオデータと前記オーディオデータに電子透かしによって埋め込まれる共通の透かしデータを生成することを特徴とする。
【0012】
さらに、本発明に係る情報処理装置は、ビデオデータを入力する第1の入力手段と、前記ビデオデータに同期したオーディオデータを入力する第2の入力手段と、前記ビデオデータと前記オーディオデータとが同期していることを示す同一性データを生成する同一性データ生成手段と、前記同一性データから所定の透かしデータを生成する透かしデータ生成手段と、前記透かしデータを前記ビデオデータに電子透かしによって埋め込む第1の透かし埋め込み手段と、前記透かしデータを前記オーディオデータに電子透かしによって埋め込む第2の透かし埋め込み手段と、前記透かしデータが埋め込まれた前記ビデオデータと前記透かしデータが埋め込まれた前記オーディオデータとを多重化した多重化データを生成する多重化手段とを備えることを特徴とする。
【0013】
さらにまた、本発明に係る情報処理装置は、前記ビデオデータを符号化する第1の符号化手段をさらに備え、前記第1の埋め込み手段が、符号化された前記ビデオデータに対して電子透かしによって前記透かしデータを埋め込むことを特徴とする。
【0014】
さらにまた、本発明に係る情報処理装置は、前記オーディオデータを符号化する第2の符号化手段をさらに備え、前記第2の埋め込み手段が、符号化された前記オーディオデータに対して電子透かしによって前記透かしデータを埋め込むことを特徴とする。
【0015】
さらにまた、本発明に係る情報処理装置は、前記多重化データを可搬記録媒体に記録する記録手段をさらに備えることを特徴とする。
【0016】
さらにまた、本発明に係る情報処理装置は、第1の透かしデータが電子透かしによって埋め込まれたビデオデータを入力する第1の入力手段と、第2の透かしデータが電子透かしによって埋め込まれたオーディオデータを入力する第2の入力手段と、前記ビデオデータに埋め込まれた前記第1の透かしデータを抽出する第1の透かし抽出手段と、前記オーディオデータに埋め込まれた前記第2の透かしデータを抽出する第2の透かし抽出手段と、前記第1の透かしデータと前記第2の透かしデータとの同一性を比較する比較手段と、前記比較手段における前記同一性の比較結果に基づいて、前記ビデオデータと前記オーディオデータとが同期しているか否かを判定する判定手段とを備えることを特徴とする。
【0017】
さらにまた、本発明に係る情報処理装置は、第1の透かしデータが埋め込まれたビデオデータと第2の透かしデータが埋め込まれたオーディオデータとが多重化された多重化データを入力する多重化入力手段と、前記多重化データから前記ビデオデータと前記オーディオデータとを分離する分離手段と、前記ビデオデータに埋め込まれた前記第1の透かしデータを抽出する第1の透かし抽出手段と、前記オーディオデータに埋め込まれた前記第2の透かしデータを抽出する第2の透かし抽出手段と、前記第1の透かしデータと前記第2の透かしデータとの同一性を比較する比較手段と、前記比較手段における前記同一性の比較結果に基づいて、前記ビデオデータと前記オーディオデータとが同期しているか否かを判定する判定手段とを備えることを特徴とする。
【0018】
さらにまた、本発明に係る情報処理装置は、前記多重化入力手段が、可搬記録媒体に記録された前記多重化データを読み取って入力することを特徴とする。
【0019】
さらにまた、本発明に係る情報処理装置は、前記ビデオデータを出力する第1の出力手段と、前記オーディオデータを出力する第2の出力手段とをさらに備えることを特徴とする。
【0020】
さらにまた、本発明に係る情報処理装置は、前記ビデオデータを再生する第1の再生手段をさらに備えることを特徴とする。
【0021】
さらにまた、本発明に係る情報処理装置は、前記オーディオデータを再生する第2の再生手段をさらに備えることを特徴とする。
【0022】
さらにまた、本発明に係る情報処理装置は、前記判定手段が、前記ビデオデータと前記オーディオデータは同期していないと判定した場合、前記第1の再生手段における前記ビデオデータの再生時に、前記オーディオデータと同期していないことを示す情報を再生させる制御手段をさらに備えることを特徴とする。
【0023】
さらにまた、本発明に係る情報処理装置は、前記ビデオデータが符号化されており、符号化された該ビデオデータを復号する第1の復号手段と、前記オーディオデータが符号化されており、符号化された該オーディオデータを復号する第2の復号手段とをさらに備えることを特徴とする。
【0024】
【発明の実施の形態】
以下、図面を参照して、本発明の好適な実施形態について説明する。
【0025】
<第1の実施形態>
図1は、本発明の第1の実施形態における符号化システムの構成を示すブロック図である。本実施形態では、図1に示す符号化システムを用いて、ビデオデータとそれに同期しているオーディオデータとを符号化して記録する例を用いて説明する。
【0026】
図1に示すように、本実施形態に係る符号化システムは、符号化データを生成する情報処理装置1と、それに接続し、オーディオデータを入力するマイク2と、ビデオデータをフレーム単位で連続して入力するカメラ4と、生成された符号化データを記録する記憶装置10とから構成される。
【0027】
情報処理装置1には、まず、マイク2から入力されたオーディオデータをフレーム単位で符号化するオーディオ符号化器3が設けられている。ここでは一例としてMPEG−1 Layer 3符号化方式を用いて説明するが、本発明における適用はこの方式だけに限定されない。また、説明を容易にするためにフレームサイズをビデオデータの1フレームの間隔とする。
【0028】
さらに、情報処理装置1は、カメラ4から入力されたビデオデータをフレーム単位で符号化するビデオ符号化器5を備える。本実施形態では、符号化方式としてMPEG−4符号化方式を例にとって説明するが、本発明の適用はこの方式に限定されない。さらにまた、情報処理装置1は、1回の録画に関してユニークな値を生成する透かし生成器6を備える。
【0029】
また、透かし埋め込み器7は、オーディオ符号化器3と透かし生成器6に接続し、透かし生成器6で生成された透かしデータ(以下、「オーディオ透かしデータ」と称す。)を符号化されたオーディオデータ(以下、「オーディオ符号化データ」と称す。)に埋め込む。一方、透かし埋め込み器8は、ビデオ符号化器5と透かし生成器6に接続し、透かし生成器6で生成された透かしデータ(以下、「ビデオ透かしデータ」と称す。)を符号化されたビデオデータ(以下、「ビデオ符号化データ」と称す。)に埋め込む。そして、多重化器9は、透かし埋め込み器7、8に接続され、オーディオ透かしデータが埋め込まれたオーディオ符号化データとビデオ透かしデータが埋め込まれたビデオ符号化データとを多重化して1つのストリームデータにする。記憶装置10は、このストリームデータを記録、保存する。
【0030】
次に、上記構成をした符号化システムにおけるビデオデータとオーディオデータの符号化から蓄積までの処理の流れを詳細に説明する。図9は、本発明の第1の実施形態に係る符号化システムにおける符号化処理手順を説明するためのフローチャートである。
【0031】
まず、処理に先立って各部を初期化し、ID番号を設定する(ステップS201)。ここで、ID番号とは、今回の処理に関する固有の番号のことである。例えば、本実施形態ではID番号として4バイトで表される乱数を用いる。尚、ID番号はこの値だけに限定されるものではなく、任意の番号を用いることが可能である。また、多重化のためのヘッダデータを生成し、記憶装置10の空き領域に出力結果の書き込みの準備を行う。その後、動画像(本実施形態では、映像と音声を含むものとする)の録画動作を開始する。
【0032】
次に、符号化処理の終了判断を行う(ステップS202)。その結果、処理が終了していない場合、透かし生成器6はID番号に基づいて透かしデータを生成する(ステップS203)。本実施形態では、この透かしデータとして、オーディオデータとビデオデータのそれぞれのために4バイトのデータを暗号化したものを用いる。そして、生成されたオーディオ透かしデータは透かし埋め込み器7に、ビデオ透かしデータは透かし埋め込み器8に入力される。
【0033】
次に、カメラ4から読み込まれるビデオデータの各フレームを符号化する(ステップS204)。すなわち、カメラ4で撮像されたビデオデータは1フレーム単位でビデオ符号化器5に入力される。そして、ビデオ符号化器5は、入力されたビデオデータに対してMPEG−4符号化方式で符号化し、その符号化データ(ビデオ符号化データ)を保持する。
【0034】
さらに、そのビデオ符号化データにステップS203で生成したビデオ透かしデータを埋め込む(ステップS205)。すなわち、透かし埋め込み器8において、ビデオ符号化器5から読み出したビデオ符号化データに対して生成されたビデオ透かしデータを埋め込む。尚、埋め込みの方法としては、例えば各ブロックの最も高周波の係数を±1の範囲で増減させて奇数・偶数を透かしデータに従って意図的に符号化データを変更する方法等が用いられる。すなわち、埋め込むデータの1ビットが0であれば最後の係数を偶数に、1であれば奇数にする。また、埋め込むマクロブロックのEOBの前の符号を読み出し、必要であればこれを変更する。
【0035】
例えば、直前の符号の0ラン長が8で値が3であった時、埋め込む値が0であれば、ラン長が8で値が4の符号に置換する。実際の符号では、「111111111110110110」 を「111111111110110111」に置換する。値が1であれば何もしない。尚、本発明はこれに限定されず、特開平11−341452号の「動画像電子透かしシステム」に記載されている方法等の既存の方法を使用しても良い。
【0036】
一方で、マイク2から読み込まれるオーディオデータのフレームを符号化する(ステップS206)。すなわち、マイク2から入力されたオーディオデータはフレーム単位でオーディオ符号化器3に入力される。オーディオ符号化器3は入力されたオーディオデータに対してMPEG−1 Layer 3符号化方式で符号化し、その符号化データ(オーディオ符号化データ)を保持する。そして、そのオーディオ符号化データにステップS203で生成したオーディオ透かしデータを埋め込む(ステップS207)。すなわち、オーディオ符号化器3から読み出したオーディオ符号化データに、透かし埋め込み器7では生成されたオーディオ透かしデータが埋め込まれる。埋め込みの方法としては、例えば4バイトの値を埋め込む場合は、32個のサンプルのLSBをそれに当てれば良い。
【0037】
そして、透かしデータが埋め込まれたそれぞれの符号化データは多重化器9で多重化され、記憶装置10の所定の位置に蓄積される(ステップS208)。その後、多重化されたデータを出力し(ステップS209)、ステップS202に戻り、すべてのデータ入力が終わるまで処理が繰り返される。このような一連の選択動作により、オーディオデータとビデオデータに関して同じ情報を電子透かしによって埋め込むことにより、復号側での改ざん検出を容易にすることが可能になる。
【0038】
上述したように、本発明に係る情報処理装置1は、ビデオデータとそれに同期したオーディオデータとを符号化するものである。具体的には、ビデオ符号化器5でビデオデータを符号化し、オーディオ符号化器3でオーディオデータを符号化する。また、透かし生成器6は、所定の透かしデータを生成する。そして、透かし埋め込み器8で透かしデータを符号化されたビデオデータに電子透かしによって埋め込む。一方、透かし埋め込み器7で透かしデータを符号化されたオーディオデータに電子透かしによって埋め込む。さらに多重化器9で透かしデータが埋め込まれたビデオデータとオーディオデータとを多重化した多重化データを生成する。
【0039】
また、本発明に係る情報処理装置1は、ビデオデータとそれに同期したオーディオデータとを符号化するものであって、具体的には、ビデオデータとオーディオデータとが同期していることを示す同一性データを生成し、同一性データから所定の透かしデータが生成される。そして、透かしデータは、ビデオデータに電子透かしによって埋め込まれる。また、透かしデータはオーディオデータにも電子透かしによって埋め込まれる。そして、透かしデータが埋め込まれたビデオデータと透かしデータが埋め込まれたオーディオデータとが多重化された多重化データが生成される。
【0040】
さらに、上記情報処理装置1は、ビデオデータを符号化するビデオ符号化器5を有し、透かし埋め込み器8は、符号化されたビデオデータに対して電子透かしによって透かしデータを埋め込むことを特徴とする。
【0041】
さらにまた、上記情報処理装置1は、オーディオデータを符号化するオーディオ符号化器3を有し、透かし埋め込み器7は、符号化されたオーディオデータに対して電子透かしによって透かしデータを埋め込むことを特徴とする。
【0042】
尚、本実施形態においてはビデオデータの符号化方式をMPEG−4としたが他の符号化方式、例えば、H.261、MPEG−1、MPEG−2であってもよい。また、同様にオーディオデータの符号化方式もこれに限定されるものではなく、AAC符号化やADPCM符号化であってもよい。
【0043】
また、本実施形態に係る符号化システムの各部又は全部の機能をソフトウェアで記述し、CPU等の演算装置によって処理をさせてもよい。また、本実施形態では符号化データに透かしデータを後で埋め込むように構成したが、これに限定されるものではなく、例えば特開平11−284516号の「データ処理装置、データ処理方法及び記録媒体」に記載されているように、符号化しながら透かしデータの埋め込みを行ってもよい。
【0044】
尚、透かしデータもオーディオ透かしデータとビデオ透かしデータが同一である必要は無く、例えば、4バイトのコードをビデオ透かしデータとし、その補数をオーディオ透かしデータとしてもよい。
【0045】
<第2の実施形態>
図2は、本発明の第2の実施形態における復号システムの構成を示すブロック図である。尚、本実施形態では、ビデオデータの符号化方式としてMPEG−4符号化方式を、オーディオデータの符号化方式としてMPEG−1 Layer3符号化方式を例にとって説明するが、本発明の適用はこの方式のみに限定されるものではない。
【0046】
図2に示すように、本実施形態に係る復号システムは、動画像(本実施形態では映像と音声を含むものとする)を復号する情報処理装置11と、それに接続する符号化データを記憶する記憶装置12と、復号されて再生されたオーディオデータを再生するスピーカ20と、再生されたビデオデータを表示するモニタ21とから構成される。尚、記憶装置12には、上述した第1の実施形態で生成された多重化された符号化データ(以下、「多重化符号化データ」と称す。)が記憶されているものとする。
【0047】
また、情報処理装置11には、上述した第1の実施形態における図1の多重化器9で多重化された多重化符号化データをビデオ符号化データとオーディオ符号化データとに分離する分離器13が備わっている。そして、分離器13には、透かし抽出器14、15が接続している。透かし抽出器14は、オーディオ符号化データからオーディオ透かしデータを抽出する。一方、透かし抽出器15は、ビデオ符号化データからビデオ透かしデータを抽出する。
【0048】
また、両透かし抽出器14、15は、抽出されたそれぞれの透かしデータを比較する比較器16に接続している。
【0049】
また、透かし抽出器14は、オーディオ符号化データを復号してオーディオデータを再生するオーディオ復号器17に接続している。一方、透かし抽出器15は、ビデオ符号化データを復号してビデオデータを再生するビデオ復号器18に接続している。そして、表示制御器19は、比較器16とビデオ復号器18に接続され、ビデオデータをフレーム単位で制御する。そして、モニタ21が表示制御器19の制御に基づき再生されたビデオデータ(映像)を表示する。
【0050】
次に、上記構成をした画像復号システムにおける動画像データの復号処理の流れを説明する。図10は、本発明の第2の実施形態に係る復号システムにおける復号処理手順を説明するためのフローチャートである。
【0051】
まず、第1の実施形態と同様に、処理動作に先立って各部の初期化が行われ、記憶装置12は蓄積された多重化符号化データの先頭に読み出し位置を設定する(ステップS301)。
【0052】
次に、復号処理の終了判断を行う(ステップS302)。その結果、処理が終了していない場合、記憶装置12の所定の位置から多重化符号化データを読み出され、読み出された多重化符号化データが分離器13に入力される(ステップS303)。そして、分離器13では、入力された多重化符号化データから1フレーム単位でオーディオ符号化データとビデオ符号化データとを分離する(ステップS304)。分離器13で分離された2種類の符号化データは、フレーム単位で、ビデオ符号化データは透かし抽出器15に出力され、オーディオ符号化データは透かし抽出器14に出力される。
【0053】
そこで、透かし抽出器15は、ビデオ符号化データに埋め込まれたビデオ透かしデータを抽出し、暗号を復号してその結果を比較器16に出力し、符号化データをビデオ復号器18に出力する(ステップS305)。ビデオ復号器18では、符号化データを復号し1フレーム分のビデオデータを再生する(ステップS306)。
【0054】
同時に、透かし抽出器14ではオーディオ符号化データに埋め込まれたオーディオ透かしデータを抽出し、暗号を復号してその結果を比較器16に出力し、符号化データをオーディオ復号器17に出力する(ステップS307)。オーディオ復号器17では、符号化データを復号して1フレーム分のオーディオデータを再生する(ステップS308)。
【0055】
比較器16では、透かし抽出器14で抽出されたオーディオ透かしデータと透かし抽出器15で抽出されたビデオ透かしデータとを比較する(ステップS309)。その結果、両透かしデータが不一致の場合はステップS310に進む。ステップS310では、表示制御器19にこの不一致を通知することによって、再生されたビデオデータのフレーム上に警告を重畳する。すなわち、比較器16で透かしデータが不一致の場合は、ビデオ復号器18の出力にオーディオデータとビデオデータとが不整合である旨の表示を重畳してモニタ21に出力し、モニタ21上で視覚的に表示する。
【0056】
一方、比較器16で透かしデータが一致していると判定された場合は、表示制御器19によって、ビデオ復号器18の出力をそのままモニタ21に出力し、モニタ21上に画像を表示する。この時、ビデオデータに同期しているオーディオデータも同時に復号結果をスピーカ20に出力する(ステップS311)。このようにして、再生されたビデオデータの1フレームを表示し、同時にそれに同期したオーディオデータを再生した後ステップS302に進み、次のフレームの処理を行う。そして、ステップS302において全ての符号化データに関して処理が終了した場合、復号システム全体の処理を終了する。
【0057】
図11は、ビデオデータとオーディオデータに関する透かしデータが一致する場合と一致しない場合のモニタ21上の画像の表示例を説明するための図である。図11(A)に示すように、両透かしデータが一致していた場合、改ざん等がないとして画像1000が表示される。また、両透かしデータが不一致の場合、図11(B)に示すように、改ざん等があったとしてテロップ1001が重畳された画像が表示される。この時、オーディオデータの復号結果は画像表示と同時にスピーカ20に出力される。
【0058】
このような一連の選択動作において、オーディオデータとビデオデータに埋め込まれた透かしデータを比較することにより、データの改ざんを検知することができ、それをユーザに知らせることが可能になる。
【0059】
すなわち、本発明に係る情報処理装置11では、透かし抽出器15は、第1の透かしデータ(ビデオ透かしデータ)が電子透かしによって埋め込まれたビデオデータから第1の透かしデータを抽出する。また、透かし抽出器14は、第2の透かしデータ(オーディオ透かしデータ)が電子透かしによって埋め込まれたオーディオデータから第2の透かしデータを抽出する。そして、比較器16は、第1の透かしデータと第2の透かしデータとの同一性を比較する。そして、情報処理装置11では、同一性の比較結果に基づいて、ビデオデータとオーディオデータとが同期しているか否かが判定される。
【0060】
また、本発明に係る情報処理装置11では、分離器13は、第1の透かしデータが埋め込まれたビデオデータと第2の透かしデータが埋め込まれたオーディオデータとが多重化された多重化データからビデオデータとオーディオデータとを分離する。そして、透かし抽出器15は、ビデオデータに埋め込まれた第1の透かしデータを抽出する。また、透かし抽出器14は、オーディオデータに埋め込まれた第2の透かしデータを抽出する。そして、比較器16は、第1の透かしデータと第2の透かしデータとの同一性を比較する。そして、情報処理装置11では、同一性の比較結果に基づいて、ビデオデータとオーディオデータとが同期しているか否かが判定される。
【0061】
さらに、上記情報処理装置11は、ビデオデータとオーディオデータが同期していないと判定された場合、モニタ21におけるビデオデータの再生時に、オーディオデータと同期していないことを示す情報(テロップ1001)を再生させる制御をすることを特徴とする。
【0062】
さらにまた、上記情報処理装置11は、ビデオデータが符号化されており、符号化された当該ビデオデータを復号するビデオ復号器18と、オーディオデータが符号化されており、符号化された当該オーディオデータを復号するオーディオ復号器17とをさらに有することを特徴とする。
【0063】
さらにまた、上記情報処理装置11は、ビデオデータを出力し、また、オーディオデータを出力する。さらにまた、情報処理装置11は、ビデオデータを再生するモニタ21に接続可能であることを特徴とする。さらにまた、情報処理装置11は、オーディオデータを再生するスピーカ20に接続可能であることを特徴とする。
【0064】
尚、本実施形態においては動画像の符号化方式をMPEG−4としたが他の符号化方式、例えば、H.261、MPEG−1、MPEG−2、Motion JPEGであってもよい。また、同様にオーディオの符号化方式もこれに限定されず、AAC符号化やADPCM符号化であってもよい。
【0065】
また、本実施形態に係る復号システムの各部又は全部の機能をソフトウェアで記述し、CPU等の演算装置によって処理をさせてもよい。
【0066】
また、本実施形態では、第1の実施形態と同様に、符号化データに透かしデータを後で埋め込むように構成した。尚、本発明の適用は上述した場合に限定されるものではなく、例えば特開平11−284516号の「データ処理装置、データ処理方法及び記録媒体」に記載されているように、復号しながら透かしデータの抽出を行ってもよい。
【0067】
また、透かしデータもオーディオ透かしデータとビデオ透かしデータが同一である必要は無く、例えば、4バイトのコードをビデオ透かしデータとし、その補数をオーディオ透かしデータとし、比較器16で演算を行なって同一性を検証してもよい。
【0068】
<第3の実施形態>
次に、本発明の第3の実施形態について、図面を用いて詳細に説明する。
【0069】
図4は、本発明の第3の実施形態に係る画像を撮像して音声と共に記録するカムコーダシステムの構成を示すブロック図である。図4において、符号101はオーディオデータを入力するマイクを示し、102はレンズ等から構成される光学系を示し、103は光の強度によって電気信号を生成するCCD等で構成される光電変換器を示す。
【0070】
また、符号104、105はアナログの電気信号をデジタル信号に変換するA/D変換器を示し、106、107、121、126はデジタル信号をフレーム毎に蓄積するフレームメモリを示す。さらに、108はフレーム単位でオーディオ符号化を行うオーディオ符号化器を示す。さらにまた、109はフレーム単位でビデオ符号化を行うビデオ符号化器を示す。一方、110はオーディオ符号化器108とビデオ符号化器109の出力から透かしデータを生成する透かし生成器を示す。例えば、オーディオデータとそれに同期するビデオデータとの間で共有するデータを透かしデータとして用いてもよい。
【0071】
また、符号111はオーディオ符号化データに透かしデータを埋め込む透かし埋め込み器を示し、112はビデオ符号化データに透かしデータを埋め込む透かし埋め込み器を示す。さらに、113はオーディオ符号化データとビデオ符号化データを多重化してストリームを整形する多重化器を示す。さらにまた、114はストリームを記録媒体115に対して読み書きを行う記録媒体制御器を示す。尚、記録媒体115は光磁気ディスク等で構成されるが、本発明の適用はこれに限定されるものではない。
【0072】
さらに、符号116はストリームからオーディオ符号化データとビデオ符号化データを分離する分離器を示す。さらにまた、117はオーディオ符号化データから透かしデータを抽出する透かし抽出器を示し、118はビデオ符号化データから透かしデータを抽出する透かし抽出器を示す。さらにまた、119は抽出された透かしデータを比較する比較器を示す。
【0073】
さらにまた、符号120はオーディオ符号化データを復号してオーディオデータを再生するオーディオ復号器を示す。また、122はフレームメモリ121内のオーディオデータをデジタルからアナログ信号に変換するD/A変換器であり、123はアナログのオーディオ信号を再生して音を出すスピーカを示す。さらに、124は透かし比較器119の結果を表示するインジケータを示しており、LED等で構成される。
【0074】
さらにまた、符号125はビデオ符号化データを復号して画像データを再生するビデオ復号器を示す。さらにまた、127はフレームメモリ126内のビデオデータをデジタルからアナログ信号に変換するD/A変換器を示し、128はアナログのビデオ信号を表示するビューワ(Viewer)を示し、LCD等で構成される。
【0075】
次に、上記構成をした本実施形態に係るカムコーダにおける動画像の記録動作を説明する。本実施形態においては、ビデオ符号化方式としてMPEG−4符号化方式を、オーディオ符号化方式としてAAC符号化方式を例にとって説明する。また、説明を容易にするためにフレームサイズをビデオの1フレームの間隔とする。
【0076】
最初に、符号化データを記録処理について述べる。図12は、第3の実施形態に係るカムコーダシステムにおける動画像記録処理を説明するためのフローチャートである。まず、装置の初期化を行い、各種のヘッダを生成して記録装置に格納し、ID番号を設定する(ステップS401)。すなわち、カムコーダに電源が入ると各部の初期化が行われる。そして、光電変換器103のセンサ間のバラツキ補正、フレームメモリ105、107のクリアを行う。また、記録媒体制御器114は、記録媒体115上の空いている領域の先頭に書き込み位置をセットする。
【0077】
そして、不図示の録画ボタンをユーザが押すと動画の記録が開始される。多重化器113は、多重化に必要なヘッダデータを生成し、記録媒体制御器114を介して記録媒体115上の所定の領域に書き込む。オーディオ符号化器106は、AAC符号化方式に従ってヘッダデータを生成する。ビデオ符号化器109は、MPEG−4符号化方式に従ってヘッダデータを生成する。生成されたそれぞれのヘッダデータは、多重化器113、記録媒体制御器114を介して、記録媒体115の所定の位置に格納される。また、第1の実施形態と同様にID番号を設定する。尚、本実施形態では、乱数から選択された16ビットの整数をID番号として用いる。
【0078】
次に、処理の終了判断を行う(ステップS402)。そして、終了ではない場合、入力されたビデオデータの1フレーム分をMPEG−4符号化方式に従って符号化する(ステップS403)。すなわち、光学系102を介して入ってきた光を光電変換器103は電気信号に変え、A/D変換器105でデジタル信号にしてフレーム単位でフレームメモリ107に格納する。ビデオ符号化器109は、MPEG−4符号化方式に従って、入力されたフレーム単位で画像データを符号化する。生成された符号化データは、透かし生成器110と透かし埋め込み器112に入力される。
【0079】
同時に、入力されたオーディオデータの1フレーム分をAAC符号化方式に従って符号化する(ステップS404)。すなわち、マイク101から入力されたオーディオ信号は、A/D変換器104でデジタル信号に変換されて、フレーム単位でフレームメモリ106に格納する。オーディオ符号化器108は、AAC符号化方式に従って、入力されたフレーム単位でオーディオデータを符号化する。生成された符号化データは、透かし生成器110と透かし埋め込み器111に入力される。
【0080】
次いで、透かし生成器110では、ID番号とビデオ符号化データの一部とオーディオ符号化データの一部からビデオ透かしデータを、ID番号とビデオ符号化データの一部からオーディオ透かしデータを生成する(ステップS405)。すなわち、透かし生成器110では、オーディオデータ符号化器108から入力された符号化データから予め決められたビットデータを読み出す。例えば、先頭から3ビット目,9ビット目,17ビット目、…といったような予め決められたビットを16ビット読み出しオーディオ識別データとする。
【0081】
また、ビデオデータ符号化器109から入力された符号化データから予め決められたビットデータを読み出す。例えば、先頭から54ビット目,61ビット目,77ビット目、…といったような予め決められたビットを16ビット読み出しビデオ識別データとする。これらのID番号、オーディオ識別データ、ビデオ識別データの各ビットを順に上位から並べて48ビットのデータを作成し、これにをビデオ透かしデータとする。また、ビデオ識別データとID番号の各ビットを順に上位から並べて32ビットのデータを作成し、オーディオ透かしデータとする。
【0082】
その後、ビデオ符号化データにステップS405で生成したビデオ透かしデータを埋め込む(ステップS406)。すなわち、透かし埋め込み器111はオーディオ透かしデータをオーディオ符号化データに埋め込み、多重化器113に入力する。
【0083】
同時に、オーディオ符号にステップS405で生成したオーディオ透かしデータを埋め込む(ステップS407)。すなわち、透かし埋め込み器112はビデオ透かしデータをビデオ符号化データに埋め込み、多重化器113に入力する。
【0084】
そして、多重化器113は、これらの2つの符号化データを多重化し、記録媒体制御器114を介して、記録媒体115の所定の位置に格納する(ステップS408)。さらに、多重化したストリームを出力して記憶装置115に格納し(ステップS409)、ステップS402に戻って撮影が終わるまで処理が繰り返される。尚、不図示のユーザが録画ボタンを放したり、再度押した場合、録画が終了したと判断し、処理を終了するものとする。
【0085】
上述したような一連の選択動作により、フレーム毎で変化するデータを透かしとして埋め込むことにより、フレーム単位での改ざんの検出を容易にするデータの生成が好適に行えるようにすることが可能である。
【0086】
すなわち、本発明では、透かし生成器110が、ビデオデータと当該ビデオデータに同期したオーディオデータとに基づいて、ビデオデータとオーディオデータに電子透かしによって埋め込まれる共通の透かしデータを生成することを特徴とする。また、本発明では、多重化データを可搬記録媒体115に記録することを特徴とする。
【0087】
尚、本実施形態においては動画像の符号化方式をMPEG−4としたが、他の符号化方式、例えば、H.261、MPEG−1、MPEG−2、MotionJPEGであってもよい。同様に、オーディオの符号化方式もこれに限定されるものではなく、MPEG−1 Layer 2符号化やADPCM符号化であってもよい。
【0088】
また、本実施形態に係るカムコーダシステムの各部又は全部の機能をソフトウェアで記述し、CPU等の演算装置によって処理をさせてもよい。
【0089】
また、本実施形態では、符号化データに透かしデータを後で埋め込むように構成したが、本発明はこれに限定されるものではなく、例えば、特開平11−284516号の「データ処理装置、データ処理方法及び記録媒体」に記載されているように符号化しながら透かしデータの埋め込みを行うものであってもよい。
【0090】
また、オーディオのフレームサイズをビデオの1フレームの間隔としたが、これに限定されず、オーディオのフレームサイズとビデオのフレームサイズが異なってもよい。例えば、オーディオが20ms間隔、ビデオが33ms間隔であったとしても、ビデオの時間間隔にオーディオのフレームの切れ目があれば、その切れ目から始まる符号化データに関して透かしデータを作成し、ビデオ符号化データに複数の透かしデータを埋め込めばよい。
【0091】
<第4の実施形態>
本実施形態では、上述した第3の実施形態のカムコーダシステムにおける動画像の再生までの処理について説明する。図13は、第4の実施形態に係るカムコーダシステムにおける動画像再生処理を説明するためのフローチャートである。
【0092】
まず、第2の実施形態と同様に、動作に先立って装置の各部の初期化が行われる(ステップS501)。そして、記録媒体制御器114は記録媒体115に蓄積された符号化データの先頭に読み出し位置を設定する。次いで、処理の終了判断が行われる(ステップS502)。その結果、終了していない場合、記録媒体115の所定の位置から符号化データが読み出され、読み出された符号化データは分離器116に入力される(ステップS503)。
【0093】
続いて、分離器116では、入力された符号化データからオーディオ符号化データとビデオ符号化データを分離し、フレーム単位でオーディオ符号化データは透かし抽出器117に、ビデオ符号化データは透かし抽出器118に出力される(ステップS504)。
【0094】
そして、透かし抽出器117では、オーディオ符号化データに埋め込まれたオーディオ透かしデータを抽出し、その結果を比較器119に、符号化データは比較器119とオーディオ復号器120に出力する(ステップS507)。同様に、透かし抽出器116では、ビデオ符号化データに埋め込まれたビデオ透かしデータを抽出し、その結果を比較器119に、符号化データをビデオ復号器125に出力する(ステップS505)。
【0095】
そして、ビデオ復号器125では、画像符号化データを復号し1フレーム分の画像データを再生する(ステップS506)。同時に、オーディオ復号器120では、オーディオ符号化データを復号し1フレーム分のオーディオデータを再生する(ステップS508)。
【0096】
比較器119では、オーディオ透かしデータとビデオ透かしデータとからID番号、オーディオ識別データ。ビデオ識別データを比較する(ステップS509)。その結果、すべてが一致すれば、インジケータ124を点灯する(ステップS510)。一方、一致しないものがあれば、インジケータ124を消灯する(ステップS511)。
【0097】
すなわち、比較器119には、透かし抽出器117で抽出されたオーディオ透かしデータと、透かし抽出器116で抽出されたビデオ透かしデータとが入力される。そして、オーディオ透かしデータからID番号Aとビデオ識別データAを再生する。また、入力されたオーディオ符号化データから第3の実施形態のオーディオ識別データの生成方法と同じ方法でオーディオ識別データAを生成する。さらに、ビデオ透かしデータからID番号Vとオーディオ識別データVとビデオ識別データVを再生する。
【0098】
そこでまず、ID番号、ビデオ識別データ、オーディオ識別データをそれぞれ比較し、1つでも一致しないものがあれば、インジケータ124を点灯する。すべて一致すれば、これは消灯される。すなわち、ID番号AとID番号V、ビデオ識別データAとビデオ識別データV、オーディオ識別データAとオーディオ識別データVである。
【0099】
そして、再生されたビデオデータの1フレームの画像をビューワに表示し、オーディオデータを再生する(ステップS512)。そして、ステップS502に進み、次のフレームの処理を行う。また、ステップS502にて全ての符号化データに関して処理が終了すれば、再生処理を終了する。
【0100】
すなわち、ビデオ符号化データはビデオ復号器125に、オーディオ符号化データはオーディオ復号器120に入力され、それぞれ復号されてフレームメモリ126とフレームメモリ121に格納される。フレームメモリ121に格納されたオーディオデータはD/A変換器でアナログ信号に変換され、スピーカ123で再生される。フレームメモリ126に格納されたビデオデータもD/A変換器でアナログ信号に変換され、ビューワ128に表示される。
【0101】
このような一連の選択動作により、オーディオデータとビデオデータに埋め込まれたフレーム毎で変化するデータを比較することにより、細かい単位で改ざんを検知することができ、それをユーザに知らせることが可能になる。
【0102】
上述したように、本発明は、ビデオ透かしデータが埋め込まれたビデオデータとオーディオ透かしデータが埋め込まれたオーディオデータとが多重化された多重化データを格納する可搬記録媒体115から当該多重化データを読み取ることを特徴とする。
【0103】
尚、本実施形態においては動画像の符号化方式をMPEG−4としたが、他の符号化方式、例えば、H.261、MPEG−1、MPEG−2、MPEG−4でもよい。同様に、オーディオデータの符号化方式もこれに限定されず、MPEG−1 Layer 3符号化やADPCM符号化でもよい。
【0104】
また、本実施形態に係るカムコーダシステムの各部又は全部の機能をソフトウェアで記述し、CPU等の演算装置によって処理をさせてもよい。
【0105】
また、本実施形態では符号化データに透かしデータを後で埋め込むように構成したが、本発明の適用はこれに限定されるものではない。本発明は、例えば、特開平11−284516号の「データ処理装置、データ処理方法及び記録媒体」に記載されているように、復号しながら透かしデータの抽出を行ってもよい。
【0106】
<第5の実施形態>
図3は、本発明の第5の実施形態に係る情報処理装置の構成を示すブロック図である。図3において、符号300は装置全体の制御及び種々の処理を行う中央演算装置(CPU)、301は本装置の制御に必要なオペレーティングシステム(OS)、ソフトウェア、演算に必要な記憶領域を提供するメモリを示す。また、302は種々の装置をつなぎ、データ、制御信号をやり取りするバスを示す。
【0107】
さらに、符号303は装置の起動、各種条件の設定、再生の指示を行うための端末を示す。さらに、304はソフトウェアを蓄積する記憶装置を示す。また、305はストリームを蓄積する記憶装置を示す。尚、記憶装置304、305はシステムから切り離して移動できるメディア(可搬記録媒体)で構成することも可能である。また、306は画像を撮像するカメラを示し、307はオーディオデータを取り込むオーディオキャプチャを示す。さらに、308は画像を表示するモニタを示し、309はオーディオデータを再生するスピーカを示す。さらにまた、311は通信回路を示し、LAN、公衆回線、無線回線、放送電波等で構成されている。また、310は通信回路311を介してストリームを送受信する通信インタフェースを示す。
【0108】
ここで、メモリ301には、装置全体を制御し、各種ソフトウェアを動作させるためのOSや動作させるソフトウェアを格納し、画像データを格納する画像エリア、オーディオデータを格納するオーディオエリア、生成した符号化データを格納する符号エリア、各種演算や符号化の際のパラメータ等や透かしに関するデータ等を格納しておくワーキングエリアが存在する。
【0109】
次に、このような構成の情報処理装置における画像データの符号化処理について説明する。図5は、CPU300による動画像データの記憶装置305に記録する動作手順を説明するためのフローチャートである。
【0110】
まず、処理に先立ち、端末303から装置全体に対して起動が指示され、装置の各部が初期化される。そして、ID番号を設定してメモリ301上のワーキングエリアに格納する(ステップS1)。本実施形態では、ID番号は乱数で決定するものとする。
【0111】
次いで、記憶装置304に格納されているソフトウェアがバス302を介してメモリ301に展開され、ソフトウェアが起動される。これによって、多重化、オーディオ符号化、ビデオ符号化のそれぞれのヘッダを生成し、それらを多重化して記憶装置305の所定の位置に書き込む(ステップS2)。ビデオ符号化ではMPEG−1符号化方式に従って、シーケンス層の符号データがヘッダとして生成される。
【0112】
図7は、符号化時のメモリ301におけるメモリの使用・格納状況を説明するための概要図である。図7に示すように、メモリ301には装置全体を制御し、各種ソフトウェアを動作させるためのOS、画像データを符号化するビデオ符号化ソフトウェア、オーディオデータを符号化するオーディオ符号化ソフトウェア、符号化データを多重化する多重化ソフトウェア、透かしデータの生成と埋め込みを行う透かし埋め込みソフトウェアが格納されている。
【0113】
尚、本実施形態では、ビデオ符号化ソフトウェアをMPEG−1符号化方式で符号化するソフトウェアとして説明をするが、本発明の適用はこれに限定されるものではない。また、オーディオ符号化ソフトウェアはAAC符号化方式で符号化するソフトウェアとして説明をするが、同様にしてこれに限定されるものではない。
【0114】
また、符号化の際に画像を格納する画像エリア、オーディオデータを格納するオーディオエリア、生成された符号や透かしの埋め込みが行われた符号化データを格納する符号エリア、各種演算のパラメータ等を格納するワーキングエリアが存在する。このような構成において、端末306からの指示によって動画像の入力をカメラ306から行い、オーディオの入力がオーディオキャプチャ307から行われる。
【0115】
そこで、次に処理の終了判断が行われる(ステップS3)。その結果、処理が終了していなければ、カメラ306から1フレーム分のビデオデータをメモリ301上の画像エリアに読み込まれる(ステップS4)。
【0116】
次に、メモリ301上の画像エリアに格納されたビデオデータをメモリ301上のビデオ符号化ソフトウェアを用いてMPEG−1符号化方式で符号化し、メモリ301上の符号エリアに格納し、画像エリアにあるビデオのフレームデータの領域を開放する(ステップS5)。さらに、オーディオキャプチャ307から1フレーム分のオーディオデータを読み込み、メモリ301上のオーディオエリアに格納する(ステップS6)。さらにまた、メモリ301上のオーディオエリアに格納されたオーディオデータをメモリ301上のオーディオ符号化ソフトウェアを用いてAAC符号化方式で符号化し、メモリ301上の符号エリアに格納し、オーディオエリアにあるオーディオのフレームデータの領域を開放する(ステップS7)。
【0117】
そして、メモリ301上のワーキングエリアに格納されたID番号、フレームを符号化する時の記録日時、ビデオフレームのタイムスタンプから透かしデータを生成し、メモリ301上のワーキングエリアのデータを更新する(ステップS8)。例えば、ID番号が16ビット、記録日時を表すのに西暦で14ビット、月で2ビット、日時で5ビット、秒で6ビット、タイムスタンプで10ビットとすると、全部で53ビットのデータになり、これを暗号化して透かしデータとする。そして、透かしデータを生成した後、ステップS9に進む。
【0118】
ステップS9では、メモリ301上の透かし埋め込みソフトウェアを用いて、ワーキングエリア上の透かしデータを符号エリアのビデオ符号化データに埋め込み、符号エリアに格納し、埋め込み前の符号化データの領域を開放して、ステップS10に進む。ステップS10では、ワーキングエリア上の透かしデータを符号エリアのオーディオ符号化データに埋め込み、符号エリアに格納し、埋め込み前の符号化データの領域を開放して、ステップS11に進む。
【0119】
ステップS11では、生成されメモリ301上の符号エリアに格納されたオーディオ符号化データとビデオ符号化データを、多重化ソフトウェアを用いて多重化し、記憶装置305の所定の領域に書き込み、符号エリアのデータ領域を開放して、ステップS3に戻り次のフレームデータの処理を行う。
【0120】
一方、ステップS3において全てのフレームデータに関して処理が終了した場合、再生処理を終了する。
【0121】
このような一連の選択動作により、オーディオデータとビデオデータに埋め込まれたフレーム毎で連続して変化するデータを比較することにより、細かい単位で改ざんを検知することができ、それをユーザに知らせることが可能になる。
【0122】
尚、本実施形態においては、動画像の符号化方式をMPEG−1としたが他の符号化方式、例えば、H.261、MPEG−1、MPEG−2、MPEG−4でももちろんかまわない。また、同様にオーディオの符号化方式もこれに限定されず、MPEG−1 Layer 3符号化やADPCM符号化であってもよい。
【0123】
また、本実施形態に係る情報処理装置の各部又は全部の機能をハードウェアで構成し、処理をさせてもよい。
【0124】
また、本実施形態では符号化データに透かしデータを後で埋め込むように構成したが、本発明の適用はこれに限定されるものでない。例えば、特開平11−28451号の「データ処理装置、データ処理方法及び記録媒体」に記載されているように、符号化しながら透かしデータの埋め込みを行うものであってもかまわない。
【0125】
また、透かしデータは上述した種類に限定されるものではなく、その他フレームを特定することが可能な情報を用いてもよい。また、生成されたストリームを記憶装置305に格納するだけではなく、通信インタフェース310を介して通信回線311に出力してもよい。
【0126】
<第6の実施形態>
本実施形態では、画像データの復号処理について説明する。尚、画像データ処理装置の構成は、上述した第5の実施形態で用いた図3に示す情報処理装置を用いる。また、本実施形態においてもビデオ符号化としてMPEG−4符号化方式、オーディオ符号化としてAAC符号化を例にとって説明するが、本発明の適用はこれに限定されることはない。そこで本実施形態では、第5の実施形態で生成され、記憶装置305に格納された符号化データの復号処理を例にとって説明する。
【0127】
本実施形態では、図5の構成をした情報処理装置において、処理に先立って端末303を用いて、記憶装置305に蓄積されている動画像符号化データから復号する符号化データを選択し、装置の起動が指示される。これにより、記憶装置304に格納されているソフトウェアがバス302を介してメモリ301に展開され、ソフトウェアが起動される。
【0128】
また、メモリ301には、装置全体を制御し各種ソフトウェアを動作させるためのOSや動作させるソフトウェアを格納し、画像データを格納する画像エリア、オーディオデータを格納するオーディオエリア、入力した符号化データを格納する符号エリア、各種演算や復号の際のパラメータ等や透かしに関するデータ等を格納しておくワーキングエリアが存在する。
【0129】
このような構成による情報処理装置における画像データの復号処理について説明する。図6は、CPU300による動画像データの記憶装置305から読み出し再生する動作手順を説明するためのフローチャートである。
【0130】
まず、処理に先立ち、端末303から装置全体に対して起動が指示され、装置の各部が初期化される(ステップS51)。
【0131】
図8は、復号時のメモリ301におけるメモリの使用・格納状況を説明するための概要図である。図8に示すように、メモリ301には、装置全体を制御し各種ソフトウェアを動作させるためのOS、画像データを復号するビデオ復号ソフトウェア、オーディオデータを復号するオーディオ復号ソフトウェア、符号化データの多重化を解き、それぞれの符号化データを分離する多重分離ソフトウェア、透かしデータの抽出と解析を行う透かし抽出ソフトウェアが格納されている。
【0132】
また、復号の際に画像を格納する画像エリア、オーディオデータを格納するオーディオエリア、入力された符号化データを格納する符号エリア、各種演算のパラメータ等を格納するワーキングエリアが存在する。
【0133】
そして、多重化、オーディオ符号化、ビデオ符号化のそれぞれのヘッダを解釈して各所の初期設定が行われる(ステップS52)。さらに、処理の終了判断が行われる(ステップS53)。その結果、処理が終了しない場合、ステップS54に進む。
【0134】
ステップS54では、記憶装置305の所定の位置から符号化データを読み込み、メモリ301上の多重分離ソフトウェアを用いて、符号化データから1フレーム単位でオーディオ符号化データとビデオ符号化データに分離して、それぞれをメモリ301上の符号エリアに格納する。そして、メモリ301上の符号エリアに格納されたビデオ符号化データから、メモリ301上の透かし抽出ソフトウェアを用いて、ビデオ透かしデータを抽出する(ステップS55)。
【0135】
さらに、メモリ301上のビデオ復号ソフトウェアを用いて、メモリ301上の符号エリアに格納されたビデオ符号化データをMPEG−1符号化方式に従って復号し、再生した画像データをメモリ301上の画像エリアに格納し、符号エリアの該当する領域を開放する(ステップS56)。そして、メモリ301上の透かし抽出ソフトウェアを用いて、メモリ301上の符号エリアに格納されたオーディオ符号化データからオーディオ透かしデータを抽出し、その内容をワーキングエリアに格納する(ステップS57)。
【0136】
また、メモリ301上のオーディオ復号ソフトウェアを用いて、メモリ301上の符号エリアに格納されたオーディオ符号化データをAAC符号化方式に従って復号して1フレーム分のオーディオデータを再生し、メモリ301上のオーディオエリアに格納し、符号エリアの該当する領域を開放する(ステップS58)。さらに、メモリ301上の透かし抽出ソフトウェアを用いて、メモリ301上のワーキングエリアにあるオーディオ透かしデータとビデオ透かしデータからそれぞれのID番号、日時、タイムスタンプ等の情報を解析し、その結果を分類毎にワーキングエリアに格納する(ステップS59)。
【0137】
ここで、メモリ301上のワーキングエリアに格納されたID番号や日時等の情報を比較する(ステップS60)。その結果、すべてが一致する場合、タイムスタンプに従って、メモリ301上の画像エリアの画像データをモニタ308に表示し、オーディオエリアのオーディオデータをスピーカ309から出力し、それぞれのエリアの領域を開放する(ステップS61)。そして、ステップS53に戻って、次のフレームの処理を行う。そして、ステップS53において、全ての符号化データに関して処理が終了する場合は再生処理を終了する。
【0138】
一方、ステップS60において不一致である場合、ステップS53に戻って、内容を再生しないで次のフレームの処理を行う。
【0139】
このような一連の選択動作において、オーディオデータとビデオデータに埋め込まれたフレーム毎で連続して変化する透かしデータを比較することにより、細かい単位で改ざんを検知することができ、その再生方法を制御することが可能になる。
【0140】
尚、本実施形態においては動画像の符号化方式をMPEG−1としたが、他の符号化方式、例えば、H.261、MPEG−1、MPEG−2、MPEG−4でももちろんかまわない。同様に、オーディオの符号化方式もこれに限定されず、MPEG Layer 3符号化やADPCM符号化であってもよい。
【0141】
また、本実施形態の各部又は全部の機能をハードウェアで構成し、処理をさせてもよい。
【0142】
また、本実施形態では符号化データに透かしデータを後で埋め込むように構成したが、本発明の適用はこれに限定されるものではない。本発明では、例えば、特開平11−284516号の「データ処理装置、データ処理方法及び記録媒体」に記載されているように復号しながら透かしデータの抽出を行ってもよい。
【0143】
本発明は、上述した実施形態の他に、複数の機器(例えば、ホストコンピュータ、インタフェース機器、カムコーダ、ビデオカメラ等)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、VTR、テレビ装置等)に適用してもよい。
【0144】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0145】
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0146】
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0147】
【発明の効果】
以上説明したように、本発明によれば、特定のファイルフォーマットを用いる必要がなく、ビデオデータとオーディオデータとの同一性を破壊するような改ざんを防止することができる。そして、ビデオデータとオーディオデータとの同一性を破壊するような改ざんを好適に検出することができる。
【0148】
また、本発明によれば、オーディオデータとそれに同期するビデオデータとの間で共有するデータを透かしデータとして符号化データの中に埋め込むことにより、オーディオとビデオの同一性すなわち、正しい組み合わせの判別が容易に行うことが可能になる。
【0149】
さらに、本発明によれば、透かしデータに埋め込むことにより、特定のファイルフォーマットに依存せず、種々のファイルフォーマットで記述された場合でも、再生に関して問題を生じないという効果が得られる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態における符号化システムの構成を示すブロック図である。
【図2】本発明の第2の実施形態における復号システムの構成を示すブロック図である。
【図3】本発明の第5の実施形態に係る情報処理装置の構成を示すブロック図である。
【図4】本発明の第3の実施形態に係る画像を撮像して音声と共に記録するカムコーダシステムの構成を示すブロック図である。
【図5】CPU300による動画像データの記憶装置305に記録する動作手順を説明するためのフローチャートである。
【図6】CPU300による動画像データの記憶装置305から読み出し再生する動作手順を説明するためのフローチャートである。
【図7】符号化時のメモリ301におけるメモリの使用・格納状況を説明するための概要図である。
【図8】復号時のメモリ301におけるメモリの使用・格納状況を説明するための概要図である。
【図9】本発明の第1の実施形態に係る符号化システムにおける符号化処理手順を説明するためのフローチャートである。
【図10】本発明の第2の実施形態に係る復号システムにおける復号処理手順を説明するためのフローチャートである。
【図11】ビデオデータとオーディオデータに関する透かしデータが一致する場合(A)と一致しない場合(B)のモニタ21上の画像の表示例を説明するための図である。
【図12】第3の実施形態に係るカムコーダシステムにおける動画像記録処理を説明するためのフローチャートである。
【図13】第4の実施形態に係るカムコーダシステムにおける動画像再生処理を説明するためのフローチャートである。
【符号の説明】
1、11 情報処理装置
2、101、307 マイク
3、108 オーディオ符号化器
4、306 カメラ
5、109 ビデオ符号化器
6、110 透かし生成器
7、8、111、112 透かし埋め込み器
9、113 多重化器
10、12 記憶装置
13、116 分離器
14、15、117、118 透かし抽出器
16、119 比較器
17、120 オーディオ復号器
18、125 ビデオ復号器
19 表示制御器
20、123、309 スピーカ
21、308 モニタ
102 光学系
103 光電変換器
104、105 A/D変換器
106、107、121、126 フレームメモリ
114 記録媒体制御器
115 記録媒体
122、127 D/A変換器
124 インジケータ
128 ビューア
300 CPU
301 メモリ
302 バス
303 端末
304、305 記憶装置
309 オーディオキャプチャ
310 通信インタフェース
311 通信回線
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing apparatus and an information processing method for detecting falsification of video data and audio data related thereto, a program, and a computer-readable recording medium.
[0002]
[Prior art]
Generally, as an encoding method of a moving image, an encoding method such as Motion JPEG (Joint Photographic Coding Experts Group) or Digital Video, which is an intra-frame encoding method, or an H.264 encoding method using inter-frame prediction encoding is used. 261, H .; H.263, MPEG (Moving Picture Coding Experts Group) -1, MPEG-2, MPEG-4, etc. are known. These coding schemes are internationally standardized by ISO (International Organization for Standardization) and ITU (International Telecommunication Union).
[0003]
With the widespread use of the digital encoding standards as described above, the content industry, such as video and music, has strongly raised the problem of copyright protection. In response to this, standardization regarding content protection has been advanced, and in the MPEG-4 encoding method, a method of describing security information in a file system using IPMP OD and restricting reproduction by the security information has been standardized. Digital watermark technology has been developed for security-related information and encryption. The digital watermarking technique is a technique for embedding data at a level where data does not change during data reproduction or a change is not perceivable.
[0004]
As techniques for embedding a digital watermark in video data, Japanese Patent Application Laid-Open No. H10-243398, entitled “Recording Medium and Video Encoding Apparatus Recording Moving Image Encoding Program” and Japanese Patent Application Laid-Open No. H11-341450, Extraction device "and the like. Similarly, with respect to audio data, Japanese Patent Application Laid-Open No. 2001-202089 discloses a method of embedding watermark information in audio data, a watermark information embedding device, a watermark information detecting device, a recording medium in which watermark information is embedded, and a method of embedding watermark information. There is disclosed a technique for embedding a digital watermark in a “recording medium on which a digital watermark is recorded” or in “Digital watermark embedding device, audio encoding device and recording medium” in JP-A-11-316599.
[0005]
Further, when a part of a still image is falsified by image processing or the like, a method of detecting this is disclosed in Japanese Patent Application Laid-Open No. 2001-78070, “Digital Camera and Image Falsification Detection System”.
[0006]
The digital watermark as described above is generally used to prevent falsification of video data and audio data and protect copyright.
[0007]
[Problems to be solved by the invention]
However, when a part or all of the audio data is replaced with editing software or the like from the original combination of video data and audio data, the conventional copyright protection system cannot detect it as tampering. For example, even if a certain scene is photographed, the same camera is used to change the sound and the like in the same manner, and the sound data is exchanged, it cannot be determined whether the data is original data.
[0008]
As for the file format, various methods are adopted for frame synchronization and frame control. For example, even for the same Motion JPEG file, the format differs between the AVI file format and the QuickTime file format. Therefore, in the case where the file format of the MPEG-4 encoding method is converted to another file format, even if copyright protection is performed in one file format, if the file format is converted to another file format that does not support the copyright protection, the information becomes Will be lost.
[0009]
The present invention has been made in view of such circumstances, and does not require the use of a specific file format, and information capable of preventing tampering that destroys the identity of video data and audio data. It is an object to provide a processing device, an information processing method, a program, and a computer-readable recording medium.
[0010]
[Means for Solving the Problems]
In order to solve the above problems, the present invention is an information processing apparatus for encoding video data and audio data synchronized with the video data, wherein a first encoding unit for encoding the video data, Second encoding means for encoding the audio data, watermark data generation means for generating predetermined watermark data, and first watermark embedding means for embedding the watermark data in the encoded video data by a digital watermark Second watermark embedding means for embedding the watermark data in the encoded audio data by a digital watermark, and generating multiplexed data obtained by multiplexing the video data with the watermark data embedded therein and the audio data. Multiplexing means.
[0011]
Also, in the information processing apparatus according to the present invention, the watermark data generation unit may be configured to embed a digital watermark in the video data and the audio data based on the video data and the audio data synchronized with the video data. The watermark data is generated.
[0012]
Further, the information processing apparatus according to the present invention may include a first input unit for inputting video data, a second input unit for inputting audio data synchronized with the video data, and the video data and the audio data. Identity data generating means for generating identity data indicating synchronization, watermark data generating means for generating predetermined watermark data from the identity data, and embedding the watermark data in the video data by digital watermarking A first watermark embedding unit, a second watermark embedding unit for embedding the watermark data in the audio data by a digital watermark, and the video data in which the watermark data is embedded and the audio data in which the watermark data is embedded. Multiplexing means for generating multiplexed data obtained by multiplexing And wherein the door.
[0013]
Still further, the information processing apparatus according to the present invention further includes a first encoding unit that encodes the video data, wherein the first embedding unit performs a digital watermark on the encoded video data. The watermark data is embedded.
[0014]
Still further, the information processing apparatus according to the present invention further includes a second encoding unit that encodes the audio data, wherein the second embedding unit performs a digital watermark on the encoded audio data. The watermark data is embedded.
[0015]
Still further, the information processing apparatus according to the present invention is characterized by further comprising a recording unit for recording the multiplexed data on a portable recording medium.
[0016]
Still further, the information processing apparatus according to the present invention comprises: first input means for inputting video data in which the first watermark data is embedded by digital watermark; and audio data in which the second watermark data is embedded by digital watermark. , A second watermark extracting means for extracting the first watermark data embedded in the video data, and a second watermark extracting means for extracting the second watermark data embedded in the audio data. A second watermark extracting unit, a comparing unit for comparing the identities of the first watermark data and the second watermark data, and the video data based on the comparison result of the identities in the comparing unit. Determining means for determining whether the audio data is synchronized with the audio data.
[0017]
Still further, the information processing apparatus according to the present invention provides a multiplexing input for inputting multiplexed data in which video data in which first watermark data is embedded and audio data in which second watermark data is embedded. Means, separating means for separating the video data and the audio data from the multiplexed data, first watermark extracting means for extracting the first watermark data embedded in the video data, and the audio data A second watermark extracting unit for extracting the second watermark data embedded in the first watermark data; a comparing unit for comparing the first watermark data with the second watermark data for identity; Determining means for determining whether or not the video data and the audio data are synchronized based on the result of comparison of the identity And wherein the door.
[0018]
Still further, the information processing apparatus according to the present invention is characterized in that the multiplexing input means reads and inputs the multiplexed data recorded on a portable recording medium.
[0019]
Still further, the information processing apparatus according to the present invention is characterized by further comprising first output means for outputting the video data, and second output means for outputting the audio data.
[0020]
Still further, the information processing apparatus according to the present invention is characterized by further comprising a first reproducing means for reproducing the video data.
[0021]
Still further, the information processing apparatus according to the present invention is characterized by further comprising a second reproducing means for reproducing the audio data.
[0022]
Still further, the information processing apparatus according to the present invention, when the determining means determines that the video data and the audio data are not synchronized, when the first reproducing means reproduces the video data, It is characterized by further comprising control means for reproducing information indicating that the data is not synchronized with the data.
[0023]
Still further, the information processing apparatus according to the present invention is characterized in that the video data is encoded, a first decoding means for decoding the encoded video data, and the audio data is encoded. Second decoding means for decoding the converted audio data.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[0025]
<First embodiment>
FIG. 1 is a block diagram illustrating a configuration of an encoding system according to the first embodiment of the present invention. In the present embodiment, an example will be described in which video data and audio data synchronized therewith are encoded and recorded using the encoding system shown in FIG.
[0026]
As shown in FIG. 1, the encoding system according to the present embodiment includes an information processing apparatus 1 that generates encoded data, a microphone 2 that is connected to the information processing apparatus 1, and that inputs audio data, and video data that are continuously transmitted in frame units. And a storage device 10 for recording the generated encoded data.
[0027]
The information processing apparatus 1 is first provided with an audio encoder 3 that encodes audio data input from the microphone 2 in frame units. Here, the MPEG-1 Layer 3 encoding method will be described as an example, but the application in the present invention is not limited to this method. Also, for ease of explanation, the frame size is set to the interval of one frame of video data.
[0028]
Further, the information processing apparatus 1 includes a video encoder 5 that encodes video data input from the camera 4 in frame units. In the present embodiment, the MPEG-4 encoding method will be described as an example of the encoding method, but the application of the present invention is not limited to this method. Furthermore, the information processing apparatus 1 includes a watermark generator 6 that generates a unique value for one recording.
[0029]
The watermark embedding unit 7 is connected to the audio encoder 3 and the watermark generator 6, and encodes the watermark data generated by the watermark generator 6 (hereinafter referred to as “audio watermark data”) into encoded audio. It is embedded in data (hereinafter, referred to as “audio encoded data”). On the other hand, the watermark embedding unit 8 is connected to the video encoder 5 and the watermark generator 6, and the watermark data generated by the watermark generator 6 (hereinafter, referred to as “video watermark data”) is encoded video. It is embedded in data (hereinafter, referred to as “video encoded data”). The multiplexer 9 is connected to the watermark embedding units 7 and 8 and multiplexes the encoded audio data with the embedded audio watermark data and the encoded video data with the embedded video watermark data to form one stream data. To The storage device 10 records and stores this stream data.
[0030]
Next, the flow of processing from encoding to storage of video data and audio data in the encoding system having the above configuration will be described in detail. FIG. 9 is a flowchart for explaining an encoding processing procedure in the encoding system according to the first embodiment of the present invention.
[0031]
First, prior to processing, each unit is initialized and an ID number is set (step S201). Here, the ID number is a unique number relating to the current process. For example, in the present embodiment, a random number represented by 4 bytes is used as the ID number. Note that the ID number is not limited to this value, and any number can be used. In addition, it generates header data for multiplexing and prepares to write the output result in a free area of the storage device 10. Thereafter, a recording operation of a moving image (in the present embodiment, including video and audio) is started.
[0032]
Next, the end of the encoding process is determined (step S202). As a result, if the processing has not been completed, the watermark generator 6 generates watermark data based on the ID number (step S203). In the present embodiment, as the watermark data, data obtained by encrypting 4-byte data for each of audio data and video data is used. Then, the generated audio watermark data is input to the watermark embedding device 7 and the video watermark data is input to the watermark embedding device 8.
[0033]
Next, each frame of the video data read from the camera 4 is encoded (step S204). That is, video data captured by the camera 4 is input to the video encoder 5 on a frame-by-frame basis. Then, the video encoder 5 encodes the input video data according to the MPEG-4 encoding method and holds the encoded data (video encoded data).
[0034]
Further, the video watermark data generated in step S203 is embedded in the encoded video data (step S205). That is, the watermark embedding unit 8 embeds the generated video watermark data in the encoded video data read from the video encoder 5. As a method of embedding, for example, a method of intentionally changing encoded data according to watermark data by changing the highest-frequency coefficient of each block within a range of ± 1 and using odd and even numbers in accordance with watermark data is used. That is, if one bit of the data to be embedded is 0, the last coefficient is an even number, and if 1 is 1, the last coefficient is an odd number. Further, the code before the EOB of the macro block to be embedded is read out and changed if necessary.
[0035]
For example, when the 0 run length of the immediately preceding code is 8 and the value is 3, if the value to be embedded is 0, the code is replaced with a code having a run length of 8 and a value of 4. In the actual code, “111111111110110110” is replaced with “111111111110110111”. If the value is 1, do nothing. Note that the present invention is not limited to this, and an existing method such as the method described in “Moving picture digital watermarking system” in JP-A-11-341452 may be used.
[0036]
On the other hand, a frame of the audio data read from the microphone 2 is encoded (step S206). That is, the audio data input from the microphone 2 is input to the audio encoder 3 in frame units. The audio encoder 3 encodes the input audio data according to the MPEG-1 Layer 3 encoding method and holds the encoded data (audio encoded data). Then, the audio watermark data generated in step S203 is embedded in the encoded audio data (step S207). That is, the watermark embedding unit 7 embeds the generated audio watermark data in the encoded audio data read from the audio encoder 3. As a method of embedding, for example, when embedding a 4-byte value, an LSB of 32 samples may be applied to it.
[0037]
Then, each of the encoded data in which the watermark data is embedded is multiplexed by the multiplexer 9 and stored in a predetermined position of the storage device 10 (step S208). Thereafter, the multiplexed data is output (step S209), and the process returns to step S202, and the process is repeated until all data has been input. By such a series of selection operations, the same information regarding audio data and video data is embedded by a digital watermark, thereby making it possible to easily detect tampering on the decoding side.
[0038]
As described above, the information processing device 1 according to the present invention encodes video data and audio data synchronized with the video data. Specifically, the video encoder 5 encodes video data, and the audio encoder 3 encodes audio data. Further, the watermark generator 6 generates predetermined watermark data. Then, the watermark embedding unit 8 embeds the watermark data in the encoded video data by using a digital watermark. On the other hand, the watermark embedding unit 7 embeds the watermark data in the encoded audio data by a digital watermark. Further, the multiplexing unit 9 generates multiplexed data in which the video data and the audio data in which the watermark data is embedded are multiplexed.
[0039]
Further, the information processing apparatus 1 according to the present invention encodes video data and audio data synchronized with the video data. Specifically, the information processing apparatus 1 has the same configuration indicating that the video data and the audio data are synchronized. Sex data is generated, and predetermined watermark data is generated from the identity data. Then, the watermark data is embedded in the video data by a digital watermark. The watermark data is also embedded in the audio data by a digital watermark. Then, multiplexed data is generated by multiplexing the video data with the watermark data embedded therein and the audio data with the watermark data embedded therein.
[0040]
Further, the information processing apparatus 1 has a video encoder 5 for encoding video data, and the watermark embedding unit 8 embeds watermark data in the encoded video data by a digital watermark. I do.
[0041]
Still further, the information processing apparatus 1 has an audio encoder 3 for encoding audio data, and the watermark embedding unit 7 embeds watermark data in the encoded audio data by a digital watermark. And
[0042]
In the present embodiment, the encoding method of video data is MPEG-4, but other encoding methods, for example, H.264. 261, MPEG-1, or MPEG-2. Similarly, the encoding method of audio data is not limited to this, and may be AAC encoding or ADPCM encoding.
[0043]
Further, each part or all functions of the encoding system according to the present embodiment may be described by software, and may be processed by an arithmetic device such as a CPU. In this embodiment, the watermark data is embedded in the encoded data later. However, the present invention is not limited to this. For example, Japanese Patent Application Laid-Open No. H11-284516 discloses a “data processing device, a data processing method, and a recording medium”. , The watermark data may be embedded while encoding.
[0044]
The watermark data need not be the same as the audio watermark data and the video watermark data. For example, a 4-byte code may be used as the video watermark data and its complement may be used as the audio watermark data.
[0045]
<Second embodiment>
FIG. 2 is a block diagram illustrating a configuration of a decoding system according to the second embodiment of the present invention. In the present embodiment, an MPEG-4 encoding method will be described as an example of a video data encoding method, and an MPEG-1 Layer 3 encoding method will be described as an example of an audio data encoding method. It is not limited to only.
[0046]
As illustrated in FIG. 2, the decoding system according to the present embodiment includes an information processing device 11 that decodes a moving image (including video and audio in the present embodiment) and a storage device that stores encoded data connected thereto. 12, a speaker 20 for reproducing the decoded and reproduced audio data, and a monitor 21 for displaying the reproduced video data. It is assumed that the storage device 12 stores the multiplexed coded data generated in the first embodiment (hereinafter, referred to as “multiplexed coded data”).
[0047]
Further, the information processing apparatus 11 includes a demultiplexer for separating the multiplexed coded data multiplexed by the multiplexer 9 of FIG. 1 according to the first embodiment into video coded data and audio coded data. 13 are provided. The watermark extractors 14 and 15 are connected to the separator 13. The watermark extractor 14 extracts audio watermark data from the encoded audio data. On the other hand, the watermark extractor 15 extracts video watermark data from the encoded video data.
[0048]
Further, both watermark extractors 14 and 15 are connected to a comparator 16 which compares the respective extracted watermark data.
[0049]
The watermark extractor 14 is connected to an audio decoder 17 that decodes the encoded audio data and reproduces the audio data. On the other hand, the watermark extractor 15 is connected to a video decoder 18 that decodes the encoded video data and reproduces the video data. The display controller 19 is connected to the comparator 16 and the video decoder 18 and controls the video data on a frame basis. Then, the monitor 21 displays the video data (video) reproduced under the control of the display controller 19.
[0050]
Next, a flow of a decoding process of moving image data in the image decoding system having the above configuration will be described. FIG. 10 is a flowchart for explaining a decoding processing procedure in the decoding system according to the second embodiment of the present invention.
[0051]
First, similarly to the first embodiment, each unit is initialized prior to the processing operation, and the storage device 12 sets a read position at the head of the accumulated multiplexed coded data (step S301).
[0052]
Next, it is determined whether the decryption process is completed (step S302). As a result, if the processing has not been completed, the multiplexed coded data is read from a predetermined position in the storage device 12, and the read multiplexed coded data is input to the demultiplexer 13 (step S303). . Then, the separator 13 separates the audio coded data and the video coded data from the input multiplexed coded data in units of one frame (step S304). The two types of encoded data separated by the separator 13 are output to the watermark extractor 15 and the audio encoded data are output to the watermark extractor 14 in frame units.
[0053]
Therefore, the watermark extractor 15 extracts the video watermark data embedded in the encoded video data, decodes the encryption, outputs the result to the comparator 16, and outputs the encoded data to the video decoder 18 ( Step S305). The video decoder 18 decodes the encoded data and reproduces one frame of video data (step S306).
[0054]
At the same time, the watermark extractor 14 extracts the audio watermark data embedded in the encoded audio data, decrypts the encryption, outputs the result to the comparator 16, and outputs the encoded data to the audio decoder 17 (step). S307). The audio decoder 17 decodes the encoded data and reproduces one frame of audio data (step S308).
[0055]
The comparator 16 compares the audio watermark data extracted by the watermark extractor 14 with the video watermark data extracted by the watermark extractor 15 (step S309). As a result, if the two pieces of watermark data do not match, the process proceeds to step S310. In step S310, this mismatch is notified to the display controller 19, so that a warning is superimposed on the frame of the reproduced video data. That is, if the watermark data does not match in the comparator 16, a display indicating that the audio data and the video data do not match is superimposed on the output of the video decoder 18, output to the monitor 21, and visually checked on the monitor 21. Is displayed.
[0056]
On the other hand, if the comparator 16 determines that the watermark data matches, the display controller 19 outputs the output of the video decoder 18 to the monitor 21 as it is, and displays an image on the monitor 21. At this time, the decoding result of the audio data synchronized with the video data is simultaneously output to the speaker 20 (step S311). In this way, one frame of the reproduced video data is displayed, and at the same time, the audio data synchronized with the one frame is reproduced. Then, when the processing has been completed for all the encoded data in step S302, the processing of the entire decoding system ends.
[0057]
FIG. 11 is a diagram for explaining an example of displaying an image on the monitor 21 when the watermark data for video data and audio data match and when the watermark data does not match. As shown in FIG. 11A, if the two pieces of watermark data match, the image 1000 is displayed as having no tampering. If the two pieces of watermark data do not match, as shown in FIG. 11B, an image on which the telop 1001 is superimposed is displayed as if there has been tampering. At this time, the decoding result of the audio data is output to the speaker 20 simultaneously with the image display.
[0058]
In such a series of selecting operations, by comparing the watermark data embedded in the audio data and the video data, it is possible to detect data falsification and to notify the user of the falsification.
[0059]
That is, in the information processing apparatus 11 according to the present invention, the watermark extractor 15 extracts the first watermark data from the video data in which the first watermark data (video watermark data) is embedded by the digital watermark. Further, the watermark extractor 14 extracts the second watermark data from the audio data in which the second watermark data (audio watermark data) is embedded by the digital watermark. Then, the comparator 16 compares the identity of the first watermark data with the identity of the second watermark data. Then, the information processing device 11 determines whether or not the video data and the audio data are synchronized based on the comparison result of the identity.
[0060]
Further, in the information processing apparatus 11 according to the present invention, the separator 13 converts the multiplexed data obtained by multiplexing the video data in which the first watermark data is embedded and the audio data in which the second watermark data is embedded. Separate video and audio data. Then, the watermark extractor 15 extracts the first watermark data embedded in the video data. Further, the watermark extractor 14 extracts the second watermark data embedded in the audio data. Then, the comparator 16 compares the identity of the first watermark data with the identity of the second watermark data. Then, the information processing device 11 determines whether or not the video data and the audio data are synchronized based on the comparison result of the identity.
[0061]
Further, when it is determined that the video data and the audio data are not synchronized, the information processing device 11 transmits information (telop 1001) indicating that the video data and the audio data are not synchronized with the audio data when the video data is reproduced on the monitor 21. It is characterized by performing control for reproduction.
[0062]
Furthermore, the information processing apparatus 11 includes a video decoder 18 that encodes the video data and decodes the encoded video data, and a video decoder 18 that encodes the audio data and encodes the encoded audio data. An audio decoder 17 for decoding data is further provided.
[0063]
Furthermore, the information processing device 11 outputs video data and outputs audio data. Furthermore, the information processing apparatus 11 is characterized in that it can be connected to a monitor 21 for reproducing video data. Furthermore, the information processing apparatus 11 is characterized in that it can be connected to a speaker 20 for reproducing audio data.
[0064]
In the present embodiment, the moving image encoding method is MPEG-4, but other encoding methods, for example, H.264. 261, MPEG-1, MPEG-2, and Motion JPEG. Similarly, the audio encoding method is not limited to this, and may be AAC encoding or ADPCM encoding.
[0065]
Further, each part or all functions of the decoding system according to the present embodiment may be described in software, and may be processed by an arithmetic device such as a CPU.
[0066]
Further, in the present embodiment, similarly to the first embodiment, the watermark data is embedded in the encoded data later. The application of the present invention is not limited to the case described above. For example, as described in “Data Processing Apparatus, Data Processing Method, and Recording Medium” in JP-A-11-284516, watermarking is performed while decoding. Data may be extracted.
[0067]
Also, the watermark data need not be the same as the audio watermark data and the video watermark data. For example, a 4-byte code is used as the video watermark data, its complement is used as the audio watermark data, and the comparator 16 performs an operation to determine the identity. May be verified.
[0068]
<Third embodiment>
Next, a third embodiment of the present invention will be described in detail with reference to the drawings.
[0069]
FIG. 4 is a block diagram showing a configuration of a camcorder system according to a third embodiment of the present invention, which captures an image and records the captured image together with audio. In FIG. 4, reference numeral 101 denotes a microphone for inputting audio data, 102 denotes an optical system including a lens and the like, and 103 denotes a photoelectric converter including a CCD or the like that generates an electric signal by the intensity of light. Show.
[0070]
Reference numerals 104 and 105 denote A / D converters that convert analog electric signals into digital signals, and reference numerals 106, 107, 121, and 126 denote frame memories that store digital signals for each frame. Reference numeral 108 denotes an audio encoder that performs audio encoding on a frame basis. Furthermore, reference numeral 109 denotes a video encoder that performs video encoding on a frame basis. On the other hand, reference numeral 110 denotes a watermark generator for generating watermark data from the outputs of the audio encoder 108 and the video encoder 109. For example, data shared between audio data and video data synchronized therewith may be used as watermark data.
[0071]
Reference numeral 111 denotes a watermark embedding unit for embedding watermark data in audio encoded data, and reference numeral 112 denotes a watermark embedding unit for embedding watermark data in video encoded data. A multiplexer 113 multiplexes audio encoded data and video encoded data to shape a stream. Further, reference numeral 114 denotes a recording medium controller which reads and writes a stream from and to the recording medium 115. Note that the recording medium 115 is constituted by a magneto-optical disk or the like, but the application of the present invention is not limited to this.
[0072]
Further, reference numeral 116 denotes a separator for separating audio encoded data and video encoded data from the stream. Furthermore, reference numeral 117 denotes a watermark extractor for extracting watermark data from audio encoded data, and 118 denotes a watermark extractor for extracting watermark data from video encoded data. Further, reference numeral 119 denotes a comparator for comparing the extracted watermark data.
[0073]
Further, reference numeral 120 denotes an audio decoder that decodes the encoded audio data and reproduces the audio data. Reference numeral 122 denotes a D / A converter that converts audio data in the frame memory 121 from digital to analog signals, and reference numeral 123 denotes a speaker that reproduces analog audio signals and emits sound. Reference numeral 124 denotes an indicator for displaying the result of the watermark comparator 119, which is constituted by an LED or the like.
[0074]
Furthermore, reference numeral 125 denotes a video decoder that decodes encoded video data and reproduces image data. Reference numeral 127 denotes a D / A converter for converting video data in the frame memory 126 from digital to analog signals, and 128 denotes a viewer for displaying analog video signals, and is constituted by an LCD or the like. .
[0075]
Next, a recording operation of a moving image in the camcorder according to the embodiment having the above-described configuration will be described. In the present embodiment, an MPEG-4 encoding method will be described as an example of a video encoding method, and an AAC encoding method will be described as an example of an audio encoding method. For ease of explanation, the frame size is set to the interval of one video frame.
[0076]
First, a process of recording encoded data will be described. FIG. 12 is a flowchart illustrating a moving image recording process in the camcorder system according to the third embodiment. First, the apparatus is initialized, various headers are generated and stored in the recording device, and an ID number is set (step S401). That is, when the power is turned on to the camcorder, initialization of each unit is performed. Then, variation correction between sensors of the photoelectric converter 103 and clearing of the frame memories 105 and 107 are performed. Further, the recording medium controller 114 sets the writing position at the head of the empty area on the recording medium 115.
[0077]
When the user presses a recording button (not shown), recording of a moving image is started. The multiplexer 113 generates header data required for multiplexing, and writes the header data to a predetermined area on the recording medium 115 via the recording medium controller 114. The audio encoder 106 generates header data according to the AAC encoding method. The video encoder 109 generates header data according to the MPEG-4 encoding method. Each generated header data is stored at a predetermined position on the recording medium 115 via the multiplexer 113 and the recording medium controller 114. Also, an ID number is set as in the first embodiment. In this embodiment, a 16-bit integer selected from random numbers is used as an ID number.
[0078]
Next, the end of the process is determined (step S402). If it is not finished, one frame of the input video data is encoded according to the MPEG-4 encoding method (step S403). That is, the photoelectric converter 103 converts the light that has entered through the optical system 102 into an electric signal, and converts the light into a digital signal by the A / D converter 105 and stores the digital signal in the frame memory 107 in frame units. The video encoder 109 encodes image data in input frame units according to the MPEG-4 encoding method. The generated encoded data is input to the watermark generator 110 and the watermark embedding unit 112.
[0079]
At the same time, one frame of the input audio data is encoded according to the AAC encoding method (step S404). That is, the audio signal input from the microphone 101 is converted into a digital signal by the A / D converter 104 and stored in the frame memory 106 on a frame basis. The audio encoder 108 encodes audio data in input frame units according to the AAC encoding method. The generated encoded data is input to the watermark generator 110 and the watermark embedding unit 111.
[0080]
Next, the watermark generator 110 generates video watermark data from the ID number, part of the video encoded data, and part of the audio encoded data, and audio watermark data from the ID number and part of the video encoded data ( Step S405). That is, the watermark generator 110 reads out predetermined bit data from the encoded data input from the audio data encoder 108. For example, predetermined bits such as the third bit, the ninth bit, the 17th bit,... From the head are read out as 16-bit audio identification data.
[0081]
In addition, predetermined bit data is read from the encoded data input from the video data encoder 109. For example, predetermined bits such as the 54th bit, the 61st bit, the 77th bit,... From the head are read out as 16-bit video identification data. These ID numbers, audio identification data, and video identification data bits are arranged in order from the top to create 48-bit data, which is used as video watermark data. Also, the video identification data and the respective bits of the ID number are arranged in order from the higher order to create 32-bit data, which is used as audio watermark data.
[0082]
Thereafter, the video watermark data generated in step S405 is embedded in the encoded video data (step S406). That is, the watermark embedding unit 111 embeds the audio watermark data in the audio encoded data and inputs the audio watermark data to the multiplexer 113.
[0083]
At the same time, the audio watermark data generated in step S405 is embedded in the audio code (step S407). That is, the watermark embedding unit 112 embeds the video watermark data into the encoded video data and inputs the coded data to the multiplexer 113.
[0084]
Then, the multiplexer 113 multiplexes these two encoded data, and stores the data at a predetermined position on the recording medium 115 via the recording medium controller 114 (step S408). Further, the multiplexed stream is output and stored in the storage device 115 (step S409), and the process returns to step S402 to repeat the processing until shooting is completed. If a user (not shown) releases or presses the record button, it is determined that the recording has been completed, and the process is terminated.
[0085]
By embedding data that changes for each frame as a watermark by a series of selection operations as described above, it is possible to suitably generate data that facilitates detection of tampering in frame units.
[0086]
That is, the present invention is characterized in that the watermark generator 110 generates common watermark data to be embedded in the video data and audio data by a digital watermark, based on the video data and the audio data synchronized with the video data. I do. Further, the present invention is characterized in that the multiplexed data is recorded on the portable recording medium 115.
[0087]
In the present embodiment, the moving picture encoding method is MPEG-4, but other encoding methods, for example, H.264. 261, MPEG-1, MPEG-2, and Motion JPEG. Similarly, the audio encoding method is not limited to this, and may be MPEG-1 Layer 2 encoding or ADPCM encoding.
[0088]
Also, each part or all functions of the camcorder system according to the present embodiment may be described in software, and may be processed by an arithmetic device such as a CPU.
[0089]
In this embodiment, the watermark data is embedded in the encoded data later. However, the present invention is not limited to this. For example, Japanese Patent Application Laid-Open No. 11-284516 discloses a “data processing device, As described in “Processing Method and Recording Medium”, watermark data may be embedded while encoding.
[0090]
Further, the audio frame size is set to the interval of one video frame, but is not limited thereto, and the audio frame size and the video frame size may be different. For example, even if the audio is at 20 ms intervals and the video is at 33 ms intervals, if there is a break in the audio frame at the video time interval, watermark data is created for the encoded data starting from that break, and A plurality of watermark data may be embedded.
[0091]
<Fourth embodiment>
In the present embodiment, processing up to reproduction of a moving image in the camcorder system of the third embodiment described above will be described. FIG. 13 is a flowchart for explaining moving image reproduction processing in the camcorder system according to the fourth embodiment.
[0092]
First, similarly to the second embodiment, each unit of the apparatus is initialized prior to the operation (step S501). Then, the recording medium controller 114 sets a read position at the head of the encoded data stored in the recording medium 115. Next, the end of the process is determined (step S502). As a result, if the processing has not been completed, encoded data is read from a predetermined position on the recording medium 115, and the read encoded data is input to the separator 116 (step S503).
[0093]
Subsequently, the separator 116 separates the audio coded data and the video coded data from the input coded data. The audio coded data is sent to the watermark extractor 117 on a frame basis, and the video coded data is sent to the watermark extractor. 118 (step S504).
[0094]
Then, the watermark extractor 117 extracts the audio watermark data embedded in the encoded audio data, and outputs the result to the comparator 119 and the encoded data to the comparator 119 and the audio decoder 120 (step S507). . Similarly, the watermark extractor 116 extracts the video watermark data embedded in the encoded video data, outputs the result to the comparator 119, and outputs the encoded data to the video decoder 125 (step S505).
[0095]
Then, the video decoder 125 decodes the encoded image data and reproduces one frame of image data (step S506). At the same time, the audio decoder 120 decodes the encoded audio data and reproduces one frame of audio data (step S508).
[0096]
The comparator 119 obtains an ID number and audio identification data from the audio watermark data and the video watermark data. The video identification data is compared (step S509). As a result, if all match, the indicator 124 is turned on (step S510). On the other hand, if there is a mismatch, the indicator 124 is turned off (step S511).
[0097]
That is, the audio watermark data extracted by the watermark extractor 117 and the video watermark data extracted by the watermark extractor 116 are input to the comparator 119. Then, the ID number A and the video identification data A are reproduced from the audio watermark data. Further, the audio identification data A is generated from the input audio encoded data by the same method as the audio identification data generation method of the third embodiment. Further, an ID number V, audio identification data V, and video identification data V are reproduced from the video watermark data.
[0098]
Therefore, first, the ID number, the video identification data, and the audio identification data are compared with each other, and if at least one does not match, the indicator 124 is turned on. If all match, this is turned off. That is, ID number A and ID number V, video identification data A and video identification data V, audio identification data A and audio identification data V.
[0099]
Then, an image of one frame of the reproduced video data is displayed on the viewer, and the audio data is reproduced (step S512). Then, the process proceeds to step S502 to perform processing of the next frame. If the processing is completed for all the encoded data in step S502, the reproduction processing ends.
[0100]
That is, the encoded video data is input to the video decoder 125, and the encoded audio data is input to the audio decoder 120, where they are decoded and stored in the frame memory 126 and the frame memory 121, respectively. The audio data stored in the frame memory 121 is converted into an analog signal by a D / A converter and reproduced by a speaker 123. The video data stored in the frame memory 126 is also converted into an analog signal by the D / A converter and displayed on the viewer 128.
[0101]
By such a series of selection operations, by comparing data that changes for each frame embedded in the audio data and the video data, it is possible to detect tampering in small units and notify the user of the tampering. Become.
[0102]
As described above, according to the present invention, the multiplexed data is stored in a portable recording medium 115 that stores multiplexed data in which video data in which video watermark data is embedded and audio data in which audio watermark data is embedded. Is read.
[0103]
In the present embodiment, the moving picture encoding method is MPEG-4, but other encoding methods, for example, H.264. 261, MPEG-1, MPEG-2, MPEG-4. Similarly, the encoding method of audio data is not limited to this, and may be MPEG-1 Layer 3 encoding or ADPCM encoding.
[0104]
Also, each part or all functions of the camcorder system according to the present embodiment may be described in software, and may be processed by an arithmetic device such as a CPU.
[0105]
In this embodiment, the watermark data is embedded in the encoded data later. However, the application of the present invention is not limited to this. In the present invention, for example, watermark data may be extracted while decoding, as described in “Data Processing Apparatus, Data Processing Method, and Recording Medium” in JP-A-11-284516.
[0106]
<Fifth embodiment>
FIG. 3 is a block diagram illustrating a configuration of an information processing apparatus according to a fifth embodiment of the present invention. In FIG. 3, reference numeral 300 denotes a central processing unit (CPU) for controlling the entire apparatus and performs various processes, and 301 provides an operating system (OS), software, and a storage area required for operations required for controlling the apparatus. Indicates memory. A bus 302 connects various devices and exchanges data and control signals.
[0107]
Reference numeral 303 denotes a terminal for starting the apparatus, setting various conditions, and instructing reproduction. Reference numeral 304 denotes a storage device for storing software. Reference numeral 305 denotes a storage device that stores streams. Note that the storage devices 304 and 305 can be configured by a medium (portable recording medium) that can be moved separately from the system. Reference numeral 306 denotes a camera that captures an image, and 307 denotes an audio capture that captures audio data. Further, reference numeral 308 denotes a monitor for displaying an image, and 309 denotes a speaker for reproducing audio data. Further, reference numeral 311 denotes a communication circuit, which comprises a LAN, a public line, a wireless line, a broadcast wave, and the like. Reference numeral 310 denotes a communication interface for transmitting / receiving a stream via the communication circuit 311.
[0108]
Here, in the memory 301, an OS for controlling the entire apparatus and operating various software and operating software are stored, an image area for storing image data, an audio area for storing audio data, and a generated encoding There is a code area for storing data, a working area for storing parameters and the like for various operations and encoding, data related to a watermark, and the like.
[0109]
Next, encoding processing of image data in the information processing apparatus having such a configuration will be described. FIG. 5 is a flowchart for explaining an operation procedure of recording moving image data in the storage device 305 by the CPU 300.
[0110]
First, prior to the processing, the terminal 303 instructs the entire apparatus to start up, and each unit of the apparatus is initialized. Then, an ID number is set and stored in the working area on the memory 301 (step S1). In the present embodiment, the ID number is determined by a random number.
[0111]
Next, the software stored in the storage device 304 is expanded in the memory 301 via the bus 302, and the software is activated. As a result, headers for multiplexing, audio encoding, and video encoding are generated, multiplexed, and written in a predetermined position of the storage device 305 (step S2). In video coding, the coded data of the sequence layer is generated as a header according to the MPEG-1 coding method.
[0112]
FIG. 7 is a schematic diagram for explaining the use and storage state of the memory in the memory 301 at the time of encoding. As shown in FIG. 7, an OS for controlling the entire apparatus and operating various software, a video encoding software for encoding image data, an audio encoding software for encoding audio data, an encoding Multiplexing software for multiplexing data and watermark embedding software for generating and embedding watermark data are stored.
[0113]
In the present embodiment, the video encoding software is described as software for encoding by the MPEG-1 encoding method, but the application of the present invention is not limited to this. Also, the audio encoding software will be described as software that encodes using the AAC encoding method, but is not limited to this.
[0114]
It also stores an image area for storing images at the time of encoding, an audio area for storing audio data, a code area for storing encoded data in which generated codes and watermarks are embedded, parameters for various operations, and the like. Working area exists. In such a configuration, a moving image is input from the camera 306 according to an instruction from the terminal 306, and an audio input is performed from the audio capture 307.
[0115]
Therefore, the end of the process is determined next (step S3). As a result, if the processing is not completed, one frame of video data is read from the camera 306 into the image area on the memory 301 (step S4).
[0116]
Next, the video data stored in the image area on the memory 301 is encoded by the MPEG-1 encoding method using video encoding software on the memory 301, and stored in the code area on the memory 301. The area of the frame data of a certain video is released (step S5). Further, one frame of audio data is read from the audio capture 307 and stored in the audio area on the memory 301 (step S6). Furthermore, the audio data stored in the audio area on the memory 301 is encoded by the AAC encoding method using audio encoding software on the memory 301, and stored in the code area on the memory 301. The area of the frame data is released (step S7).
[0117]
Then, watermark data is generated from the ID number stored in the working area on the memory 301, the recording date and time when encoding the frame, and the time stamp of the video frame, and the data in the working area on the memory 301 is updated (step S8). For example, if the ID number is 16 bits, the recording date and time is 14 bits in the Christian era, 2 bits in the month, 5 bits in the date and time, 6 bits in the second, and 10 bits in the time stamp, the data becomes 53 bits in total. This is encrypted to obtain watermark data. After generating the watermark data, the process proceeds to step S9.
[0118]
In step S9, using watermark embedding software on the memory 301, the watermark data in the working area is embedded in the video encoded data in the code area, stored in the code area, and the area of the encoded data before embedding is opened. The process proceeds to step S10. In step S10, the watermark data in the working area is embedded in the audio encoded data in the code area, stored in the code area, the area of the encoded data before embedding is released, and the process proceeds to step S11.
[0119]
In step S11, the audio encoded data and the video encoded data generated and stored in the code area on the memory 301 are multiplexed using multiplexing software, and written in a predetermined area of the storage device 305, and the data in the code area is written. The area is released, and the process returns to step S3 to process the next frame data.
[0120]
On the other hand, if the processing has been completed for all the frame data in step S3, the reproduction processing ends.
[0121]
By such a series of selection operations, by comparing data that changes continuously for each frame embedded in audio data and video data, it is possible to detect tampering in small units, and to notify the user of the tampering. Becomes possible.
[0122]
In the present embodiment, the moving picture encoding method is MPEG-1, but other encoding methods, for example, H.264. 261, MPEG-1, MPEG-2, and MPEG-4, of course. Similarly, the audio encoding method is not limited to this, and may be MPEG-1 Layer 3 encoding or ADPCM encoding.
[0123]
Further, each part or all of the functions of the information processing apparatus according to the present embodiment may be configured by hardware to perform processing.
[0124]
In this embodiment, the watermark data is embedded in the encoded data later. However, the application of the present invention is not limited to this. For example, as described in “Data Processing Apparatus, Data Processing Method, and Recording Medium” of JP-A-11-28451, watermark data may be embedded while encoding.
[0125]
Further, the watermark data is not limited to the above-described type, and other information that can specify a frame may be used. Further, the generated stream may not only be stored in the storage device 305 but also output to the communication line 311 via the communication interface 310.
[0126]
<Sixth embodiment>
In the present embodiment, a decoding process of image data will be described. The image data processing apparatus uses the information processing apparatus shown in FIG. 3 used in the fifth embodiment. Also in the present embodiment, the MPEG-4 encoding method as the video encoding and the AAC encoding as the audio encoding will be described as an example, but the application of the present invention is not limited to this. Therefore, in the present embodiment, the decoding process of the encoded data generated in the fifth embodiment and stored in the storage device 305 will be described as an example.
[0127]
In the present embodiment, in the information processing apparatus having the configuration shown in FIG. 5, prior to the processing, the terminal 303 selects encoded data to be decoded from the encoded moving image data stored in the storage device 305, and Is instructed to start. Thereby, the software stored in the storage device 304 is expanded in the memory 301 via the bus 302, and the software is started.
[0128]
The memory 301 stores an OS for controlling the entire apparatus and operating various software and operating software, and stores an image area for storing image data, an audio area for storing audio data, and input coded data. There are a code area to be stored, a working area to store parameters and the like at the time of various operations and decoding, data related to a watermark, and the like.
[0129]
A description will be given of a decoding process of image data in the information processing apparatus having such a configuration. FIG. 6 is a flowchart for explaining an operation procedure of reading and reproducing moving image data from the storage device 305 by the CPU 300.
[0130]
First, prior to the processing, the terminal 303 instructs the entire apparatus to be activated, and each unit of the apparatus is initialized (step S51).
[0131]
FIG. 8 is a schematic diagram for explaining the state of use and storage of the memory in the memory 301 at the time of decoding. As shown in FIG. 8, the memory 301 includes an OS for controlling the entire apparatus and operating various software, video decoding software for decoding image data, audio decoding software for decoding audio data, and multiplexing of encoded data. , And demultiplexing software for separating each encoded data, and watermark extraction software for extracting and analyzing watermark data are stored.
[0132]
Further, there are an image area for storing an image at the time of decoding, an audio area for storing audio data, a code area for storing input encoded data, and a working area for storing parameters for various calculations.
[0133]
Then, the respective headers of the multiplexing, the audio encoding, and the video encoding are interpreted, and the initialization of each part is performed (step S52). Further, it is determined whether the processing is completed (step S53). As a result, when the process is not completed, the process proceeds to step S54.
[0134]
In step S54, the coded data is read from a predetermined position in the storage device 305, and separated into coded audio data and coded video data in units of one frame from the coded data using demultiplexing software on the memory 301. Are stored in the code area on the memory 301. Then, video watermark data is extracted from the encoded video data stored in the code area on the memory 301 by using watermark extraction software on the memory 301 (step S55).
[0135]
Further, using video decoding software on the memory 301, the video encoded data stored in the code area on the memory 301 is decoded according to the MPEG-1 encoding method, and the reproduced image data is stored in the image area on the memory 301. It is stored and the corresponding area of the code area is released (step S56). Then, the audio watermark data is extracted from the encoded audio data stored in the code area on the memory 301 using the watermark extraction software on the memory 301, and the contents are stored in the working area (step S57).
[0136]
Also, using audio decoding software on the memory 301, the audio encoded data stored in the code area on the memory 301 is decoded according to the AAC encoding method to reproduce one frame of audio data. It is stored in the audio area, and the corresponding area of the code area is released (step S58). Further, using watermark extraction software on the memory 301, information such as ID numbers, date and time, and time stamps are analyzed from audio watermark data and video watermark data in the working area on the memory 301, and the result is classified by classification. Is stored in the working area (step S59).
[0137]
Here, information such as the ID number and the date and time stored in the working area on the memory 301 is compared (step S60). As a result, if all match, the image data of the image area on the memory 301 is displayed on the monitor 308 according to the time stamp, the audio data of the audio area is output from the speaker 309, and the area of each area is opened ( Step S61). Then, the process returns to step S53 to perform the processing of the next frame. Then, in step S53, when the processing is completed for all the encoded data, the reproduction processing is completed.
[0138]
On the other hand, if there is a mismatch in step S60, the process returns to step S53, and the processing of the next frame is performed without reproducing the content.
[0139]
In such a series of selection operations, by comparing the watermark data that changes continuously for each frame embedded in the audio data and the video data, tampering can be detected in small units, and the reproduction method can be controlled. It becomes possible to do.
[0140]
In the present embodiment, the moving picture encoding method is MPEG-1, but other encoding methods, for example, H.264. 261, MPEG-1, MPEG-2, and MPEG-4, of course. Similarly, the audio encoding method is not limited to this, and may be MPEG Layer 3 encoding or ADPCM encoding.
[0141]
In addition, each part or all of the functions of the present embodiment may be configured by hardware and processed.
[0142]
In this embodiment, the watermark data is embedded in the encoded data later. However, the application of the present invention is not limited to this. In the present invention, watermark data may be extracted while decoding, for example, as described in “Data Processing Apparatus, Data Processing Method, and Recording Medium” of JP-A-11-284516.
[0143]
The present invention may be applied to a system including a plurality of devices (for example, a host computer, an interface device, a camcorder, a video camera, and the like), in addition to the above-described embodiments. VTR, television device, etc.).
[0144]
Further, an object of the present invention is to supply a recording medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (or a CPU or a CPU) of the system or the apparatus. Needless to say, the present invention can also be achieved by the MPU) reading and executing the program code stored in the recording medium. In this case, the program code itself read from the recording medium implements the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention. When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
[0145]
Further, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0146]
When the present invention is applied to the recording medium, the recording medium stores program codes corresponding to the flowcharts described above.
[0147]
【The invention's effect】
As described above, according to the present invention, it is not necessary to use a specific file format, and it is possible to prevent tampering that destroys the identity between video data and audio data. Then, falsification that destroys the identity of the video data and the audio data can be suitably detected.
[0148]
Further, according to the present invention, by embedding data shared between audio data and video data synchronized therewith as encoded data in encoded data, it is possible to determine the identity of audio and video, that is, the determination of a correct combination. It can be easily performed.
[0149]
Further, according to the present invention, by embedding in watermark data, there is obtained an effect that there is no problem in reproduction even when described in various file formats without depending on a specific file format.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an encoding system according to a first embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration of a decoding system according to a second embodiment of the present invention.
FIG. 3 is a block diagram illustrating a configuration of an information processing apparatus according to a fifth embodiment of the present invention.
FIG. 4 is a block diagram showing a configuration of a camcorder system according to a third embodiment of the present invention, which captures an image and records the image together with a sound.
FIG. 5 is a flowchart for explaining an operation procedure of recording moving image data in the storage device 305 by the CPU 300;
FIG. 6 is a flowchart for explaining an operation procedure of reading and reproducing moving image data from a storage device 305 by a CPU 300;
FIG. 7 is a schematic diagram for explaining a state of use and storage of the memory in the memory 301 at the time of encoding.
FIG. 8 is a schematic diagram for explaining the use and storage state of the memory in the memory 301 at the time of decoding.
FIG. 9 is a flowchart illustrating an encoding processing procedure in the encoding system according to the first embodiment of the present invention.
FIG. 10 is a flowchart illustrating a decoding processing procedure in the decoding system according to the second embodiment of the present invention.
FIG. 11 is a diagram for explaining an example of displaying an image on the monitor 21 when watermark data regarding video data and audio data match (A) and when the watermark data does not match (B).
FIG. 12 is a flowchart illustrating a moving image recording process in the camcorder system according to the third embodiment.
FIG. 13 is a flowchart for explaining moving image reproduction processing in the camcorder system according to the fourth embodiment.
[Explanation of symbols]
1, 11 information processing device
2,101,307 microphone
3,108 audio encoder
4,306 camera
5,109 video encoder
6,110 watermark generator
7, 8, 111, 112 watermark embedding device
9,113 Multiplexer
10, 12 storage device
13,116 separator
14, 15, 117, 118 Watermark extractor
16, 119 comparator
17,120 audio decoder
18,125 video decoder
19 Display controller
20, 123, 309 Speaker
21,308 monitor
102 Optical system
103 photoelectric converter
104, 105 A / D converter
106, 107, 121, 126 Frame memory
114 Recording medium controller
115 Recording medium
122, 127 D / A converter
124 indicator
128 viewers
300 CPU
301 memory
302 bus
303 terminal
304, 305 storage device
309 Audio Capture
310 Communication interface
311 communication line

Claims (33)

ビデオデータと該ビデオデータに同期したオーディオデータとを符号化する情報処理装置であって、
前記ビデオデータを符号化する第1の符号化手段と、
前記オーディオデータを符号化する第2の符号化手段と、
所定の透かしデータを生成する透かしデータ生成手段と、
前記透かしデータを符号化された前記ビデオデータに電子透かしによって埋め込む第1の透かし埋め込み手段と、
前記透かしデータを符号化された前記オーディオデータに電子透かしによって埋め込む第2の透かし埋め込み手段と、
前記透かしデータが埋め込まれた前記ビデオデータと前記オーディオデータとを多重化した多重化データを生成する多重化手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus for encoding video data and audio data synchronized with the video data,
First encoding means for encoding the video data;
Second encoding means for encoding the audio data;
Watermark data generating means for generating predetermined watermark data,
First watermark embedding means for embedding the watermark data in the encoded video data by an electronic watermark;
Second watermark embedding means for embedding the watermark data in the encoded audio data by a digital watermark;
An information processing apparatus comprising: a multiplexing unit that generates multiplexed data obtained by multiplexing the video data and the audio data in which the watermark data is embedded.
前記透かしデータ生成手段が、前記ビデオデータと該ビデオデータに同期した前記オーディオデータとに基づいて、前記ビデオデータと前記オーディオデータに電子透かしによって埋め込まれる共通の透かしデータを生成することを特徴とする請求項1記載の情報処理装置。The watermark data generating means generates common watermark data to be embedded in the video data and the audio data by a digital watermark, based on the video data and the audio data synchronized with the video data. The information processing device according to claim 1. ビデオデータを入力する第1の入力手段と、
前記ビデオデータに同期したオーディオデータを入力する第2の入力手段と、前記ビデオデータと前記オーディオデータとが同期していることを示す同一性データを生成する同一性データ生成手段と、
前記同一性データから所定の透かしデータを生成する透かしデータ生成手段と、
前記透かしデータを前記ビデオデータに電子透かしによって埋め込む第1の透かし埋め込み手段と、
前記透かしデータを前記オーディオデータに電子透かしによって埋め込む第2の透かし埋め込み手段と、
前記透かしデータが埋め込まれた前記ビデオデータと前記透かしデータが埋め込まれた前記オーディオデータとを多重化した多重化データを生成する多重化手段と
を備えることを特徴とする情報処理装置。
First input means for inputting video data;
Second input means for inputting audio data synchronized with the video data, identity data generating means for generating identity data indicating that the video data and the audio data are synchronized,
Watermark data generating means for generating predetermined watermark data from the identity data;
First watermark embedding means for embedding the watermark data in the video data with a digital watermark;
Second watermark embedding means for embedding the watermark data in the audio data by a digital watermark;
An information processing apparatus comprising: a multiplexing unit that generates multiplexed data by multiplexing the video data in which the watermark data is embedded and the audio data in which the watermark data is embedded.
前記ビデオデータを符号化する第1の符号化手段をさらに備え、
前記第1の埋め込み手段が、符号化された前記ビデオデータに対して電子透かしによって前記透かしデータを埋め込む
ことを特徴とする請求項3記載の情報処理装置。
A first encoding unit that encodes the video data,
4. The information processing apparatus according to claim 3, wherein the first embedding unit embeds the watermark data in the encoded video data by a digital watermark.
前記オーディオデータを符号化する第2の符号化手段をさらに備え、
前記第2の埋め込み手段が、符号化された前記オーディオデータに対して電子透かしによって前記透かしデータを埋め込む
ことを特徴とする請求項3又は4に記載の情報処理装置。
A second encoding unit that encodes the audio data,
The information processing apparatus according to claim 3, wherein the second embedding unit embeds the watermark data in the encoded audio data by a digital watermark.
前記多重化データを可搬記録媒体に記録する記録手段をさらに備えることを特徴とする請求項1から5までのいずれか1項に記載の情報処理装置。The information processing apparatus according to claim 1, further comprising a recording unit that records the multiplexed data on a portable recording medium. 第1の透かしデータが電子透かしによって埋め込まれたビデオデータを入力する第1の入力手段と、
第2の透かしデータが電子透かしによって埋め込まれたオーディオデータを入力する第2の入力手段と、
前記ビデオデータに埋め込まれた前記第1の透かしデータを抽出する第1の透かし抽出手段と、
前記オーディオデータに埋め込まれた前記第2の透かしデータを抽出する第2の透かし抽出手段と、
前記第1の透かしデータと前記第2の透かしデータとの同一性を比較する比較手段と、
前記比較手段における前記同一性の比較結果に基づいて、前記ビデオデータと前記オーディオデータとが同期しているか否かを判定する判定手段と
を備えることを特徴とする情報処理装置。
First input means for inputting video data in which first watermark data is embedded by an electronic watermark;
Second input means for inputting audio data in which the second watermark data is embedded by an electronic watermark;
First watermark extracting means for extracting the first watermark data embedded in the video data;
Second watermark extracting means for extracting the second watermark data embedded in the audio data;
Comparing means for comparing the identities of the first watermark data and the second watermark data;
An information processing apparatus comprising: a determination unit configured to determine whether or not the video data and the audio data are synchronized based on a result of the comparison by the comparison unit.
第1の透かしデータが埋め込まれたビデオデータと第2の透かしデータが埋め込まれたオーディオデータとが多重化された多重化データを入力する多重化入力手段と、
前記多重化データから前記ビデオデータと前記オーディオデータとを分離する分離手段と、
前記ビデオデータに埋め込まれた前記第1の透かしデータを抽出する第1の透かし抽出手段と、
前記オーディオデータに埋め込まれた前記第2の透かしデータを抽出する第2の透かし抽出手段と、
前記第1の透かしデータと前記第2の透かしデータとの同一性を比較する比較手段と、
前記比較手段における前記同一性の比較結果に基づいて、前記ビデオデータと前記オーディオデータとが同期しているか否かを判定する判定手段と
を備えることを特徴とする情報処理装置。
Multiplexing input means for inputting multiplexed data in which video data in which the first watermark data is embedded and audio data in which the second watermark data is embedded;
Separating means for separating the video data and the audio data from the multiplexed data,
First watermark extracting means for extracting the first watermark data embedded in the video data;
Second watermark extracting means for extracting the second watermark data embedded in the audio data;
Comparing means for comparing the identities of the first watermark data and the second watermark data;
An information processing apparatus comprising: a determination unit configured to determine whether or not the video data and the audio data are synchronized based on a result of the comparison by the comparison unit.
前記多重化入力手段が、可搬記録媒体に記録された前記多重化データを読み取って入力することを特徴とする請求項8記載の情報処理装置。9. The information processing apparatus according to claim 8, wherein the multiplexing input unit reads and inputs the multiplexed data recorded on a portable recording medium. 前記ビデオデータを出力する第1の出力手段と、
前記オーディオデータを出力する第2の出力手段と
をさらに備えることを特徴とする請求項7から9までのいずれか1項に記載の情報処理装置。
First output means for outputting the video data;
10. The information processing apparatus according to claim 7, further comprising: a second output unit that outputs the audio data.
前記ビデオデータを再生する第1の再生手段をさらに備えることを特徴とする請求項10記載の情報処理装置。The information processing apparatus according to claim 10, further comprising a first playback unit that plays back the video data. 前記オーディオデータを再生する第2の再生手段をさらに備えることを特徴とする請求項10記載の情報処理装置。The information processing apparatus according to claim 10, further comprising a second reproducing unit that reproduces the audio data. 前記判定手段が、前記ビデオデータと前記オーディオデータとは同期していないと判定した場合、前記第1の再生手段における前記ビデオデータの再生時に、前記オーディオデータと同期していないことを示す情報を再生させる制御手段をさらに備えることを特徴とする請求項11記載の情報処理装置。When the determining means determines that the video data and the audio data are not synchronized, information indicating that the audio data is not synchronized is provided when the video data is reproduced by the first reproducing means. The information processing apparatus according to claim 11, further comprising control means for reproducing. 前記ビデオデータが符号化されており、符号化された該ビデオデータを復号する第1の復号手段と、
前記オーディオデータが符号化されており、符号化された該オーディオデータを復号する第2の復号手段と
をさらに備えることを特徴とする請求項7から13までのいずれか1項に記載の情報処理装置。
First decoding means for encoding the video data, and decoding the encoded video data;
The information processing according to any one of claims 7 to 13, wherein the audio data is encoded, and further comprising second decoding means for decoding the encoded audio data. apparatus.
ビデオデータと該ビデオデータに同期したオーディオデータとを符号化する情報処理方法であって、
前記ビデオデータを符号化する第1の符号化工程と、
前記オーディオデータを符号化する第2の符号化工程と、
所定の透かしデータを生成する透かしデータ生成工程と、
前記透かしデータを符号化された前記ビデオデータに電子透かしによって埋め込む第1の透かし埋め込み工程と、
前記透かしデータを符号化された前記オーディオデータに電子透かしによって埋め込む第2の透かし埋め込み工程と、
前記透かしデータが埋め込まれた前記ビデオデータと前記オーディオデータとを多重化した多重化データを生成する多重化工程と
を有することを特徴とする情報処理方法。
An information processing method for encoding video data and audio data synchronized with the video data,
A first encoding step of encoding the video data;
A second encoding step of encoding the audio data;
A watermark data generating step of generating predetermined watermark data;
A first watermark embedding step of embedding the watermark data in the encoded video data by a digital watermark;
A second watermark embedding step of embedding the watermark data in the encoded audio data by a digital watermark;
A multiplexing step of multiplexing the video data and the audio data in which the watermark data is embedded to generate multiplexed data.
前記透かしデータ生成工程が、前記ビデオデータと該ビデオデータに同期した前記オーディオデータとに基づいて、前記ビデオデータと前記オーディオデータに電子透かしによって埋め込まれる共通の透かしデータを生成することを特徴とする請求項15記載の情報処理方法。The watermark data generating step generates, based on the video data and the audio data synchronized with the video data, common watermark data to be embedded in the video data and the audio data by a digital watermark. The information processing method according to claim 15. ビデオデータと該ビデオデータに同期したオーディオデータとを符号化する情報処理方法であって、
前記ビデオデータと前記オーディオデータとが同期していることを示す同一性データを生成する同一性データ生成工程と、
前記同一性データから所定の透かしデータを生成する透かしデータ生成工程と、
前記透かしデータを前記ビデオデータに電子透かしによって埋め込む第1の透かし埋め込み工程と、
前記透かしデータを前記オーディオデータに電子透かしによって埋め込む第2の透かし埋め込み工程と、
前記透かしデータが埋め込まれた前記ビデオデータと前記透かしデータが埋め込まれた前記オーディオデータとを多重化した多重化データを生成する多重化工程と
を有することを特徴とする情報処理方法。
An information processing method for encoding video data and audio data synchronized with the video data,
An identity data generating step of generating identity data indicating that the video data and the audio data are synchronized;
A watermark data generating step of generating predetermined watermark data from the identity data;
A first watermark embedding step of embedding the watermark data in the video data by a digital watermark;
A second watermark embedding step of embedding the watermark data in the audio data by a digital watermark;
Multiplexing the video data in which the watermark data is embedded and the audio data in which the watermark data is embedded to generate multiplexed data.
前記ビデオデータを符号化する第1の符号化工程をさらに有し、
前記第1の埋め込み工程が、符号化された前記ビデオデータに対して電子透かしによって前記透かしデータを埋め込む
ことを特徴とする請求項17記載の情報処理方法。
A first encoding step of encoding the video data;
18. The information processing method according to claim 17, wherein the first embedding step embeds the watermark data in the encoded video data by a digital watermark.
前記オーディオデータを符号化する第2の符号化工程をさらに有し、
前記第2の埋め込み工程が、符号化された前記オーディオデータに対して電子透かしによって前記透かしデータを埋め込む
ことを特徴とする請求項17又は18に記載の情報処理方法。
A second encoding step of encoding the audio data,
19. The information processing method according to claim 17, wherein the second embedding step embeds the watermark data in the encoded audio data by a digital watermark.
前記多重化データを可搬記録媒体に記録する記録工程をさらに有することを特徴とする請求項15から19までのいずれか1項に記載の情報処理方法。20. The information processing method according to claim 15, further comprising a recording step of recording the multiplexed data on a portable recording medium. 第1の透かしデータが電子透かしによって埋め込まれたビデオデータから前記第1の透かしデータを抽出する第1の透かし抽出工程と、
第2の透かしデータが電子透かしによって埋め込まれたオーディオデータから前記第2の透かしデータを抽出する第2の透かし抽出工程と、
前記第1の透かしデータと前記第2の透かしデータとの同一性を比較する比較工程と、
前記比較工程における前記同一性の比較結果に基づいて、前記ビデオデータと前記オーディオデータとが同期しているか否かを判定する判定工程と
を有することを特徴とする情報処理方法。
A first watermark extraction step of extracting the first watermark data from video data in which the first watermark data is embedded by a digital watermark;
A second watermark extraction step of extracting the second watermark data from audio data in which the second watermark data is embedded by an electronic watermark;
A comparing step of comparing the identity of the first watermark data and the second watermark data;
A determining step of determining whether or not the video data and the audio data are synchronized based on a result of the comparison of the identity in the comparing step.
第1の透かしデータが埋め込まれたビデオデータと第2の透かしデータが埋め込まれたオーディオデータとが多重化された多重化データから前記ビデオデータと前記オーディオデータとを分離する分離工程と、
前記ビデオデータに埋め込まれた前記第1の透かしデータを抽出する第1の透かし抽出工程と、
前記オーディオデータに埋め込まれた前記第2の透かしデータを抽出する第2の透かし抽出工程と、
前記第1の透かしデータと前記第2の透かしデータとの同一性を比較する比較工程と、
前記比較工程における前記同一性の比較結果に基づいて、前記ビデオデータと前記オーディオデータとが同期しているか否かを判定する判定工程と
を有することを特徴とする情報処理方法。
A separation step of separating the video data and the audio data from multiplexed data in which video data in which the first watermark data is embedded and audio data in which the second watermark data is embedded;
A first watermark extraction step of extracting the first watermark data embedded in the video data;
A second watermark extraction step of extracting the second watermark data embedded in the audio data;
A comparing step of comparing the identity of the first watermark data and the second watermark data;
A determining step of determining whether or not the video data and the audio data are synchronized based on a result of the comparison of the identity in the comparing step.
第1の透かしデータが埋め込まれたビデオデータと第2の透かしデータが埋め込まれたオーディオデータとが多重化された多重化データを格納する可搬記録媒体から該多重化データを読み取る読み取り工程をさらに有することを特徴とする請求項22記載の情報処理方法。A reading step of reading the multiplexed data from the portable recording medium storing the multiplexed data in which the video data in which the first watermark data is embedded and the audio data in which the second watermark data is embedded. 23. The information processing method according to claim 22, comprising: 前記ビデオデータを出力する第1の出力工程と、
前記オーディオデータを出力する第2の出力工程と
をさらに有することを特徴とする請求項21から23までのいずれか1項に記載の情報処理方法。
A first output step of outputting the video data;
24. The information processing method according to claim 21, further comprising a second output step of outputting the audio data.
前記ビデオデータを再生する第1の再生工程をさらに有することを特徴とする請求項24記載の情報処理方法。The information processing method according to claim 24, further comprising a first reproduction step of reproducing the video data. 前記オーディオデータを再生する第2の再生工程をさらに有することを特徴とする請求項24記載の情報処理方法。The information processing method according to claim 24, further comprising a second reproduction step of reproducing the audio data. 前記判定工程が、前記ビデオデータと前記オーディオデータは同期していないと判定した場合、前記第1の再生工程における前記ビデオデータの再生時に、前記オーディオデータと同期していないことを示す情報を再生させる制御工程をさらに有することを特徴とする請求項25記載の情報処理方法。When the determining step determines that the video data and the audio data are not synchronized, information indicating that the audio data is not synchronized is reproduced when the video data is reproduced in the first reproducing step. 26. The information processing method according to claim 25, further comprising a control step of causing the information processing to be performed. 前記ビデオデータが符号化されており、符号化された該ビデオデータを復号する第1の復号工程と、
前記オーディオデータが符号化されており、符号化された該オーディオデータを復号する第2の復号工程と
をさらに有することを特徴とする請求項21から27までのいずれか1項に記載の情報処理方法。
A first decoding step in which the video data is encoded, and decoding the encoded video data;
The information processing according to any one of claims 21 to 27, wherein the audio data is encoded, and further comprising a second decoding step of decoding the encoded audio data. Method.
コンピュータに、ビデオデータと該ビデオデータに同期したオーディオデータとを符号化させるためのプログラムであって、
前記ビデオデータを符号化する第1の符号化手順と、
前記オーディオデータを符号化する第2の符号化手順と、
所定の透かしデータを生成する透かしデータ生成手順と、
前記透かしデータを符号化された前記ビデオデータに電子透かしによって埋め込む第1の透かし埋め込み手順と、
前記透かしデータを符号化された前記オーディオデータに電子透かしによって埋め込む第2の透かし埋め込み手順と、
前記透かしデータが埋め込まれた前記ビデオデータと前記オーディオデータとを多重化した多重化データを生成する多重化手順と
を実行させるためのプログラム。
A program for causing a computer to encode video data and audio data synchronized with the video data,
A first encoding procedure for encoding the video data;
A second encoding procedure for encoding the audio data;
A watermark data generation procedure for generating predetermined watermark data;
A first watermark embedding procedure for embedding the watermark data in the encoded video data by a digital watermark;
A second watermark embedding procedure for embedding the watermark data in the encoded audio data by a digital watermark;
A multiplexing procedure for generating multiplexed data obtained by multiplexing the video data in which the watermark data is embedded and the audio data.
コンピュータに、ビデオデータと該ビデオデータに同期したオーディオデータとを符号化させるためのプログラムであって、
前記ビデオデータと前記オーディオデータとが同期していることを示す同一性データを生成する同一性データ生成手順と、
前記同一性データから所定の透かしデータを生成する透かしデータ生成手順と、
前記透かしデータを前記ビデオデータに電子透かしによって埋め込む第1の透かし埋め込み手順と、
前記透かしデータを前記オーディオデータに電子透かしによって埋め込む第2の透かし埋め込み手順と、
前記透かしデータが埋め込まれた前記ビデオデータと前記透かしデータが埋め込まれた前記オーディオデータとを多重化した多重化データを生成する多重化手順と
を実行させるためのプログラム。
A program for causing a computer to encode video data and audio data synchronized with the video data,
An identity data generation procedure for generating identity data indicating that the video data and the audio data are synchronized,
A watermark data generating procedure for generating predetermined watermark data from the identity data,
A first watermark embedding procedure for embedding the watermark data in the video data by a digital watermark;
A second watermark embedding procedure for embedding the watermark data in the audio data by a digital watermark;
A multiplexing procedure for generating multiplexed data obtained by multiplexing the video data in which the watermark data is embedded and the audio data in which the watermark data is embedded.
コンピュータに、
第1の透かしデータが電子透かしによって埋め込まれたビデオデータから前記第1の透かしデータを抽出する第1の透かし抽出手順と、
第2の透かしデータが電子透かしによって埋め込まれたオーディオデータから前記第2の透かしデータを抽出する第2の透かし抽出手順と、
前記第1の透かしデータと前記第2の透かしデータとの同一性を比較する比較手順と、
前記比較手順における前記同一性の比較結果に基づいて、前記ビデオデータと前記オーディオデータとが同期しているか否かを判定する判定手順と
を実行させるためのプログラム。
On the computer,
A first watermark extraction procedure for extracting the first watermark data from video data in which the first watermark data is embedded by a digital watermark;
A second watermark extraction procedure for extracting the second watermark data from the audio data in which the second watermark data is embedded by a digital watermark;
A comparing procedure for comparing the identity of the first watermark data and the second watermark data;
And a determining step of determining whether or not the video data and the audio data are synchronized based on a result of the comparison in the comparing step.
コンピュータに、
第1の透かしデータが埋め込まれたビデオデータと第2の透かしデータが埋め込まれたオーディオデータとが多重化された多重化データから前記ビデオデータと前記オーディオデータとを分離する分離手順と、
前記ビデオデータに埋め込まれた前記第1の透かしデータを抽出する第1の透かし抽出手順と、
前記オーディオデータに埋め込まれた前記第2の透かしデータを抽出する第2の透かし抽出手順と、
前記第1の透かしデータと前記第2の透かしデータとの同一性を比較する比較手順と、
前記比較工程における前記同一性の比較結果に基づいて、前記ビデオデータと前記オーディオデータとが同期しているか否かを判定する判定手順と
を実行させるためのプログラム。
On the computer,
A separation procedure for separating the video data and the audio data from multiplexed data in which video data in which first watermark data is embedded and audio data in which second watermark data is embedded;
A first watermark extraction procedure for extracting the first watermark data embedded in the video data;
A second watermark extraction procedure for extracting the second watermark data embedded in the audio data;
A comparing procedure for comparing the identity of the first watermark data and the second watermark data;
A determination step of determining whether or not the video data and the audio data are synchronized based on a result of the comparison of the identity in the comparison step.
請求項29から32までのいずれか1項に記載のプログラムを格納することを特徴とするコンピュータ読み取り可能な記録媒体。A computer-readable recording medium storing the program according to any one of claims 29 to 32.
JP2002233839A 2002-08-09 2002-08-09 Information-processing apparatus, information-processing method and program, and computer-readable recording medium Withdrawn JP2004080094A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002233839A JP2004080094A (en) 2002-08-09 2002-08-09 Information-processing apparatus, information-processing method and program, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002233839A JP2004080094A (en) 2002-08-09 2002-08-09 Information-processing apparatus, information-processing method and program, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
JP2004080094A true JP2004080094A (en) 2004-03-11

Family

ID=32018866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002233839A Withdrawn JP2004080094A (en) 2002-08-09 2002-08-09 Information-processing apparatus, information-processing method and program, and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP2004080094A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033811A (en) * 2004-06-16 2006-02-02 Hitachi Ltd Electronic watermarking method and storage medium for storing electronic watermarking program
JP2007215011A (en) * 2006-02-10 2007-08-23 Hitachi Ltd Digital watermark embedding device, digital watermark detecting device, digital watermark embedding method, digital watermark detection method and data structure of content
JP2009515371A (en) * 2005-07-22 2009-04-09 ネクスタンプ ソシエテ アノニム Time stamped watermark method, time stamp decoding method and device, corresponding computer use and program product
CN110555130A (en) * 2019-09-02 2019-12-10 唐山茁棋科技发展有限公司 Data processing method of electronic information technology based on big data
CN114501128A (en) * 2020-11-12 2022-05-13 中国移动通信集团浙江有限公司 Security protection method, tampering detection method and device for mixed multimedia information stream

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033811A (en) * 2004-06-16 2006-02-02 Hitachi Ltd Electronic watermarking method and storage medium for storing electronic watermarking program
JP2009515371A (en) * 2005-07-22 2009-04-09 ネクスタンプ ソシエテ アノニム Time stamped watermark method, time stamp decoding method and device, corresponding computer use and program product
JP2007215011A (en) * 2006-02-10 2007-08-23 Hitachi Ltd Digital watermark embedding device, digital watermark detecting device, digital watermark embedding method, digital watermark detection method and data structure of content
JP4728136B2 (en) * 2006-02-10 2011-07-20 株式会社日立製作所 Content distribution system and content distribution method
CN110555130A (en) * 2019-09-02 2019-12-10 唐山茁棋科技发展有限公司 Data processing method of electronic information technology based on big data
CN114501128A (en) * 2020-11-12 2022-05-13 中国移动通信集团浙江有限公司 Security protection method, tampering detection method and device for mixed multimedia information stream
CN114501128B (en) * 2020-11-12 2023-11-03 中国移动通信集团浙江有限公司 Security protection method, tamper detection method and device for mixed multimedia information stream

Similar Documents

Publication Publication Date Title
US11023618B2 (en) Systems and methods for detecting modifications in a video clip
US6674874B1 (en) Data processing apparatus and method and storage medium
JP3746506B2 (en) Stereoscopic parameter embedding device and stereoscopic image reproducing device
US6842540B1 (en) Surveillance system
JP4881210B2 (en) Imaging apparatus, image processing apparatus, and control method thereof
JP2006325202A (en) Data processing apparatus and data processing method
GB2390274A (en) Information reproducing apparatus
KR20090071327A (en) Video image data encoding apparatus, decoding apparatus, method of encoding and decoding video image data, program recording medium
JP2004364263A (en) Information embedding apparatus and method, tampering detecting apparatus and method, and recording medium
JP2004080094A (en) Information-processing apparatus, information-processing method and program, and computer-readable recording medium
JP2010068421A (en) Digital watermark apparatus and digital watermark method
JP2015136089A (en) Video reproducer and video recorder
JP2004158913A (en) Audiovisual processor
JP2010147749A (en) Moving image distribution module, moving-image receiving module, and moving-image transmission system
JP4346966B2 (en) Imaging device
JP4921326B2 (en) Image processing apparatus and control method thereof
JP4921331B2 (en) Image processing apparatus and control method thereof
KR100899046B1 (en) Moving-image shooting device, moving-image reproducing device, method of shooting moving-image, method of reproducing a coded video signal and method of reproducing the moving-image
JP2006254333A (en) Coding device, coding method, and digital camera
JP2006180315A (en) Moving picture photographing device and moving picture reproducing device, and moving picture photographing method and moving picture reproducing method
JP2002185913A (en) Synchronization method and system adopting it
JP2006333299A (en) Encoding apparatus, encoding method and image forming apparatus
JP2005218019A (en) Information processing device, information processing method, information processing program, and storage media
KR100449545B1 (en) Digital video recorder system and method for thereof
JPH10304324A (en) Information receiver and information imbedding processing method applied to the receiver

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051101