JP2002077789A - 画像処理方法及び装置 - Google Patents

画像処理方法及び装置

Info

Publication number
JP2002077789A
JP2002077789A JP2000257957A JP2000257957A JP2002077789A JP 2002077789 A JP2002077789 A JP 2002077789A JP 2000257957 A JP2000257957 A JP 2000257957A JP 2000257957 A JP2000257957 A JP 2000257957A JP 2002077789 A JP2002077789 A JP 2002077789A
Authority
JP
Japan
Prior art keywords
data
image
image processing
reproduction
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000257957A
Other languages
English (en)
Other versions
JP2002077789A5 (ja
JP4343411B2 (ja
Inventor
Masamichi Ito
賢道 伊藤
Koji Takahashi
宏爾 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000257957A priority Critical patent/JP4343411B2/ja
Priority to EP12184434.4A priority patent/EP2538667A3/en
Priority to EP01301174A priority patent/EP1124379A3/en
Priority to US09/779,532 priority patent/US7054539B2/en
Publication of JP2002077789A publication Critical patent/JP2002077789A/ja
Publication of JP2002077789A5 publication Critical patent/JP2002077789A5/ja
Application granted granted Critical
Publication of JP4343411B2 publication Critical patent/JP4343411B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

(57)【要約】 【課題】 録画された映像の再生時には意味があった
が、その再生時には意味のない所望を非表示にしたり、
或いは他の表示形態に変更して表示する。 【解決手段】 記録されたデジタルデータ列を再生して
表示する録画再生装置であって、システムデータ復号回
路66から出力されるオブジェクト情報に基づいて、シ
ステムコントローラ42及びオブジェクト制御部71
は、入力したデジタルデータ列に、例えば緊急ニュース
の属性を有するオブジェクトがあるか否かを判定し、そ
の属性を有するオブジェクトがあると判定されると、オ
ブジェクト制御部71により、その属性を有するオブジ
ェクトに対応する画像を、非表示にしたり、或いはキャ
ラクタ発生部72からのアイコンで表示したり、或いは
音源82からの音響を付加して再生する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、デジタルテレビ放
送の録画再生及び表示する際に好適な画像処理方法及び
装置に関するもので、そのようなデジタルテレビ放送を
受信して録画する録画再生装置や、そのような録画機能
を備えたテレビジョン受像機、テレビジョン表示装置等
にも適用可能である。
【0002】
【従来の技術】近年、衛星やケーブル放送を用いたデジ
タルテレビ放送が普及してきている。このようなデジタ
ルテレビ放送の実現により、画質や音声の品質向上、圧
縮技術を利用することによる番組の種類や量の増大、イ
ンタラクティブサービスなどを利用した新しいサービス
の提供、受信形態の進化等、多くの効果が期待されてい
る。
【0003】図8は、従来の衛星放送を用いたデジタル
放送受信装置8、及びその表示装置6、録画再生装置7
の接続例を示す図である。
【0004】まず、衛星放送によって送信された情報を
アンテナ1で受信する。この受信したテレビ情報は受信
装置8においてチューナ2で選局され復調される。その
後、不図示の誤り訂正処理や、必要であれば課金対応や
デスクランブル処理等がなされる。次に、TV情報とし
て多重されている各種データを多重信号分離回路3でそ
れぞれ分離する。こうして分離されたテレビ情報は、画
像情報、音声情報、その他の付加データとなる。更に、
これら分離された各データのそれぞれを復号回路4で復
号する。こうして復号された各データのうち、画像情報
と音声情報とをD/A変換回路5でアナログ信号に変換
する。こうして変換されたアナログ信号を基に、外部に
接続された表示装置であるTV6において、映像及び音
声が出力される。また付加データは、番組サブデータと
しての役割を果たすために、各種機能に関与するデータ
を含んでいる。
【0005】更に、この衛星放送を受信して録画再生装
置(DVD/VTR)7に録画するときは、チューナ2
の出力を録画再生装置7に出力することにより行なう。
この録画再生装置7の一例としては、録画再生可能なD
VD(デジタル・ビデオ・ディスク)やデジタルVTR
である。ここで、受信装置8と録画再生装置7との間は
データバス等で接続されている。この録画再生装置7に
おける記録方式はデジタル記録方式であり、ビットスト
リーム記録される。
【0006】
【発明が解決しようとする課題】従来からある地上波放
送、及び上述した衛星放送によるデジタルテレビ放送を
加えても、テレビ番組を家庭のテレビに表示する方法
は、基本的に放送局から送信されてくる画像をそのまま
表示するのが一般的である。また同様に、テレビ放送を
録画したVTRを再生する際も、その録画時のデータを
そのまま再生するように設計されている。
【0007】即ち、個々のユーザがテレビ放送の表示、
又はVTRの録画再生表示等において、状況に応じて、
より効果的に、その録画された映像の表示形態を変化さ
せて表示することは、従来の技術では大変困難である。
また、録画された映像の表示形態を変えることは、デジ
タルテレビ放送がより多チャンネル化、多プログラム化
していく過程で、より効果的な表示方法の一つと考えら
れるが、この機能の実現は未だなされていない。
【0008】例を挙げると、表示に関する課題として、
例えば録画したテレビ情報を録画再生装置で再生する際
に、その録画時には重要であった"地震ニュース情報"等
の臨時ニュースなどのテロップ表示は、再生時には意味
のない場合が多いが、その様な表示は、録画時のまま表
示されているのが現状である。
【0009】本発明は上記従来例に鑑みてなされたもの
で、録画された映像の再生時、所定の映像はそのまま表
示せずに、その表示形態を変更して表示できるようにし
た画像処理方法及び装置を提供することを目的とする。
【0010】また本発明の目的は、録画された映像の再
生時には意味があったが、その再生時には意味のない映
像を非表示にしたり、或いは必要に応じて他の表示形態
に変更して表示できる画像処理方法及び装置を提供する
ことにある。
【0011】
【課題を解決するための手段】上記目的を達成するため
に本発明の画像処理装置は以下のような構成を備える。
即ち、記録されたデジタルデータ列を再生して表示する
画像処理装置であって、前記デジタルデータ列に所定の
属性を有するオブジェクトがあるか否かを判定する判定
手段と、複数備える再生形態から、前記所定の属性を有
するオブジェクトの再生形態を指定する指定手段と、前
記判定手段により前記所定の属性を有するオブジェクト
があると判定されると、前記所定の属性を有するオブジ
ェクトに対応する画像を、前記指定手段により指定され
た再生形態で再生する再生制御手段と、を有することを
特徴とする。
【0012】上記目的を達成するために本発明の画像処
理方法は以下のような工程を備える。即ち、記録された
デジタルデータ列を再生して表示する画像処理装置にお
ける画像処理方法であって、前記デジタルデータ列に所
定の属性を有するオブジェクトがあるか否かを判定する
判定工程と、複数備える再生形態から、前記所定の属性
を有するオブジェクトの再生形態を指定する指定工程
と、前記判定工程で前記所定の属性を有するオブジェク
トがあると判定されると、前記所定の属性を有するオブ
ジェクトに対応する画像を、前記指定工程で指定された
再生形態で再生する再生制御工程と、を有することを特
徴とする。
【0013】
【発明の実施の形態】以下、添付図面を参照して本発明
の好適な実施の形態を詳細に説明する。本実施の形態で
は、MPEG−4符号化方式で符号化されたデジタルテ
レビ放送の信号を受信して録画及び再生する場合で説明
する。
【0014】MPEG−4の詳細な説明は後述するが、
本実施の形態では、MPEG−4符号化の特徴でもある
オブジェクトの概念を用いることによって、画像中の各
オブジェクト単位での出力制御、表示制御を可能にし、
MPEG−4テレビ放送を録画再生する装置、または表
示する装置で、所定のオブジェクト属性データを有する
画像データについて、オリジナルとは表示形態を変えて
出力することができる。
【0015】ここでいうオブジェクトとは、背景や話
者、CG等のテロップ画像、音声などでそれぞれ構成さ
れ、MPEG−4では、それぞれのオブジェクト単位に
符号化/復号化し、各オブジェクトを組み合せることで
1つのシーンを表現する仕組みになっている。
【0016】まず最初にMPEG−4に関する技術を分
野ごとに分けて詳細に説明する。
【0017】<規格の全体構成>MPEG4規格は、大
きく4項目から成る。このうちの3項目は、MPEG2
と類似しており、ビジュアルパート、オーディオパー
ト、システムパートである。 (1)ビジュアルパート 自然画、合成画、動画、静止画などを扱うオブジェクト
符号化方式が規格として定められている。伝送路誤りの
訂正や修復に適した符号化方式、同期再生機能、階層符
号化が含まれている。表現上、『ビデオ』は自然画像を
意味し、『ビジュアル』は合成画像までを含める。 (2)オーディオパート 自然音、合成音、効果音などを対象にしたオブジェクト
符号化方式が規格として定められている。ビジュアルパ
ートやオーディオパートでは、複数の符号化方式を規定
し、各々のオブジェクトの特徴に適した圧縮方式を適宜
選択することで、符号化効率を高める工夫をしている。 (3)システムパート 符号化された映像オブジェクトや音声オブジェクトの多
重化処理と、その逆の分離処理を規定している。更に、
バッファメモリや時間軸制御と再調整機能もこのパート
に含まれる。
【0018】上記パート(1)、(2)で符号化した映
像オブジェクトや音声オブジェクトは、シーンの中のオ
ブジェクトの位置や出現時刻、消滅時刻などを記したシ
ーン構成情報と共に、システムパートの多重化ストリー
ムに統合される。
【0019】このMPEG4符号化データを受信して復
号する際には、受信したビットストリームから、各々の
オブジェクトを分離及び復号化し、シーン構成情報に基
づきシーンを再構成する。
【0020】<オブジェクトの符号化>MPEG2では
フレームあるいはフィールドを単位としていたが、コン
テンツの再利用や編集を実現するために、MPEG4で
は映像データやオーディオデータをオブジェクト(物
体)として扱う。
【0021】オブジェクトには、以下のような種類があ
る。
【0022】・音声 ・自然画像(背景映像:2次元固定映像) ・自然画像(主被写体映像:背景なし) ・合成画像 ・文字情報 図17は、これらオブジェクトを同時に入力して符号化
処理をシステムの構成例を示すブロック図である。
【0023】図において、音声オブジェクト符号化器5
001、自然画像オブジェクト符号化器5002、合成
画像オブジェクト符号化器5003、文字オブジェクト
符号化器5004にて、各々符号化処理される。これと
同時に、上記の各オブジェクトのシーン内での関連を、
シーン構成情報として、シーン記述情報符号化器500
5にて、符号化し、前記各符号化オブジェクト情報とと
もに、データ多重化器5006にて、MPEG4ビット
ストリームへとエンコード処理される。
【0024】このように符号化側では、このような複数
のビジュアルオブジェクトやオーディオオブジェクトの
組み合せを定義して、一つのシーン(画面)を表現す
る。
【0025】ビジュアルオブジェクトに関しては、自然
画像と、コンピュータグラフィックスなどの合成画像と
を組み合せたシーンも構成できる。
【0026】上記のような構成を採ることで、例えば、
テキスト音声合成の機能を使って、被写体映像とその音
声の同期再生が可能になる。こうして符号化された情報
は、ビットストリーム状態で送信及び受信、或は記録再
生される。
【0027】一方、こうして符号化された情報のデコー
ド処理では、上述の符号化処理の逆処理を行なう。まず
データ分離器5007にて、MPEG4ビットストリー
ムを各オブジェクト毎に分離して分配する。それを受け
て音声、自然画像、合成画像、文字等の各オブジェクト
は、復号器5008〜5011にてオブジェクトデータ
へ復号される。また、シーン記述情報も同時に、復号器
5012にて復号され、これらの復号情報を用いて、シ
ーン合成器5013にて、元のシーンを再合成する。
【0028】また、この符号化データを復号する復号部
側では、シーンのビジュアルオブジェクトの位置やオー
ディオオブジェクトの順番などの部分的変更が可能であ
る。オブジェクト位置は、ドラッグ操作により変更で
き、言語の変更などは、ユーザがオーディオオブジェク
トを変更することで可能になる。
【0029】ここでは複数のオブジェクトを自由に組み
合せてシーンを合成するために、次の4項目を規定して
いる。 (1)オブジェクト符号化 ビジュアルオブジェクトやオーディオオブジェクト、及
びそれらを組み合せたAV(オーディオビジュアル)オ
ブジェクトを符号化対象とする。 (2)シーン合成 ビジュアルオブジェクトやオーディオオブジェクト、A
Vオブジェクトを所望のシーンに構成するためのシーン
構成情報と合成方式を規定するために、VRML(Virtu
al Realty Modeling Language)をモディファイした言語
を用いる。 (3)多重化と同期 各オブジェクトを多重同期したストリーム(エレメンタ
リ・ストリーム)の形式などを決める。このストリーム
をネットワークに流したり、録画装置に格納するときの
サービス品質QOS(Quality Of Service)も設定可能で
ある。このQOSパラメータには、最大伝送速度、誤り
率、伝送方式などの伝送路条件や、復号化能力などが設
けられている。 (4)ユーザの操作(インタラクション) ビジュアルオブジェクトやオーディオオブジェクトをユ
ーザ端末側で合成する方式を定義する。
【0030】MPEG4のユーザ端末では、ネットワー
クや録画再生装置から送られてくるデータを、エレメン
タリストリームに分離して、各オブジェクトごとに復号
化する。
【0031】これら複数の符号化されたデータから、同
時に送られてきたシーン構成情報を基にしてシーンを再
構成する。
【0032】図18は、ユーザの操作(編集)を考慮に
入れたシステム構成例を示すブロック図である。また図
19及び図20は、ビデオオブジェクトに関するVOP
処理回路ブロックを示す図で、図19はエンコーダ側の
ブロック図を、図20はデコーダ側のブロック図を示
す。
【0033】<VOP(Video Object Plane)>MPEG
4における映像の符号化は、対象となる映像オブジェク
トを、形状(Shape)と、その絵柄(Texture)に分けてそれ
ぞれ符号化する。この映像データの単位をVOPとい
う。
【0034】図21は、VOPの符号化及び復号化処理
の全体構成を示すブロック図である。例えば、画像が人
物と背景の2つのオブジェクトから構成されている場
合、各フレームを2つのVOPに分割して符号化する。
【0035】各VOPを構成する情報は、図22(a)
に示すように、オブジェクトの形状情報、動き情報、テ
キスチャ情報となる。一方、復号器では、ビットストリ
ームをVOP毎に分離し、個別に復号した後、これらを
合成して画像を表示する。
【0036】このようにVOP構造の導入により、処理
対象の画像が複数の映像オブジェクトから構成されてい
る場合、これを複数のVOPに分割し、個別に符号化/
復号化することができる。なお、VOP数が"1"で、オ
ブジェクト形状が矩形の場合は、図22(b)に示すよ
うに、従来からのフレーム単位の符号化となる。
【0037】VOPには三種類の予測方式があり、面内
符号化(I−VOP)、前方向予測(P−VOP)、双
方向予測(B−VOP)がある。この予測単位は、16
×16画素のマクロブロックで行なう。
【0038】双方向予測VOP(B−VOP)は、MP
EG1、MPEG2のBピクチャと同じく、過去のVO
Pと未来のVOPから両方向予測するVOPである。そ
して、マクロブロック単位に直接符号化/前方符号化/
後方符号化/双方符号化の4種類のモードを選択可能と
している。
【0039】双方向予測符号化は、MB又はブロック単
位でモード切り替え可能で、P−VOPの動きベクトル
のスケーリングで双方向予測する。
【0040】<形状(Shape)符号化>オブジェクト(物
体)単位で画像を扱うためには、物体の形状が符号化及
び復号化の際に既知でなければならない。また、後ろに
ある物体が透けて見えるガラスのような物体を表現する
ためには、物体がどれだけの透明度を有するかの情報が
必要となる。この物体の形状及び物体の透明度の情報を
合わせて形状情報と呼ぶ。その形状情報の符号化を形状
符号化と呼ぶ。
【0041】<サイズ変換処理>2値形状符号化は、画
素毎に物体の内側か外側かの境界を符号化していく手法
であるため、符号化すべき画素数が少ないほど発生符号
量も少なくて済む。しかし、符号化すべきマクロブロッ
クサイズを小さくすることは、元の形状符号化が劣化し
て受信側に伝送されることになる。よって、サイズ変換
で元の情報がどの程度劣化するかを測定し、所定の閾値
以下のサイズ変換誤差が得られる限りは、できるだけ小
さなサイズを選択する。具体的なサイズの変換比率とし
ては、原寸大、縦横1/2倍、縦横1/4倍の3種類が
挙げられる。
【0042】各VOPの形状情報は、8ビットのα値と
して与えられ、次のように定義される。
【0043】 α=0 :該当VOPの外側 α=1〜254:他のVOPと半透明状態で表示 α=255 :該当VOPのみの表示領域 2値形状符号化は、α値が"0"或は"255"のみを取る
場合であり、該当VOPの内側と外側のみで形状が表現
される。多値形状符号化は、α値が"0"から"255"ま
での全ての値を取りうる場合であり、複数のVOP同士
が半透明で重なる状態を表現することができる。
【0044】テキスチャ符号化と同様に、16×16画
素のブロック単位に1画素精度の動き補償予測をする。
オブジェクト全体を面内符号化する場合は、形状情報の
予測はしない。動きベクトルは、隣接するブロックから
予測した動きベクトルの差分を用いる。こうして求めた
動きベクトルの差分値は、符号化してからビットストリ
ームに多重化する。MPEG4では、動き補償予測した
ブロック単位の形状情報を、2値形状符号化する。
【0045】<フェザーリング>その他、2値形状の場
合でも、境界部は滑らかに不透明から透明に変えたい場
合、フェザーリング(境界形状のスムーズ化)を使う。
このフェザーリングは、境界値を線形に補間する線形フ
ェザーリングモードと、フィルタを使うフェザーリング
フィルタモードがある。一定に不透明な多値形状には、
定アルファモードがあり、フェザーリングと組み合わせ
が可能である。
【0046】<テキスチャ符号化>オブジェクトの輝度
成分や色差成分の符号化を行なうもので、フィールド/
フレーム単位のDCT、量子化、予測符号化、可変長符
号化の順に処理する。DCTは8×8画素のブロックを
処理単位とするが、オブジェクト境界がブロック内にあ
る場合に、オブジェクトの平均値でオブジェクト外の画
素を補填する。その後、4タップの2次元フィルタを掛
けることで、DCT変換係数に大きな擬似ピークが出る
現象を防ぐ。
【0047】量子化は、ITU−T勧告H.263の量
子化器、或はMPEG2の量子化器のいずれかを使う。
MPEG2量子化器を使えば、直流成分の非線形量子化
やAC成分の周波数重み付けが可能になる。量子化後の
面内符号化係数は、可変長符号化する前にブロック間で
予測符号化し、冗長成分を削除する。特にMPEG4で
は直流成分と交流成分の両方に対して予測符号化する。
【0048】テキスチャ符号化のAC/DC予測符号化
は、隣接するブロック間で対応する量子化係数の差分
(勾配)を調べ、小さい方を予測に使う。直流係数xを
符号化する場合、|a−b|<|b−c|ならcを、|
a−b|≧|b−c|ならaを、それぞれ予測に使う。
【0049】交流係数Xを予測する場合、直流係数xと
同様にして予測値を選んだ後、各ブロックの量子化スケ
ール値(QP)で正規化する。
【0050】直流成分の予測符号化は、隣接するブロッ
ク間で上下に隣接するブロックの直流成分の差(垂直勾
配)と、左右に隣接するブロックの直流成分の差(水平
勾配)を調べ、勾配の少ない方向のブロックの直流成分
との差分を予測誤差として符号化する。
【0051】交流成分の予測符号化は、直流成分の予測
符号化に合わせて、隣接ブロックの対応する係数値を用
いる。但し、量子化パラメータの値がブロック間で異な
っている可能性があるので、正規化(量子化ステップス
ケーリング)してから差分をとる。予測の有無はマクロ
ブロック単位に選択できる。
【0052】その後、交流成分は、ジグザグスキャンし
てから、3次元(Last,Run,Level)可変長符号化す
る。ここで、Lastは0以外の係数の終わりを示す1
ビットの値、Runは0の継続長、Levelは非ゼロ
係数の値である。
【0053】面内符号化した直流成分の可変長符号化に
は、直流成分用可変長符号化テーブル又は交流成分用可
変長テーブルのいずれかを使う。
【0054】<動き補償>MPEG−4では任意の形状
のビデオオブジェクトプレーン(Video Object Plane:
VOP)を符号化することができる。VOPには、予測
の種類によって面内符号化(I−VOP)、前方向予測
符号化(P−VOP)、双方向予測符号化(B−VO
P)があり、予測単位は16ライン×16画素、又は8
ライン×8画素のマクロブロックを使う。従って、VO
Pの境界上に跨るマクロブロックも存在することにな
る。このVOP境界の予測効率を改善するために、境界
上のマクロブロックに対してはパディング(補填)とポ
リゴンマッチング(オブジェクト部分のみのマッチン
グ)を行なう。
【0055】<ウェーブレット符号化>ウェーブレット
変換とは、1つの孤立波関数を拡大/縮小/平行移動し
て得られる複数の関数を変換基底とする変換方式であ
る。このウェーブレット変換を用いた静止画像の符号化
モード(Texture Coding Mode)は、特にCG画像と自然
画像の合成を扱うとき、高解像度から低解像度までの様
々な空間解像度を備えた高画質の符号化方式として適し
ている。
【0056】このウェーブレット符号化の効果として、
画像をブロック単位に分割せず一括して符号化できるた
め、低ビットレートでもブロック歪みが発生しないと
か、モスキート雑音も減少できるという効果がある。こ
のように、MPEG−4の静止画符号化モードでは、低
解像度かつ低画質の画像から高解像度かつ高画質までの
幅広いスケーラビリティ、処理の複雑性、符号化効率の
トレードオフをアプリケーションに応じて選択できる構
成となっている。
【0057】<階層符号化(スケーラビリティ)>スケ
ーラビリティを実現するために、図23(a)(b)の
ようなシンタックスの階層構造を構成する。
【0058】階層符号化は、例えばベースレイヤを下位
レイヤ、補強レイヤを上位レイヤとし、補強レイヤにて
ベースレイヤの画質を向上する「差分情報」を符号化す
ることによって実現される。
【0059】空間スケーラビリティの場合、ベースレイ
ヤは低解像度の動画像、ベースレイヤ+補強レイヤは高
解像度の動画像を表す。
【0060】更に、画像全体の画質を階層的に向上させ
る他に、画像中の物体領域のみの画質を向上させる機能
がある。例えば、時間スケーラビリティの場合、ベース
レイヤは画像全体を低いフレームレートで符号化したも
の、補強レイヤは、画像内の特定オブジェクトのフレー
ムレートを向上させるデータを符号化したものとなる。
【0061】[時間スケーラビリティ(図23
(a))]時間スケーラビリティはフレーム速度を階層
化する。補強レイヤのオブジェクトのフレーム速度を早
くすることができる。階層化の有無はオブジェクト単位
で設定できる。補強レイヤのタイプは2つで、タイプ1
は、ベースレイヤのオブジェクトの一部で構成する。タ
イプ2は、ベースレイヤと同じオブジェクトで構成す
る。
【0062】[空間スケーラビリティ(図23
(b))]空間スケーラビリティは、空間解像度を階層
化する。ベースレイヤは、任意のサイズのダウンサンプ
リングが可能である。ベースレイヤは、補強レイヤの予
測に使う。
【0063】<スプライト符号化>スプライトとは、3
次元空間における画中の背景などのように、オブジェク
ト全体が統一的な移動、回転、変形等で表現できる平面
的なオブジェクトのことであり、この平面的オブジェク
トを符号化する手法をスプライト符号化と呼ぶ。
【0064】このスプライト符号化の区別は4種あり、
静的/動的と、オンライン/オフラインで分かれる。詳
しく説明すると、オブジェクトのデータを予め復号化器
に送り、グローバル動き係数だけをリアルタイムに伝送
することで実現する構成で、テンプレートの直接変換で
得る手法の静的スプライト、時間的に前のスプライトか
ら予測符号化して得る手法の動的スプライト、事前に面
内符号化(I−VOP)として符号化され、復号器側に
伝送する手法のオフラインスプライト、符号化中に符号
化器と復号化器で同時に作成する手法のオンラインスプ
ライトで構成される。
【0065】スプライト符号化に関して検討されている
技術として、スタティックスプライト(Static Sprite)
符号化、ダイナミックスプライト(Dynamic Sprite)符号
化、グローバル動き補償などの、方式(ツール)があ
る。
【0066】[スタティックスプライト符号化]スタテ
ィックスプライト符号化は、ビデオクリップ全体の背景
(スプライト)を予め符号化しておき、背景の一部を幾
何変換することによって画像を表現する方法である。こ
の切り出した一部の画像は、平行移動、拡大、縮小、回
転等様々な変形を表現することができる。これについて
図24(b)に図示したように、画像の移動・回転・拡
大・変形等、3次元空間での視点移動などを表現するこ
とをワープと呼ぶ。図24(a)はワープの種類を示す
図で、これらワープの種類には、遠近法変換、アフィン
変換、等方拡大(a)/回転(θ)/移動(c,f)、
平行移動の手法があり、それぞれが図24(a)に示す
各式で表され、係数によって移動、回転、拡大、変形等
を表せる。また、スプライトの生成は符号化開始前にオ
フラインで行われる。
【0067】このように、背景画像の一部領域を切り取
り、この領域をワープして表現することでスタティック
スプライト符号化が実現される。
【0068】図25は、スプライト画像の一例を示す図
である。
【0069】図25では、全体の背景画像内の囲まれた
一部の領域をワープすることになる。具体的には、例え
ばこの背景には、テニス試合における観客席等の背景画
像と、ワープ部にはプレーヤ等の動きのある部分を含ん
だ画像が入ることになる。また、スタティックスプライ
ト符号化では、幾何変換パラメータのみを符号化して予
測誤差を符号化しない。
【0070】[ダイナミックスプライト符号化]スタテ
ィックスプライト符号化方式では、符号化前にスプライ
トを生成しておくのに対し、このダイナミックスプライ
ト符号化方式では、符号化しながらオンラインにスプラ
イトを更新することができる。また、予測誤差を符号化
するという点でスタテッィクスプライト符号化とは異な
っている。
【0071】[グローバル動き補償(GMC)]このグ
ローバル動き補償とは、オブジェクト全体の動きを、ブ
ロックに分割することなく1つの動きベクトルで表して
動き補償する技術であり、剛体の動き補償などに適して
いる。参照画像が、スプライトの代わりに直前の復号画
像となる点、予測誤差を符号化する点では、スタティッ
クスプライト符号化と同様である。但し、スプライトを
格納するためメモリを必要としないこと、形状情報が不
要であることにおいて、スタティックスプライト符号
化、及びダイナミックスプライト符号化とは異なる。こ
れは画面全体の動きや、ズームを含む画像などにおいて
効果がある。
【0072】<シーン構造記述情報>シーン構成情報で
あり、各オブジェクト合成するための情報である。MP
EG4では、各オブジェクトをシーンに合成するための
構成情報を伝送する。個別に符号化された各オブジェク
トを受信した場合に、このシーン構成情報を使用するこ
とにより、送信側が意図した通りのシーンに合成でき
る。
【0073】このシーン構成情報には、オブジェクトの
表示時間や表示位置などがある。これらがツリー状のノ
ード情報として記述されている。各ノードは、親ノード
に対する時間軸上の相対時刻情報と相対空間座標位置情
報をもつ。
【0074】このシーン構成情報を記述する言語には、
VRMLを修正したBIFS(Binary Format for Scene
s)と、Javaを用いたAAVS(Adaptive Audio-Visu
al Session Format)がある。BIFSは、MPEG4の
シーン構成情報を2値で記述する形式。AAVSはJa
vaをベースとしており、自由度が大きく、BIFSを
補う位置付けにある。
【0075】このシーン記述情報の構成例を、図26に
示す。
【0076】<シーン記述>シーン記述は、BIFS(B
inary Format for Scenes)により行われる。ここでは、
VRMLとBIFS共通の概念であるシーングラフとノ
ードを中心に説明する。
【0077】ノードは光源、形状、材質、色、座標など
の属性や座標変換を伴う下位ノードのグループ化を指定
する。オブジェクト指向の考えを取り入れ、3次元空間
中の各物体の配置や見え方は、シーングラフと呼ばれる
木(tree)を頂点のノードから辿り、上位ノードの属性を
継承することにより決定される。葉にあたるノードに、
メディアオブジェクト、例えば、MPEG4ビデオのビ
ットストリームを、同期をとって割当てれば、他のグラ
フィックスとともに動画を3次元空間内に合成して出力
できる。
【0078】また、VRMLとの差異は、下記の通りで
ある。
【0079】MPEG4システムでは (1) MPEG4ビデオVOP符号化の2次元オーバーラ
ップ関係記述とMPEG4オーディオの合成記述 (2) 連続メディアストリームの同期処理 (3) オブジェクトの動的振る舞い表現(例えばスプライ
ト) (4) 伝送形式(バイナリー)を標準化 (5) セッション中にシーン記述を動的に変更 をBIFSでサポートする。
【0080】VRMLのノードのうち、Extrusion、Scr
ipt、Proto、ExtemProtoなどがサポートされていない以
外は、VRMLノードのほぼ全てがBIFSでサポート
されている。
【0081】またBIFSで新たに加えられたMPEG
4特別ノードには、以下のものがある。 (1) 2D/3D合成のためのノード (2) 2Dグラフィックスやテクストのためのノード (3) アニメーションノード (4) オーディオノード 特筆すべきは、VRMLでは背景など特殊なノードを除
き2D合成はサポートされていなかったが、BIFSで
は、テキストやグラフィックオーバーレイ、更にMPE
G4ビデオVOP符号化を画素を単位として扱えるよう
記述が拡張されている。
【0082】アニメーションノードには、3Dメッシュ
で構成された顔などMPEG4のCG画像のための特別
なノードが規定されている。シーングラフ中のノードの
置き換え、消去、追加、属性変更が動的に行なえるメッ
セージ(BIFS Update)があり、セッションの途中で画面
上に新たな動画像を表示したり、ボタンを追加すること
が可能になる。BIFSは、VRMLの予約語、ノード
識別子、属性値をほぼ一対一にバイナリデータに置き換
えることにより実現できる。
【0083】<MPEG−4オーディオ>図27は、M
PEG−4オーディオの符号化方式の種類を示す図であ
る。
【0084】オーディオ及び音声の符号化には、パラメ
トリック符号化、CELP符号化、時間/周波数変換符
号化が含まれる。更に、SNHCオーディオの機能も取
り入れ、SA(Structured Audio:構造化オーディオ)
符号化と、TTS(Text toSpeech:テキスト音声合
成)符号化が含まれる。SAはMIDIを含む合成楽音
の構造的記述言語であり、TTSは外部のテキスト音声
合成装置にイントネーションや音韻情報などを送るプロ
トコルである。
【0085】図28は、オーディオ符号化方式の構成を
示すブロック図である。
【0086】図において、前処理部201で入力音声信
号を前処理し、信号分割部202でパラメトリック符号
化器204、CELP符号化器205、時間/周波数符
号化器206の3つの符号化器を使い分けるように、信
号の帯域に応じて信号分割し、それぞれ適した符号化器
に入力する。また信号分析制御部203では、入力オー
ディオ信号を分析し、そのオーディオ信号に応じた、各
符号化器への分類のための制御情報等を発生させる。続
いて、それぞれ別の符号化器である、パラメトリック符
号化コア204、CELP符号化コア205、時間/周
波数変換符号化コア206では、各符号化方式に基づい
た符号化処理がなされる。これら3種の符号化方式につ
いてはこの後説明する。こうして符号化されたオーディ
オデータのうち、パラメトリック符号化コア204、C
ELP符号化コア205の出力は小ステップ強化回路2
07に入力され、また時間/周波数変換符号化コア20
6の出力及び小ステップ強化回路207の出力は大ステ
ップ強化回路208に入力される。小ステップ強化回路
207及び大ステップ強化回路208とは、各符号化コ
アの符号化処理で発生する歪を減少させるための回路で
ある。こうして、大ステップ強化回路208から出力さ
れたオーディオデータは、符号化された音声ビットスト
リームとなる。以上が図28に示す音声符号化方式の構
成の説明である。
【0087】次に、図27を参照しながら、各符号化方
式について説明する。
【0088】<パラメトリック符号化>音声信号、楽音
信号を周波数や、振幅、ピッチ等のパラメータで表現
し、それを符号化する。音声信号用の調波ベクトル駆動
符号化(HVXC:Harmonic Vector Excitation Codin
g)符号化と、楽音信号用の個別スペクトル(IL:Ind
ividual Line)符号化が含まれる。
【0089】<HVXC符号化>主として2kビット/
秒〜4kビット/秒の音声符号化を目的としており、音
声信号を有声音と無声音に分類し、有声音は線形予測係
数(LPC:Linear Prediction Coefficient)の残差
信号の調波(ハーモニック)構造をベクトル量子化す
る。無声音については、予測残差をそのままベクトル駆
動符号化(vector excitation coding)する。
【0090】<IL符号化>6kビット/秒〜16kビ
ット/秒の楽音の符号化を目的としており、信号を線ス
ペクトルでモデル化して符号化するものである。
【0091】<CELP符号化(Code Excited Linear P
rediction Cording)>入力音声信号をスペクトル包絡情
報と音源情報(予測誤差)に分離して符号化する方式で
ある。スペクトル包絡情報は、入力音声信号から線形予
測分析によって算出される線形予測係数によって表され
る。
【0092】MPEG4のCELP符号化には、帯域幅
4kHzの狭帯域CELPと帯域幅8kHzの広帯域CE
LPがあり、狭帯域(NB:Narrow Band)CELPは、
3.85kビット/秒〜12.2kビット/秒、広帯域
(WB:Wide Band)CELPは13.7kビット/秒
〜24kビット/秒の間においてビットレートの選択が
可能である。
【0093】<時間/周波数変換符号化>高音質を目指
す符号化方式である。AAC(Advanced Audio Codin
g)に準拠する方式、及びTwinVQ(Transform-dom
ain Weighted Interleave VectorQuantization:変換領
域重み付けインターリーブベクトル量子化)がこれに含
まれる。
【0094】この時間/周波数変換符号化構成には聴覚
心理モデルが組み込まれ、聴覚マスキング効果を利用し
ながら適応量子化するしくみになっている。
【0095】<AAC準拠方式>オーディオ信号をDC
T等で周波数変換し、聴覚マスキング効果を利用しなが
ら適応量子化するしくみである。適応ビットレートは2
4kビット/秒〜64kビット/秒までである。
【0096】<TwinVQ方式]>オーディオ信号を
線形予測分析したスペクトル包絡を用いて、オーディオ
信号のMDCT係数を平坦化する。インタリーブを施し
た後、2つの符号長を用いてベクトル量子化するしくみ
である。適応ビットレートは、6kビット/秒〜40k
ビット/秒までである。
【0097】<システム構成>MPEG4のシステム・
パートでは、多重化、分離、合成(コンポジション)を
定義する。以下、図29を用いて説明する。
【0098】多重化では、まず映像符号化器やオーディ
オ符号化器からの出力となる各オブジェクトや、その時
空間配置を記述したシーン構成情報などのエレメンタリ
ストリームごとに、アクセスユニットレイヤでパケット
化する。このアクセスユニットレイヤでは、アクセスユ
ニット単位に同期を取るためのタイムスタンプや参照ク
ロックなどをヘッダとして付加する。パケット化したス
トリームは、次にFlexMuxレイヤで、表示や誤り耐性の
単位で多重化されTransMuxレイヤに送られる。
【0099】TransMuxレイヤでは、誤り耐性の必要度に
応じて誤り訂正符号が保護サブレイヤで付加される。最
後に、多重サブレイヤ(Mux Sub Layer)で1本のTransMu
xストリームとして伝送路に送り出される。このTransMu
xレイヤは、MPEG4では定義せず、インターネット
のプロトコルであるUDP/IP(user datagram proto
col/internet protocol)やMPEG2のトランスポー
トストリーム(TS)、ATM(asynchronous transfer
mode)のAAL2(ATM adaptaion layer 2)、電話回線
利用のテレビ電話用多重化方式(ITU−T勧告H.2
23)、デジタル・オーディオ放送などの既存のネット
ワークプロトコルが利用可能である。
【0100】システムレイヤのオーバーヘッドを軽く
し、従来のトランスポートストリームに容易に埋め込め
るように、アクセスユニットレイヤやFlexMuxレイヤを
バイパスすることも可能である。
【0101】復号化側では、各オブジェクトの同期を取
るために、デマルチプレクス(分離)の後段にバッファ
(DB:Decoding Buffer)を設け、各オブジェクトの
到着時刻や復号化時間のずれを吸収する。合成の前にも
バッファ(CB:Composition Buffer)を設けて表示時
間を調整する。
【0102】<ビデオストリームの基本構造>図30
は、MPEG−4のストリーム構造のレイヤを示す図で
ある。
【0103】ここでは各階層をクラスと呼び、各クラス
にはヘッダが付く。このヘッダとは、start code,end
code,ID,形状,サイズ他,各種符号化情報である。
【0104】<ビデオストリーム>ビデオのストリーム
は複数のセッションで構成される。ここで、セッション
とは、一連の完結したシーケンスのことである。[V
S]セッションは、複数のオブジェクトで構成される。
[VO]は、ビデオオブジェクト、[VOL]オブジェ
クトは、複数のレイヤを含んだオブジェクト単位のシー
ケンス、[GOV]オブジェクトは、複数のレイヤで構
成される。[VOP]オブジェクトレイヤは、複数のプ
レーンで構成される。また、(プレーン:フレーム毎の
オブジェクト)は、誤り耐性を有したビットストリーム
構造である。
【0105】MPEG4では、移動体通信(無線通信)
等に対応すべく、符号化方式自体が伝送誤りに対して耐
性を有している。しかし今までの標準方式では、誤り訂
正は主にシステム側で行っていた。一方、PHS等のネ
ットワークでは誤り率が非常に高く、システム側でも訂
正しきれない誤りがビデオ符号化部分に漏れ込んでくる
ことが予想される。
【0106】このことを考慮してMPEG4では、シス
テム側で訂正しきれなかった各種のエラーパターンを想
定し、このような環境の下でも可能な限り誤りの伝播が
抑制されるような誤り耐性符号化方式とした。
【0107】ここでは、画像符号化に関する誤り耐性の
具体的な手法と、そのためのビットストリーム構造を説
明する。 (1)Reversible VLC (RVLC)と双方向復号(図
31(a)(b)) 図31(a)は、通常のVLCによる片方向の復号処理
を説明する図で、復号の途中で誤りの混入が確認される
と、その時点で復号処理を中断している。
【0108】これに対し図31(b)は、双方向の復号
処理を説明する図で、復号の途中で誤りの混入が確認さ
れた場合はそこで復号処理を一旦停止し、次の同期信号
の検出を行なう。次の同期信号が検出できた段階で、今
度はそこから逆向きにビットストリームの復号処理を行
なう。これにより、新たな付加情報なしに、復号のスタ
ートポイントが増加していることになり、誤り発生時に
復号できる情報量を従来よりも増やすことが可能とな
る。このような順方向と同時に逆方向からも復号可能な
可変長符号により"双方向復号"が実現できる。 (2)重要情報の複数回伝送(図32(a)(b)) 重要情報を複数回伝送することが可能な構成を導入し、
誤り耐性を強化することができる。例えば、各VOPを
正しいタイミングで表示するためにはタイムスタンプが
必要であり、この情報は最初のビデオパケットに含まれ
ている。仮に誤りによって、このビデオパケットが消失
しても、前記構造により次のビデオパケットからは復号
が再開できるが、このビデオパケットにはタイムスタン
プがないため、結局、表示タイミングがわからないこと
になる。そのため、各ビデオパケットにHEC(Header
Extension Code)というフラグを立てて、この後にタイ
ムスタンプ等の重要情報を付加できる構造を導入した。
このHECフラグの後には、タイムスタンプとVOPの
符号化モードタイプが付加できる構造になっている。
【0109】同期はずれが生じた場合には次の同期回復
マーカ(RM)から復号を開始するが、各ビデオパケッ
トにはそのために必要な情報(そのパケットに含まれる
最初のMB(マクロブロック)の番号と、そのMBに対
する量子化スケール値)がRMの直後に配置されている
(図32(a)参照)。その後にHECフラグが挿入さ
れ、HEC=1の場合には、TR及びVCTがその直後
に付加される。これらHEC情報により、仮に先頭のビ
デオパケットが復号できずに廃棄されても、HEC=1
と設定したビデオパケット以降の復号及び表示が正しく
行われることになる。ここでHECを"1"にするか否か
は符号化側で自由に設定できる。 (3)データ・パーティショニング エンコーダ側では、MB単位の符号化処理を操り返して
ビットストリームを構成しているため、途中に誤りが混
入すると、それ以降のMBデータは復号できないことに
なる。
【0110】一方、複数のMB情報をまとめて幾つかの
グループに分類し、それぞれをビットストリーム内に配
置する場合を考える。各グループの境目にマーカ情報を
組み込めば、仮にビットストリームに誤りが混入され
て、それ以降のデータが復号できない場合でも、そのグ
ループの最後にあるマーカで同期を取り直して、次のグ
ループのデータを正しく復号することが可能になる。
【0111】以上の考えに基づき、ビデオパケット単位
に、動きベクトルとテキスチャ情報(DCT係数等)と
にグループ分けするデータパーティショニング手法(Dat
a Partitioning)が採用されている。また、グループの
境目には、モーション・マーカ(Motion Marker)を配置
している。これにより、仮に動きベクトル情報の途中に
誤りが混入していても、MMの後にくるDCT係数は正
しく復号できるため、誤り混入以前の動きベクトルに対
応するMBデータは、DCT係数と共に正確に再生でき
る。またTexture(テクスチャ情報)部分に誤りが混入
された場合でも、動きベクトルが正しく復号されていれ
ば、その動きベクトル情報と復号済みの前フレーム情報
とを用いて、ある程度、正確な画像が補間再生(コンシ
ールメント)できる。 (4)可変長間隔同期方式 ここでは、可変長パケットで構成されている同期回復手
法を説明する。先頭に同期信号を含んだMB群は"ビデ
オパケット"と呼ばれ、その中に何個のMBを含めるか
は符号化側で自由に設定することができる。可変長符号
(VLC:Variable Length Code)を使用しているビッ
トストリームに誤りが混入された場合、それ以降の符号
の同期が取れなくなり、復号不可能な状態になる。この
ような場合でも、次の同期回復マーカを検出することに
より、その後の情報を正しく復号することが可能とな
る。
【0112】<バイトアラインメント>情報の多重化が
バイトの整数倍単位で行われるというシステムとの整合
性をとり、ビットストリームはバイトアラインメント(B
yte Alignment)構造となっている。
【0113】バイトアラインメントを実現するために、
各ビデオパケットの最後にスタッフビットが挿入され
る。更に、このスタッフビットは、ビデオパケット内の
エラーチェック符号としても使用される。
【0114】スタッフビットは"01111"のように、
最初の1ビットのみが"0"で、それ以外が全て"1"であ
る符号で構成されている。つまり、ビデオパケット内の
最後のMBまで正しく復号されれば、その次に来る符号
は必ず"0"であり、その後にスタッフビットの長さより
1ビットだけ少ない数の"1"が連続しているはずであ
る。
【0115】もし、このルールに反したビットパターン
が検出された場合は、それ以前の復号が正しく行われて
いなかったことになり、ビットストリームに誤りが混入
していたことが検出できる。
【0116】以上がMPEG−4の技術に関する説明で
ある。なお、上記した説明は、日経エレクトロニクス1
997.9.22号p.147〜p.168「国際標準
規格MPEG4の概要決まる」、社団法人 映像情報メ
ディア学会テキスト1997.10.2「見えてきたM
PEG4の全貌」、日本工業技術センター1997.
2.3セミナー資料「MPEG4の最新標準化動向と画
像圧縮技術に、明記されている。
【0117】続いて、本発明の実施の形態に係るシステ
ムの具体的な説明を行なう。
【0118】図1は、本実施の形態に係る受信再生シス
テムの概略構成を示すブロック図である。この受信再生
システムは、テレビ放送等の放送を受信して表示装置に
表示するとともに、ビデオレコーダ等の録画再生装置に
より再生された映像や音声などを表示装置13に出力し
て表示することができる。
【0119】図1において、11はMPEG−4符号化
方式のデジタルテレビ放送を受信するテレビ放送受信装
置である。12は映像や音声等を記録及び再生する録画
再生装置で、例えばビデオレコーダやDVD等の記録媒
体に受信したテレビ情報を録画したり、或いは記録媒体
に記録されている映像や音声などを再生するプレーヤ等
に相当している。13は表示装置で、映像信号や音声信
号を入力して、それらを再生出力する。テレビ放送受信
装置11は、セットトップボックス(STB)等の受信
チューナ機器であり、録画再生装置12はDVD、ハー
ドディスク(HD)等を用いたホームサーバ又はデジタ
ルVTR等である。また表示装置13としては、テレビ
ジョン(TV)やディスプレイ等が代表的な製品形態で
ある。このテレビ放送受信装置11で受信したテレビ放
送データを、表示装置13で表示する、または録画再生
装置12で録画したり、それから再生した映像や音声を
表示装置13に表示するのが基本的な動作である。
【0120】図2は、本実施の形態に係るテレビ放送受
信装置11の構成を示すブロック図である。
【0121】衛星アンテナ14、或いはケーブルを介し
てケーブル放送端末15から受信したデジタルテレビ放
送データは、それぞれチューナ16、チューナ17によ
り選局され、受信のための調整が行なわれる。こうして
衛星テレビ放送、もしくはケーブルテレビ放送から受信
されたテレビデータの内の一方がデータ選択器18によ
り選択され、復調回路19で復調され、誤り訂正回路2
0で誤り訂正処理がなされる。
【0122】インターフェース部(I/F)21は、テ
レビデータ、及び必要なコマンドデータ等を、表示装置
13等の外部装置と送受信するための通信手段である。
このインターフェース部(I/F)21は、デジタル通
信の代表的インターフェースであるIEEE1394シ
リアルバス等を採用し、デジタル通信に必要なデータ送
受信処理回路、ケーブル(バス)を接続するコネクタ等
を備えている。22はシステムコントローラで、このテ
レビ放送受信装置11の各部を制御している。23は指
示入力部で、スイッチ等の入力手段を備え、ここで入力
された指示入力は、システムコントローラ22に入力さ
れる。
【0123】次に、図3を参照して録画再生装置12の
構成を説明する。図3は本実施の形態に係る録画再生装
置12の構成を示すブロック図である。
【0124】テレビデータやコマンドデータ、及び再生
AVデータの入出力は、インターフェース部(I/F)
33を介して行われ、このインターフェース部33は、
テレビ放送受信装置11及び表示装置13とデータ通信
が可能な、互換性を備えたものである。
【0125】テレビ放送の録画時は、テレビ放送受信装
置11から送られたテレビデータを、インターフェース
部(I/F)33を介して入力し、記録処理回路34で
記録形態に適した形式のデータに変換してディスク等の
記録媒体35に送られる。この記録処理回路34は、誤
り訂正符号などの付加データの追加や、必要に応じて圧
縮方式(フォーマット)の変換等のデータ処理を実施す
る。こうして記録のためのデータ処理が施されたテレビ
データは、不図示の記録ヘッドから記録媒体35に記録
される。
【0126】次に、この記録媒体35に記録された映像
データの再生時には、記録媒体35に記録されているビ
デオデータ(記録したテレビデータを含む)を不図示の
再生ヘッドで再生する。こうして再生されたビデオデー
タに、再生処理回路36において、記録処理とは逆の処
理でデータの復元や誤り訂正が施される。
【0127】次に、このようにして再生処理されたビデ
オデータから、多重データ分離回路37により、多重さ
れているデータが分離され、それぞれデコーダ38で、
MPEG−4の符号化方式に基づいた復号化方式で復号
される。尚、MPEG−4の符号化、及びその復号化方
法については既に説明した通りである。
【0128】ここでの手順は、まず多重データ分離回路
37において、多重されている各種データを画像デー
タ、音声データ、その他のシステムデータに分離する。
次に、これら分離された各データのそれぞれをデコーダ
38で復号して、表示/音声出力制御部39で、その表
示出力及び音声出力を制御する。この表示/音声出力制
御部39は、オブジェクト生成/制御部40を用いて、
本実施の形態に係る特徴である所定のオブジェクトの属
性判別を行い、所定の画像オブジェクトについて、その
再生形態を変化させる再生制御を行なう。尚、これらデ
コーダ38、表示/音声出力制御部39、オブジェクト
生成/制御部40の各部については詳細な説明は後述す
る。
【0129】オブジェクト生成/制御部40で制御され
た後の、最終的な表示/音声出力制御部39の出力は、
再生AVデータとして、インターフェース部(I/F)
33を介して表示装置13に伝送される。システムコン
トローラ42は、記録媒体35の回転制御や記録/再生
動作を制御するサーボ制御部41や、表示/音声出力制
御部39、オブジェクト生成/制御部40を始めとし
て、各部の動作制御を行なう。また他機器からこの録画
再生装置12にコマンドが送信された場合には、インタ
ーフェース部(I/F)33に入力されたコマンドをシ
ステムコントローラ42に伝送する。このシステムコン
トローラ42では、そのコマンドに応じた動作制御を行
なう。また、ユーザにより入力されるコマンドは、指示
入力部43を介してシステムコントローラ42に入力さ
れる。
【0130】ここで、MPEG−4デジタルテレビ放送
のビットストリームの構成について説明する。
【0131】図9は、MPEG−4ビットストリームの
構成を示した図である。
【0132】図において、オブジェクト1から5(51
〜55)までのデータスペースに、番組内容、及び展開
に応じてオブジェクトの種類は異なるが、自然画像オブ
ジェクトや音声オブジェクト、コンピュータ・グラフィ
ック(以下CG)等の合成画像オブジェクトなどが入っ
ている。この合成画像オブジェクトの一例としては、ニ
ュース番組の場合には、例えば背景オブジェクト(スプ
ライト)、人物画像、その他の自然画像オブジェクト、
緊急ニュース速報や、お天気画像といった画像オブジェ
クトがあり、更には、音声オブジェクトなどが該当す
る。加えて、ビットストリームには、システムデータと
して、シーン記述情報56や追加データ57が多重され
る。更に、この追加データ57には、時間情報58やオ
ブジェクト情報59、およびその他の情報60が含まれ
る。また、オブジェクト情報59は、オブジェクト1〜
5(51〜55)に該当する各オブジェクトのそれぞれ
に、その属するジャンルを示すジャンルコード61、オ
ブジェクトの詳細を示すオブジェクトコード62、及び
放送局の判別のための放送局コード63とが含まれてい
る。
【0133】本実施の形態では、このオブジェクト情報
59に含まれるジャンルコード61、オブジェクトコー
ド62、及び放送局コード63とから、各オブジェクト
の属性を判別し、所定の属性を有するオブジェクトに対
して、再生時に他のオブジェクトに変更するための処理
を行なう。この場合の所定の属性として、例えば緊急ニ
ュース速報の画像(テロップ)のオブジェクトを例に挙
げて説明する。
【0134】図10は、各放送局毎に、各ジャンルコー
ドと、それに対応するオブジェクト情報を説明する図で
ある。ここでは、各オブジェクト情報の構成をイメージ
的に示し、各放送局ごとに対応させたコード構成の例で
示している。図9で説明したオブジェクト情報59の構
成は、具体的には図10に示した様に分類して表され
る。
【0135】ジャンルコード61は、例えば、「ニュー
ス」、「プロ野球」、「映画」等の番組のジャンルを示
すコードである。またオブジェクトコード62は、「ニ
ュース」の場合では、「背景画像」、「人物画像」、
「天気予報画像」等である。同様に、「プロ野球」の場
合では、「背景画像」、「カウント表示画像」、「選手
の人物画像」等であり、またジャンルが「映画」の場合
には、「背景」、その他と、620で地震速報等の「緊
急ニュース画像」が送られていることを示している。こ
のようにジャンルコード61とオブジェクトコード62
とを組み合わせた構成が、各放送局を表わす放送局コー
ド63毎に分かれて存在している。
【0136】各放送局では、オブジェクト情報として各
オブジェクトを識別するこれらのコードを、各局共通又
は局固有のコードを用いてユーザに提供している。そし
て、放送局側と、ユーザ側の機器とが同一のコードを相
互理解できるように設定されている。
【0137】次に図3を参照して説明した録画再生装置
12におけるデコーダ38、表示/音声出力制御部3
9、オブジェクト生成/制御部40の各部の動作を詳細
に述べることで、オブジェクトの再生について具体的に
説明する。
【0138】図5は、図3の録画再生装置12の構成の
内、オブジェクトの再生とオブジェクトの形態の変更処
理に係る部位の構成を示すブロック図である。尚、図5
に示された符号のうち図3と共通する回路や部位は同じ
番号で示し、それらの説明を省略する。
【0139】図5において、再生処理回路36により、
記録媒体35から再生されて処理されたビデオデータを
多重データ分離回路37で分離し、デコーダ38に含ま
れる音声復号回路64、画像復号回路65、システムデ
ータ復号回路66において、それぞれ対応するデータを
復号する。
【0140】音声データは音声復号回路64で復号さ
れ、ステレオオーディオデータ(A(L)、A(R))
となって、表示/音声出力制御部39の音声出力制御部
70に送られ、音量や音場定位の調整、主/副音声など
音声多重への対応、及び音声オブジェクトの追加や変更
等が行なわれる。
【0141】また画像データは、画像データ中の各画像
オブジェクトに夫々対応させて復号処理を行なうため
に、複数かつ同様の復号部からなる画像復号回路65で
復号される。これら画像復号回路65で復号された各オ
ブジェクトに対応する画像データは、オブジェクトの数
相当の画像データ(v(1)〜v(n))となって、表
示/音声出力制御部39の表示出力制御部69に送ら
れ、表示に関する様々な処理や制御が施される。
【0142】所定の属性を有すオブジェクトに対して、
その再生形態を変更する処理は表示/音声出力制御部3
9の各部で行なわれる。この再生形態の変更例として、
所定のオブジェクト属性として緊急ニュースのテロップ
等の画像オブジェクトを再生したときは、そのオブジェ
クトに対して次の〜のいずれかで追加処理を実行す
る。 内部で発生させたキャラクタ画像によるアイコンオブ
ジェクトと置き換える。 オリジナルの緊急ニュースの画像オブジェクトを再生
する。(更にに加えて、それが録画された時の時刻情
報を付加して表示する) 再生形態の変更とともに、音声オブジェクトを用いて
警告音で知らせる。 無表示にする。
【0143】また、随時自由に再生形態を選ぶこともで
きる。
【0144】このように必要に応じて再生形態を変更し
たオブジェクトを含め、再生した画像オブジェクト及び
音声オブジェクトは、AVデータとしてインターフェー
ス部(I/F)33で混合されて伝送される。
【0145】また、システムデータ(シーン記述データ
や追加データを含む)については、まずデコーダ38の
システムデータ復号回路66でデータが復号される。こ
こで復号されたシステムデータの中から、時刻を判別す
るために必要な時間情報が、時間情報検出部67により
検出される。具体的には、デコード時にシステムデータ
の追加データに含まれる時間情報(クロックデータ)か
ら検出される。こうして検出した時間情報は、システム
コントローラ42に入力され、録画時刻判定の基準とし
て用いることができる。
【0146】また、このシステムデータ復号回路66で
復号されたシステムデータの内、シーン記述に関するデ
ータはシーン記述データ変換回路68に入力される。そ
の他のシステムデータ及び追加データは、システムコン
トローラ42に各種コマンドとして入力され、オブジェ
クト情報はここに含まれる。
【0147】また、シーン記述データ変換回路68の出
力は、音声出力制御部70及び表示出力制御部69に供
給されてシーンの基本形態の出力に用いられ、またシス
テムコントローラ42に送られる。
【0148】オブジェクト生成/制御部40は、その構
成として、所定の属性を有するオブジェクトに対して再
生形態の変換命令を下すオブジェクト制御部71、音声
オブジェクトを生成するための手段である音源74、ア
イコン等の画像オブジェクトを生成するためのキャラク
タ発生部72と、その元データを保持するメモリ(RO
M)73とを含んでいる。ここでオブジェクト制御部7
1は、システムコントローラ42からの指示により所定
の属性を有すオブジェクトを識別して、設定されている
内容に応じて、その表示形態の変更制御を行う。また、
その生成した画像及び音声オブジェクトを再生データへ
挿入するように制御し、更には再生形態の変更タイミン
グ調整を行う。
【0149】その手順としては、システムコントローラ
42から伝達されたオブジェクト情報を基に、属性情報
に基づいて"緊急ニュース"等を対象にしたオブジェクト
コードを識別する。この識別に応じて、音声/表示出力
制御部39の各部へ、そのオブジェクトに対する画像の
再生形態の変更命令を送出する。この際、再生形態を変
更する際に用いるアイコン画像オブジェクトは、メモリ
(ROM)73に記憶された元データを使ってキャラク
タ発生部72にて生成したものであり、このアイコン画
像オブジェクトは表示出力制御部69へ送出される。ま
た警告音に用いる音声オブジェクトは、音源74で生成
したものを音声出力制御部70に送出することにより得
られる。
【0150】なお、再生したオブジェクトを無表示にす
る処理は、オブジェクト制御部71の制御により、当該
オブジェクトのみを表示しない制御によって実現され
る。
【0151】また、本発明の実施の形態に係る機能の一
つとして、オリジナルの表示形態である"緊急ニュース"
等の画像を再生する際、それが発生した時点の時刻表示
を再生画像に合成して表示することもできる。その場
合、メモリ73に記憶された元データを用いて、時間情
報検出部67の出力から得た記録時の時刻情報に基づい
て、その時刻表示オブジェクトをキャラクタ発生部72
で生成し、それを画像オブジェクトの一つとして再生デ
ータに挿入して合成する。
【0152】図11は、上述したオブジェクト制御部7
1における、所定の属性の画像データの再生形態を変更
するための選択手段の機能を説明する図である。
【0153】図において、201は選択部(スイッチ)
を示し、ここでは例えば「緊急ニュース」をそのまま表
示するか、他のアイコンに切替えて表示するか、或いは
無表示にするかを選択できる。スイッチ202は、例え
ば「緊急ニュース」に警告音を付加するかどうかを決定
している。合成部203は、選択部201で選択された
映像と、スイッチ202を通して入力される警告音との
合成を行う。これら各部の機能は、図5の表示出力制御
部69及び音声出力制御部70により実施され、また選
択部201の切り替え命令と、生成したオブジェクトを
挿入するか否かはオブジェクト制御部71により制御さ
れる。
【0154】即ち、再生時において、オブジェクト制御
部71は再生データ中に"緊急ニュース"等を対象にした
オブジェクトコードを識別すると、音声/表示出力制御
部39の各部へ当該オブジェクトに対する再生形態の変
更命令を送出する。その際の当該オブジェクトの再生パ
ターンは、例えば図11に記したように、装置内で生
成した画像オブジェクト「アイコン」を画面左上等の定
められた表示位置(X0,Y0)に表示する。又はオリ
ジナルの画像オブジェクト(緊急情報のテロップ)」再
生して本来の表示位置(X,Y)に表示する。或いは
当該オブジェクトのみを無表示にする、の3通りのうち
のいずれかを選択できる。
【0155】また、オリジナルの画像オブジェクトをそ
のまま表示するときは、録画時刻を示す画像オブジェク
トを、その時の時刻情報を基にキャラクタ発生部72で
生成し画像に多重して付加表示することができる。
【0156】またオブジェクト制御部71では、初期設
定として、所定の属性のオブジェクトを検出すると、そ
のオブジェクトをアイコンで表示するとしておく設定が
望ましい。また、ユーザの好みに応じて、好きなタイミ
ングで選択部201を操作することで、その設定を前述
した3通りのうちから任意に選択できる構成をとるのが
望ましい。
【0157】更に、画像オブジェクトの変更があったこ
とをユーザに警告するために有効な警告音の音声オブジ
ェクトを追加することもできる。これは音源74で生成
した音声オブジェクトを、スイッチ202をオンするこ
とによって、合成器203を介して出力AVデータに合
成させることができる。
【0158】次に、テレビ放送受信装置11及び録画再
生装置12から出力されるAVデータに基づいて映像や
音声を表示する表示装置13について説明する。
【0159】図4は、本実施の形態に係る表示装置13
の構成を示すブロック図である。
【0160】図において、この表示装置13は、バスを
介してインターフェース(I/F)部24からAVデー
タを入力する。この入力したAVデータのうち音声デー
タは音声制御部25において、画像データの表示に同期
したタイミングで出力され、D/Aコンバータ27でア
ナログ信号に変換された後、ステレオスピーカ29から
出力される。また画像データは、表示制御部26で表示
タイミング、表示形態の調整がなされた後、D/Aコン
バータ28でアナログ信号に変換され、CRT30に表
示される。システムコントローラ31は各部の制御を行
い、ユーザからの指示入力は指示入力部32から受け付
けられる。このユーザから受けた指示入力に従って、外
部装置に対して関連するコマンドを伝送する際は、シス
テムコントローラ31は、インターフェース(I/F)
部24を介して外部装置にコマンドデータを出力するこ
とができる。
【0161】なお、この表示装置13は、図4に示した
形態のものに限らず、例えば液晶ディスプレイ(LC
D)等であってもなんら問題はない。
【0162】続いて、本発明の実施の形態に係る動作説
明と、その表示形態の一例を図12及び図13を参照し
て説明する。
【0163】図12(a)は、アニメのオンエア画像の
一画面を示し、録画再生装置12に記録されている本来
のテレビ画像である。このアニメのオンエア画像101
に"緊急ニュース"の一例として、噴火を告げるテロップ
の画像オブジェクト100が追加して表示されている。
【0164】図12(b)は、本実施の形態に係る再生
画像の一例であり、として、図12(a)に示したア
ニメの録画画像を再生するときに、緊急ニュースをアイ
コン103で表示した例を示している。この再生画像1
02において、再生形態変化の対象である"緊急ニュー
ス"のテロップの画像オブジェクトをアイコン(画像オ
ブジェクト)103で置き換えて表示している。
【0165】図12(c)は、図12(b)の表示形態
において、アニメを再生中に、再生画像102に表示し
たアイコン103をマウスカーソル104で指定して、
アイコンの詳細内容(緊急ニュースの内容)を表示させ
るべく命令をしている動作を示す図である。このよう
に、マウスカーソル104を、マウス等の指示入力手段
によって操作し、アイコン103をクリックすることで
命令が実行される。
【0166】図12(d)は、図12(c)で指示され
た命令の応答として、再生パターンの再生の形態を、前
述ので説明したように、オリジナル画像に戻した表示
に変換したときの例を示している。この場合、再生画像
102に"緊急ニュース"のオリジナルの画像オブジェク
ト100が再生されて表示されている。また、付加表示
情報として、そのオリジナル画像が録画されたときの時
刻を知らせる時刻表示オブジェクト110も表示可能で
ある。
【0167】このように、特定の属性を有する画像オブ
ジェクトをアイコンに代えて表示する再生パターン
と、オリジナルのままで表示する再生パターンとを、
簡単な操作で変更指示できる。
【0168】続いて、図13(a)は、映画番組案内の
オンエア中に、そのオンエア画像105に"緊急ニュー
ス"として地震を告げるテロップの画像オブジェクト1
06が表示され、そのまま録画再生装置12に録画され
たテレビ画像の一例を示す図である。
【0169】図13(b)は、図13(a)の録画画像
を再生する際に、再生画像107において、既に説明し
た再生パターンに対応して、"緊急ニュース"のテロッ
プ画像オブジェクト106をアイコン108に置き換え
て再生表示した例を示す図である。ここでは、"緊急ニ
ュース"をアイコン108に、その表示形態を変えたシ
ーンにおいて、再生パターンとして音声オブジェクト
を挿入して警告音(サウンド)109を鳴らして、ユー
ザへの注意を促している。
【0170】図13(c)は、再生パターンとして、
再生画像107において、アイコンも表示せず、"緊急
ニュース"のテロップ画像オブジェクトを無表示にして
再生したときの例を示す図である。
【0171】このように、音声オブジェクトの追加によ
って警告音で知らせる再生パターンと、再生形態の変
換の対象となる画像オブジェクトを完全に無表示にする
再生パターンとも、先に説明した再生パターン及び
と同様に、自由に設定することが可能である。
【0172】図14は、本発明の実施の形態1に係る録
画再生装置における画像の再生処理を説明するフローチ
ャートである。
【0173】前述した録画再生装置12の再生モードに
おいて、録画画像の再生動作が指示されると(ステップ
S101)、ステップS102で、記録媒体35から再
生されたビデオデータをデコーダ38でデコード(復
号)する。そしてステップS103に進み、そのビデオ
データを構成する画像オブジェクトについて、オブジェ
クト情報を解析して、各種オブジェクトコードを基に属
性を調べる。そしてステップS104に進み、その解析
結果に基づいて、その画像オブジェクトに"緊急ニュー
ス"のコードから成る属性の画像オブジェクトがあるか
否かを判別する。なお、ここでは"緊急ニュース"の属性
が、再生形態を変更する対象のオブジェクトとして予め
設定されている場合を示す。
【0174】このステップS104で、再生データ中
に"緊急ニュース"の属性を有す画像オブジェクトがない
場合はステップS110に進み、再生データをそのまま
AVデータとして出力する。
【0175】一方、ステップS104で、再生データ中
に"緊急ニュース"の属性を有す画像オブジェクトがある
場合はステップS105に進み、再生形態の変更を行な
う際の設定値(上述の再生パターンを特定する値)を読
み出す。ここで設定値が"1"であればステップS106
に進み、その"緊急ニュース"画像オブジェクトの出力
を、例えば前述の図12(b)に示すように、所定のア
イコンに変更して出力する(再生パターン)。またス
テップS105で、その設定値が"0"であればステップ
S107に進み、例えば前述の図12(d)に示すよう
に、その"緊急ニュース"の画像オブジェクトをオリジナ
ルのまま再生し、更にステップS108で、そのオンエ
ア時の時刻を表す"時刻表示"の画像オブジェクトを付加
して表示する(再生パターン)。またステップS10
5で、設定値が"2"であればステップS109に進み、
その"緊急ニュース"の画像オブジェクトを無表示にす
る。このときはアイコンも表示しない(再生パターン
)。
【0176】以上3通りの設定値のいずれかが設定され
ることによって、その"緊急ニュース"の画像オブジェク
トは、その再生形態が変更され、再生された他のデータ
とともにAVデータとして表示出力される(ステップS
110)。
【0177】次にステップS111に進み、例えば前述
の図12(c)で示すように、マウスカーソル104を
用いて、その設定値の変更が指示されたかどうかを調
べ、指示された場合はステップS112に進み、その設
定指示に従って、新たに設定された設定値に変更する。
尚、この設定値は、例えば録画再生装置12の指示入力
部43から入力されてもよい。このようにして、所定の
属性を有する画像オブジェクトの表示・再生形態を容易
に変更できる。こうして設定値が変更された後は再びス
テップS104において、"緊急ニュース"画像オブジェ
クトがあったかどうかが判断され、あればステップS1
05に進み、その新たに設定された設定値に従って再生
形態が変更される。
【0178】また、設定値の変更が必要でない時は、ユ
ーザ命令、又はシステムの要因によって再生モードが終
了となるまでステップS101よりの動作を繰り返し実
行し、ステップS113で再生終了となると、その動作
を停止して、この再生処理が終了する。
【0179】尚、本実施の形態1では、再生形態の変更
の対象として、所定の属性を有するオブジェクトを"緊
急ニュース"(テロップ)の画像オブジェクトを例にし
て説明したが、本発明はこれに限定されるものではな
く、例えば"選挙速報"や"天気予報画像"などの各種テロ
ップ、又は"映画の字幕"などといった、ユーザが再生形
態の変更を適用したい画像又は音声などの、全てのオブ
ジェクトを対象に実現可能である。
【0180】また、本実施の形態に係る録画再生装置1
2からの画像及び音声データの出力先は、上記に説明し
た表示装置13のみに限らず、他の録画再生装置へ、即
ちダビングの場合にも適用できる。
【0181】以上説明したように本実施の形態1によれ
ば、録画画像の再生時に、所定の属性の画像オブジェク
トのみの再生形態を変更することができるので、ユーザ
にとって不要な画像を消したり、或いは別の画像データ
表示できるので、ユーザに対して、より親切で視覚効果
の高いビデオ再生機能を提供できる。
【0182】[実施の形態2]次に、本発明の実施の形
態2について説明する。この実施の形態2では、再生形
態の変更機能を適用した表示装置75について説明す
る。
【0183】図6は、本発明の実施の形態2に係るMP
EG−4のビデオデータを録画再生する録画再生装置7
5の構成を示すブロック図である。この録画再生装置7
5は、前述の図3で説明した録画再生装置12に含まれ
るオブジェクト生成/制御部40を備えていない点が、
前述の録画再生装置12と異なっている。尚、この図6
において、図3で説明した各部と共通する部分について
は同一符号を付して、その説明を省略する。
【0184】この録画再生装置75は、再生時、MPE
G−4のビデオデータをデコードして得たAVデータ、
及びデコード時に検出したオブジェクト情報を含んだサ
ブデータをインターフェース部(I/F)33からバス
を介して外部機器へ出力する。
【0185】図7は、この実施の形態2に係る録画再生
装置75に対応するMPEG−4のオブジェクトの再生
に対応した表示装置76の構成を示すブロック図であ
る。この表示装置76は、図6の録画再生装置75、又
は図2のテレビ放送受信装置11からテレビデータを受
信して表示することが可能である。
【0186】この表示装置76は、前述の図4で説明し
た表示装置13に追加機能として、表示形態及び音声出
力形態を総括して「再生形態」と定義した上で、その再
生形態を、所定のオブジェクトに対して変更せしめる機
能を具備するものである。この図7において、前述の図
4で示す部分と共通する部分は同じ符号で示し、その説
明を省略する。
【0187】表示装置76は、図6の録画再生装置7
5、又はテレビ放送受信装置11から出力されたAVデ
ータ及びサブデータをインターフェース部(I/F)2
4を介して入力し、サブデータからAVデータに附随す
る時間情報を時間情報検出部77で検出し、またオブジ
ェクト情報をオブジェクト情報検出部78でそれぞれ検
出する。また、入力したオーディオデータは音声制御部
25により処理されてD/Aコンバータ27に送られて
再生される。また画像データは、表示制御部26で処理
されて表示制御される。
【0188】ここで、入力した画像又はオーディオデー
タを構成するオブジェクトの内、所定の属性を有するオ
ブジェクトに対して、その再生形態を変更する処理は表
示制御部26及び音声出力制御部25の各部で行なわれ
る。この再生形態の変更例として、所定のオブジェクト
属性を有する画像オブジェクトを受信したときは、その
オブジェクトに対して、次の〜の内のいずれかで追
加処理を実行する。 内部で発生させたキャラクタ画像による"アイコン"オ
ブジェクトと置き換える。 オリジナルのオブジェクトを再現する。(更にに加
えてデータに付随する時刻情報を基に"時刻表示"の画像
オブジェクトを付加して表示する) 再生形態の変更とともに、音声オブジェクトを用いて
警告音で知らせる。 無表示にする。
【0189】また、随時自由に再生形態を選ぶこともで
きる。
【0190】時刻を判別するために必要な時間情報は、
時間情報検出部77を用いて、サブデータ中に含まれる
時間情報から検出する。こうして検出された時間情報は
システムコントローラ31に入力されて、"時刻表示"画
像オブジェクト生成に用いられる。
【0191】オブジェクト制御部79は、再生形態を変
える対象として予め設定されているオブジェクトに対し
て、再生(即ち、表示及び/または音声出力)形態の変
更命令を発行し、音声オブジェクトを生成するための手
段である音源82、アイコン等画像オブジェクトを生成
するためのキャラクタ発生部80と、その元データを保
持するメモリ(ROM)81とを具備して、制御してい
る。
【0192】オブジェクト制御部79は、オブジェクト
情報からオブジェクトの属性の識別と、その表示制御、
及び生成した画像及び音声オブジェクトを再生データに
挿入するように制御し、また再生形態の変更タイミング
調整を行う。その手順としては、オブジェクト情報検出
部78で検出され、システムコントローラ31から伝達
されたオブジェクト情報を基に、その再生形態を変える
べき所定の属性を有するオブジェクトコードを識別する
と、音声制御部25及び表示制御部26の各部へ、その
オブジェクトに対する再生形態の変更命令を送出する。
【0193】更に、その再生形態を変更する際に用いら
れるアイコン画像オブジェクトは、メモリ(ROM)8
1の元データを使ってキャラクタ発生部80にて生成し
たものを表示制御部26に送出する。また、警告音に用
いる音声オブジェクトは、音源82で生成したものを音
声制御部70へと送出する。
【0194】なお、再生したオブジェクトの無表示処理
は、そのオブジェクトのみを表示しない制御によって処
理する。
【0195】これら再生形態の制御は、図13を用いて
実施の形態1で説明したものと同様である。
【0196】また、時刻表示を再生画像に合成して表示
する場合は、メモリ81の元データを用いて、時間情報
検出部77の出力から得た時刻情報に基づいて、その時
刻表示オブジェクトをキャラクタ発生部80で生成し、
それを画像オブジェクトの一つとして、再生データに挿
入して合成する。
【0197】このように、必要に応じて再生形態を変更
したオブジェクト含め、画像オブジェクトからなる画像
データはCRT30に出力されて表示され、また音声オ
ブジェクトからなるオーディオデータは、スピーカ29
から出力される。
【0198】このようにして表示装置において非表示処
理、オブジェクト置換処理がなされた入力画像の表示形
態は、前述の実施の形態1で例示したのと同様に、図1
2(a)乃至(d)及び図13(a)乃至(c)に示す
ように、自在な表示が可能である。
【0199】次に、本発明の実施の形態2に係る表示装
置における表示モードに応じた再生形態の制御について
図15のフローチャートを参照して説明する。
【0200】まずステップS201で、表示装置76
は、表示モードにおいて、入力されたAVデータを受信
し、ステップS202で、これをデコードする。その後
ステップS203に進み、画像データを構成する画像オ
ブジェクトについては、そのオブジェクト情報を解析し
て、各種オブジェクトコードを基に、その属性を調べ
る。そしてステップS204で、解析結果の中に、例え
ば、"緊急ニュース"や"映画字幕"などの、予め設定され
た属性の画像オブジェクトがあるかどうかを調べる。
【0201】ステップS204で、入力データ中に該当
する属性のオブジェクトがない場合はステップS209
に進み、そのままの形態で出力する。一方、ステップS
204で、入力データ中に該当する属性を有すオブジェ
クトがある場合はステップS205に進み、再生形態の
変更を行なう際の設定値を読み出す。
【0202】ここで設定値が"1"であればステップS2
06に進み、その画像オブジェクトを生成したアイコン
に変更して出力する(再生パターン)。また設定値
が"0"であればステップS207に進み、その画像オブ
ジェクトをオリジナルのまま出力する(再生パターン
)。またステップS205で、その設定値が"2"であ
ればステップS208に進み、その画像オブジェクトの
出力を無表示にする。このときはアイコンも表示しない
(再生パターン)。
【0203】以上、3通りの設定値のいずれかによっ
て、その画像オブジェクトの再生形態が変更されて、他
の表示データ及び/或いは音声データとともに出力され
る(ステップS209)。
【0204】ここで、この設定値は任意に変更できる
が、ステップS210で、前述のステップS111と同
様に、この設定値を変更指示が入力されたかどうかを判
定し、指示された時はステップS211に進み、指示入
力部32から入力される新たな設定値を設定することに
より簡単に変更できる。こうして設定値が変更された後
は、再びステップS204において、その再生形態を変
える画像オブジェクトがあった場合はステップS205
に進み、変更された最新の設定値に基づいて、その指定
された属性を有する画像オブジェの表示形態が変更され
る。
【0205】尚、ステップS210で、設定値の変更が
必要でないときはステップS212に進み、表示モード
が続く限りステップS201よりの動作を繰り返し実行
し、ステップS212で表示終了となるまで、前述の動
作を実行する。
【0206】以上説明したように本実施の形態2によれ
ば、表示装置における表示形態及び音声出力形態を再生
形態として、その再生形態の変更を"緊急ニュース"や"
映画字幕"等の画像オブジェクトを対象に設定して容易
に実現できる。
【0207】尚、本実施の形態2では、"緊急ニュース"
や"映画字幕"といった画像オブジェクトを例にして説明
したが、本発明はこれに限定されるものではなく、ユー
ザが再生形態の変更を適用したい画像又は音声など、全
てのオブジェクトを対象にすることが可能である。
【0208】これにより、画像を表示する際に不要と判
断するオブジェクトのみを隠すことができるので、ユー
ザに対してより適切に、かつ視覚効果の高い表示が可能
になる。
【0209】<その他の実施形態>その他の実施形態と
して、これまで説明してきた本実施の形態の前提となる
MPEG−4符号化方式のテレビ放送データ(ビデオデ
ータ)を、MPEG−2符号化方式のテレビ放送データ
(ビデオデータ)の一部に組み込んだ上で実現する実施
の形態について説明する。
【0210】図16は、本実施の形態に係るMPEG−
2符号化方式のデジタルテレビ放送で用いられる、MP
EG−2データストリームの伝送形式であるMPEG−
2トランスポートストリームのデータ構造を示す図であ
る。
【0211】このMPEG−2トランスポートストリー
ムは、固定長のトランスポートパケットによって多重及
び分離される。このトランスポートパケットのデータ構
造は、図16に示したように階層的に表され、それぞれ
図示した項目を含む。順に説明すると、8ビットの同期
信号(sync)、パケット内のビットエラーの有無を示す
誤り表示(エラーインジケータ)、このパケットのペイ
ロードから新たなユニットが始まることを示すユニット
開始表示、このパケットの重要度を示すプライオリティ
(パケット優先度)、個別ストリームの属性を示す識別
情報PID(Packet Identification)、スクランブルの
有無とその種別を示すスクランブル制御、このパケット
のアダプテーションフィールドの有無及びペイロードの
有無を示すアダプテーションフィールド制御、同じPI
Dをもつパケットが途中で一部棄却されたかどうかを検
出するための情報である巡回カウンタ、付加情報やスタ
ッフィングバイトをオプションで入れることができるア
ダプテーションフィールド、及びペイロード(情報)で
構成されている。更に、このアダプテーションフィール
ドは、フィールド長、及びその他の個別ストリームに関
する各種項目と、オプショナルフィールド、スタッフィ
ングバイト(無効データ・バイト)が入り、本実施の形
態では、付加データの一つとしてMPEG−4のビット
ストリームをこのフィールドに多重している。以上が、
MPEG−2テレビ放送のトランスポートパケットの構
成の説明である。
【0212】ここで、上記説明したトランスポートスト
リームを用いたMPEG−2方式のテレビ放送におい
て、MPEG−2のシステムデータに付加データとして
多重したMPEG−4ビットストリームに、所望の画像
オブジェクト及び時間情報やオブジェクト情報等のシス
テムデータを組み込んだ場合を考えて、本実施の形態に
係る所定オブジェクトの再生形態の変更機能を実現す
る。
【0213】このとき図16に示したように、微小なデ
ータ量のCG等からなる画像オブジェクト(図16のオ
ブジェクトA,B,C)、各オブジェクトのシーン記述
情報(BIFS)、システムデータとして時間情報及び画像
オブジェクト情報を識別するためのオブジェクト情報な
どをMPEG−4ビットストリームとして、MPEG−
2のシステムデータの、上記アダプテーションフィール
ドの所定領域に多重させて送信することで実現する。ま
たMPEG−4データを多重した領域の前(又は前後)
には、MPEG−4データの存在を示すIDを付加して
おき、これをデータ識別に用いる。
【0214】MPEG−2の一部に組み込まれた前記C
G等の画像データについては、前述の実施の形態1及び
2で説明した通常のMPEG−4画像データの如く、オ
ブジェクトの再生形態の変更も可能として構成される。
【0215】この場合は、MPEG−2のビットストリ
ームからMPEG−4の存在を示すIDを識別し、MP
EG−4データを個別に抽出できさえすれば、そこから
画像オブジェクト、オブジェクト情報、時間情報をそれ
ぞれ抽出できるので、特定オブジェクトの再生形態の変
更も、実施の形態1又は2の構成を基に容易に実現可能
であり、この方法や動作については、既に説明したもの
と同様である。
【0216】このように構成することで、MPEG−4
テレビ放送に限らず、MPEG−4データを組み込んだ
MPEG−2テレビ放送、又はビデオデータにおいても
本発明の実施の形態を適用できる。
【0217】また、MPEG−2とMPEG−4とで
は、共通化できる符号/復号化回路も多数あるので、シ
ステムの効率化に加え、回路構成も複雑な構成を必要と
せずに効果的に実現できるメリットもある。もちろん、
ソフトデコーダの場合でも、システムの効率化が図れる
ことは言うまでもない。
【0218】上記の如く構成することによって、本実施
の形態に係る所定オブジェクトの再生形態を変更する機
能は、MPEG−2をベースにしたテレビ放送システム
であっても、テロップ画像等からなるMPEG−4オブ
ジェクトを多重した場合でも容易に適応できる。
【0219】[他の実施形態]なお本発明は、複数の機
器(例えばホストコンピュータ、インターフェース機
器、リーダ、プリンタなど)から構成されるシステムに
適用しても、一つの機器からなる装置(例えば、複写
機、ファクシミリ装置など)に適用してもよい。
【0220】また本発明の目的は、前述した実施の形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システム或いは
装置に供給し、そのシステム或いは装置のコンピュータ
(又はCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても達成され
る。この場合、記憶媒体から読み出されたプログラムコ
ード自体が前述した実施形態の機能を実現することにな
り、そのプログラムコードを記憶した記憶媒体は本発明
を構成することになる。また、コンピュータが読み出し
たプログラムコードを実行することにより、前述した実
施形態の機能が実現されるだけでなく、そのプログラム
コードの指示に基づき、コンピュータ上で稼働している
オペレーティングシステム(OS)などが実際の処理の
一部または全部を行い、その処理によって前述した実施
形態の機能が実現される場合も含まれる。
【0221】更に、記憶媒体から読み出されたプログラ
ムコードが、コンピュータに挿入された機能拡張カード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張カードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれる。
【0222】以上説明したように本実施の形態によれ
ば、録画した時点(過去)においては価値があったが、
再生している現時点では特に意味を持たない画像オブジ
ェクトの表示に際して、その画像オブジェクトのみの再
生形態を容易に変更することができる。これにより、テ
レビ放送を録画して再生する場合に、新たな機能を追加
することができる。
【0223】また本実施の形態によれば、上記の如く構
成した装置やシステムによって、ユーザに対して、より
親切で視覚効果の高いビデオ表示が可能になり、ユーザ
インターフェースの質を大きく向上できる。
【0224】また本実施の形態によれば、MPEG−2
符号化方式でのテレビ放送システムに、MPEG−4の
ビットストリームを組み込むことが可能であり、既存の
システムを活用する点でも有効である。
【0225】またデジタルテレビ放送においては、パー
ソナルコンピュータ(PC)との融合も容易になり、現
在PCデスクトップ上で行っているようなレイアウト設
定などを、テレビ画像に関してもカスタマイズにできる
ので、テレビ放送とPCとの親和性も良くなり、またデ
ジタル複合製品の分野において市場拡大の効果が期待で
きる。
【0226】尚、上述の実施の形態では、受信装置、録
画再生装置及び表示装置で構成される受信再生システム
の場合で説明したが本発明はこれに限定されるものでな
く、これら装置が一体的に一つの装置として構成された
録画機能付きテレビジョン受像機等のような装置にも適
用できる。
【0227】
【発明の効果】以上説明したように本発明によれば、録
画された映像の再生時、所定の映像はそのまま表示せず
に、その表示形態を変更して表示できる。
【0228】また本発明によれば、録画された映像の再
生時には意味があったが、その再生時には意味のない映
像を非表示にしたり、或いは必要に応じて他の表示形態
に変更して表示できるという効果がある。
【図面の簡単な説明】
【図1】本発明の実施の形態に係るテレビ受信再生シス
テムの構成を示すブロック図である。
【図2】本実施の形態に係るデジタルテレビ放送受信装
置の構成を示すブロック図である。
【図3】本実施の形態1に係る録画再生装置の構成を示
すブロック図である。
【図4】本実施の形態1に係る表示装置の構成を示すブ
ロック図である。
【図5】図3の録画再生装置の構成を詳細に示すブロッ
ク図である。
【図6】本発明の実施の形態2に係る録画再生装置の構
成を示すブロック図である。
【図7】本実施の形態2に係る表示装置の構成を示すブ
ロック図である。
【図8】従来のデジタルテレビ放送受信システムの構成
を示すブロック図である。
【図9】MPEG−4データのビットストリームの構成
を説明するための図である。
【図10】本実施の形態に係るオブジェクト情報の構成
を説明する概念図である。
【図11】図5のオブジェクト制御部における再生形態
の変更を説明するための図である。
【図12】本発明の実施の形態1に係る再生表示例を説
明する図である。
【図13】本発明の実施の形態1に係る再生表示・出力
例を説明する図である。
【図14】本発明の実施の形態1に係る再生処理の手順
を説明するフローチャートである。
【図15】本発明の実施の形態2に係る再生処理の手順
を説明するフローチャートである。
【図16】MPEG−2データのトランスポートストリ
ームのデータ構成を説明するための図である。
【図17】MPEG−4の全体構成を説明する図であ
る。
【図18】MPEG−4のコードを受信して復号・表示
するシステム構成例を示すブロック図である。
【図19】ビデオオブジェクトに関するVOP処理回路
ブロックの内、エンコーダを示すブロック図である。
【図20】ビデオオブジェクトに関するVOP処理回路
ブロックの内、デコーダを示すブロック図である。
【図21】VOPの符号化及び復号化処理の全体構成を
示すブロック図である。
【図22】ビデオ符号化器の構成を示すブロック図で、
(a)はオブジェクト単位の符号化の場合を示し、
(b)はフレーム単位の符号化の場合を示す図である。
【図23】階層符号化を説明する図で、(a)は時間ス
ケラービリティの場合を示し、(b)は空間スケラービ
リティの場合を示す。
【図24】画像の移動・回転・拡大・変形等、3次元空
間での視点移動などを表現するワープを説明する図で、
(a)はワープの種類を示し、(b)はワープの概念図
である。
【図25】スプライト画像の一例を示す図である。
【図26】シーン記述情報の構成を説明する図である。
【図27】MPEG−4オーディオの符号化方式の種類
を示す図である。
【図28】MPEG−4オーディオ符号化方式の構成を
示すブロック図である。
【図29】MPEG4のシステム構造を説明する図であ
る。
【図30】MPEG−4のストリーム構造のレイヤを示
す図である。
【図31】通常のVLCによる片方向復号(a)と、逆
方向復号(b)とを説明する図である。
【図32】符号化データにおける誤り耐性の手法を説明
する図である。
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/24 H04N 7/13 Z Fターム(参考) 5C023 AA18 AA34 AA38 BA01 BA11 CA05 EA03 5C025 BA09 BA25 BA28 CA09 DA01 5C053 FA20 FA24 GB21 HA40 JA16 KA01 LA06 5C059 KK00 MA00 MB21 MB29 RB18 RC32 RC33 RC34 SS02 SS13

Claims (21)

    【特許請求の範囲】
  1. 【請求項1】 記録されたデジタルデータ列を再生して
    表示する画像処理装置であって、 前記デジタルデータ列に所定の属性を有するオブジェク
    トがあるか否かを判定する判定手段と、 複数備える再生形態から、前記所定の属性を有するオブ
    ジェクトの再生形態を指定する指定手段と、 前記判定手段により前記所定の属性を有するオブジェク
    トがあると判定されると、前記所定の属性を有するオブ
    ジェクトに対応する画像を、前記指定手段により指定さ
    れた再生形態で再生する再生制御手段と、を有すること
    を特徴とする画像処理装置。
  2. 【請求項2】 前記指定手段により指定される再生形態
    は、前記所定の属性に対応するアイコンによる再生を含
    むことを特徴とする請求項1に記載の画像処理装置。
  3. 【請求項3】 前記指定手段により指定される再生形態
    は、更に、音声オブジェクトによる再生を含むことを特
    徴とする請求項1又は2に記載の画像処理装置。
  4. 【請求項4】 前記指定手段により指定される再生形態
    は、前記所定の属性を有するオブジェクトを非表示にす
    ることを含むことを特徴とする請求項1乃至3のいずれ
    か1項に記載の画像処理装置。
  5. 【請求項5】 前記指定手段により指定される再生形態
    は、更に、前記デジタルデータ列が記録された時の時刻
    情報の表示を含むことを特徴とする請求項1乃至3のい
    ずれか1項に記載の画像処理装置。
  6. 【請求項6】 前記所定の属性は、緊急ニュースのテロ
    ップを含むことを特徴とする請求項1乃至5のいずれか
    1項に記載の画像処理装置。
  7. 【請求項7】 前記指定手段は、 再生された前記アイコンを表示画面上で指示する指示手
    段と、 前記指示手段による指示操作に応じて前記再生形態の指
    定するための設定値を変更する手段とを有することを特
    徴とする請求項1乃至6のいずれか1項に記載の画像処
    理装置。
  8. 【請求項8】 前記デジタルデータ列はデジタルテレビ
    ジョン用のMPEG−4方式で符号化されたデータ列で
    主データと副データを有し、前記主データは所定のオブ
    ジェクト単位ごとに分割処理された複数オブジェクトを
    有するデータであり、前記副データは前記オブジェクト
    の属性情報を含むことを特徴とする請求項1乃至7のい
    ずれか1項に記載の画像処理装置。
  9. 【請求項9】 前記デジタルデータ列は、MPEG−4
    方式で符号化されたオブジェクトと、MPEG−2方式
    のビットストリームに多重した前記副データを含むデジ
    タルテレビジョン用のデータ列であることを特徴とする
    請求項8に記載の画像処理装置。
  10. 【請求項10】 前記指定手段による指定は、前記所定
    の属性を有するオブジェクトの再生中に実行可能である
    ことを特徴とする請求項1乃至9のいずれか1項に記載
    の画像処理装置。
  11. 【請求項11】 記録されたデジタルデータ列を再生し
    て表示する画像処理装置における画像処理方法であっ
    て、 前記デジタルデータ列に所定の属性を有するオブジェク
    トがあるか否かを判定する判定工程と、 複数備える再生形態から、前記所定の属性を有するオブ
    ジェクトの再生形態を指定する指定工程と、 前記判定工程で前記所定の属性を有するオブジェクトが
    あると判定されると、前記所定の属性を有するオブジェ
    クトに対応する画像を、前記指定工程で指定された再生
    形態で再生する再生制御工程と、を有することを特徴と
    する画像処理方法。
  12. 【請求項12】 前記指定工程で指定される再生形態
    は、前記所定の属性に対応するアイコンによる再生を含
    むことを特徴とする請求項11に記載の画像処理方法。
  13. 【請求項13】 前記指定工程で指定される再生形態
    は、更に、音声オブジェクトによる再生を含むことを特
    徴とする請求項11又は12に記載の画像処理方法。
  14. 【請求項14】 前記指定工程で指定される再生形態
    は、前記所定の属性を有するオブジェクトを非表示にす
    ることを含むことを特徴とする請求項11乃至13のい
    ずれか1項に記載の画像処理方法。
  15. 【請求項15】 前記指定工程で指定される再生形態
    は、更に、前記デジタルデータ列が記録された時の時刻
    情報の表示を含むことを特徴とする請求項11乃至14
    のいずれか1項に記載の画像処理方法。
  16. 【請求項16】 前記所定の属性は、緊急ニュースのテ
    ロップを含むことを特徴とする請求項11乃至15のい
    ずれか1項に記載の画像処理方法。
  17. 【請求項17】 前記指定工程は、 再生された前記アイコンを表示画面上で指示する指示工
    程と、 前記指示工程による指示操作に応じて前記再生形態の指
    定するための設定値を変更する工程とを有することを特
    徴とする請求項11乃至16のいずれか1項に記載の画
    像処理方法。
  18. 【請求項18】 前記デジタルデータ列はデジタルテレ
    ビジョン用のMPEG−4方式で符号化されたデータ列
    で主データと副データを有し、前記主データは所定のオ
    ブジェクト単位ごとに分割処理された複数オブジェクト
    を有するデータであり、前記副データは前記オブジェク
    トの属性情報を含むことを特徴とする請求項11乃至1
    7のいずれか1項に記載の画像処理方法。
  19. 【請求項19】 前記デジタルデータ列は、MPEG−
    4方式で符号化されたオブジェクトと、MPEG−2方
    式のビットストリームに多重した前記副データを含むデ
    ジタルテレビジョン用のデータ列であることを特徴とす
    る請求項18に記載の画像処理方法。
  20. 【請求項20】 前記指定工程における指定は、前記所
    定の属性を有するオブジェクトの再生中に実行可能であ
    ることを特徴とする請求項11乃至19のいずれか1項
    に記載の画像処理方法。
  21. 【請求項21】 請求項11乃至20のいずれか1項に
    記載の画像処理方法を実行するプログラムを記憶したこ
    とを特徴とするコンピュータにより読取り可能な記憶媒
    体。
JP2000257957A 2000-02-09 2000-08-28 画像処理方法及び装置と再生方法とプログラム及び記憶媒体 Expired - Fee Related JP4343411B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2000257957A JP4343411B2 (ja) 2000-08-28 2000-08-28 画像処理方法及び装置と再生方法とプログラム及び記憶媒体
EP12184434.4A EP2538667A3 (en) 2000-02-09 2001-02-09 Method and apparatus for image processing which inhibits reproduction of parts of a recording
EP01301174A EP1124379A3 (en) 2000-02-09 2001-02-09 Method and apparatus for inhibiting reproduction of parts of a recording
US09/779,532 US7054539B2 (en) 2000-02-09 2001-02-09 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000257957A JP4343411B2 (ja) 2000-08-28 2000-08-28 画像処理方法及び装置と再生方法とプログラム及び記憶媒体

Publications (3)

Publication Number Publication Date
JP2002077789A true JP2002077789A (ja) 2002-03-15
JP2002077789A5 JP2002077789A5 (ja) 2007-03-29
JP4343411B2 JP4343411B2 (ja) 2009-10-14

Family

ID=18746333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000257957A Expired - Fee Related JP4343411B2 (ja) 2000-02-09 2000-08-28 画像処理方法及び装置と再生方法とプログラム及び記憶媒体

Country Status (1)

Country Link
JP (1) JP4343411B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005005795A (ja) * 2003-06-09 2005-01-06 Toshiba Corp ユーザのプリファレンスに応じて映像オブジェクトの表示方法の変更を支援する映像呈示装置および方法ならびにプログラム
WO2005076630A1 (ja) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. 復号化装置、符号化装置、補間フレーム生成システム、集積回路装置、復号化プログラムおよび符号化プログラム
JP2007259043A (ja) * 2006-03-23 2007-10-04 Hitachi Ltd メディア認識システム
KR101158435B1 (ko) * 2006-03-03 2012-06-22 엘지전자 주식회사 이동통신 단말기와 우선순위 정보 데이터를 이용한 방송시스템 및 이를 이용한 방송 방법
JP2013085150A (ja) * 2011-10-11 2013-05-09 Toshiba Corp デジタル放送録画再生装置およびデジタル放送録画再生方法
JP2015195474A (ja) * 2014-03-31 2015-11-05 株式会社Jvcケンウッド 映像符号化データ送信装置、映像符号化データ送信方法、映像符号化データ受信装置、及び映像符号化データ送受信システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005005795A (ja) * 2003-06-09 2005-01-06 Toshiba Corp ユーザのプリファレンスに応じて映像オブジェクトの表示方法の変更を支援する映像呈示装置および方法ならびにプログラム
WO2005076630A1 (ja) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. 復号化装置、符号化装置、補間フレーム生成システム、集積回路装置、復号化プログラムおよび符号化プログラム
US8160143B2 (en) 2004-02-03 2012-04-17 Panasonic Corporation Decoding device, encoding device, interpolation frame creating system, integrated circuit device, decoding program, and encoding program
KR101158435B1 (ko) * 2006-03-03 2012-06-22 엘지전자 주식회사 이동통신 단말기와 우선순위 정보 데이터를 이용한 방송시스템 및 이를 이용한 방송 방법
JP2007259043A (ja) * 2006-03-23 2007-10-04 Hitachi Ltd メディア認識システム
JP2013085150A (ja) * 2011-10-11 2013-05-09 Toshiba Corp デジタル放送録画再生装置およびデジタル放送録画再生方法
JP2015195474A (ja) * 2014-03-31 2015-11-05 株式会社Jvcケンウッド 映像符号化データ送信装置、映像符号化データ送信方法、映像符号化データ受信装置、及び映像符号化データ送受信システム

Also Published As

Publication number Publication date
JP4343411B2 (ja) 2009-10-14

Similar Documents

Publication Publication Date Title
US6377309B1 (en) Image processing apparatus and method for reproducing at least an image from a digital data sequence
US7054539B2 (en) Image processing method and apparatus
US8081870B2 (en) Receiving apparatus and method
Haskell et al. Digital video: an introduction to MPEG-2
Puri et al. MPEG‐4: An object‐based multimedia coding standard supporting mobile applications
Koenen MPEG-4 multimedia for our time
US6567427B1 (en) Image signal multiplexing apparatus and methods, image signal demultiplexing apparatus and methods, and transmission media
US20070206932A1 (en) Apparatus and method for image coding and decoding
JP4588795B2 (ja) 画像符号化装置および画像符号化方法
US20060140281A1 (en) Video coding apparatus and video decoding apparatus
Schafer MPEG-4: a multimedia compression standard for interactive applications and services
JP3927713B2 (ja) 放送受信装置およびその方法
JP4306850B2 (ja) 放送受信装置およびその方法
JP4343411B2 (ja) 画像処理方法及び装置と再生方法とプログラム及び記憶媒体
JP4289753B2 (ja) 再生方法及び装置と表示装置
JP4401463B2 (ja) 放送受信装置及びその方法
JP2004537931A (ja) シーンを符号化する方法及び装置
JPH104539A (ja) データ多重化方法及び多重データ再生装置
Puri et al. Overview of the MPEG Standards
JP2001016582A (ja) 画像処理装置およびその方法
Law et al. The MPEG-4 Standard for Internet-based multimedia applications
Puri et al. Scene description, composition, and playback systems for MPEG-4
Puri et al. AT&T Labs, Red Bank, New Jersey
Pereira MPEG-4: concepts, tools and applications
Danielsen MPEG-4 for DTV

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070209

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070209

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090629

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090709

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4343411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130717

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees