JP2002077789A - 画像処理方法及び装置 - Google Patents
画像処理方法及び装置Info
- Publication number
- JP2002077789A JP2002077789A JP2000257957A JP2000257957A JP2002077789A JP 2002077789 A JP2002077789 A JP 2002077789A JP 2000257957 A JP2000257957 A JP 2000257957A JP 2000257957 A JP2000257957 A JP 2000257957A JP 2002077789 A JP2002077789 A JP 2002077789A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- image processing
- reproduction
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
が、その再生時には意味のない所望を非表示にしたり、
或いは他の表示形態に変更して表示する。 【解決手段】 記録されたデジタルデータ列を再生して
表示する録画再生装置であって、システムデータ復号回
路66から出力されるオブジェクト情報に基づいて、シ
ステムコントローラ42及びオブジェクト制御部71
は、入力したデジタルデータ列に、例えば緊急ニュース
の属性を有するオブジェクトがあるか否かを判定し、そ
の属性を有するオブジェクトがあると判定されると、オ
ブジェクト制御部71により、その属性を有するオブジ
ェクトに対応する画像を、非表示にしたり、或いはキャ
ラクタ発生部72からのアイコンで表示したり、或いは
音源82からの音響を付加して再生する。
Description
送の録画再生及び表示する際に好適な画像処理方法及び
装置に関するもので、そのようなデジタルテレビ放送を
受信して録画する録画再生装置や、そのような録画機能
を備えたテレビジョン受像機、テレビジョン表示装置等
にも適用可能である。
タルテレビ放送が普及してきている。このようなデジタ
ルテレビ放送の実現により、画質や音声の品質向上、圧
縮技術を利用することによる番組の種類や量の増大、イ
ンタラクティブサービスなどを利用した新しいサービス
の提供、受信形態の進化等、多くの効果が期待されてい
る。
放送受信装置8、及びその表示装置6、録画再生装置7
の接続例を示す図である。
アンテナ1で受信する。この受信したテレビ情報は受信
装置8においてチューナ2で選局され復調される。その
後、不図示の誤り訂正処理や、必要であれば課金対応や
デスクランブル処理等がなされる。次に、TV情報とし
て多重されている各種データを多重信号分離回路3でそ
れぞれ分離する。こうして分離されたテレビ情報は、画
像情報、音声情報、その他の付加データとなる。更に、
これら分離された各データのそれぞれを復号回路4で復
号する。こうして復号された各データのうち、画像情報
と音声情報とをD/A変換回路5でアナログ信号に変換
する。こうして変換されたアナログ信号を基に、外部に
接続された表示装置であるTV6において、映像及び音
声が出力される。また付加データは、番組サブデータと
しての役割を果たすために、各種機能に関与するデータ
を含んでいる。
置(DVD/VTR)7に録画するときは、チューナ2
の出力を録画再生装置7に出力することにより行なう。
この録画再生装置7の一例としては、録画再生可能なD
VD(デジタル・ビデオ・ディスク)やデジタルVTR
である。ここで、受信装置8と録画再生装置7との間は
データバス等で接続されている。この録画再生装置7に
おける記録方式はデジタル記録方式であり、ビットスト
リーム記録される。
送、及び上述した衛星放送によるデジタルテレビ放送を
加えても、テレビ番組を家庭のテレビに表示する方法
は、基本的に放送局から送信されてくる画像をそのまま
表示するのが一般的である。また同様に、テレビ放送を
録画したVTRを再生する際も、その録画時のデータを
そのまま再生するように設計されている。
又はVTRの録画再生表示等において、状況に応じて、
より効果的に、その録画された映像の表示形態を変化さ
せて表示することは、従来の技術では大変困難である。
また、録画された映像の表示形態を変えることは、デジ
タルテレビ放送がより多チャンネル化、多プログラム化
していく過程で、より効果的な表示方法の一つと考えら
れるが、この機能の実現は未だなされていない。
例えば録画したテレビ情報を録画再生装置で再生する際
に、その録画時には重要であった"地震ニュース情報"等
の臨時ニュースなどのテロップ表示は、再生時には意味
のない場合が多いが、その様な表示は、録画時のまま表
示されているのが現状である。
で、録画された映像の再生時、所定の映像はそのまま表
示せずに、その表示形態を変更して表示できるようにし
た画像処理方法及び装置を提供することを目的とする。
生時には意味があったが、その再生時には意味のない映
像を非表示にしたり、或いは必要に応じて他の表示形態
に変更して表示できる画像処理方法及び装置を提供する
ことにある。
に本発明の画像処理装置は以下のような構成を備える。
即ち、記録されたデジタルデータ列を再生して表示する
画像処理装置であって、前記デジタルデータ列に所定の
属性を有するオブジェクトがあるか否かを判定する判定
手段と、複数備える再生形態から、前記所定の属性を有
するオブジェクトの再生形態を指定する指定手段と、前
記判定手段により前記所定の属性を有するオブジェクト
があると判定されると、前記所定の属性を有するオブジ
ェクトに対応する画像を、前記指定手段により指定され
た再生形態で再生する再生制御手段と、を有することを
特徴とする。
理方法は以下のような工程を備える。即ち、記録された
デジタルデータ列を再生して表示する画像処理装置にお
ける画像処理方法であって、前記デジタルデータ列に所
定の属性を有するオブジェクトがあるか否かを判定する
判定工程と、複数備える再生形態から、前記所定の属性
を有するオブジェクトの再生形態を指定する指定工程
と、前記判定工程で前記所定の属性を有するオブジェク
トがあると判定されると、前記所定の属性を有するオブ
ジェクトに対応する画像を、前記指定工程で指定された
再生形態で再生する再生制御工程と、を有することを特
徴とする。
の好適な実施の形態を詳細に説明する。本実施の形態で
は、MPEG−4符号化方式で符号化されたデジタルテ
レビ放送の信号を受信して録画及び再生する場合で説明
する。
本実施の形態では、MPEG−4符号化の特徴でもある
オブジェクトの概念を用いることによって、画像中の各
オブジェクト単位での出力制御、表示制御を可能にし、
MPEG−4テレビ放送を録画再生する装置、または表
示する装置で、所定のオブジェクト属性データを有する
画像データについて、オリジナルとは表示形態を変えて
出力することができる。
者、CG等のテロップ画像、音声などでそれぞれ構成さ
れ、MPEG−4では、それぞれのオブジェクト単位に
符号化/復号化し、各オブジェクトを組み合せることで
1つのシーンを表現する仕組みになっている。
野ごとに分けて詳細に説明する。
きく4項目から成る。このうちの3項目は、MPEG2
と類似しており、ビジュアルパート、オーディオパー
ト、システムパートである。 (1)ビジュアルパート 自然画、合成画、動画、静止画などを扱うオブジェクト
符号化方式が規格として定められている。伝送路誤りの
訂正や修復に適した符号化方式、同期再生機能、階層符
号化が含まれている。表現上、『ビデオ』は自然画像を
意味し、『ビジュアル』は合成画像までを含める。 (2)オーディオパート 自然音、合成音、効果音などを対象にしたオブジェクト
符号化方式が規格として定められている。ビジュアルパ
ートやオーディオパートでは、複数の符号化方式を規定
し、各々のオブジェクトの特徴に適した圧縮方式を適宜
選択することで、符号化効率を高める工夫をしている。 (3)システムパート 符号化された映像オブジェクトや音声オブジェクトの多
重化処理と、その逆の分離処理を規定している。更に、
バッファメモリや時間軸制御と再調整機能もこのパート
に含まれる。
像オブジェクトや音声オブジェクトは、シーンの中のオ
ブジェクトの位置や出現時刻、消滅時刻などを記したシ
ーン構成情報と共に、システムパートの多重化ストリー
ムに統合される。
号する際には、受信したビットストリームから、各々の
オブジェクトを分離及び復号化し、シーン構成情報に基
づきシーンを再構成する。
フレームあるいはフィールドを単位としていたが、コン
テンツの再利用や編集を実現するために、MPEG4で
は映像データやオーディオデータをオブジェクト(物
体)として扱う。
る。
処理をシステムの構成例を示すブロック図である。
001、自然画像オブジェクト符号化器5002、合成
画像オブジェクト符号化器5003、文字オブジェクト
符号化器5004にて、各々符号化処理される。これと
同時に、上記の各オブジェクトのシーン内での関連を、
シーン構成情報として、シーン記述情報符号化器500
5にて、符号化し、前記各符号化オブジェクト情報とと
もに、データ多重化器5006にて、MPEG4ビット
ストリームへとエンコード処理される。
のビジュアルオブジェクトやオーディオオブジェクトの
組み合せを定義して、一つのシーン(画面)を表現す
る。
画像と、コンピュータグラフィックスなどの合成画像と
を組み合せたシーンも構成できる。
テキスト音声合成の機能を使って、被写体映像とその音
声の同期再生が可能になる。こうして符号化された情報
は、ビットストリーム状態で送信及び受信、或は記録再
生される。
ド処理では、上述の符号化処理の逆処理を行なう。まず
データ分離器5007にて、MPEG4ビットストリー
ムを各オブジェクト毎に分離して分配する。それを受け
て音声、自然画像、合成画像、文字等の各オブジェクト
は、復号器5008〜5011にてオブジェクトデータ
へ復号される。また、シーン記述情報も同時に、復号器
5012にて復号され、これらの復号情報を用いて、シ
ーン合成器5013にて、元のシーンを再合成する。
側では、シーンのビジュアルオブジェクトの位置やオー
ディオオブジェクトの順番などの部分的変更が可能であ
る。オブジェクト位置は、ドラッグ操作により変更で
き、言語の変更などは、ユーザがオーディオオブジェク
トを変更することで可能になる。
合せてシーンを合成するために、次の4項目を規定して
いる。 (1)オブジェクト符号化 ビジュアルオブジェクトやオーディオオブジェクト、及
びそれらを組み合せたAV(オーディオビジュアル)オ
ブジェクトを符号化対象とする。 (2)シーン合成 ビジュアルオブジェクトやオーディオオブジェクト、A
Vオブジェクトを所望のシーンに構成するためのシーン
構成情報と合成方式を規定するために、VRML(Virtu
al Realty Modeling Language)をモディファイした言語
を用いる。 (3)多重化と同期 各オブジェクトを多重同期したストリーム(エレメンタ
リ・ストリーム)の形式などを決める。このストリーム
をネットワークに流したり、録画装置に格納するときの
サービス品質QOS(Quality Of Service)も設定可能で
ある。このQOSパラメータには、最大伝送速度、誤り
率、伝送方式などの伝送路条件や、復号化能力などが設
けられている。 (4)ユーザの操作(インタラクション) ビジュアルオブジェクトやオーディオオブジェクトをユ
ーザ端末側で合成する方式を定義する。
クや録画再生装置から送られてくるデータを、エレメン
タリストリームに分離して、各オブジェクトごとに復号
化する。
時に送られてきたシーン構成情報を基にしてシーンを再
構成する。
入れたシステム構成例を示すブロック図である。また図
19及び図20は、ビデオオブジェクトに関するVOP
処理回路ブロックを示す図で、図19はエンコーダ側の
ブロック図を、図20はデコーダ側のブロック図を示
す。
4における映像の符号化は、対象となる映像オブジェク
トを、形状(Shape)と、その絵柄(Texture)に分けてそれ
ぞれ符号化する。この映像データの単位をVOPとい
う。
の全体構成を示すブロック図である。例えば、画像が人
物と背景の2つのオブジェクトから構成されている場
合、各フレームを2つのVOPに分割して符号化する。
に示すように、オブジェクトの形状情報、動き情報、テ
キスチャ情報となる。一方、復号器では、ビットストリ
ームをVOP毎に分離し、個別に復号した後、これらを
合成して画像を表示する。
対象の画像が複数の映像オブジェクトから構成されてい
る場合、これを複数のVOPに分割し、個別に符号化/
復号化することができる。なお、VOP数が"1"で、オ
ブジェクト形状が矩形の場合は、図22(b)に示すよ
うに、従来からのフレーム単位の符号化となる。
符号化(I−VOP)、前方向予測(P−VOP)、双
方向予測(B−VOP)がある。この予測単位は、16
×16画素のマクロブロックで行なう。
EG1、MPEG2のBピクチャと同じく、過去のVO
Pと未来のVOPから両方向予測するVOPである。そ
して、マクロブロック単位に直接符号化/前方符号化/
後方符号化/双方符号化の4種類のモードを選択可能と
している。
位でモード切り替え可能で、P−VOPの動きベクトル
のスケーリングで双方向予測する。
体)単位で画像を扱うためには、物体の形状が符号化及
び復号化の際に既知でなければならない。また、後ろに
ある物体が透けて見えるガラスのような物体を表現する
ためには、物体がどれだけの透明度を有するかの情報が
必要となる。この物体の形状及び物体の透明度の情報を
合わせて形状情報と呼ぶ。その形状情報の符号化を形状
符号化と呼ぶ。
素毎に物体の内側か外側かの境界を符号化していく手法
であるため、符号化すべき画素数が少ないほど発生符号
量も少なくて済む。しかし、符号化すべきマクロブロッ
クサイズを小さくすることは、元の形状符号化が劣化し
て受信側に伝送されることになる。よって、サイズ変換
で元の情報がどの程度劣化するかを測定し、所定の閾値
以下のサイズ変換誤差が得られる限りは、できるだけ小
さなサイズを選択する。具体的なサイズの変換比率とし
ては、原寸大、縦横1/2倍、縦横1/4倍の3種類が
挙げられる。
して与えられ、次のように定義される。
場合であり、該当VOPの内側と外側のみで形状が表現
される。多値形状符号化は、α値が"0"から"255"ま
での全ての値を取りうる場合であり、複数のVOP同士
が半透明で重なる状態を表現することができる。
素のブロック単位に1画素精度の動き補償予測をする。
オブジェクト全体を面内符号化する場合は、形状情報の
予測はしない。動きベクトルは、隣接するブロックから
予測した動きベクトルの差分を用いる。こうして求めた
動きベクトルの差分値は、符号化してからビットストリ
ームに多重化する。MPEG4では、動き補償予測した
ブロック単位の形状情報を、2値形状符号化する。
合でも、境界部は滑らかに不透明から透明に変えたい場
合、フェザーリング(境界形状のスムーズ化)を使う。
このフェザーリングは、境界値を線形に補間する線形フ
ェザーリングモードと、フィルタを使うフェザーリング
フィルタモードがある。一定に不透明な多値形状には、
定アルファモードがあり、フェザーリングと組み合わせ
が可能である。
成分や色差成分の符号化を行なうもので、フィールド/
フレーム単位のDCT、量子化、予測符号化、可変長符
号化の順に処理する。DCTは8×8画素のブロックを
処理単位とするが、オブジェクト境界がブロック内にあ
る場合に、オブジェクトの平均値でオブジェクト外の画
素を補填する。その後、4タップの2次元フィルタを掛
けることで、DCT変換係数に大きな擬似ピークが出る
現象を防ぐ。
子化器、或はMPEG2の量子化器のいずれかを使う。
MPEG2量子化器を使えば、直流成分の非線形量子化
やAC成分の周波数重み付けが可能になる。量子化後の
面内符号化係数は、可変長符号化する前にブロック間で
予測符号化し、冗長成分を削除する。特にMPEG4で
は直流成分と交流成分の両方に対して予測符号化する。
は、隣接するブロック間で対応する量子化係数の差分
(勾配)を調べ、小さい方を予測に使う。直流係数xを
符号化する場合、|a−b|<|b−c|ならcを、|
a−b|≧|b−c|ならaを、それぞれ予測に使う。
同様にして予測値を選んだ後、各ブロックの量子化スケ
ール値(QP)で正規化する。
ク間で上下に隣接するブロックの直流成分の差(垂直勾
配)と、左右に隣接するブロックの直流成分の差(水平
勾配)を調べ、勾配の少ない方向のブロックの直流成分
との差分を予測誤差として符号化する。
符号化に合わせて、隣接ブロックの対応する係数値を用
いる。但し、量子化パラメータの値がブロック間で異な
っている可能性があるので、正規化(量子化ステップス
ケーリング)してから差分をとる。予測の有無はマクロ
ブロック単位に選択できる。
てから、3次元(Last,Run,Level)可変長符号化す
る。ここで、Lastは0以外の係数の終わりを示す1
ビットの値、Runは0の継続長、Levelは非ゼロ
係数の値である。
は、直流成分用可変長符号化テーブル又は交流成分用可
変長テーブルのいずれかを使う。
のビデオオブジェクトプレーン(Video Object Plane:
VOP)を符号化することができる。VOPには、予測
の種類によって面内符号化(I−VOP)、前方向予測
符号化(P−VOP)、双方向予測符号化(B−VO
P)があり、予測単位は16ライン×16画素、又は8
ライン×8画素のマクロブロックを使う。従って、VO
Pの境界上に跨るマクロブロックも存在することにな
る。このVOP境界の予測効率を改善するために、境界
上のマクロブロックに対してはパディング(補填)とポ
リゴンマッチング(オブジェクト部分のみのマッチン
グ)を行なう。
変換とは、1つの孤立波関数を拡大/縮小/平行移動し
て得られる複数の関数を変換基底とする変換方式であ
る。このウェーブレット変換を用いた静止画像の符号化
モード(Texture Coding Mode)は、特にCG画像と自然
画像の合成を扱うとき、高解像度から低解像度までの様
々な空間解像度を備えた高画質の符号化方式として適し
ている。
画像をブロック単位に分割せず一括して符号化できるた
め、低ビットレートでもブロック歪みが発生しないと
か、モスキート雑音も減少できるという効果がある。こ
のように、MPEG−4の静止画符号化モードでは、低
解像度かつ低画質の画像から高解像度かつ高画質までの
幅広いスケーラビリティ、処理の複雑性、符号化効率の
トレードオフをアプリケーションに応じて選択できる構
成となっている。
ーラビリティを実現するために、図23(a)(b)の
ようなシンタックスの階層構造を構成する。
レイヤ、補強レイヤを上位レイヤとし、補強レイヤにて
ベースレイヤの画質を向上する「差分情報」を符号化す
ることによって実現される。
ヤは低解像度の動画像、ベースレイヤ+補強レイヤは高
解像度の動画像を表す。
る他に、画像中の物体領域のみの画質を向上させる機能
がある。例えば、時間スケーラビリティの場合、ベース
レイヤは画像全体を低いフレームレートで符号化したも
の、補強レイヤは、画像内の特定オブジェクトのフレー
ムレートを向上させるデータを符号化したものとなる。
(a))]時間スケーラビリティはフレーム速度を階層
化する。補強レイヤのオブジェクトのフレーム速度を早
くすることができる。階層化の有無はオブジェクト単位
で設定できる。補強レイヤのタイプは2つで、タイプ1
は、ベースレイヤのオブジェクトの一部で構成する。タ
イプ2は、ベースレイヤと同じオブジェクトで構成す
る。
(b))]空間スケーラビリティは、空間解像度を階層
化する。ベースレイヤは、任意のサイズのダウンサンプ
リングが可能である。ベースレイヤは、補強レイヤの予
測に使う。
次元空間における画中の背景などのように、オブジェク
ト全体が統一的な移動、回転、変形等で表現できる平面
的なオブジェクトのことであり、この平面的オブジェク
トを符号化する手法をスプライト符号化と呼ぶ。
静的/動的と、オンライン/オフラインで分かれる。詳
しく説明すると、オブジェクトのデータを予め復号化器
に送り、グローバル動き係数だけをリアルタイムに伝送
することで実現する構成で、テンプレートの直接変換で
得る手法の静的スプライト、時間的に前のスプライトか
ら予測符号化して得る手法の動的スプライト、事前に面
内符号化(I−VOP)として符号化され、復号器側に
伝送する手法のオフラインスプライト、符号化中に符号
化器と復号化器で同時に作成する手法のオンラインスプ
ライトで構成される。
技術として、スタティックスプライト(Static Sprite)
符号化、ダイナミックスプライト(Dynamic Sprite)符号
化、グローバル動き補償などの、方式(ツール)があ
る。
ィックスプライト符号化は、ビデオクリップ全体の背景
(スプライト)を予め符号化しておき、背景の一部を幾
何変換することによって画像を表現する方法である。こ
の切り出した一部の画像は、平行移動、拡大、縮小、回
転等様々な変形を表現することができる。これについて
図24(b)に図示したように、画像の移動・回転・拡
大・変形等、3次元空間での視点移動などを表現するこ
とをワープと呼ぶ。図24(a)はワープの種類を示す
図で、これらワープの種類には、遠近法変換、アフィン
変換、等方拡大(a)/回転(θ)/移動(c,f)、
平行移動の手法があり、それぞれが図24(a)に示す
各式で表され、係数によって移動、回転、拡大、変形等
を表せる。また、スプライトの生成は符号化開始前にオ
フラインで行われる。
り、この領域をワープして表現することでスタティック
スプライト符号化が実現される。
である。
一部の領域をワープすることになる。具体的には、例え
ばこの背景には、テニス試合における観客席等の背景画
像と、ワープ部にはプレーヤ等の動きのある部分を含ん
だ画像が入ることになる。また、スタティックスプライ
ト符号化では、幾何変換パラメータのみを符号化して予
測誤差を符号化しない。
ィックスプライト符号化方式では、符号化前にスプライ
トを生成しておくのに対し、このダイナミックスプライ
ト符号化方式では、符号化しながらオンラインにスプラ
イトを更新することができる。また、予測誤差を符号化
するという点でスタテッィクスプライト符号化とは異な
っている。
ローバル動き補償とは、オブジェクト全体の動きを、ブ
ロックに分割することなく1つの動きベクトルで表して
動き補償する技術であり、剛体の動き補償などに適して
いる。参照画像が、スプライトの代わりに直前の復号画
像となる点、予測誤差を符号化する点では、スタティッ
クスプライト符号化と同様である。但し、スプライトを
格納するためメモリを必要としないこと、形状情報が不
要であることにおいて、スタティックスプライト符号
化、及びダイナミックスプライト符号化とは異なる。こ
れは画面全体の動きや、ズームを含む画像などにおいて
効果がある。
あり、各オブジェクト合成するための情報である。MP
EG4では、各オブジェクトをシーンに合成するための
構成情報を伝送する。個別に符号化された各オブジェク
トを受信した場合に、このシーン構成情報を使用するこ
とにより、送信側が意図した通りのシーンに合成でき
る。
表示時間や表示位置などがある。これらがツリー状のノ
ード情報として記述されている。各ノードは、親ノード
に対する時間軸上の相対時刻情報と相対空間座標位置情
報をもつ。
VRMLを修正したBIFS(Binary Format for Scene
s)と、Javaを用いたAAVS(Adaptive Audio-Visu
al Session Format)がある。BIFSは、MPEG4の
シーン構成情報を2値で記述する形式。AAVSはJa
vaをベースとしており、自由度が大きく、BIFSを
補う位置付けにある。
示す。
inary Format for Scenes)により行われる。ここでは、
VRMLとBIFS共通の概念であるシーングラフとノ
ードを中心に説明する。
の属性や座標変換を伴う下位ノードのグループ化を指定
する。オブジェクト指向の考えを取り入れ、3次元空間
中の各物体の配置や見え方は、シーングラフと呼ばれる
木(tree)を頂点のノードから辿り、上位ノードの属性を
継承することにより決定される。葉にあたるノードに、
メディアオブジェクト、例えば、MPEG4ビデオのビ
ットストリームを、同期をとって割当てれば、他のグラ
フィックスとともに動画を3次元空間内に合成して出力
できる。
ある。
ップ関係記述とMPEG4オーディオの合成記述 (2) 連続メディアストリームの同期処理 (3) オブジェクトの動的振る舞い表現(例えばスプライ
ト) (4) 伝送形式(バイナリー)を標準化 (5) セッション中にシーン記述を動的に変更 をBIFSでサポートする。
ipt、Proto、ExtemProtoなどがサポートされていない以
外は、VRMLノードのほぼ全てがBIFSでサポート
されている。
4特別ノードには、以下のものがある。 (1) 2D/3D合成のためのノード (2) 2Dグラフィックスやテクストのためのノード (3) アニメーションノード (4) オーディオノード 特筆すべきは、VRMLでは背景など特殊なノードを除
き2D合成はサポートされていなかったが、BIFSで
は、テキストやグラフィックオーバーレイ、更にMPE
G4ビデオVOP符号化を画素を単位として扱えるよう
記述が拡張されている。
で構成された顔などMPEG4のCG画像のための特別
なノードが規定されている。シーングラフ中のノードの
置き換え、消去、追加、属性変更が動的に行なえるメッ
セージ(BIFS Update)があり、セッションの途中で画面
上に新たな動画像を表示したり、ボタンを追加すること
が可能になる。BIFSは、VRMLの予約語、ノード
識別子、属性値をほぼ一対一にバイナリデータに置き換
えることにより実現できる。
PEG−4オーディオの符号化方式の種類を示す図であ
る。
トリック符号化、CELP符号化、時間/周波数変換符
号化が含まれる。更に、SNHCオーディオの機能も取
り入れ、SA(Structured Audio:構造化オーディオ)
符号化と、TTS(Text toSpeech:テキスト音声合
成)符号化が含まれる。SAはMIDIを含む合成楽音
の構造的記述言語であり、TTSは外部のテキスト音声
合成装置にイントネーションや音韻情報などを送るプロ
トコルである。
示すブロック図である。
号を前処理し、信号分割部202でパラメトリック符号
化器204、CELP符号化器205、時間/周波数符
号化器206の3つの符号化器を使い分けるように、信
号の帯域に応じて信号分割し、それぞれ適した符号化器
に入力する。また信号分析制御部203では、入力オー
ディオ信号を分析し、そのオーディオ信号に応じた、各
符号化器への分類のための制御情報等を発生させる。続
いて、それぞれ別の符号化器である、パラメトリック符
号化コア204、CELP符号化コア205、時間/周
波数変換符号化コア206では、各符号化方式に基づい
た符号化処理がなされる。これら3種の符号化方式につ
いてはこの後説明する。こうして符号化されたオーディ
オデータのうち、パラメトリック符号化コア204、C
ELP符号化コア205の出力は小ステップ強化回路2
07に入力され、また時間/周波数変換符号化コア20
6の出力及び小ステップ強化回路207の出力は大ステ
ップ強化回路208に入力される。小ステップ強化回路
207及び大ステップ強化回路208とは、各符号化コ
アの符号化処理で発生する歪を減少させるための回路で
ある。こうして、大ステップ強化回路208から出力さ
れたオーディオデータは、符号化された音声ビットスト
リームとなる。以上が図28に示す音声符号化方式の構
成の説明である。
式について説明する。
信号を周波数や、振幅、ピッチ等のパラメータで表現
し、それを符号化する。音声信号用の調波ベクトル駆動
符号化(HVXC:Harmonic Vector Excitation Codin
g)符号化と、楽音信号用の個別スペクトル(IL:Ind
ividual Line)符号化が含まれる。
秒〜4kビット/秒の音声符号化を目的としており、音
声信号を有声音と無声音に分類し、有声音は線形予測係
数(LPC:Linear Prediction Coefficient)の残差
信号の調波(ハーモニック)構造をベクトル量子化す
る。無声音については、予測残差をそのままベクトル駆
動符号化(vector excitation coding)する。
ット/秒の楽音の符号化を目的としており、信号を線ス
ペクトルでモデル化して符号化するものである。
rediction Cording)>入力音声信号をスペクトル包絡情
報と音源情報(予測誤差)に分離して符号化する方式で
ある。スペクトル包絡情報は、入力音声信号から線形予
測分析によって算出される線形予測係数によって表され
る。
4kHzの狭帯域CELPと帯域幅8kHzの広帯域CE
LPがあり、狭帯域(NB:Narrow Band)CELPは、
3.85kビット/秒〜12.2kビット/秒、広帯域
(WB:Wide Band)CELPは13.7kビット/秒
〜24kビット/秒の間においてビットレートの選択が
可能である。
す符号化方式である。AAC(Advanced Audio Codin
g)に準拠する方式、及びTwinVQ(Transform-dom
ain Weighted Interleave VectorQuantization:変換領
域重み付けインターリーブベクトル量子化)がこれに含
まれる。
心理モデルが組み込まれ、聴覚マスキング効果を利用し
ながら適応量子化するしくみになっている。
T等で周波数変換し、聴覚マスキング効果を利用しなが
ら適応量子化するしくみである。適応ビットレートは2
4kビット/秒〜64kビット/秒までである。
線形予測分析したスペクトル包絡を用いて、オーディオ
信号のMDCT係数を平坦化する。インタリーブを施し
た後、2つの符号長を用いてベクトル量子化するしくみ
である。適応ビットレートは、6kビット/秒〜40k
ビット/秒までである。
パートでは、多重化、分離、合成(コンポジション)を
定義する。以下、図29を用いて説明する。
オ符号化器からの出力となる各オブジェクトや、その時
空間配置を記述したシーン構成情報などのエレメンタリ
ストリームごとに、アクセスユニットレイヤでパケット
化する。このアクセスユニットレイヤでは、アクセスユ
ニット単位に同期を取るためのタイムスタンプや参照ク
ロックなどをヘッダとして付加する。パケット化したス
トリームは、次にFlexMuxレイヤで、表示や誤り耐性の
単位で多重化されTransMuxレイヤに送られる。
応じて誤り訂正符号が保護サブレイヤで付加される。最
後に、多重サブレイヤ(Mux Sub Layer)で1本のTransMu
xストリームとして伝送路に送り出される。このTransMu
xレイヤは、MPEG4では定義せず、インターネット
のプロトコルであるUDP/IP(user datagram proto
col/internet protocol)やMPEG2のトランスポー
トストリーム(TS)、ATM(asynchronous transfer
mode)のAAL2(ATM adaptaion layer 2)、電話回線
利用のテレビ電話用多重化方式(ITU−T勧告H.2
23)、デジタル・オーディオ放送などの既存のネット
ワークプロトコルが利用可能である。
し、従来のトランスポートストリームに容易に埋め込め
るように、アクセスユニットレイヤやFlexMuxレイヤを
バイパスすることも可能である。
るために、デマルチプレクス(分離)の後段にバッファ
(DB:Decoding Buffer)を設け、各オブジェクトの
到着時刻や復号化時間のずれを吸収する。合成の前にも
バッファ(CB:Composition Buffer)を設けて表示時
間を調整する。
は、MPEG−4のストリーム構造のレイヤを示す図で
ある。
にはヘッダが付く。このヘッダとは、start code,end
code,ID,形状,サイズ他,各種符号化情報である。
は複数のセッションで構成される。ここで、セッション
とは、一連の完結したシーケンスのことである。[V
S]セッションは、複数のオブジェクトで構成される。
[VO]は、ビデオオブジェクト、[VOL]オブジェ
クトは、複数のレイヤを含んだオブジェクト単位のシー
ケンス、[GOV]オブジェクトは、複数のレイヤで構
成される。[VOP]オブジェクトレイヤは、複数のプ
レーンで構成される。また、(プレーン:フレーム毎の
オブジェクト)は、誤り耐性を有したビットストリーム
構造である。
等に対応すべく、符号化方式自体が伝送誤りに対して耐
性を有している。しかし今までの標準方式では、誤り訂
正は主にシステム側で行っていた。一方、PHS等のネ
ットワークでは誤り率が非常に高く、システム側でも訂
正しきれない誤りがビデオ符号化部分に漏れ込んでくる
ことが予想される。
テム側で訂正しきれなかった各種のエラーパターンを想
定し、このような環境の下でも可能な限り誤りの伝播が
抑制されるような誤り耐性符号化方式とした。
具体的な手法と、そのためのビットストリーム構造を説
明する。 (1)Reversible VLC (RVLC)と双方向復号(図
31(a)(b)) 図31(a)は、通常のVLCによる片方向の復号処理
を説明する図で、復号の途中で誤りの混入が確認される
と、その時点で復号処理を中断している。
処理を説明する図で、復号の途中で誤りの混入が確認さ
れた場合はそこで復号処理を一旦停止し、次の同期信号
の検出を行なう。次の同期信号が検出できた段階で、今
度はそこから逆向きにビットストリームの復号処理を行
なう。これにより、新たな付加情報なしに、復号のスタ
ートポイントが増加していることになり、誤り発生時に
復号できる情報量を従来よりも増やすことが可能とな
る。このような順方向と同時に逆方向からも復号可能な
可変長符号により"双方向復号"が実現できる。 (2)重要情報の複数回伝送(図32(a)(b)) 重要情報を複数回伝送することが可能な構成を導入し、
誤り耐性を強化することができる。例えば、各VOPを
正しいタイミングで表示するためにはタイムスタンプが
必要であり、この情報は最初のビデオパケットに含まれ
ている。仮に誤りによって、このビデオパケットが消失
しても、前記構造により次のビデオパケットからは復号
が再開できるが、このビデオパケットにはタイムスタン
プがないため、結局、表示タイミングがわからないこと
になる。そのため、各ビデオパケットにHEC(Header
Extension Code)というフラグを立てて、この後にタイ
ムスタンプ等の重要情報を付加できる構造を導入した。
このHECフラグの後には、タイムスタンプとVOPの
符号化モードタイプが付加できる構造になっている。
マーカ(RM)から復号を開始するが、各ビデオパケッ
トにはそのために必要な情報(そのパケットに含まれる
最初のMB(マクロブロック)の番号と、そのMBに対
する量子化スケール値)がRMの直後に配置されている
(図32(a)参照)。その後にHECフラグが挿入さ
れ、HEC=1の場合には、TR及びVCTがその直後
に付加される。これらHEC情報により、仮に先頭のビ
デオパケットが復号できずに廃棄されても、HEC=1
と設定したビデオパケット以降の復号及び表示が正しく
行われることになる。ここでHECを"1"にするか否か
は符号化側で自由に設定できる。 (3)データ・パーティショニング エンコーダ側では、MB単位の符号化処理を操り返して
ビットストリームを構成しているため、途中に誤りが混
入すると、それ以降のMBデータは復号できないことに
なる。
グループに分類し、それぞれをビットストリーム内に配
置する場合を考える。各グループの境目にマーカ情報を
組み込めば、仮にビットストリームに誤りが混入され
て、それ以降のデータが復号できない場合でも、そのグ
ループの最後にあるマーカで同期を取り直して、次のグ
ループのデータを正しく復号することが可能になる。
に、動きベクトルとテキスチャ情報(DCT係数等)と
にグループ分けするデータパーティショニング手法(Dat
a Partitioning)が採用されている。また、グループの
境目には、モーション・マーカ(Motion Marker)を配置
している。これにより、仮に動きベクトル情報の途中に
誤りが混入していても、MMの後にくるDCT係数は正
しく復号できるため、誤り混入以前の動きベクトルに対
応するMBデータは、DCT係数と共に正確に再生でき
る。またTexture(テクスチャ情報)部分に誤りが混入
された場合でも、動きベクトルが正しく復号されていれ
ば、その動きベクトル情報と復号済みの前フレーム情報
とを用いて、ある程度、正確な画像が補間再生(コンシ
ールメント)できる。 (4)可変長間隔同期方式 ここでは、可変長パケットで構成されている同期回復手
法を説明する。先頭に同期信号を含んだMB群は"ビデ
オパケット"と呼ばれ、その中に何個のMBを含めるか
は符号化側で自由に設定することができる。可変長符号
(VLC:Variable Length Code)を使用しているビッ
トストリームに誤りが混入された場合、それ以降の符号
の同期が取れなくなり、復号不可能な状態になる。この
ような場合でも、次の同期回復マーカを検出することに
より、その後の情報を正しく復号することが可能とな
る。
バイトの整数倍単位で行われるというシステムとの整合
性をとり、ビットストリームはバイトアラインメント(B
yte Alignment)構造となっている。
各ビデオパケットの最後にスタッフビットが挿入され
る。更に、このスタッフビットは、ビデオパケット内の
エラーチェック符号としても使用される。
最初の1ビットのみが"0"で、それ以外が全て"1"であ
る符号で構成されている。つまり、ビデオパケット内の
最後のMBまで正しく復号されれば、その次に来る符号
は必ず"0"であり、その後にスタッフビットの長さより
1ビットだけ少ない数の"1"が連続しているはずであ
る。
が検出された場合は、それ以前の復号が正しく行われて
いなかったことになり、ビットストリームに誤りが混入
していたことが検出できる。
ある。なお、上記した説明は、日経エレクトロニクス1
997.9.22号p.147〜p.168「国際標準
規格MPEG4の概要決まる」、社団法人 映像情報メ
ディア学会テキスト1997.10.2「見えてきたM
PEG4の全貌」、日本工業技術センター1997.
2.3セミナー資料「MPEG4の最新標準化動向と画
像圧縮技術に、明記されている。
ムの具体的な説明を行なう。
テムの概略構成を示すブロック図である。この受信再生
システムは、テレビ放送等の放送を受信して表示装置に
表示するとともに、ビデオレコーダ等の録画再生装置に
より再生された映像や音声などを表示装置13に出力し
て表示することができる。
方式のデジタルテレビ放送を受信するテレビ放送受信装
置である。12は映像や音声等を記録及び再生する録画
再生装置で、例えばビデオレコーダやDVD等の記録媒
体に受信したテレビ情報を録画したり、或いは記録媒体
に記録されている映像や音声などを再生するプレーヤ等
に相当している。13は表示装置で、映像信号や音声信
号を入力して、それらを再生出力する。テレビ放送受信
装置11は、セットトップボックス(STB)等の受信
チューナ機器であり、録画再生装置12はDVD、ハー
ドディスク(HD)等を用いたホームサーバ又はデジタ
ルVTR等である。また表示装置13としては、テレビ
ジョン(TV)やディスプレイ等が代表的な製品形態で
ある。このテレビ放送受信装置11で受信したテレビ放
送データを、表示装置13で表示する、または録画再生
装置12で録画したり、それから再生した映像や音声を
表示装置13に表示するのが基本的な動作である。
信装置11の構成を示すブロック図である。
てケーブル放送端末15から受信したデジタルテレビ放
送データは、それぞれチューナ16、チューナ17によ
り選局され、受信のための調整が行なわれる。こうして
衛星テレビ放送、もしくはケーブルテレビ放送から受信
されたテレビデータの内の一方がデータ選択器18によ
り選択され、復調回路19で復調され、誤り訂正回路2
0で誤り訂正処理がなされる。
レビデータ、及び必要なコマンドデータ等を、表示装置
13等の外部装置と送受信するための通信手段である。
このインターフェース部(I/F)21は、デジタル通
信の代表的インターフェースであるIEEE1394シ
リアルバス等を採用し、デジタル通信に必要なデータ送
受信処理回路、ケーブル(バス)を接続するコネクタ等
を備えている。22はシステムコントローラで、このテ
レビ放送受信装置11の各部を制御している。23は指
示入力部で、スイッチ等の入力手段を備え、ここで入力
された指示入力は、システムコントローラ22に入力さ
れる。
構成を説明する。図3は本実施の形態に係る録画再生装
置12の構成を示すブロック図である。
AVデータの入出力は、インターフェース部(I/F)
33を介して行われ、このインターフェース部33は、
テレビ放送受信装置11及び表示装置13とデータ通信
が可能な、互換性を備えたものである。
置11から送られたテレビデータを、インターフェース
部(I/F)33を介して入力し、記録処理回路34で
記録形態に適した形式のデータに変換してディスク等の
記録媒体35に送られる。この記録処理回路34は、誤
り訂正符号などの付加データの追加や、必要に応じて圧
縮方式(フォーマット)の変換等のデータ処理を実施す
る。こうして記録のためのデータ処理が施されたテレビ
データは、不図示の記録ヘッドから記録媒体35に記録
される。
データの再生時には、記録媒体35に記録されているビ
デオデータ(記録したテレビデータを含む)を不図示の
再生ヘッドで再生する。こうして再生されたビデオデー
タに、再生処理回路36において、記録処理とは逆の処
理でデータの復元や誤り訂正が施される。
オデータから、多重データ分離回路37により、多重さ
れているデータが分離され、それぞれデコーダ38で、
MPEG−4の符号化方式に基づいた復号化方式で復号
される。尚、MPEG−4の符号化、及びその復号化方
法については既に説明した通りである。
37において、多重されている各種データを画像デー
タ、音声データ、その他のシステムデータに分離する。
次に、これら分離された各データのそれぞれをデコーダ
38で復号して、表示/音声出力制御部39で、その表
示出力及び音声出力を制御する。この表示/音声出力制
御部39は、オブジェクト生成/制御部40を用いて、
本実施の形態に係る特徴である所定のオブジェクトの属
性判別を行い、所定の画像オブジェクトについて、その
再生形態を変化させる再生制御を行なう。尚、これらデ
コーダ38、表示/音声出力制御部39、オブジェクト
生成/制御部40の各部については詳細な説明は後述す
る。
た後の、最終的な表示/音声出力制御部39の出力は、
再生AVデータとして、インターフェース部(I/F)
33を介して表示装置13に伝送される。システムコン
トローラ42は、記録媒体35の回転制御や記録/再生
動作を制御するサーボ制御部41や、表示/音声出力制
御部39、オブジェクト生成/制御部40を始めとし
て、各部の動作制御を行なう。また他機器からこの録画
再生装置12にコマンドが送信された場合には、インタ
ーフェース部(I/F)33に入力されたコマンドをシ
ステムコントローラ42に伝送する。このシステムコン
トローラ42では、そのコマンドに応じた動作制御を行
なう。また、ユーザにより入力されるコマンドは、指示
入力部43を介してシステムコントローラ42に入力さ
れる。
のビットストリームの構成について説明する。
構成を示した図である。
〜55)までのデータスペースに、番組内容、及び展開
に応じてオブジェクトの種類は異なるが、自然画像オブ
ジェクトや音声オブジェクト、コンピュータ・グラフィ
ック(以下CG)等の合成画像オブジェクトなどが入っ
ている。この合成画像オブジェクトの一例としては、ニ
ュース番組の場合には、例えば背景オブジェクト(スプ
ライト)、人物画像、その他の自然画像オブジェクト、
緊急ニュース速報や、お天気画像といった画像オブジェ
クトがあり、更には、音声オブジェクトなどが該当す
る。加えて、ビットストリームには、システムデータと
して、シーン記述情報56や追加データ57が多重され
る。更に、この追加データ57には、時間情報58やオ
ブジェクト情報59、およびその他の情報60が含まれ
る。また、オブジェクト情報59は、オブジェクト1〜
5(51〜55)に該当する各オブジェクトのそれぞれ
に、その属するジャンルを示すジャンルコード61、オ
ブジェクトの詳細を示すオブジェクトコード62、及び
放送局の判別のための放送局コード63とが含まれてい
る。
59に含まれるジャンルコード61、オブジェクトコー
ド62、及び放送局コード63とから、各オブジェクト
の属性を判別し、所定の属性を有するオブジェクトに対
して、再生時に他のオブジェクトに変更するための処理
を行なう。この場合の所定の属性として、例えば緊急ニ
ュース速報の画像(テロップ)のオブジェクトを例に挙
げて説明する。
ドと、それに対応するオブジェクト情報を説明する図で
ある。ここでは、各オブジェクト情報の構成をイメージ
的に示し、各放送局ごとに対応させたコード構成の例で
示している。図9で説明したオブジェクト情報59の構
成は、具体的には図10に示した様に分類して表され
る。
ス」、「プロ野球」、「映画」等の番組のジャンルを示
すコードである。またオブジェクトコード62は、「ニ
ュース」の場合では、「背景画像」、「人物画像」、
「天気予報画像」等である。同様に、「プロ野球」の場
合では、「背景画像」、「カウント表示画像」、「選手
の人物画像」等であり、またジャンルが「映画」の場合
には、「背景」、その他と、620で地震速報等の「緊
急ニュース画像」が送られていることを示している。こ
のようにジャンルコード61とオブジェクトコード62
とを組み合わせた構成が、各放送局を表わす放送局コー
ド63毎に分かれて存在している。
オブジェクトを識別するこれらのコードを、各局共通又
は局固有のコードを用いてユーザに提供している。そし
て、放送局側と、ユーザ側の機器とが同一のコードを相
互理解できるように設定されている。
12におけるデコーダ38、表示/音声出力制御部3
9、オブジェクト生成/制御部40の各部の動作を詳細
に述べることで、オブジェクトの再生について具体的に
説明する。
内、オブジェクトの再生とオブジェクトの形態の変更処
理に係る部位の構成を示すブロック図である。尚、図5
に示された符号のうち図3と共通する回路や部位は同じ
番号で示し、それらの説明を省略する。
記録媒体35から再生されて処理されたビデオデータを
多重データ分離回路37で分離し、デコーダ38に含ま
れる音声復号回路64、画像復号回路65、システムデ
ータ復号回路66において、それぞれ対応するデータを
復号する。
れ、ステレオオーディオデータ(A(L)、A(R))
となって、表示/音声出力制御部39の音声出力制御部
70に送られ、音量や音場定位の調整、主/副音声など
音声多重への対応、及び音声オブジェクトの追加や変更
等が行なわれる。
オブジェクトに夫々対応させて復号処理を行なうため
に、複数かつ同様の復号部からなる画像復号回路65で
復号される。これら画像復号回路65で復号された各オ
ブジェクトに対応する画像データは、オブジェクトの数
相当の画像データ(v(1)〜v(n))となって、表
示/音声出力制御部39の表示出力制御部69に送ら
れ、表示に関する様々な処理や制御が施される。
その再生形態を変更する処理は表示/音声出力制御部3
9の各部で行なわれる。この再生形態の変更例として、
所定のオブジェクト属性として緊急ニュースのテロップ
等の画像オブジェクトを再生したときは、そのオブジェ
クトに対して次の〜のいずれかで追加処理を実行す
る。 内部で発生させたキャラクタ画像によるアイコンオブ
ジェクトと置き換える。 オリジナルの緊急ニュースの画像オブジェクトを再生
する。(更にに加えて、それが録画された時の時刻情
報を付加して表示する) 再生形態の変更とともに、音声オブジェクトを用いて
警告音で知らせる。 無表示にする。
きる。
たオブジェクトを含め、再生した画像オブジェクト及び
音声オブジェクトは、AVデータとしてインターフェー
ス部(I/F)33で混合されて伝送される。
や追加データを含む)については、まずデコーダ38の
システムデータ復号回路66でデータが復号される。こ
こで復号されたシステムデータの中から、時刻を判別す
るために必要な時間情報が、時間情報検出部67により
検出される。具体的には、デコード時にシステムデータ
の追加データに含まれる時間情報(クロックデータ)か
ら検出される。こうして検出した時間情報は、システム
コントローラ42に入力され、録画時刻判定の基準とし
て用いることができる。
復号されたシステムデータの内、シーン記述に関するデ
ータはシーン記述データ変換回路68に入力される。そ
の他のシステムデータ及び追加データは、システムコン
トローラ42に各種コマンドとして入力され、オブジェ
クト情報はここに含まれる。
力は、音声出力制御部70及び表示出力制御部69に供
給されてシーンの基本形態の出力に用いられ、またシス
テムコントローラ42に送られる。
成として、所定の属性を有するオブジェクトに対して再
生形態の変換命令を下すオブジェクト制御部71、音声
オブジェクトを生成するための手段である音源74、ア
イコン等の画像オブジェクトを生成するためのキャラク
タ発生部72と、その元データを保持するメモリ(RO
M)73とを含んでいる。ここでオブジェクト制御部7
1は、システムコントローラ42からの指示により所定
の属性を有すオブジェクトを識別して、設定されている
内容に応じて、その表示形態の変更制御を行う。また、
その生成した画像及び音声オブジェクトを再生データへ
挿入するように制御し、更には再生形態の変更タイミン
グ調整を行う。
42から伝達されたオブジェクト情報を基に、属性情報
に基づいて"緊急ニュース"等を対象にしたオブジェクト
コードを識別する。この識別に応じて、音声/表示出力
制御部39の各部へ、そのオブジェクトに対する画像の
再生形態の変更命令を送出する。この際、再生形態を変
更する際に用いるアイコン画像オブジェクトは、メモリ
(ROM)73に記憶された元データを使ってキャラク
タ発生部72にて生成したものであり、このアイコン画
像オブジェクトは表示出力制御部69へ送出される。ま
た警告音に用いる音声オブジェクトは、音源74で生成
したものを音声出力制御部70に送出することにより得
られる。
る処理は、オブジェクト制御部71の制御により、当該
オブジェクトのみを表示しない制御によって実現され
る。
つとして、オリジナルの表示形態である"緊急ニュース"
等の画像を再生する際、それが発生した時点の時刻表示
を再生画像に合成して表示することもできる。その場
合、メモリ73に記憶された元データを用いて、時間情
報検出部67の出力から得た記録時の時刻情報に基づい
て、その時刻表示オブジェクトをキャラクタ発生部72
で生成し、それを画像オブジェクトの一つとして再生デ
ータに挿入して合成する。
1における、所定の属性の画像データの再生形態を変更
するための選択手段の機能を説明する図である。
を示し、ここでは例えば「緊急ニュース」をそのまま表
示するか、他のアイコンに切替えて表示するか、或いは
無表示にするかを選択できる。スイッチ202は、例え
ば「緊急ニュース」に警告音を付加するかどうかを決定
している。合成部203は、選択部201で選択された
映像と、スイッチ202を通して入力される警告音との
合成を行う。これら各部の機能は、図5の表示出力制御
部69及び音声出力制御部70により実施され、また選
択部201の切り替え命令と、生成したオブジェクトを
挿入するか否かはオブジェクト制御部71により制御さ
れる。
部71は再生データ中に"緊急ニュース"等を対象にした
オブジェクトコードを識別すると、音声/表示出力制御
部39の各部へ当該オブジェクトに対する再生形態の変
更命令を送出する。その際の当該オブジェクトの再生パ
ターンは、例えば図11に記したように、装置内で生
成した画像オブジェクト「アイコン」を画面左上等の定
められた表示位置(X0,Y0)に表示する。又はオリ
ジナルの画像オブジェクト(緊急情報のテロップ)」再
生して本来の表示位置(X,Y)に表示する。或いは
当該オブジェクトのみを無表示にする、の3通りのうち
のいずれかを選択できる。
のまま表示するときは、録画時刻を示す画像オブジェク
トを、その時の時刻情報を基にキャラクタ発生部72で
生成し画像に多重して付加表示することができる。
定として、所定の属性のオブジェクトを検出すると、そ
のオブジェクトをアイコンで表示するとしておく設定が
望ましい。また、ユーザの好みに応じて、好きなタイミ
ングで選択部201を操作することで、その設定を前述
した3通りのうちから任意に選択できる構成をとるのが
望ましい。
とをユーザに警告するために有効な警告音の音声オブジ
ェクトを追加することもできる。これは音源74で生成
した音声オブジェクトを、スイッチ202をオンするこ
とによって、合成器203を介して出力AVデータに合
成させることができる。
生装置12から出力されるAVデータに基づいて映像や
音声を表示する表示装置13について説明する。
の構成を示すブロック図である。
介してインターフェース(I/F)部24からAVデー
タを入力する。この入力したAVデータのうち音声デー
タは音声制御部25において、画像データの表示に同期
したタイミングで出力され、D/Aコンバータ27でア
ナログ信号に変換された後、ステレオスピーカ29から
出力される。また画像データは、表示制御部26で表示
タイミング、表示形態の調整がなされた後、D/Aコン
バータ28でアナログ信号に変換され、CRT30に表
示される。システムコントローラ31は各部の制御を行
い、ユーザからの指示入力は指示入力部32から受け付
けられる。このユーザから受けた指示入力に従って、外
部装置に対して関連するコマンドを伝送する際は、シス
テムコントローラ31は、インターフェース(I/F)
部24を介して外部装置にコマンドデータを出力するこ
とができる。
形態のものに限らず、例えば液晶ディスプレイ(LC
D)等であってもなんら問題はない。
明と、その表示形態の一例を図12及び図13を参照し
て説明する。
一画面を示し、録画再生装置12に記録されている本来
のテレビ画像である。このアニメのオンエア画像101
に"緊急ニュース"の一例として、噴火を告げるテロップ
の画像オブジェクト100が追加して表示されている。
画像の一例であり、として、図12(a)に示したア
ニメの録画画像を再生するときに、緊急ニュースをアイ
コン103で表示した例を示している。この再生画像1
02において、再生形態変化の対象である"緊急ニュー
ス"のテロップの画像オブジェクトをアイコン(画像オ
ブジェクト)103で置き換えて表示している。
において、アニメを再生中に、再生画像102に表示し
たアイコン103をマウスカーソル104で指定して、
アイコンの詳細内容(緊急ニュースの内容)を表示させ
るべく命令をしている動作を示す図である。このよう
に、マウスカーソル104を、マウス等の指示入力手段
によって操作し、アイコン103をクリックすることで
命令が実行される。
た命令の応答として、再生パターンの再生の形態を、前
述ので説明したように、オリジナル画像に戻した表示
に変換したときの例を示している。この場合、再生画像
102に"緊急ニュース"のオリジナルの画像オブジェク
ト100が再生されて表示されている。また、付加表示
情報として、そのオリジナル画像が録画されたときの時
刻を知らせる時刻表示オブジェクト110も表示可能で
ある。
ジェクトをアイコンに代えて表示する再生パターン
と、オリジナルのままで表示する再生パターンとを、
簡単な操作で変更指示できる。
オンエア中に、そのオンエア画像105に"緊急ニュー
ス"として地震を告げるテロップの画像オブジェクト1
06が表示され、そのまま録画再生装置12に録画され
たテレビ画像の一例を示す図である。
を再生する際に、再生画像107において、既に説明し
た再生パターンに対応して、"緊急ニュース"のテロッ
プ画像オブジェクト106をアイコン108に置き換え
て再生表示した例を示す図である。ここでは、"緊急ニ
ュース"をアイコン108に、その表示形態を変えたシ
ーンにおいて、再生パターンとして音声オブジェクト
を挿入して警告音(サウンド)109を鳴らして、ユー
ザへの注意を促している。
再生画像107において、アイコンも表示せず、"緊急
ニュース"のテロップ画像オブジェクトを無表示にして
再生したときの例を示す図である。
って警告音で知らせる再生パターンと、再生形態の変
換の対象となる画像オブジェクトを完全に無表示にする
再生パターンとも、先に説明した再生パターン及び
と同様に、自由に設定することが可能である。
画再生装置における画像の再生処理を説明するフローチ
ャートである。
おいて、録画画像の再生動作が指示されると(ステップ
S101)、ステップS102で、記録媒体35から再
生されたビデオデータをデコーダ38でデコード(復
号)する。そしてステップS103に進み、そのビデオ
データを構成する画像オブジェクトについて、オブジェ
クト情報を解析して、各種オブジェクトコードを基に属
性を調べる。そしてステップS104に進み、その解析
結果に基づいて、その画像オブジェクトに"緊急ニュー
ス"のコードから成る属性の画像オブジェクトがあるか
否かを判別する。なお、ここでは"緊急ニュース"の属性
が、再生形態を変更する対象のオブジェクトとして予め
設定されている場合を示す。
に"緊急ニュース"の属性を有す画像オブジェクトがない
場合はステップS110に進み、再生データをそのまま
AVデータとして出力する。
に"緊急ニュース"の属性を有す画像オブジェクトがある
場合はステップS105に進み、再生形態の変更を行な
う際の設定値(上述の再生パターンを特定する値)を読
み出す。ここで設定値が"1"であればステップS106
に進み、その"緊急ニュース"画像オブジェクトの出力
を、例えば前述の図12(b)に示すように、所定のア
イコンに変更して出力する(再生パターン)。またス
テップS105で、その設定値が"0"であればステップ
S107に進み、例えば前述の図12(d)に示すよう
に、その"緊急ニュース"の画像オブジェクトをオリジナ
ルのまま再生し、更にステップS108で、そのオンエ
ア時の時刻を表す"時刻表示"の画像オブジェクトを付加
して表示する(再生パターン)。またステップS10
5で、設定値が"2"であればステップS109に進み、
その"緊急ニュース"の画像オブジェクトを無表示にす
る。このときはアイコンも表示しない(再生パターン
)。
ることによって、その"緊急ニュース"の画像オブジェク
トは、その再生形態が変更され、再生された他のデータ
とともにAVデータとして表示出力される(ステップS
110)。
の図12(c)で示すように、マウスカーソル104を
用いて、その設定値の変更が指示されたかどうかを調
べ、指示された場合はステップS112に進み、その設
定指示に従って、新たに設定された設定値に変更する。
尚、この設定値は、例えば録画再生装置12の指示入力
部43から入力されてもよい。このようにして、所定の
属性を有する画像オブジェクトの表示・再生形態を容易
に変更できる。こうして設定値が変更された後は再びス
テップS104において、"緊急ニュース"画像オブジェ
クトがあったかどうかが判断され、あればステップS1
05に進み、その新たに設定された設定値に従って再生
形態が変更される。
ーザ命令、又はシステムの要因によって再生モードが終
了となるまでステップS101よりの動作を繰り返し実
行し、ステップS113で再生終了となると、その動作
を停止して、この再生処理が終了する。
の対象として、所定の属性を有するオブジェクトを"緊
急ニュース"(テロップ)の画像オブジェクトを例にし
て説明したが、本発明はこれに限定されるものではな
く、例えば"選挙速報"や"天気予報画像"などの各種テロ
ップ、又は"映画の字幕"などといった、ユーザが再生形
態の変更を適用したい画像又は音声などの、全てのオブ
ジェクトを対象に実現可能である。
2からの画像及び音声データの出力先は、上記に説明し
た表示装置13のみに限らず、他の録画再生装置へ、即
ちダビングの場合にも適用できる。
ば、録画画像の再生時に、所定の属性の画像オブジェク
トのみの再生形態を変更することができるので、ユーザ
にとって不要な画像を消したり、或いは別の画像データ
表示できるので、ユーザに対して、より親切で視覚効果
の高いビデオ再生機能を提供できる。
態2について説明する。この実施の形態2では、再生形
態の変更機能を適用した表示装置75について説明す
る。
EG−4のビデオデータを録画再生する録画再生装置7
5の構成を示すブロック図である。この録画再生装置7
5は、前述の図3で説明した録画再生装置12に含まれ
るオブジェクト生成/制御部40を備えていない点が、
前述の録画再生装置12と異なっている。尚、この図6
において、図3で説明した各部と共通する部分について
は同一符号を付して、その説明を省略する。
G−4のビデオデータをデコードして得たAVデータ、
及びデコード時に検出したオブジェクト情報を含んだサ
ブデータをインターフェース部(I/F)33からバス
を介して外部機器へ出力する。
装置75に対応するMPEG−4のオブジェクトの再生
に対応した表示装置76の構成を示すブロック図であ
る。この表示装置76は、図6の録画再生装置75、又
は図2のテレビ放送受信装置11からテレビデータを受
信して表示することが可能である。
た表示装置13に追加機能として、表示形態及び音声出
力形態を総括して「再生形態」と定義した上で、その再
生形態を、所定のオブジェクトに対して変更せしめる機
能を具備するものである。この図7において、前述の図
4で示す部分と共通する部分は同じ符号で示し、その説
明を省略する。
5、又はテレビ放送受信装置11から出力されたAVデ
ータ及びサブデータをインターフェース部(I/F)2
4を介して入力し、サブデータからAVデータに附随す
る時間情報を時間情報検出部77で検出し、またオブジ
ェクト情報をオブジェクト情報検出部78でそれぞれ検
出する。また、入力したオーディオデータは音声制御部
25により処理されてD/Aコンバータ27に送られて
再生される。また画像データは、表示制御部26で処理
されて表示制御される。
タを構成するオブジェクトの内、所定の属性を有するオ
ブジェクトに対して、その再生形態を変更する処理は表
示制御部26及び音声出力制御部25の各部で行なわれ
る。この再生形態の変更例として、所定のオブジェクト
属性を有する画像オブジェクトを受信したときは、その
オブジェクトに対して、次の〜の内のいずれかで追
加処理を実行する。 内部で発生させたキャラクタ画像による"アイコン"オ
ブジェクトと置き換える。 オリジナルのオブジェクトを再現する。(更にに加
えてデータに付随する時刻情報を基に"時刻表示"の画像
オブジェクトを付加して表示する) 再生形態の変更とともに、音声オブジェクトを用いて
警告音で知らせる。 無表示にする。
きる。
時間情報検出部77を用いて、サブデータ中に含まれる
時間情報から検出する。こうして検出された時間情報は
システムコントローラ31に入力されて、"時刻表示"画
像オブジェクト生成に用いられる。
える対象として予め設定されているオブジェクトに対し
て、再生(即ち、表示及び/または音声出力)形態の変
更命令を発行し、音声オブジェクトを生成するための手
段である音源82、アイコン等画像オブジェクトを生成
するためのキャラクタ発生部80と、その元データを保
持するメモリ(ROM)81とを具備して、制御してい
る。
情報からオブジェクトの属性の識別と、その表示制御、
及び生成した画像及び音声オブジェクトを再生データに
挿入するように制御し、また再生形態の変更タイミング
調整を行う。その手順としては、オブジェクト情報検出
部78で検出され、システムコントローラ31から伝達
されたオブジェクト情報を基に、その再生形態を変える
べき所定の属性を有するオブジェクトコードを識別する
と、音声制御部25及び表示制御部26の各部へ、その
オブジェクトに対する再生形態の変更命令を送出する。
れるアイコン画像オブジェクトは、メモリ(ROM)8
1の元データを使ってキャラクタ発生部80にて生成し
たものを表示制御部26に送出する。また、警告音に用
いる音声オブジェクトは、音源82で生成したものを音
声制御部70へと送出する。
は、そのオブジェクトのみを表示しない制御によって処
理する。
実施の形態1で説明したものと同様である。
する場合は、メモリ81の元データを用いて、時間情報
検出部77の出力から得た時刻情報に基づいて、その時
刻表示オブジェクトをキャラクタ発生部80で生成し、
それを画像オブジェクトの一つとして、再生データに挿
入して合成する。
したオブジェクト含め、画像オブジェクトからなる画像
データはCRT30に出力されて表示され、また音声オ
ブジェクトからなるオーディオデータは、スピーカ29
から出力される。
理、オブジェクト置換処理がなされた入力画像の表示形
態は、前述の実施の形態1で例示したのと同様に、図1
2(a)乃至(d)及び図13(a)乃至(c)に示す
ように、自在な表示が可能である。
置における表示モードに応じた再生形態の制御について
図15のフローチャートを参照して説明する。
は、表示モードにおいて、入力されたAVデータを受信
し、ステップS202で、これをデコードする。その後
ステップS203に進み、画像データを構成する画像オ
ブジェクトについては、そのオブジェクト情報を解析し
て、各種オブジェクトコードを基に、その属性を調べ
る。そしてステップS204で、解析結果の中に、例え
ば、"緊急ニュース"や"映画字幕"などの、予め設定され
た属性の画像オブジェクトがあるかどうかを調べる。
する属性のオブジェクトがない場合はステップS209
に進み、そのままの形態で出力する。一方、ステップS
204で、入力データ中に該当する属性を有すオブジェ
クトがある場合はステップS205に進み、再生形態の
変更を行なう際の設定値を読み出す。
06に進み、その画像オブジェクトを生成したアイコン
に変更して出力する(再生パターン)。また設定値
が"0"であればステップS207に進み、その画像オブ
ジェクトをオリジナルのまま出力する(再生パターン
)。またステップS205で、その設定値が"2"であ
ればステップS208に進み、その画像オブジェクトの
出力を無表示にする。このときはアイコンも表示しない
(再生パターン)。
て、その画像オブジェクトの再生形態が変更されて、他
の表示データ及び/或いは音声データとともに出力され
る(ステップS209)。
が、ステップS210で、前述のステップS111と同
様に、この設定値を変更指示が入力されたかどうかを判
定し、指示された時はステップS211に進み、指示入
力部32から入力される新たな設定値を設定することに
より簡単に変更できる。こうして設定値が変更された後
は、再びステップS204において、その再生形態を変
える画像オブジェクトがあった場合はステップS205
に進み、変更された最新の設定値に基づいて、その指定
された属性を有する画像オブジェの表示形態が変更され
る。
必要でないときはステップS212に進み、表示モード
が続く限りステップS201よりの動作を繰り返し実行
し、ステップS212で表示終了となるまで、前述の動
作を実行する。
ば、表示装置における表示形態及び音声出力形態を再生
形態として、その再生形態の変更を"緊急ニュース"や"
映画字幕"等の画像オブジェクトを対象に設定して容易
に実現できる。
や"映画字幕"といった画像オブジェクトを例にして説明
したが、本発明はこれに限定されるものではなく、ユー
ザが再生形態の変更を適用したい画像又は音声など、全
てのオブジェクトを対象にすることが可能である。
断するオブジェクトのみを隠すことができるので、ユー
ザに対してより適切に、かつ視覚効果の高い表示が可能
になる。
して、これまで説明してきた本実施の形態の前提となる
MPEG−4符号化方式のテレビ放送データ(ビデオデ
ータ)を、MPEG−2符号化方式のテレビ放送データ
(ビデオデータ)の一部に組み込んだ上で実現する実施
の形態について説明する。
2符号化方式のデジタルテレビ放送で用いられる、MP
EG−2データストリームの伝送形式であるMPEG−
2トランスポートストリームのデータ構造を示す図であ
る。
ムは、固定長のトランスポートパケットによって多重及
び分離される。このトランスポートパケットのデータ構
造は、図16に示したように階層的に表され、それぞれ
図示した項目を含む。順に説明すると、8ビットの同期
信号(sync)、パケット内のビットエラーの有無を示す
誤り表示(エラーインジケータ)、このパケットのペイ
ロードから新たなユニットが始まることを示すユニット
開始表示、このパケットの重要度を示すプライオリティ
(パケット優先度)、個別ストリームの属性を示す識別
情報PID(Packet Identification)、スクランブルの
有無とその種別を示すスクランブル制御、このパケット
のアダプテーションフィールドの有無及びペイロードの
有無を示すアダプテーションフィールド制御、同じPI
Dをもつパケットが途中で一部棄却されたかどうかを検
出するための情報である巡回カウンタ、付加情報やスタ
ッフィングバイトをオプションで入れることができるア
ダプテーションフィールド、及びペイロード(情報)で
構成されている。更に、このアダプテーションフィール
ドは、フィールド長、及びその他の個別ストリームに関
する各種項目と、オプショナルフィールド、スタッフィ
ングバイト(無効データ・バイト)が入り、本実施の形
態では、付加データの一つとしてMPEG−4のビット
ストリームをこのフィールドに多重している。以上が、
MPEG−2テレビ放送のトランスポートパケットの構
成の説明である。
リームを用いたMPEG−2方式のテレビ放送におい
て、MPEG−2のシステムデータに付加データとして
多重したMPEG−4ビットストリームに、所望の画像
オブジェクト及び時間情報やオブジェクト情報等のシス
テムデータを組み込んだ場合を考えて、本実施の形態に
係る所定オブジェクトの再生形態の変更機能を実現す
る。
ータ量のCG等からなる画像オブジェクト(図16のオ
ブジェクトA,B,C)、各オブジェクトのシーン記述
情報(BIFS)、システムデータとして時間情報及び画像
オブジェクト情報を識別するためのオブジェクト情報な
どをMPEG−4ビットストリームとして、MPEG−
2のシステムデータの、上記アダプテーションフィール
ドの所定領域に多重させて送信することで実現する。ま
たMPEG−4データを多重した領域の前(又は前後)
には、MPEG−4データの存在を示すIDを付加して
おき、これをデータ識別に用いる。
G等の画像データについては、前述の実施の形態1及び
2で説明した通常のMPEG−4画像データの如く、オ
ブジェクトの再生形態の変更も可能として構成される。
ームからMPEG−4の存在を示すIDを識別し、MP
EG−4データを個別に抽出できさえすれば、そこから
画像オブジェクト、オブジェクト情報、時間情報をそれ
ぞれ抽出できるので、特定オブジェクトの再生形態の変
更も、実施の形態1又は2の構成を基に容易に実現可能
であり、この方法や動作については、既に説明したもの
と同様である。
テレビ放送に限らず、MPEG−4データを組み込んだ
MPEG−2テレビ放送、又はビデオデータにおいても
本発明の実施の形態を適用できる。
は、共通化できる符号/復号化回路も多数あるので、シ
ステムの効率化に加え、回路構成も複雑な構成を必要と
せずに効果的に実現できるメリットもある。もちろん、
ソフトデコーダの場合でも、システムの効率化が図れる
ことは言うまでもない。
の形態に係る所定オブジェクトの再生形態を変更する機
能は、MPEG−2をベースにしたテレビ放送システム
であっても、テロップ画像等からなるMPEG−4オブ
ジェクトを多重した場合でも容易に適応できる。
器(例えばホストコンピュータ、インターフェース機
器、リーダ、プリンタなど)から構成されるシステムに
適用しても、一つの機器からなる装置(例えば、複写
機、ファクシミリ装置など)に適用してもよい。
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システム或いは
装置に供給し、そのシステム或いは装置のコンピュータ
(又はCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても達成され
る。この場合、記憶媒体から読み出されたプログラムコ
ード自体が前述した実施形態の機能を実現することにな
り、そのプログラムコードを記憶した記憶媒体は本発明
を構成することになる。また、コンピュータが読み出し
たプログラムコードを実行することにより、前述した実
施形態の機能が実現されるだけでなく、そのプログラム
コードの指示に基づき、コンピュータ上で稼働している
オペレーティングシステム(OS)などが実際の処理の
一部または全部を行い、その処理によって前述した実施
形態の機能が実現される場合も含まれる。
ムコードが、コンピュータに挿入された機能拡張カード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張カードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれる。
ば、録画した時点(過去)においては価値があったが、
再生している現時点では特に意味を持たない画像オブジ
ェクトの表示に際して、その画像オブジェクトのみの再
生形態を容易に変更することができる。これにより、テ
レビ放送を録画して再生する場合に、新たな機能を追加
することができる。
成した装置やシステムによって、ユーザに対して、より
親切で視覚効果の高いビデオ表示が可能になり、ユーザ
インターフェースの質を大きく向上できる。
符号化方式でのテレビ放送システムに、MPEG−4の
ビットストリームを組み込むことが可能であり、既存の
システムを活用する点でも有効である。
ソナルコンピュータ(PC)との融合も容易になり、現
在PCデスクトップ上で行っているようなレイアウト設
定などを、テレビ画像に関してもカスタマイズにできる
ので、テレビ放送とPCとの親和性も良くなり、またデ
ジタル複合製品の分野において市場拡大の効果が期待で
きる。
画再生装置及び表示装置で構成される受信再生システム
の場合で説明したが本発明はこれに限定されるものでな
く、これら装置が一体的に一つの装置として構成された
録画機能付きテレビジョン受像機等のような装置にも適
用できる。
画された映像の再生時、所定の映像はそのまま表示せず
に、その表示形態を変更して表示できる。
生時には意味があったが、その再生時には意味のない映
像を非表示にしたり、或いは必要に応じて他の表示形態
に変更して表示できるという効果がある。
テムの構成を示すブロック図である。
置の構成を示すブロック図である。
すブロック図である。
ロック図である。
ク図である。
成を示すブロック図である。
ロック図である。
を示すブロック図である。
を説明するための図である。
を説明する概念図である。
の変更を説明するための図である。
明する図である。
例を説明する図である。
を説明するフローチャートである。
を説明するフローチャートである。
ームのデータ構成を説明するための図である。
る。
するシステム構成例を示すブロック図である。
ブロックの内、エンコーダを示すブロック図である。
ブロックの内、デコーダを示すブロック図である。
示すブロック図である。
(a)はオブジェクト単位の符号化の場合を示し、
(b)はフレーム単位の符号化の場合を示す図である。
ケラービリティの場合を示し、(b)は空間スケラービ
リティの場合を示す。
間での視点移動などを表現するワープを説明する図で、
(a)はワープの種類を示し、(b)はワープの概念図
である。
を示す図である。
示すブロック図である。
る。
す図である。
方向復号(b)とを説明する図である。
する図である。
Claims (21)
- 【請求項1】 記録されたデジタルデータ列を再生して
表示する画像処理装置であって、 前記デジタルデータ列に所定の属性を有するオブジェク
トがあるか否かを判定する判定手段と、 複数備える再生形態から、前記所定の属性を有するオブ
ジェクトの再生形態を指定する指定手段と、 前記判定手段により前記所定の属性を有するオブジェク
トがあると判定されると、前記所定の属性を有するオブ
ジェクトに対応する画像を、前記指定手段により指定さ
れた再生形態で再生する再生制御手段と、を有すること
を特徴とする画像処理装置。 - 【請求項2】 前記指定手段により指定される再生形態
は、前記所定の属性に対応するアイコンによる再生を含
むことを特徴とする請求項1に記載の画像処理装置。 - 【請求項3】 前記指定手段により指定される再生形態
は、更に、音声オブジェクトによる再生を含むことを特
徴とする請求項1又は2に記載の画像処理装置。 - 【請求項4】 前記指定手段により指定される再生形態
は、前記所定の属性を有するオブジェクトを非表示にす
ることを含むことを特徴とする請求項1乃至3のいずれ
か1項に記載の画像処理装置。 - 【請求項5】 前記指定手段により指定される再生形態
は、更に、前記デジタルデータ列が記録された時の時刻
情報の表示を含むことを特徴とする請求項1乃至3のい
ずれか1項に記載の画像処理装置。 - 【請求項6】 前記所定の属性は、緊急ニュースのテロ
ップを含むことを特徴とする請求項1乃至5のいずれか
1項に記載の画像処理装置。 - 【請求項7】 前記指定手段は、 再生された前記アイコンを表示画面上で指示する指示手
段と、 前記指示手段による指示操作に応じて前記再生形態の指
定するための設定値を変更する手段とを有することを特
徴とする請求項1乃至6のいずれか1項に記載の画像処
理装置。 - 【請求項8】 前記デジタルデータ列はデジタルテレビ
ジョン用のMPEG−4方式で符号化されたデータ列で
主データと副データを有し、前記主データは所定のオブ
ジェクト単位ごとに分割処理された複数オブジェクトを
有するデータであり、前記副データは前記オブジェクト
の属性情報を含むことを特徴とする請求項1乃至7のい
ずれか1項に記載の画像処理装置。 - 【請求項9】 前記デジタルデータ列は、MPEG−4
方式で符号化されたオブジェクトと、MPEG−2方式
のビットストリームに多重した前記副データを含むデジ
タルテレビジョン用のデータ列であることを特徴とする
請求項8に記載の画像処理装置。 - 【請求項10】 前記指定手段による指定は、前記所定
の属性を有するオブジェクトの再生中に実行可能である
ことを特徴とする請求項1乃至9のいずれか1項に記載
の画像処理装置。 - 【請求項11】 記録されたデジタルデータ列を再生し
て表示する画像処理装置における画像処理方法であっ
て、 前記デジタルデータ列に所定の属性を有するオブジェク
トがあるか否かを判定する判定工程と、 複数備える再生形態から、前記所定の属性を有するオブ
ジェクトの再生形態を指定する指定工程と、 前記判定工程で前記所定の属性を有するオブジェクトが
あると判定されると、前記所定の属性を有するオブジェ
クトに対応する画像を、前記指定工程で指定された再生
形態で再生する再生制御工程と、を有することを特徴と
する画像処理方法。 - 【請求項12】 前記指定工程で指定される再生形態
は、前記所定の属性に対応するアイコンによる再生を含
むことを特徴とする請求項11に記載の画像処理方法。 - 【請求項13】 前記指定工程で指定される再生形態
は、更に、音声オブジェクトによる再生を含むことを特
徴とする請求項11又は12に記載の画像処理方法。 - 【請求項14】 前記指定工程で指定される再生形態
は、前記所定の属性を有するオブジェクトを非表示にす
ることを含むことを特徴とする請求項11乃至13のい
ずれか1項に記載の画像処理方法。 - 【請求項15】 前記指定工程で指定される再生形態
は、更に、前記デジタルデータ列が記録された時の時刻
情報の表示を含むことを特徴とする請求項11乃至14
のいずれか1項に記載の画像処理方法。 - 【請求項16】 前記所定の属性は、緊急ニュースのテ
ロップを含むことを特徴とする請求項11乃至15のい
ずれか1項に記載の画像処理方法。 - 【請求項17】 前記指定工程は、 再生された前記アイコンを表示画面上で指示する指示工
程と、 前記指示工程による指示操作に応じて前記再生形態の指
定するための設定値を変更する工程とを有することを特
徴とする請求項11乃至16のいずれか1項に記載の画
像処理方法。 - 【請求項18】 前記デジタルデータ列はデジタルテレ
ビジョン用のMPEG−4方式で符号化されたデータ列
で主データと副データを有し、前記主データは所定のオ
ブジェクト単位ごとに分割処理された複数オブジェクト
を有するデータであり、前記副データは前記オブジェク
トの属性情報を含むことを特徴とする請求項11乃至1
7のいずれか1項に記載の画像処理方法。 - 【請求項19】 前記デジタルデータ列は、MPEG−
4方式で符号化されたオブジェクトと、MPEG−2方
式のビットストリームに多重した前記副データを含むデ
ジタルテレビジョン用のデータ列であることを特徴とす
る請求項18に記載の画像処理方法。 - 【請求項20】 前記指定工程における指定は、前記所
定の属性を有するオブジェクトの再生中に実行可能であ
ることを特徴とする請求項11乃至19のいずれか1項
に記載の画像処理方法。 - 【請求項21】 請求項11乃至20のいずれか1項に
記載の画像処理方法を実行するプログラムを記憶したこ
とを特徴とするコンピュータにより読取り可能な記憶媒
体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000257957A JP4343411B2 (ja) | 2000-08-28 | 2000-08-28 | 画像処理方法及び装置と再生方法とプログラム及び記憶媒体 |
EP12184434.4A EP2538667A3 (en) | 2000-02-09 | 2001-02-09 | Method and apparatus for image processing which inhibits reproduction of parts of a recording |
EP01301174A EP1124379A3 (en) | 2000-02-09 | 2001-02-09 | Method and apparatus for inhibiting reproduction of parts of a recording |
US09/779,532 US7054539B2 (en) | 2000-02-09 | 2001-02-09 | Image processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000257957A JP4343411B2 (ja) | 2000-08-28 | 2000-08-28 | 画像処理方法及び装置と再生方法とプログラム及び記憶媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002077789A true JP2002077789A (ja) | 2002-03-15 |
JP2002077789A5 JP2002077789A5 (ja) | 2007-03-29 |
JP4343411B2 JP4343411B2 (ja) | 2009-10-14 |
Family
ID=18746333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000257957A Expired - Fee Related JP4343411B2 (ja) | 2000-02-09 | 2000-08-28 | 画像処理方法及び装置と再生方法とプログラム及び記憶媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4343411B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005005795A (ja) * | 2003-06-09 | 2005-01-06 | Toshiba Corp | ユーザのプリファレンスに応じて映像オブジェクトの表示方法の変更を支援する映像呈示装置および方法ならびにプログラム |
WO2005076630A1 (ja) * | 2004-02-03 | 2005-08-18 | Matsushita Electric Industrial Co., Ltd. | 復号化装置、符号化装置、補間フレーム生成システム、集積回路装置、復号化プログラムおよび符号化プログラム |
JP2007259043A (ja) * | 2006-03-23 | 2007-10-04 | Hitachi Ltd | メディア認識システム |
KR101158435B1 (ko) * | 2006-03-03 | 2012-06-22 | 엘지전자 주식회사 | 이동통신 단말기와 우선순위 정보 데이터를 이용한 방송시스템 및 이를 이용한 방송 방법 |
JP2013085150A (ja) * | 2011-10-11 | 2013-05-09 | Toshiba Corp | デジタル放送録画再生装置およびデジタル放送録画再生方法 |
JP2015195474A (ja) * | 2014-03-31 | 2015-11-05 | 株式会社Jvcケンウッド | 映像符号化データ送信装置、映像符号化データ送信方法、映像符号化データ受信装置、及び映像符号化データ送受信システム |
-
2000
- 2000-08-28 JP JP2000257957A patent/JP4343411B2/ja not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005005795A (ja) * | 2003-06-09 | 2005-01-06 | Toshiba Corp | ユーザのプリファレンスに応じて映像オブジェクトの表示方法の変更を支援する映像呈示装置および方法ならびにプログラム |
WO2005076630A1 (ja) * | 2004-02-03 | 2005-08-18 | Matsushita Electric Industrial Co., Ltd. | 復号化装置、符号化装置、補間フレーム生成システム、集積回路装置、復号化プログラムおよび符号化プログラム |
US8160143B2 (en) | 2004-02-03 | 2012-04-17 | Panasonic Corporation | Decoding device, encoding device, interpolation frame creating system, integrated circuit device, decoding program, and encoding program |
KR101158435B1 (ko) * | 2006-03-03 | 2012-06-22 | 엘지전자 주식회사 | 이동통신 단말기와 우선순위 정보 데이터를 이용한 방송시스템 및 이를 이용한 방송 방법 |
JP2007259043A (ja) * | 2006-03-23 | 2007-10-04 | Hitachi Ltd | メディア認識システム |
JP2013085150A (ja) * | 2011-10-11 | 2013-05-09 | Toshiba Corp | デジタル放送録画再生装置およびデジタル放送録画再生方法 |
JP2015195474A (ja) * | 2014-03-31 | 2015-11-05 | 株式会社Jvcケンウッド | 映像符号化データ送信装置、映像符号化データ送信方法、映像符号化データ受信装置、及び映像符号化データ送受信システム |
Also Published As
Publication number | Publication date |
---|---|
JP4343411B2 (ja) | 2009-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6377309B1 (en) | Image processing apparatus and method for reproducing at least an image from a digital data sequence | |
US7054539B2 (en) | Image processing method and apparatus | |
US8081870B2 (en) | Receiving apparatus and method | |
Haskell et al. | Digital video: an introduction to MPEG-2 | |
Puri et al. | MPEG‐4: An object‐based multimedia coding standard supporting mobile applications | |
Koenen | MPEG-4 multimedia for our time | |
US6567427B1 (en) | Image signal multiplexing apparatus and methods, image signal demultiplexing apparatus and methods, and transmission media | |
US20070206932A1 (en) | Apparatus and method for image coding and decoding | |
JP4588795B2 (ja) | 画像符号化装置および画像符号化方法 | |
US20060140281A1 (en) | Video coding apparatus and video decoding apparatus | |
Schafer | MPEG-4: a multimedia compression standard for interactive applications and services | |
JP3927713B2 (ja) | 放送受信装置およびその方法 | |
JP4306850B2 (ja) | 放送受信装置およびその方法 | |
JP4343411B2 (ja) | 画像処理方法及び装置と再生方法とプログラム及び記憶媒体 | |
JP4289753B2 (ja) | 再生方法及び装置と表示装置 | |
JP4401463B2 (ja) | 放送受信装置及びその方法 | |
JP2004537931A (ja) | シーンを符号化する方法及び装置 | |
JPH104539A (ja) | データ多重化方法及び多重データ再生装置 | |
Puri et al. | Overview of the MPEG Standards | |
JP2001016582A (ja) | 画像処理装置およびその方法 | |
Law et al. | The MPEG-4 Standard for Internet-based multimedia applications | |
Puri et al. | Scene description, composition, and playback systems for MPEG-4 | |
Puri et al. | AT&T Labs, Red Bank, New Jersey | |
Pereira | MPEG-4: concepts, tools and applications | |
Danielsen | MPEG-4 for DTV |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070209 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20070209 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080820 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081027 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090629 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090709 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120717 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4343411 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120717 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130717 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |