JP2007189354A - デジタル放送受信装置及びデジタルテレビジョン放送受像機 - Google Patents

デジタル放送受信装置及びデジタルテレビジョン放送受像機 Download PDF

Info

Publication number
JP2007189354A
JP2007189354A JP2006004131A JP2006004131A JP2007189354A JP 2007189354 A JP2007189354 A JP 2007189354A JP 2006004131 A JP2006004131 A JP 2006004131A JP 2006004131 A JP2006004131 A JP 2006004131A JP 2007189354 A JP2007189354 A JP 2007189354A
Authority
JP
Japan
Prior art keywords
animation
information
data
character
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006004131A
Other languages
English (en)
Inventor
Yasushi Kasugai
靖 春日井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006004131A priority Critical patent/JP2007189354A/ja
Publication of JP2007189354A publication Critical patent/JP2007189354A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】アニメーションと、このアニメーション以外の映像とをディスプレイに同時に表示させられるようにすること。
【解決手段】デジタル放送受信装置1では、RF信号入力端子2からRF信号が入力されると、DIV8がRF信号出力端子3と検波・復調部9とにRF信号を分配する。検波・復調部9は、DIV8からRF信号を受け取って、復調してトランスポートストリームを取得して、TSデコーダ10に渡す。アプリ処理部11では、トランスポートストリームを受け取り、アニメーション情報を抽出して、アニメーションキャラクタの動きを表すアニメーションデータをアニメーション用動画プレーン上に生成し、各種指令データや参照データと共に映像合成部12及び音声合成部13に渡す。
【選択図】図1

Description

本発明は、地上デジタル放送や衛星デジタル放送を受信するデジタル放送受信装置、及び、このデジタル放送受信装置を搭載したデジタルテレビジョン放送受像機に関する。
デジタル放送では、MPEG(Moving Picture Experts Group)−2に従った映像ストリームや音声ストリームが、トランスポートストリームパケットに収められ、このトランスポートストリームパケットを1列に並べたトランスポートストリームとして順次伝送される(例えば、非特許文献1参照)。また、デジタル放送では、データの符号化や伝送の方式が社団法人電波産業会による規格に従っている(例えば、非特許文献2参照)。
規格文献名「国際規格(IEC13818−1)」 ISO(International Organization for Standardization) 規格文献名「デジタル放送におけるデータ符号化方式と伝送方式 標準規格」 規格番号「ARIB STD−B24」 社団法人電波産業会
ところで、従来のアニメーションのデジタル放送は、放送局側で、動画ストリームを作成し、その動画ストリームを放送している。そして、デジタルテレビジョン放送受像機では、その動画ストリームを再生してアニメーションを表示させている。つまり、従来のアニメーションは、主となる動画の映像として放送されている。そのため、例えば主となる動画の映像と共にアニメーションの映像をディスプレイ画面に表示させるならば、デジタルテレビジョン放送受像機は、2種類の映像情報をリアルタイムに処理しなければならない。しかしながら、このように2種類の映像情報をリアルタイムに処理する場合には、標準規格よりもハイグレードな処理部を搭載しなければならず、デジタル放送テレビジョン受像機の低価格化の妨げになってしまう。
なお、この明細書及び特許請求の範囲の書類中において、「アニメーション」というときには、制作者によってあらかじめ指定されたキャラクタイメージの表現を示し、例えば、ニュース映像やスポーツ中継映像のようにキャラクタイメージの動き自体に制作者の意図がないコンテンツを除く意味として用いることとする。そして、この「アニメーション」におけるキャラクタイメージは、絵柄の画像及び実写画像のいずれであってもよい。ここで、絵柄の画像は、手書きされた絵をスキャナ等の読み取り装置で読み込んだ画像に限らず、CG(Computer Graphics)により作成された画像も含む概念とする。また、実写画像は、例えば、実在する人物等の被写体をデジタルカメラ等の撮像装置で取得した画像から被写体の画像領域を抽出した画像とする。
そこで、本発明は、所定の規格の中で、アニメーションと、このアニメーション以外の映像とをディスプレイに同時に表示させられるようにすることを目的とする。
そこで、本発明は、受信信号入力端子と、復調部と、パケット抽出部と、アニメーション生成部と、映像合成部と、映像出力端子と、を備えたデジタル放送受信装置を提供する。受信信号入力端子は、受波素子が受信したデジタル放送電波を受信信号として入力する。復調部は、この受信信号入力端子から入力される前記受信信号から所定形式のストリームを復調する。パケット抽出部は、この復調部から前記所定形式のストリームを受け取って、この所定形式のストリームのペイロードにパケットとして含まれるアニメーションキャラクタの動きを指定するアニメーション情報を抽出する。アニメーション生成部は、このパケット抽出部から前記アニメーション情報としての前記パケットを受け取って、アニメーションキャラクタを前記ディスプレイの任意の位置に表示させるための前記アニメーション用動画プレーン上にアニメーションデータを前記アニメーション情報に基づいて生成する。映像合成部は、このアニメーション生成部で生成された前記アニメーション用動画プレーン上のアニメーションデータを含む前記映像信号を合成する。映像出力端子は、この映像合成部で合成された前記映像信号を前記ディスプレイに向けて出力する。また、本発明は、このデジタル放送受信装置を搭載したデジタルテレビジョン放送受像機を提供する。
本発明によれば、所定の規格の中で、アニメーションと、このアニメーション以外の映像とをディスプレイに同時に表示させることができる効果が得られる。
以下、本発明の実施の形態について図面を参照して説明する。
まず、図1に示すブロック図に従って、実施の形態のデジタル放送受信装置1の構成について説明する。このデジタル放送受信装置1は、6個の端子、即ち、RF(Radio Frequency)信号入力端子2と、RF信号出力端子3と、音声入力端子4と、映像入力端子5と、音声出力端子6と、映像出力端子7とを図示しない筐体から外部を覗くように備えている。また、このデジタル放送受信装置1は、DIV(DIVider)8と、検波・復調部9と、TS(Transport Stream)デコーダ10と、アプリ処理部11と、映像合成部12と、音声合成部13と、CPU14と、メモリ15と、DB(DataBase)16と、赤外線I/F(InterFace)17と、バス18と、を図示しない筐体内に備えている。なお、赤外線I/F17も図示しない筐体から外部を覗くようになっている。
DIV8は、RF信号入力端子2と、RF信号出力端子3と、検波・復調部9と、それぞれ信号線を介して接続している。検波・復調部9とTSデコーダ10とは、信号線を介して接続している。TSデコーダ10とアプリ処理部11とは、信号線を介して接続している。アプリ処理部11は、TSデコーダ10と共に、映像合成部12と音声合成部13とにそれぞれ信号線を介して接続している。映像合成部12は、アプリ処理部11と共に、映像入力端子5と映像出力端子7とにそれぞれ信号線を介して接続している。音声合成部13は、アプリ処理部11と共に、音声入力端子4と音声出力端子6とにそれぞれ信号線を介して接続している。また、検波・復調部9と、TSデコーダ10と、アプリ処理部11と、CPU14と、メモリ15と、DB16と、赤外線I/F17とは、それぞれバス18に接続している。
RF信号入力端子(受信信号入力端子)2は、デジタル放送電波を受信した図示しない受波素子からのRF信号(受信信号)を入力して、信号線を介してDIV8にRF信号を伝送させる。なお、受波素子は、UHFアンテナやパラボラアンテナの素子として構成される。
RF信号出力端子3は、DIV8から信号線を介して伝送されるRF信号を外部に出力する。音声入力端子4は、外部から音声信号を入力し、信号線を介して音声合成部13に、その音声信号を伝送させる。映像入力端子5は、外部から映像信号を入力し、信号線を介して映像合成部12に、その映像信号を伝送させる。音声出力端子6は、音声合成部13から信号線を介して伝送される音声信号を外部に出力する。映像出力端子7は、映像合成部12から信号線を介して伝送される映像信号を外部に出力する。
DIV(分配部)8は、RF信号入力端子2から入力したRF信号を二つに分配する。そして、DIV8は、一方のRF信号を検波・復調部9に送り、他方のRF信号をRF信号出力端子3に出力する。
検波・復調部9は、選局された希望の伝送チャンネルを検波して、RF信号入力端子2から入力されるRF信号からトランスポートストリームを復調する。そして、検波・復調部9は、復調したトランスポートストリームをTSデコーダ10に伝送する。なお、この実施の形態では、トランスポートストリームを例に説明するが、所定形式であれば、どのようなストリームであってもよい。
TSデコーダ(パケッド抽出部)10は、検波・復調部9からトランスポートストリームを受け取って、このトランスポートストリームを構成するパケットのペイロードに含まれるアニメーション情報を抽出する。TSデコーダ10は、抽出したアニメーション情報をアプリ処理部11に伝送する。なお、アニメーション情報については後記するが、アニメーション情報には、アニメーションキャラクタを表示するウィンドウのディスプレイ上での位置を指定する位置情報が含まれている。また、特に、アニメーションキャラクタ自体を指定する場合には、キャラクタ情報と呼び、これもアニメーション情報に含めることとする。
アプリ処理部11は、TSデコーダ10からアニメーション情報を受け取ると、ユーザによってアニメーション表示が選択されたときに、アニメーション情報に基づいてアニメーションキャラクタを特定し、アニメーション用動画プレーン上にアニメーションデータを生成する。そして、アプリ処理部11は、生成したアニメーションデータを映像合成部12や音声合成部13に出力する。また、アプリ処理部11は、アニメーション情報に音声情報が含まれるときには、その音声情報を音声合成部13に出力する。この音声情報は、アニメーションキャラクタの動きに合わせて、アニメーションキャラクタの発話する音声として出力するための情報である。なお、このアプリ処理部11の処理については、さらに詳しく後記する。
音声合成部13は、アプリ処理部11で生成されたアニメーションデータによるアニメーションキャラクタの動きに合わせて、アプリ処理部11から送られるアニメーションキャラクタの音声もしくは動画(デジタルチューナ19からの映像信号)に合わせた効果音を合成して音声信号を音声出力端子6から出力する。或いは、音声合成部13は、音声入力端子4から入力する音声信号を、アプリ処理部11で生成されたアニメーションデータに合わせて、音声出力端子6から出力する。この音声合成部13の処理は、アプリ処理部11からのタイムスタンプや指令データに応じて選択的に実行されるようにすればよい。
映像合成部12は、アプリ処理部11で生成されたアニメーションデータをアニメーション用動画プレーンに記憶すると共に、映像入力端子5から入力される映像信号に含まれる映像データを映像プレーンに記憶する。続いて、映像合成部12は、アニメーション用動画プレーン上のアニメーションデータと、映像プレーン上の映像データとを合成して合成データを生成する。そして、映像合成部12は、合成データを、合成後の映像信号として映像出力端子7から出力する。なお、映像入力端子5から入力される映像信号と合成するか否かは、アプリ処理部11からのタイムスタンプの有無によって判断すればよい。
なお、音声合成部13と映像合成部12とは、単に、データを合わせて音声信号や映像信号を出力するようにしてもよい。この場合には、アプリ処理部11が、「データを生成する(ON)」/「データを生成しない(OFF)」の切り替え処理を行うようにすればよい。
CPU14は、検波・復調部9と、TSデコーダ10と、アプリ処理部11との各処理を制御する。各処理は、一般にデジタルチューナ19で行われている処理であって、社団法人電波産業会の規格(規格番号「ARIB TR−B14」参照)に従っているため、その詳細を省略する。
また、このCPU14は、ユーザがリモコン24の操作によりアニメーション情報や位置情報の設定処理を選択したときには、リモコン24からの設定処理の選択指令を受信した赤外線I/F17及びバス18を介して、その選択指令を受け取る。そして、CPU14は、メモリ15やDB16に記憶されている設定処理プログラムを読み出して展開し、実行する。メモリ15及びDB16は、各種プログラムや各種データを保存する。ここで、メモリ15は、ROM(Read Only Memory)及びRAM(Random Access Memory)のアクセス速度の速い記憶媒体である。また、DB16は、HD(Hard Disk)等の容量の多い記憶媒体である。
赤外線I/F17は、リモコン24との間の通信を制御する。バス18は、前記したように、検波・復調部9と、TSデコーダ10と、アプリ処理部11と、赤外線I/F17と、メモリ15と、DB16とをCPU14に接続する。
デジタルチューナ19は、詳細は省略するが、RF信号からデジタル放送電波に乗せて伝送されるトランスポートストリームに含まれる動画ストリームのパケットや音声ストリームのパケットから映像信号や音声信号を別体のディスプレイ等に向けて出力する。そのため、デジタルチューナ19は、RF信号を入力するRF信号入力端子20と、音声信号を出力する音声出力端子21と、映像信号を出力する映像出力端子22とが備えられている。したがって、このデジタルチューナ19は、市販されているものであってもよい。
ただし、デジタルチューナ19は、リモコン24から送信されるデータを受信する赤外線I/F23を備えることが好ましい。そして、デジタルチューナ19は、リモコン24からのデータ(設定選択指令)に従って、ディスプレイ上の映像(動画)表示ウィンドウの位置や大きさを切り替える機能を有している。これは、デジタルチューナ19が有する図示しない動画処理部が、リモコン24から送られたデータ(表示位置や大きさに関するデータ)に基づいて動画プレーンでの表示位置や大きさを変えることで行える。なお、この処理については、実施の形態の他の例における処理として後記する。
リモコン24は、図示しない赤外線I/FとCPUとメモリとを内蔵し、ユーザに操作させる図示しないテンキー等の各種選択キーが搭載されている。特に、リモコン24には、図示しない設定選択キーが用意されている。そして、CPUは、その設定選択キーの押下により、これを検知すると、メモリから設定選択指令を読み出し、赤外線I/Fから出力させる。この設定選択指令は、デジタル放送受信装置1の赤外線I/F17と、デジタルチューナ19の赤外線I/F23に受信される。
なお、キャラクタイメージは、あらかじめメモリ15やDB16に登録しておいても、また、デジタル放送のたびに、放送局側から送信させるようにしてもよい。また、このキャラクタイメージには、キャラクタ情報に従って種々の動作・表情の動きを表現するための複数のパーツが含まれていることとする。例えば、パーツのイメージとしては、目、鼻、腕、足等のパーツの動きに応じたイメージが挙げられる。この場合、キャラクタイメージの動きは、キャラクタ情報に従ったパーツの組み合わせによって生成されるキャラクタデータによって表現される。これにより、例えば、アニメキャラクタAが手を上げている状態の静止画像と、アニメキャラクタAが手を下げている状態の静止画像とを繰り返して表示させることによって、アニメキャラクタAが手の上げ下げ動作を表現することができる。また、このキャラクタイメージは、複数の種類用意しておき、ディスプレイに選択画面を表示させて、リモコン24によりユーザに選択させるようにしてもよい。また、背景や顔などのパーツについては、写真として取り込んだ絵を、各パーツに貼り付けるように処理してもよい。例えば、アニメキャラクタのキャラクタイメージの顔部分に、写真として取り込んだ特定人物の顔イメージデータを貼り付けることができる。
次に、デジタル放送受信装置1の処理の概略について説明する。このデジタル放送受信装置1では、RF信号入力端子2からRF信号が入力されると、DIV8がRF信号出力端子3と検波・復調部9とにRF信号を分配する。
RF信号出力端子3から出力されたRF信号は、デジタルチューナ19のRF信号入力端子20に入力する。そして、デジタルチューナ19の音声出力端子21から出力された音声信号が、デジタル放送受信装置1の音声入力端子4から入力されて音声合成部13に渡される。また、デジタルチューナ19の映像出力端子22から出力された映像信号が、デジタル放送受信装置1の映像入力端子5から入力されて音声合成部13に渡される。
一方、検波・復調部9は、DIV8からRF信号を受け取って、復調してトランスポートストリームを取得して、TSデコーダ10に渡す。TSデコーダ10は、トランスポートストリームを受け取り、アニメーション情報や音声テキスト情報や指令データ等を抽出して、アプリ処理部11に渡す。アプリ処理部11では、アニメーション情報や音声テキスト情報や指令データ等を受け取り、アニメーション情報に従ってアニメーションキャラクタの動きを表すアニメーションデータをアニメーション用動画プレーン上に生成し、各種指令データや参照データに合わせて映像処理、音声処理を施し、結果の映像と音声を映像合成部12及び音声合成部13に渡す。
そして、音声合成部13は、指令データ等に従って、音声を合成した音声信号を音声出力端子6から出力する。映像合成部12は、アニメーション用動画データを含む映像信号を合成し、映像出力端子7から出力する。音声出力端子6から出力された音声信号は、図示しないスピーカに入力して、音声として出力される。また、映像出力端子7から出力された映像信号は、図示しないディスプレイに入力して、各種動画や各種静止画や各種データと共にアニメーションキャラクタが表示される。
ところで、CPU14は、リモコン24から設定選択指令を受け取ると、アニメーション情報の設定メニューを表示させ、ユーザに指定を促し、ユーザの指定に従ってアニメーション設定情報をメモリ15やDB16に設定する。なお、メモリ15やDB16に設定されるアニメーション設定情報を、適宜「個別設定データ」と呼んで説明する。これにより、ユーザは、ディスプレイ上に表示される設定選択画面の指示に従って、アニメーション設定情報を指定することができる。
このように、デジタル放送受信装置1は、音声出力端子6と映像出力端子7とに接続される図示しないデジタルテレビジョン放送受像機の図示しないCPUやデジタルチューナ19に負担をかけることなく、ユーザの意思に沿った任意のディスプレイ領域内にアニメーションを表示させることができる。したがって、種々の標準規格を変更することなく、アニメーションをユーザの意志に沿った位置に表示させることができる。
次に、図2に示すデータ構造の説明図を参照して、TSデコーダ10がアニメーション情報を抽出する処理の概念を説明する。TSデコーダ10は、トランスポートストリームから適宜長さ(188byte)ごとに連なるトランスポートストリームパケット(TSP(TSパケット))を抽出する。なお、ここで、TSパケットごとに、アニメーション情報、アニメーション以外の動画ストリーム等が収納されていることとする。そのため、TSデコーダ10は、TSパケットを解析して、アニメーション情報を含むTSPヘッダ部に連なるTSPペイロード部を抽出する。次に、TSデコーダ10は、複数(ここでは、2個)のTSPヘッダ部に連なる各TSPペイロード部(アニメーション情報が分割して収納されている。)を集めてPES(Packetized Elementary Stream)ペイロード部を生成する(なお、PESパケット等については、社団法人電波産業会の規格名「デジタル放送における映像符号化、音声符号化及び多重化方式」、規格番号「ARIB STD−B32」参照。)。
また、このPESペイロード部に連なるPESヘッダ部は、TSPヘッダ部に従って生成する。そして、TSデコーダ部は、生成したTSPヘッダ部及びTSPペイロード部で構成するPESパケットを生成する。続いて、TSデコーダ10は、アプリ処理部11にPESパケットを出力する。なお、このPESパケット部が複数集まって一つのシーン(アニメーションデータ)1,2,…を形成する。このPESパケット部には、後記するアニメーション情報が含まれている。また、このPESパケット部には、ディスプレイ上のいずれの位置に表示させるのかを指定する位置情報を含めておいてもよい。そのため、TSデコーダ10は、PESヘッダ部を解析して、一つのシーンに必要なPESペイロード部をアニメーション情報として抽出し、アプリ処理部11に伝送する。
ところで、アニメーション情報には、例えば、キャラクタ属性データや環境データや各種動作データが含まれている。次に、図3乃至図6に示す各表に従って、各データについて説明する。ここでは、各データは、階層モデルを用いて表されている。
図3に示す表を用いて、キャラクタ属性データの一例について説明する。このキャラクタ属性は、自身を項目1としたときに、例えば、性別、服装(上)、服装(下)、身体(身体の特徴)、顔(表情)の要素が項目2として属している。項目2の性別には、男と女の2種類しか存在しないため、それぞれを示す値が対応づけられている。そして、「男」の値には、コード「0」が対応づけられている。また、「女」の値には、コード「1」が対応づけられている。
項目2の服装(上)には、スーツやTシャツ等の衣装が項目3として属している。そして、項目3のスーツには、色を含むデザインなどで分類したタイプ1,2等の値が属している。タイプ1には、コード「0」が対応づけられている。タイプ2には、コード「1」が対応づけられている。また、同様に、項目3のTシャツには、色を含むデザインなどで分類したタイプ1等の値が属している。タイプ1には、コード「2」が対応づけられている。項目2の服装(下)には、Gパン等の衣装が項目3に属している。そして、色等のデザインを示す値と、これを識別するコードとが、対応づけられている。ここでは、青色の値にコード「0」が対応づけられている。
項目2の身体には、「頭」の大きさ(cm)、「上半身」の長さ(cm)、「下半身(ここでは、一部のみの表示とする。)」の長さ(cm)等の身体的特徴が項目3として属している。そして、各身体的特徴の長さが、各値として対応づけられている。ここでは、頭の値「20」cm、上半身の値「80」cm、下半身の値「80」cmと対応づけられている。なお、ここでは実物スケールの長さとしている。したがって、ディスプレイの画面内では、所定のスケールに縮尺して表される。そのため、アプリ処理部11は、パケット中に含まれる換算式や換算テーブルを参照して、各値に応じて表示スケール内の長さを決定する必要がある。
項目2の顔には、目の位置x、目の位置y、目の長さ(cm)、目の傾き(deg)、口の長さ等の各パーツの特徴が項目3として対応づけられている。ここでは、目の位置xの値「5」、目の位置yの値「7」、目の長さの値「5」、目の傾き「0」、口の長さ「5」と対応づけられている。なお、ここでも長さは、実物スケールで表している。したがって、アプリ処理部11は、身体の場合と同様に処理する必要がある。
したがって、アプリ処理部11は、パケットからキャラクタ属性データを抽出して、図3に示すキャラクタ属性データの参照値に基づいてキャラクタ属性データを指定することで、アニメーションキャラクタの属性を選択することができる。
例えば、キャラクタ属性データが、性別のコード「0」、服装(上)のコード「2」、服装(下)のコード「0」、頭の値「20」cm、上半身の値「80」cm、下半身の値「80」cm、目の位置xの値「5」、目の位置yの値「7」、目の長さ「5」、目の傾き「0」、口の長さ「5」のように指定されているときには、アプリ処理部11は、次のようなアニメーションキャラクタを生成する。そのアニメーションキャラクタは、男であって、Tシャツを着て、青色のGパンをはいて、ディスプレイに表示される。その彼は、頭が20cm、上半身が80cm、下半身が80cmとなるような比率でディスプレイに表示される。また、その彼の顔は、例えば、顔の中心を通るx軸から上に5cm、中心を通るy軸から左右に7cmのところに両目の中心がくるように両目が配置される。また、その目の傾きはx軸に対して平行である。そして、口の長さは5cmである。したがって、アプリ処理部11は、トランスポートストリーム中から抽出したキャラクタ属性データに基づいたキャラクタイメージを形成して、アニメーションキャラクタの動きを表現させるアニメーションデータを生成することができる。
次に、図4に示す表を用いて、環境データの一例について説明する。この環境データは、自身を項目1としたときに、例えば、座標系、表示ON/OFF、タイムスタンプ(duration)の要素が項目2として属している。項目2の座標系には、2次元直交座標で表す場合、x座標とy座標とが項目3として属している。ここでは、x座標として値「640」が与えられ、y座標として「480」が与えられている。ここで、これらはドット数を表すとする。つまり、ディスプレイ画面でのアニメーションキャラクタの表示領域の大きさを示している。なお、ディスプレイの画面面積よりも狭い表示領域の場合には、例えば表示領域を矩形状としたとき、その四隅のいずれかの点の座標や中心座標等を指定して表示領域を指定するための、座標値も環境データとして属するように設定しておく。
項目2の表示ON/OFFは、ONの値にコード「0」が対応づけられ、OFFの値にコード「1」が対応づけられている。ここで、表示ONは、ディスプレイ上にアニメーションキャラクタを表示することを示し、表示OFFはその反対である。項目2のタイムスタンプは、項目3として定義された時分秒の時間に対象のフレームを表示することを指定する値が対応づけられている。
したがって、アプリ処理部11は、表示ONのとき、タイムスタンプの値で指定される、0時0分0秒に、フレーム2をディスプレイ画面一杯(640×480)に、アニメーションキャラクタを表示するというように、環境データに従って処理する。なお、この場合、図示しないタイマがバス18に接続されている必要がある。
次に、図5及び図6に示す表を用いて、動作データの一例について説明する。ここでは、動作データとして、文字データ、右手動作データ、頭動作データ、顔表情データを例にして説明する。この他には、例えば、左手動作データ、右足動作データ、左足動作データなども含まれる。
図5の(A)に文字データの一例を示す。この文字データには、「実験です」等の表示文字列に対応する「0x3C」等の文字コードが属している。この文字コードが文字データとしてPESパケットにアニメーション情報として含まれている。そして、アプリ処理部11が、パケットに含まれる文字コードを抽出して、文字コード変換辞書を参照して、対応する文字列のキャラクタイメージを抽出する。なお、文字コード変換辞書は、その都度パケットに含めて送信されてくるようにしても、或いは、DB16やアプリ処理部11内の図示しない記憶領域にあらかじめ記憶させておくようにしてもよい。また、アプリ処理部11は、文字コードデータを音声合成部13に出力して、音声合成部13に音声信号に変換させるようにしてもよい。
図5の(B)に右手動作データの一例を示す。この右手動作データは、自身を項目1としたときに、例えば、上腕、掌、親指、小指のような人体の部位が項目2として属している。項目2の上腕には、例えば、肘の動きを表す、肘方向θdegや肘方向φdegが項目3として属している。なお、θやφは、肘を回転中心とし、上腕を軸とした場合の軸方向に対する角度であり、回転座標系における座標値である。そして、項目3に対応する値(座標値)がθ=150、φ=30のように対応づけられている。また、項目2の掌、親指、小指についても、回転座標系における座標値(方向θ、方向φ)を項目3として属している。ここでは、各θの値(θ=0)、各φの値(θ=0)としている。したがって、アプリ処理部11は、項目2の上腕等の回転座標系における座標値を取得するため、キャラクタ属性に基づいて生成したアニメーションキャラクタの上腕等の動きを表すことができる。
図6の(A)に頭動作データの一例を示す。この頭動作データも、右手動作データと同様に、項目2の「首を振る方向」を示す回転座標系における座標値「方向θ」、座標値「方向φ」が項目3に属している。そして、θの値(θ=20)、φの値(φ=0)としている。したがって、アプリ処理部11は、項目2の「首を振る方向」等の回転座標系における座標値を取得するため、キャラクタ属性に基づいて生成したアニメーションキャラクタの首の振りの動きを表すことができる。
図6の(B)に顔表情データの一例を示す。この顔表情データは、自身を項目1としたときに、例えば、右目、左目、口、右眉、左眉の顔の表情を表す人体部位が項目2として属している。項目2の右目や左目には開閉を表す二つの値が属し、「開」の値にはコード「0」が対応づけられている。また、「閉」の値には、コード「1」が対応づけられている。
項目2の口には、「閉」と、開き具合を示す「開1」「開2」「開3」とが項目3として属している。ここで、開き具合の大小は、「開1」<「開2」<「開3」とする。また、「閉」の値にはコード「0」が対応づけられている。「開1」「開2」「開3」の値には、それぞれ順にコード「1」「2」「3」が対応づけられている。
項目2の右眉や左眉には、形状を示す「半円(上弦)」「半円(下弦)」、或いは、傾きを示す「直線(傾きなし)」「直線(傾き1)」「直線(傾き2)」のような項目3が属している。ここで、「傾き1」<「傾き2」とする。そして、「半円(上弦)」「半円(下弦)」の値には、それぞれ順にコード「10」「11」が対応づけられている。また、「直線(傾きなし)」「直線(傾き1)」「直線(傾き2)」の値には、それぞれ順にコード「0」「1」「2」が対応づけられている。したがって、アプリ処理部11は、項目2の右目等のコードを取得するため、キャラクタ属性に基づいて生成したアニメーションキャラクタの顔の表情を表すことができる。
以上のように、アプリ処理部11は、少ないデータ量の値やコードのテキストデータとしてのアニメーション情報に従って、アニメーションキャラクタの動きを表示するためのアニメーションデータをアニメーション用動画プレーン上に生成することができる。そのため、CPU14やメモリ15やDB16も安価なグレードの低いもので実現可能である。
ところで、前記キャラクタ属性データや環境データや各動作データは、HTML(HyperText Markup Language)、BML(Broadcast Markup Language)等のマークアップ言語によって送信側で記述され、トランスポートストリームに含まれるアニメーション情報として伝送される。そして、アプリ処理部11が、そのマークアップ言語を解読して、マークアップ言語で指定する手順に従ってアニメーションキャラクタの動きを表すアニメーションデータを生成する。ここで、マークアップ言語の記述例を示す。
図7は、マークアップ言語の記述例の概略を説明する図である。ここでは、「キャラクタ1」のキャラクタ属性「顔」に含まれる「目」の「色」が「青」であることが示されている。したがって、アプリ処理部11は、この記述例のマークアップ言語に基づいて、キャラクタ1(アニメーションキャラクタ)の目の色を青にしたアニメーションデータを生成することができる。
次に、図8に示すフローチャートに従って、アプリ処理部11の処理の概略を説明する。アプリ処理部11は、TSデコーダ10からアニメーション情報を受け取ると、アニメーション情報の中の環境データに属する表示ON/OFFを示すコードを読み出し、アニメーション表示ONか否かを判定する(ステップS1)。アプリ処理部11は、コード「1」の場合、アニメーション表示ONではない(ステップS1、No)ため、今回の処理を終了する。
一方、アプリ処理部11は、コード「0」の場合、アニメーション表示ONである(ステップS1、Yes)ため、ステップS2に処理を移す。そして、アプリ処理部11は、メモリ15やDB16を参照して、リモコン24を介してユーザにより設定された個別設定データを読み出して(メモリ内個別設定データ処理、ステップS2)、処理をステップS3に移す。なお、アプリ処理部11は、個別設定データが記憶されていない場合には、そのまま処理をステップS3に移す。
次に、アプリ処理部11は、個別設定データがある場合には、この個別設定データを優先し、TSデコーダ10からのアニメーション情報に従ってアニメーション用動画プレーンを生成し(アニメーション用データ処理、ステップS3)、処理をステップS4に移す。そして、アプリ処理部11は、生成したアニメーション用動画プレーンを映像合成部12や音声合成部13に出力して、アニメーションをディスプレイに表示させるようにする(ステップS4)。
次に、アニメーションキャラクタをディスプレイに表示する例を説明する。図9に、データ放送(動画や各種データ)とアニメーションキャラクタとを図示しないディスプレイ上に表示する画面例を示す。この画面例では、ディスプレイの画面A内に、右上にアニメーション表示領域A1、左上に動画表示領域A2が表示されている。アニメーション表示領域A1内には、アニメーションキャラクタCの動きが表示されている。そして、下側には、各種選択のためのボタン1B、ボタン2B、ボタン3Bが表示されている。このボタン1B、ボタン2B、ボタン3Bは、例えば、動画表示領域A2に表示され、アニメーション表示領域A1にキャラクタの動きとして表示されるクイズ問題の解答を選択する場合などに用いることができる。このボタン1B、ボタン2B、ボタン3Bの選択は、図示しないディスプレイ又は図示しないデジタルテレビジョン放送受像機の図示しないリモコン操作により行われる。
図10に、同期を必要とする画面例を示す。ここでは、図10(A)の時刻hh:mm:ss:00時の状態に示すように、アニメーション表示領域A1は、画面Aと同じ、つまり、画面A一杯にアニメーションキャラクタCが表示可能になっている。そして、その画面A内に、アニメーション表示領域A1の上に重ねるように、動画表示領域A2が表示されている。ところが、図10(B)の時刻hh:mm:ss:02時のように、アニメーションキャラクタCが移動すると、動画表示領域A2に重なってしまう。そこで、この場合には、映像合成部12は、アニメーションキャラクタCが動画表示領域A2に重ならないように、動画表示領域A2の位置をあるタイミングで移動したり、或いは、背景の表示ONにして、背景つまりアニメーション表示領域A1があるタイミングで動画表示領域A2の上に重なるようにしたりして、映像信号を出力するようにすればよい。なお、「あるタイミング」は、例えば、MMデータの中に埋め込まれるトリガデータとして設定されるようにすればよい。
次に、ユーザがリモコン24を操作してアニメーション情報を選択する場合の設定選択画面の一例を説明する。図11に、その画面例を示す。ここでは、画面A内に、アニメーションキャラクタCが表示され、その服の色を選択するための選択領域A3が表示されている。そして、「青」が選択されている状態を示している。このとき、アニメーションキャラクタCの服の色もその選択に応じて「青」色になっている。
最後に、図12のブロック図を参照して、デジタル放送受信装置1の変形例としてのデジタル放送受信装置1Aについて説明する。このデジタル放送受信装置1Aは、デジタル放送受信装置1にデジタルチューナ19の機能を内蔵した構成になっている。このデジタル放送受信装置1Aは、MM処理部25と、音声処理部26と、動画処理部27と、静止画処理部28と、字幕処理部29と、文字・図形処理部30とが新たに備えられている。そして、TSデコーダ10の代わりにTSデコーダ10Aが備えられている。また、TSデコーダ10Aは、アプリ処理部11と、MM処理部25と、音声処理部26と、動画処理部27と、静止画処理部28と、字幕処理部29と、文字・図形処理部30とに接続している。また、RF信号入力端子2から入力するRF信号をデジタルチューナ19に出力しなくて済むため、図1のデジタル放送受信装置1のように、DIV8と、RF信号出力端子3と、音声入力端子4と、映像出力端子7とは備えられていない。
MM処理部25は、マルチメディア処理を行うものであり、TSデコーダ10Aで抽出されたマルチメディアデータ用パケット内の指令データや参照データに従って、データ放送のデータ処理や画像遷移等の処理を行い、処理結果を音声合成部13や映像合成部12に出力する。音声処理部26は、TSデコーダ10Aから音声ストリームを受け取って、音声ストリームに従った音声信号を音声合成部13に出力する。
動画処理部27は、TSデコーダ10Aから動画パケットを受け取って、動画プレーン上に動画データを生成して、映像合成部12に出力する。静止画処理部28は、TSデコーダ10Aから静止画パケットを受け取って、静止画プレーン上に静止画データを生成して、映像合成部12に出力する。字幕処理部29は、TSデコーダ10Aから字幕パケットを受け取って、字幕プレーン上に字幕データを生成して、映像合成部12に出力する。文字・図形処理部30は、TSデコーダ10Aから文字・図形データ用パケットを受け取って、文字・図形プレーン上に文字・図形データを生成し、映像合成部12に出力する。
そのため、TSデコーダ10Aは、検波・復調部9から渡されたトランスポートストリームから指令データや参照データ用のパケットを抽出してMM処理部25に渡す。また、同様に、TSデコーダ10Aは、検波・復調部9から渡されたトランスポートストリームから音声パケット、動画パケット、静止画パケット、字幕パケット、文字・図形データ用パケット、アニメーション情報用パケットを抽出する。そして、TSデコーダ10Aは、抽出したそれぞれを、音声処理部26、動画処理部27、静止画処理部28、字幕処理部29、文字・図形処理部30、アプリ処理部11に出力する。そして、映像合成部12では、MM処理結果、動画プレーン上のデータ、静止画プレーン上のデータ、字幕プレーン上のデータ、文字・図形プレーン上のデータ、アニメーション用動画プレーン上のデータをそれぞれ受け取って、各プレーン上のデータを合成して、映像信号を生成し、映像出力端子7から出力させる。
なお、前記実施の形態において、アニメーション情報の定義ファイルは、番組等のコンテンツごとに放送されることとしても、所定期間ごとに放送されることとしてもよい。さらに、あらかじめデジタル放送受信装置1に組み込まれている場合でもよい。また、メディアを介して提供されるようにしてもよい。また、放送以外の通信媒体を介して提供されるようにしてもよい。
また、前記実施の形態では、アニメーション情報がES形式のパケットとして放送される場合を説明したが、形式はこれに限らず、セクション形式であってもよい。このセクション形式の場合には、セクションヘッダと記述子(4096byte以下の可変長)と誤り符号とで構成される。また、前記実施の形態では、赤外線I/F17等によってリモコン24と通信を行う例を説明したが、これに限らず、無線LAN(Local Area Network)によってもよいし、有線であってもよい。また、リモコン24によらずに、デジタル放送受信装置1,1A自身に図示しない操作キーを備えるようにしてもよい。
また、前記実施の形態では、映像出力端子7からの出力先を単にディスプレイを想定して説明した。しかし、その出力先は、単なるディスプレイに限らず、デジタルチューナを内蔵しているデジタルテレビジョン放送受像機であっても、さらに、アナログテレビジョン放送受像機であってもよい。そのため、本発明のデジタル放送受信装置1,1Aは、図示しないデジタルテレビジョン放送受像機に取り付ける専用アダプタ(実施の形態)、或いは、本発明の機能を内蔵した専用アダプタ(実施の形態の他の例)として実施するばかりでなく、図示しないデジタルテレビジョン放送受像機に内蔵させるようにしてもよい。この場合、デジタル放送受信装置は、本発明の機能を有する1個のIC(Integrated Circuit)チップ、そのICチップを搭載したプリント基板、或いは、複数のICチップにより本発明の機能を実現する各ICチップを搭載したプリント基板として実現することができる。なお、ICチップの場合、各入力端子や各出力端子はピンであり、プリント基板の場合、プリント配線上の一端や導通するスルーホール等が該当する。
ところで、VHS帯域を利用する日本のデジタルラジオ放送では、MPEG−4等による簡易動画を含むマルチメディア放送が計画されている。このデジタルラジオ放送では、ポケットラジオ、カーオーディオ、PDA(Personal Digital Assistance)、携帯電話、カーナビゲーションシステム、固定受信機、パソコン等の電子機器が受信器として予定されている。この場合でも、本発明のデジタル放送受信装置は、アダプタとして各電子機器に接続したり、各電子機器の内部にICチップやプリント基板として搭載したりして実施することができる。つまり、デジタルラジオ放送でも、前記したデジタルテレビジョン放送の場合と同様に、デジタル放送受信装置が、簡易動画に代わってアニメーションをディスプレイに表示させたり、簡易動画と共にアニメーションを表示させたりすることができる。その詳細は、前記実施の形態と同様であるため省略する。また、デジタルテレビジョン放送及びデジタルラジオ放送は、地上波・BS(Broadcasting Satellite)・CS(Communication Satellite)のいずれであってもよい。また、ケーブルテレビ放送でも同様に実施することができる。
以上のように、本発明の実施の形態のデジタル放送受信装置は、アニメーション用動画プレーン上にアニメーション情報に従ってアニメーションデータを生成し、映像信号として出力する。そのため、このデジタル放送受信装置によれば、デジタル放送信号に含まれるアニメーション情報によるアニメーションと、デジタル放送信号に含まれるアニメーション以外の動画とを、ディスプレイに同時に表示させることができるようになる。そして、このデジタル放送受信装置は、アニメーション以外の映像の動画とは無関係にアニメーション用動画を生成して、互いを合成することができるため、アニメーション以外の映像についての所定の規格に関わりなく、ディスプレイ上に両者を同時に表示させることができる。なお、アニメーション以外の映像には、異なるコンテンツのアニメーション自体を含めてもよい。
また、本発明のデジタル放送受信装置は、たとえ国ごとに異なるデジタル放送規格であっても各国の規格に影響を与えることなく、アニメーションを表示することができる。そのため、本発明によれば、周波数帯域や信号符号化方式等の各国の規格に従うことを除けば、アニメーションを表示することに関して汎用性の高いデジタル放送受信装置を提供することができる。
実施の形態のデジタル放送受信装置の構成を説明するブロック図である。 データ構造の説明図である。 キャラクタ属性データの一例を説明する表を示す図である。 環境データの一例を説明する表を示す図である。 動作データの一例を説明する表を示す図である。 動作データの一例を説明する表を示す図である。 マークアップ言語の記述例の概略を説明する図である。 アプリ処理部の処理の概略を説明するフローチャートである。 データ放送(動画や各種データ)とアニメーションキャラクタとを図示しないディスプレイ上に表示する画面例を示す図である。 同期を必要とする画面例を示す図である。 ユーザがリモコンを操作してアニメーション情報を選択する場合の設定選択画面の一例を説明する図である。 図1のデジタル放送受信装置の変形例を説明するブロック図である。
符号の説明
1,1A デジタル放送受信装置
2 RF信号入力端子(受信信号入力端子)
3 RF信号出力端子(受信信号出力端子)
4 音声入力端子
5 映像入力端子
6 音声出力端子
7 映像出力端子
8 DIV(分配部)
9 検波・復調部
10 TSデコーダ
11 アプリ処理部(アニメ抽出部)
12 映像合成部
13 音声合成部
14 CPU
15 メモリ
16 DB
17 赤外線I/F
18 バス
19 デジタルチューナ
20 RF信号入力端子
21 音声出力端子
22 映像出力端子
23 赤外線I/F
24 リモコン
25 MM処理部
26 音声処理部
27 動画処理部
28 静止画処理部
29 字幕処理部
30 文字・図形処理部

Claims (8)

  1. デジタル放送電波を受信した受波素子から受信信号を入力して、その受信信号に含まれるアニメーションキャラクタの動きを指定するアニメーション情報に基づいて、アニメーションキャラクタをディスプレイの任意の位置に表示させるためのアニメーションデータをアニメーション用動画プレーン上に生成し、そのアニメーションを映像信号としてディスプレイに出力するデジタル放送受信装置であって、
    前記受信信号を入力する受信信号入力端子と、
    この受信信号入力端子から入力される前記受信信号から所定形式のストリームを復調する復調部と、
    この復調部から前記所定形式のストリームを受け取って、この所定形式のストリームのペイロードにパケットとして含まれる前記アニメーション情報を抽出するパケット抽出部と、
    このパケット抽出部から前記アニメーション情報としての前記パケットを受け取って、アニメーションキャラクタを前記ディスプレイの任意の位置に表示させるための前記アニメーション用動画プレーン上にアニメーションデータを前記アニメーション情報に基づいて生成するアニメーション生成部と、
    このアニメーション生成部で生成された前記アニメーション用動画プレーン上のアニメーションデータを含む前記映像信号を合成する映像合成部と、
    この映像合成部で合成された前記映像信号を前記ディスプレイに向けて出力する映像出力端子と、
    を備えたことを特徴とするデジタル放送受信装置。
  2. さらに、外部のデジタルチューナから映像信号を入力する映像入力端子を備え、
    前記映像合成部は、前記映像入力端子から入力された前記映像信号に含まれる映像データを映像プレーンに記憶すると共に、前記アニメーション生成部で生成された前記アニメーションデータをアニメーション用動画プレーンに記憶し、前記映像データ及び前記アニメーションデータを合成して合成データを生成し、この合成データを合成後の映像信号として前記映像出力端子から出力させること、
    を特徴とする請求項1に記載のデジタル放送受信装置。
  3. さらに、前記受信信号入力端子から入力した前記受信信号を分配し、分配された前記受信信号の内の一つを前記復調部に送る分配部と、
    前記分配部で分配された前記受信信号の内の一つを前記外部のデジタルチューナに出力する受信信号出力端子と、
    を備えたこと、
    を特徴とする請求項2に記載のデジタル放送受信装置。
  4. 前記パケット抽出部が、さらに、前記所定形式のストリームにパケットとして含まれる前記アニメーション情報以外のマルチメディア情報と動画情報と静止画情報と字幕情報と文字・図形情報との中の少なくとも一つの情報も抽出することとし、
    前記パケット抽出部から前記アニメーション情報以外の情報を受け取って、前記ディスプレイの任意の位置に表示させるための前記アニメーション情報以外の情報に対応するプレーン用のデータを生成する処理部、
    を備えたことを特徴とする請求項1に記載のデジタル放送受信装置。
  5. さらに、前記アニメーションキャラクタの前記ディスプレイ上の表示位置を指定する位置情報及び前記アニメーションキャラクタを指定するキャラクタ情報の少なくとも一方を記憶する記憶部を備え、
    前記アニメーション生成部は、
    前記位置情報及び/又は前記キャラクタ情報を前記記憶部からを読み出して、その位置情報及び/又は前記キャラクタ情報に従った前記アニメーションキャラクタを表示するように前記アニメーション用動画プレーン上にアニメーションデータを生成すること、
    を特徴とする請求項1から請求項4までのいずれか1項に記載のデジタル放送受信装置。
  6. さらに、前記位置情報及び/又は前記キャラクタ情報を指定するためのデータを入力するインタフェースを備え、
    前記インタフェースを介して入力された前記位置情報及び/又は前記キャラクタ情報を前記記憶部に記憶していくこと、
    を特徴とする請求項5に記載のデジタル放送受信装置。
  7. 前記アニメーション生成部は、
    前記アニメーションキャラクタの前記ディスプレイ上の表示位置を指定する位置情報を前記アニメーション情報中から取り出して、その位置情報に従った表示位置に前記アニメーションキャラクタを表示するように前記アニメーション用動画プレーン上にアニメーションデータを生成すること、
    を特徴とする請求項1から請求項4までのいずれか1項に記載のデジタル放送受信装置。
  8. 請求項1から請求項7までのいずれか1項に記載のデジタル放送受信装置を備えたことを特徴とするデジタルテレビジョン放送受像機。
JP2006004131A 2006-01-11 2006-01-11 デジタル放送受信装置及びデジタルテレビジョン放送受像機 Pending JP2007189354A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006004131A JP2007189354A (ja) 2006-01-11 2006-01-11 デジタル放送受信装置及びデジタルテレビジョン放送受像機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006004131A JP2007189354A (ja) 2006-01-11 2006-01-11 デジタル放送受信装置及びデジタルテレビジョン放送受像機

Publications (1)

Publication Number Publication Date
JP2007189354A true JP2007189354A (ja) 2007-07-26

Family

ID=38344237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006004131A Pending JP2007189354A (ja) 2006-01-11 2006-01-11 デジタル放送受信装置及びデジタルテレビジョン放送受像機

Country Status (1)

Country Link
JP (1) JP2007189354A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077678A (ja) * 2009-09-29 2011-04-14 Toshiba Corp データストリーム処理装置、映像装置、およびデータストリーム処理方法
JP6339730B1 (ja) * 2017-08-28 2018-06-06 株式会社FiNC 動画コンテンツの提示方法およびプログラム
JPWO2020031696A1 (ja) * 2018-08-10 2021-08-26 ソニーグループ株式会社 情報処理装置及び情報処理方法、並びに映像音声出力システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077678A (ja) * 2009-09-29 2011-04-14 Toshiba Corp データストリーム処理装置、映像装置、およびデータストリーム処理方法
JP6339730B1 (ja) * 2017-08-28 2018-06-06 株式会社FiNC 動画コンテンツの提示方法およびプログラム
JP2019041319A (ja) * 2017-08-28 2019-03-14 株式会社FiNC Technologies 動画コンテンツの提示方法およびプログラム
JPWO2020031696A1 (ja) * 2018-08-10 2021-08-26 ソニーグループ株式会社 情報処理装置及び情報処理方法、並びに映像音声出力システム
JP7314944B2 (ja) 2018-08-10 2023-07-26 ソニーグループ株式会社 情報処理装置及び情報処理方法、並びに映像音声出力システム

Similar Documents

Publication Publication Date Title
US9319632B2 (en) Display apparatus and method for video calling thereof
CN111163274B (zh) 一种视频录制方法及显示设备
US20030107677A1 (en) Streaming content associated with a portion of a TV screen to a companion device
JP2004507989A (ja) テレビ放送におけるハイパーリンクのための方法および装置
JP2005531971A (ja) ビデオ信号処理システム
CN105340285B (zh) 用于使用集成内容源来呈现媒体内容的方法、系统以及介质
CN112399234A (zh) 一种界面显示方法及显示设备
CN112073788B (zh) 视频数据处理方法、装置及显示设备
CN111818378B (zh) 显示设备及人物识别展示的方法
CN112866773B (zh) 一种显示设备及多人场景下摄像头追踪方法
CN111343512B (zh) 信息获取方法、显示设备及服务器
CN111556350B (zh) 一种智能终端及人机交互方法
CN112073770B (zh) 显示设备及视频通讯数据处理方法
CN112492390A (zh) 一种显示设备及内容推荐方法
CN111291219A (zh) 一种改变界面背景颜色的方法及显示设备
JP2007189354A (ja) デジタル放送受信装置及びデジタルテレビジョン放送受像機
CN113473024A (zh) 显示设备、云台摄像头和摄像头控制方法
CN112073789B (zh) 一种声音处理法及显示设备
CN112532962A (zh) 一种全景视频字幕显示方法及显示设备
CN112995733B (zh) 一种显示设备、设备发现方法及存储介质
CN112055245A (zh) 一种彩色字幕实现方法及显示设备
CN102202195A (zh) 视频处理系统以及视频处理方法
CN111939561A (zh) 显示设备及交互方法
WO2020062700A1 (zh) 处理媒体数据的方法、客户端和服务器
CN113875227A (zh) 信息处理设备、信息处理方法和程序