JP2006191676A - Receiving system and removable medium - Google Patents

Receiving system and removable medium Download PDF

Info

Publication number
JP2006191676A
JP2006191676A JP2006066900A JP2006066900A JP2006191676A JP 2006191676 A JP2006191676 A JP 2006191676A JP 2006066900 A JP2006066900 A JP 2006066900A JP 2006066900 A JP2006066900 A JP 2006066900A JP 2006191676 A JP2006191676 A JP 2006191676A
Authority
JP
Japan
Prior art keywords
video
broadcast
character
information
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006066900A
Other languages
Japanese (ja)
Inventor
Takashi Hasegawa
長谷川  隆
Yoshito Nene
義人 禰寝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006066900A priority Critical patent/JP2006191676A/en
Publication of JP2006191676A publication Critical patent/JP2006191676A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means for allowing a televiewer to choose preferred character, and to view and to listen to the program being broadcasted, as a program on which this character performs. <P>SOLUTION: On the broadcasting station side, a background video image is inputted (202) and distributed (204), while the information about motions of a character is inputted (201) and distributed (203). On the receiver side, one of two or more character models, saved beforehand, is chosen (206), the character video image is formed (207) using this model and a received information of the motions, and the character video image and a received background video image are composited (208) and displayed (209). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、放送網を通じて映像、及びデータを提供する放送方法、及びデータ放送と映像を処理可能なPC、セットトップボックス、インテリジェント・テレビ、デジタル放送受信機等の放送受信装置に関する。 The present invention relates to a broadcast method for providing video and data through a broadcast network, and a broadcast receiving apparatus such as a PC, set-top box, intelligent television, and digital broadcast receiver capable of processing data broadcast and video.

従来の放送方式では、視聴者は、番組として定められた映像・音響情報のみしか視聴できない。
一方、近年、人の動きや顔の表情をデータとして計測し、該データに基づいてCGキャラクタをリアルタイムに生成、放送する試みが成されている(非特許文献1)。しかし、同方式では放送局側でCGキャラクタの生成を行った映像を放送しているため、従来の放送方式と同様に、番組として定められた映像・音響情報のみしか視聴できなかった。
In the conventional broadcasting system, the viewer can view only the video / audio information determined as a program.
On the other hand, in recent years, attempts have been made to measure human movements and facial expressions as data, and to generate and broadcast CG characters in real time based on the data (Non-Patent Document 1). However, in this system, since the video on which the CG character is generated is broadcast on the broadcasting station side, only the video / audio information determined as a program can be viewed as in the conventional broadcasting system.

表情追跡システムと人形型入力デバイスを用いた人物上半身のリアルタイムアニメーション、情報処理学会グラフィクスとCAD研究会、81-8、Dec. 19th、1996Real-time animation of human upper body using facial expression tracking system and doll-type input device, IPSJ Graphics and CAD Study Group, 81-8, Dec. 19th, 1996

本発明は、視聴者が、好みのキャラクタを選択し、放送されている番組を、同キャラクタが出演する番組として視聴可能とするための手段を提供する。 The present invention provides means for enabling a viewer to select a favorite character and view a broadcast program as a program in which the character appears.

本発明では、キャラクタの表情や動作データを、データ放送として映像情報と共に配信し、受信装置で、視聴者が選択したCGキャラクタを生成、表示する。キャラクタの表情や動作データを、データ放送として映像情報と共に配信し、受信装置で、視聴者が選択したCGキャラクタを生成、表示することにより、放送された番組を、視聴者が選択した好みのキャラクタが出演する番組として視聴することができる。 In the present invention, the facial expression and motion data of a character are distributed together with video information as a data broadcast, and a CG character selected by the viewer is generated and displayed by the receiving device. Character expressions and motion data are distributed together with video information as a data broadcast, and a CG character selected by the viewer is generated and displayed by the receiving device, whereby the broadcasted program is selected by the viewer as a desired character. Can be viewed as a program that appears.

本発明によれば、キャラクタの表情や動作データを、データ放送として映像情報と共に配信し、受信装置で、視聴者が選択したCGキャラクタを生成、表示することにより、放送された番組を、視聴者が選択した好みのキャラクタが出演する番組として視聴可能とする。   According to the present invention, a facial expression and motion data of a character are distributed together with video information as a data broadcast, and a CG character selected by the viewer is generated and displayed by the receiving device, so that the broadcasted program can be viewed by the viewer. Can be viewed as a program in which the favorite character selected by appears.

以下では、本発明の実施例を、図面を用いて詳細に説明する。
最初に、本発明の放送方法を、図1と図2を用いて説明する。
まず、動作情報入力装置(101)を用いてキャラクタの動作情報を入力し(201)、該情報をデータ放送として動作情報放送装置(102)を用いて配信する(203)。同時に、背景映像生成装置(103)で生成した背景映像を、背景映像放送装置(104)を用いてデータ放送とは異なる周波数で配信する(204)。本実施例では、背景映像生成装置はテレビカメラで、街の映像を入力する(202)が、CGで背景映像を合成してもよい。また、動作情報を背景映像の垂直帰線区間にデータ放送として挿入し、1つの周波数で配信してもよい。
放送受信再生装置に接続されたCD−ROM、DVD−ROM等のリムーバブル・メディア(114)には、複数のキャラクタ・モデルが保存されていて、ユーザは、プロセッサ(112)を用いて、メモリ(115)上に存在するキャラクタ選択プログラム(118)を実行し、該モデルの中から、好みのキャラクタを予め選択しておく(206)。一方、映像情報と動作情報は、受信装置(111)を用いて受信される(205)。次に、プロセッサ(112)を用いて、メモリ(115)上に存在するキャラクタ生成プログラム(116)が実行され、リムーバブル・メディア(114)上に存在する選択されたキャラクタ・モデルと受信されたキャラクタ動作情報から、キャラクタ映像が生成される(207)。最後に、プロセッサ(112)を用いて、メモリ(115)上に存在する映像・キャラクタ合成プログラム(117)が実行され、受信された背景映像と、キャラクタ生成(207)によって生成されたキャラクタ映像から表示される映像が合成され(208)、テレビ等の映像表示装置(113)に表示される(209)。
Below, the example of the present invention is described in detail using a drawing.
First, the broadcasting method of the present invention will be described with reference to FIGS.
First, character motion information is input using the motion information input device (101) (201), and the information is distributed as a data broadcast using the motion information broadcast device (102) (203). At the same time, the background video generated by the background video generation device (103) is distributed using a background video broadcast device (104) at a frequency different from that of the data broadcast (204). In this embodiment, the background video generation device is a television camera and inputs a city video (202), but the background video may be synthesized by CG. Further, the operation information may be inserted as a data broadcast in the vertical blanking section of the background video and distributed at one frequency.
A plurality of character models are stored in a removable medium (114) such as a CD-ROM and a DVD-ROM connected to the broadcast receiving / reproducing apparatus, and the user uses a processor (112) to store a memory ( 115) The existing character selection program (118) is executed, and a favorite character is selected in advance from the model (206). On the other hand, the video information and the operation information are received using the receiving device (111) (205). Next, using the processor (112), the character generation program (116) existing on the memory (115) is executed, and the selected character model and received character existing on the removable medium (114) are executed. A character video is generated from the motion information (207). Finally, using the processor (112), the video / character synthesis program (117) existing on the memory (115) is executed, and the received background video and the character video generated by the character generation (207) are used. The displayed video is synthesized (208) and displayed on a video display device (113) such as a television set (209).

次に、キャラクタ動作入力方法(201)と、該方法により入力されるデータに関し、図3を用いて説明する。本実施例におけるキャラクタの動作は2ボタンのマウスを用いて行われる。データは、マウスがクリックされたタイミングで配信され、左右ボタンを両方同時に押下した場合には押下時のマウス座標が胴体の位置を、左ボタンのみ押下の場合には左手の位置を、右ボタンのみ押下の場合には右手の位置をそれぞれ表わしていて、一連のクリック動作により、例えば図3に示すデータが生成される。同図は310〜314で時系列のデータを表していて、各列の意味は、左から順に、動作データであることを示す数値「1」(300)、何の位置を表わすかを示す数値(301)、X座標(302)、Y座標(303)である。また、301は、1が左手、2が右手、3が胴体を意味する。したがって、例えば312は、動作データであり、右手の座標が(20、80)であることを示す。   Next, a character motion input method (201) and data input by the method will be described with reference to FIG. The character movement in this embodiment is performed using a two-button mouse. The data is distributed when the mouse is clicked. When both the left and right buttons are pressed simultaneously, the mouse coordinates at the time of pressing indicate the body position, when only the left button is pressed, the left hand position and only the right button In the case of pressing, each represents the position of the right hand, and for example, data shown in FIG. 3 is generated by a series of click operations. In the figure, 310 to 314 represent time-series data, and the meaning of each column is a numerical value “1” (300) indicating operation data in order from the left, and a numerical value indicating what position is represented. (301), X coordinate (302), and Y coordinate (303). Reference numeral 301 denotes a left hand, 2 a right hand, and 3 a torso. Therefore, for example, 312 is motion data, and indicates that the coordinates of the right hand are (20, 80).

次に、リムーバブル・メディア(114)に保存されているキャラクタ・モデルの例を、図4を用いて説明する。図4では、キャラクタとして熊(410)とロボット(411)が保存されている。それぞれのモデルは、モデル名称(400)、胴体の画像(401)、手の画像(402)から構成される。また、胴体画像には手の接続位置情報(420×印)が、手の画像には胴体への接続位置情報(421×印)と動作情報座標を反映する位置を表わす情報(422○印)がそれぞれ含まれる。   Next, an example of a character model stored in the removable medium (114) will be described with reference to FIG. In FIG. 4, a bear (410) and a robot (411) are stored as characters. Each model includes a model name (400), a torso image (401), and a hand image (402). In addition, hand connection position information (420 × mark) is shown on the torso image, and hand position information (421 × mark) on the torso and information indicating the position reflecting the motion information coordinates (422 ○ mark) are shown on the hand image. Is included.

次に、キャラクタ・モデルの選択方法(206)の例を、図5を用いて説明する。キャラクタ選択プログラム(118)が起動されると、リムーバブル・メディア(114)に保存されているキャラクタ・モデルの名前(400)が映像表示装置(500)に列挙される(501、502)。これらの名前の中からリモコンを用いて1つのモデルを選択する。図5の場合、ロボット(502)が選択されている。   Next, an example of the character model selection method (206) will be described with reference to FIG. When the character selection program (118) is activated, the names (400) of the character models stored in the removable medium (114) are listed in the video display device (500) (501, 502). One model is selected from these names using the remote control. In the case of FIG. 5, the robot (502) is selected.

次に、キャラクタ生成方法(207)を、図3、6を用いて説明する。図5のように、キャラクタ・モデルとしてロボットが選択された場合、図6aのようにキャラクタ映像が生成される。ここで、画像の大きさを(100、100)とする。まず、310の情報が受信されると、胴体が(50、50)に描画される(600)。次に311が受信されると、胴体の左側の接続位置(×印)に左手の接続位置(×印)が、動作情報座標を反映する部分(○印)が受信された座標(80、80)になるように左手が描画される(601)。次に312が受信されると、同様に右手が描画される(602)。次に313が受信されると、○印の位置が(80、20)になるように左手が移動する。次に314が受信されると、○印の位置が(20、20)になるように右手が移動する。同様にくまが選択された場合には、図6bの610〜614のようにキャラクタ映像が生成される。   Next, the character generation method (207) will be described with reference to FIGS. As shown in FIG. 5, when a robot is selected as the character model, a character image is generated as shown in FIG. 6a. Here, the size of the image is (100, 100). First, when the information 310 is received, the body is drawn at (50, 50) (600). Next, when 311 is received, the left hand connection position (x mark) is the left hand connection position (x mark), and the coordinates (80, 80) at which the part (◯ mark) reflecting the motion information coordinates is received. ) Is drawn (601). Next, when 312 is received, the right hand is similarly drawn (602). Next, when 313 is received, the left hand moves so that the position of the circle is (80, 20). Next, when 314 is received, the right hand moves so that the position of the circle is (20, 20). Similarly, when a bear is selected, a character video is generated as in 610 to 614 in FIG. 6b.

次に、背景・キャラクタ合成方法(208)を、図7を用いて説明する。まず、受信された背景映像が描画され(700)、次にキャラクタ生成(207)で生成されたキャラクタ映像(620)を描画する(701)。このとき、キャラクタとして熊が選択されていれば、702のような映像が合成される。
以上で、同じ番組を、ユーザが選ぶキャラクタにより異なった映像(701、702)として視聴可能となる。
Next, the background / character combination method (208) will be described with reference to FIG. First, the received background video is drawn (700), and then the character video (620) generated in the character generation (207) is drawn (701). At this time, if a bear is selected as the character, an image such as 702 is synthesized.
As described above, the same program can be viewed as different videos (701, 702) depending on the character selected by the user.

本実施例では、キャラクタ・モデルは、予めリムーバブル・メディア(114)に保存されていたが、番組の最初時、もしくは前もって、図4で示した情報を、データ放送を用いて配信する方法も考えられる。この場合には、受信されたキャラクタ・モデルはメモリ(115)に保存される。   In this embodiment, the character model is stored in advance on the removable medium (114). However, a method of distributing the information shown in FIG. 4 using data broadcasting at the beginning of the program or in advance may be considered. It is done. In this case, the received character model is stored in the memory (115).

また、選択可能な全てのキャラクタより小さい、または細いキャラクタを、デフォルトのキャラクタとして背景映像に含めておくことにより、図1のような構成を持たない通常のテレビのような放送受信再生装置でも通常の番組としてみることができる。このような背景映像の例を図8に示す。同キャラクタは、図7に示したような背景・キャラクタ合成処理におけるキャラクタ映像により完全に隠される。   In addition, by including characters that are smaller or thinner than all selectable characters in the background video as a default character, even in a broadcast receiving and reproducing apparatus such as a normal television that does not have the configuration shown in FIG. It can be seen as a program. An example of such a background video is shown in FIG. The character is completely hidden by the character video in the background / character synthesis process as shown in FIG.

また、図4に示した各々のキャラクタ・モデルに、50音(濁音、半濁音を含む)全ての声の音声データを保存し、データ放送として図3に示した情報の他に台詞情報を配信することにより、選択されたキャラクタ特有の声でしゃべる番組を生成できる。この場合、情報として300に相当する音声データを表わす「2」と発生する言葉を表わす仮名1文字を発声タイミングに合わせて配信する。
同様に、キャラクタの足音や鳴き声等の効果音を、各々のキャラクタ・モデルに保存し、これらの発音タイミングに合わせて効果音の種類を表わす情報をデータ放送として図3に示した情報の他に配信することにより、選択されたキャラクタ特有の効果音を発音させることができる。この場合、情報として300に相当する音声データを表わす「3」と発音する効果音を表わす数値(例えば足音は「1」、鳴き声は「2」)を配信する。
In addition, voice data of all 50 sounds (including muddy and semi-voiced sounds) is stored in each character model shown in FIG. 4, and dialogue information is distributed in addition to the information shown in FIG. 3 as data broadcasting. By doing so, it is possible to generate a program that can be spoken by the voice unique to the selected character. In this case, “2” representing voice data corresponding to 300 as information and one kana character representing a generated word are distributed in accordance with the utterance timing.
Similarly, sound effects such as footsteps and screams of characters are stored in the respective character models, and information indicating the type of sound effects in accordance with the sound generation timing is used as data broadcast in addition to the information shown in FIG. By distributing, a sound effect specific to the selected character can be generated. In this case, as information, a numerical value representing a sound effect pronounced as “3” representing voice data corresponding to 300 (for example, “1” for footsteps and “2” for crying) is distributed.

また、MPEG−4等のコンテンツ符号化が可能である方式を用いた放送の場合、図8に示したようなデフォルトのキャラクタを背景映像とは別のコンテンツとして符号化することにより、通常の受信再生装置ではデフォルトのキャラクタを合成し、図1に示した構成の受信再生装置ではキャラクタ生成(207)により生成されたキャラクタを背景画像に合成することができる。この場合には、デフォルトのキャラクタは大きさ、太さ等は任意である。また、逆にデータ放送としてキャラクタ・モデルを配信し、受信再生装置側でマウス等により動作情報を入力し、キャラクタ生成(207)、背景・キャラクタ合成(208)を行うことにより、出演しているキャラクタを視聴者が動かすことが可能な番組を構成できる。   Further, in the case of broadcasting using a system capable of content encoding such as MPEG-4, normal reception is performed by encoding the default character as shown in FIG. 8 as content different from the background video. The playback device can synthesize a default character, and the receiving and playback device having the configuration shown in FIG. 1 can synthesize the character generated by the character generation (207) with the background image. In this case, the size and thickness of the default character are arbitrary. On the contrary, a character model is distributed as a data broadcast, and motion information is input with a mouse or the like on the reception / playback apparatus side, and character generation (207) and background / character synthesis (208) are performed. A program in which the viewer can move the character can be configured.

本発明のシステム構成を表わす図である。It is a figure showing the system configuration | structure of this invention. 本発明の方法を表わす図である。FIG. 3 represents the method of the present invention. キャラクタの動作情報の例を表わす図である。It is a figure showing the example of the motion information of a character. キャラクタ・モデルの例を表わす図である。It is a figure showing the example of a character model. キャラクタ・モデル選択のユーザ・インターフェイスの例を表わす図である。It is a figure showing the example of the user interface of character model selection. キャラクタ生成により生成されるキャラクタ映像の例を時系列で示した図である。It is the figure which showed the example of the character image produced | generated by character production | generation in time series. 背景映像とキャラクタ映像が合成される例を示す図である。It is a figure which shows the example with which a background image | video and a character image | video are synthesize | combined. 背景映像に含まれるデフォルトのキャラクタ映像の例を示す図である。It is a figure which shows the example of the default character image | video contained in a background image | video.

符号の説明Explanation of symbols

101〜105…放送送信装置、111〜118…放送受信再生装置、300〜314…動作情報データ、400〜422…キャラクタ・モデル、500…映像表示装置、600〜614…キャラクタ映像、700…背景映像、701〜702…合成映像。
101-105 ... Broadcast transmission device, 111-118 ... Broadcast reception / playback device, 300-314 ... Motion information data, 400-422 ... Character model, 500 ... Video display device, 600-614 ... Character video, 700 ... Background video , 701 to 702... Composite video.

Claims (11)

背景映像を入力、または生成し、配信する手段と、該映像上で動作するキャラクタ等の物体の動作情報を入力し、配信する手段を持つことを特徴とする放送送信装置。   A broadcast transmission apparatus comprising: means for inputting or generating and distributing a background video; and means for inputting and distributing motion information of an object such as a character operating on the video. 背景映像と、該映像上で動作するキャラクタ等の物体の動作情報を受信する手段と、該物体のモデルを保存する手段を持ち、該動作情報と該モデルを用いて映像上に表示する物体を生成し、背景映像と共に表示することを特徴とする放送受信装置。   A background image; means for receiving motion information of an object such as a character operating on the video; and means for storing a model of the object. An object to be displayed on the video using the motion information and the model A broadcast receiving apparatus that generates and displays a background video together. 請求項2記載の放送受信装置において、物体のモデルを複数保存し、映像視聴者がそれらのモデルの中から1つのモデルを選択し、放送された動作情報と該モデルを用いて映像上に表示する物体を生成し、背景映像と共に表示することを特徴とする放送受信装置。   3. The broadcast receiving apparatus according to claim 2, wherein a plurality of object models are stored, a video viewer selects one model from the models, and is displayed on the video using the broadcast operation information and the model. A broadcast receiving apparatus that generates an object to be displayed and displays the object together with a background image. 放送局では、請求項1記載の放送送信装置を用いて背景画像と物体の動作情報を放送し、受信機では、請求項2または3記載の放送受信装置を用いて、保存された物体のモデルと該動作情報を用いて映像上に表示する物体を生成し、背景映像と共に表示することを特徴とする放送方法。   The broadcast station broadcasts the background image and the motion information of the object using the broadcast transmission device according to claim 1, and the receiver uses the broadcast reception device according to claim 2 or 3 to broadcast the stored object model. And an operation information to generate an object to be displayed on the video and display it together with the background video. 物体のモデルを、CD−ROMやDVD等のリムーバブル・メディアに保存し、請求項4記載の放送方法による放送前に、予め配布、または販売することを特徴とする情報流通サービス。   5. An information distribution service characterized in that a model of an object is stored in a removable medium such as a CD-ROM or DVD, and distributed or sold in advance before broadcasting by the broadcasting method according to claim 4. 請求項4記載の放送方法において、物体のモデルもデータ放送として放送することを特徴とする放送方法。   5. The broadcast method according to claim 4, wherein the object model is also broadcast as a data broadcast. 請求項4記載の放送方法において、送信する背景映像に、選択可能な全ての物体のモデルにより生成される映像により覆い隠される、小さい、または細い物体の映像が含まれることを特徴とする放送方法。   5. The broadcasting method according to claim 4, wherein the background video to be transmitted includes a video of a small or thin object that is obscured by video generated by models of all selectable objects. . 請求項4記載の放送方法において、キャラクタの台詞情報もデータ放送として放送し、放送受信装置では、キャラクタの音声素辺集合を保存し、該台詞情報と該素辺集合から音声を合成し、映像の音響情報に加えて出力することを特徴とする放送方法。   5. The broadcasting method according to claim 4, wherein the dialogue information of the character is also broadcast as a data broadcast, and the broadcast receiving apparatus stores the speech element set of the character, synthesizes voice from the dialogue information and the element set, A broadcasting method characterized by outputting in addition to the acoustic information. 請求項4記載の放送方法において、キャラクタの足音等の効果音の発音タイミングを表す情報もデータ放送として放送し、放送受信装置では、キャラクタの該当する効果音を保存し、同タイミングに同効果音を発音し、映像の音響情報に加えて出力することを特徴とする放送方法。   5. The broadcasting method according to claim 4, wherein information representing the sound generation timing of a sound effect such as a footstep of the character is also broadcast as a data broadcast, and the broadcast receiving device stores the corresponding sound effect of the character and performs the same sound effect at the same timing. Is broadcast and output in addition to the audio information of the video. 請求項4記載の放送方法において、放送される映像情報中に背景映像と物体の映像情報を別のコンテンツとして含め、物体の動作情報とモデルから物体を生成できない場合には、該物体映像を該背景映像と共に表示することを特徴とする放送方法。   5. The broadcasting method according to claim 4, wherein in the broadcast video information, the background video and the video information of the object are included as different contents, and if the object cannot be generated from the motion information of the object and the model, the object video is A broadcasting method characterized by displaying together with a background video. 放送局では、背景画像と物体のモデル情報を放送し、受信機では、動作情報入力手段を持ち、ユーザにより入力された動作情報と放送されたモデル情報を用いて映像上に表示する物体を生成し、背景映像と共に表示することを特徴とする放送方法。
The broadcast station broadcasts the background image and the model information of the object, and the receiver has the operation information input means, and generates the object to be displayed on the video using the operation information input by the user and the broadcast model information. And displaying with a background image.
JP2006066900A 2006-03-13 2006-03-13 Receiving system and removable medium Withdrawn JP2006191676A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006066900A JP2006191676A (en) 2006-03-13 2006-03-13 Receiving system and removable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006066900A JP2006191676A (en) 2006-03-13 2006-03-13 Receiving system and removable medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP35225498A Division JP4126126B2 (en) 1998-12-11 1998-12-11 Transmission system and transmission method

Publications (1)

Publication Number Publication Date
JP2006191676A true JP2006191676A (en) 2006-07-20

Family

ID=36798242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006066900A Withdrawn JP2006191676A (en) 2006-03-13 2006-03-13 Receiving system and removable medium

Country Status (1)

Country Link
JP (1) JP2006191676A (en)

Similar Documents

Publication Publication Date Title
AU2004248274B2 (en) Intelligent collaborative media
US9866795B2 (en) System and method for interactive animations for enhanced and personalized video communications
JP4618384B2 (en) Information presenting apparatus and information presenting method
JP4725936B1 (en) Input support apparatus, input support method, and program
JP2002041276A (en) Interactive operation-supporting system, interactive operation-supporting method and recording medium
JP5239469B2 (en) Information presenting apparatus and information presenting method
JP2006041887A (en) Information processing apparatus and method, recording medium, and program
JP2003503925A (en) Post-synchronization of information streams
JP2005051703A (en) Live streaming broadcasting method, live streaming broadcasting apparatus, live streaming broadcasting system, program, recording medium, broadcasting method, and broadcasting apparatus
AU2018233050B2 (en) Accessible Audio Switching for Client Devices in an Online Conference
JP2011175598A (en) Device and program for generating sign language animation
JP4126126B2 (en) Transmission system and transmission method
JP4725918B2 (en) Program image distribution system, program image distribution method, and program
JP2001243044A (en) User interface system and device and method for generating scene description and method for distributing scene description server device and remote terminal equipment and transmitting medium and recording medium
JP7294337B2 (en) Information processing device, information processing method, and information processing system
JP2014220572A (en) Content distribution system, distribution device, reception terminal, distribution program, and reception program
JP2006191676A (en) Receiving system and removable medium
JP2011109371A (en) Server, terminal, program, and method for superimposing comment text on three-dimensional image for display
JP5777233B1 (en) Movie generation apparatus and movie generation method
JP7314387B1 (en) CONTENT GENERATION DEVICE, CONTENT GENERATION METHOD, AND PROGRAM
JP5111405B2 (en) Content production system and content production program
US20130215013A1 (en) Mobile communication terminal and method of generating content thereof
JP2016170767A (en) Video generation device and video generation method
JP2006039705A (en) Content creation device, content creation method, and content creation system
JP2012108493A (en) Picture reproducer and picture reproduction system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060421

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090410