JP2006191676A - Receiving system and removable medium - Google Patents
Receiving system and removable medium Download PDFInfo
- Publication number
- JP2006191676A JP2006191676A JP2006066900A JP2006066900A JP2006191676A JP 2006191676 A JP2006191676 A JP 2006191676A JP 2006066900 A JP2006066900 A JP 2006066900A JP 2006066900 A JP2006066900 A JP 2006066900A JP 2006191676 A JP2006191676 A JP 2006191676A
- Authority
- JP
- Japan
- Prior art keywords
- video
- broadcast
- character
- information
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、放送網を通じて映像、及びデータを提供する放送方法、及びデータ放送と映像を処理可能なPC、セットトップボックス、インテリジェント・テレビ、デジタル放送受信機等の放送受信装置に関する。 The present invention relates to a broadcast method for providing video and data through a broadcast network, and a broadcast receiving apparatus such as a PC, set-top box, intelligent television, and digital broadcast receiver capable of processing data broadcast and video.
従来の放送方式では、視聴者は、番組として定められた映像・音響情報のみしか視聴できない。
一方、近年、人の動きや顔の表情をデータとして計測し、該データに基づいてCGキャラクタをリアルタイムに生成、放送する試みが成されている(非特許文献1)。しかし、同方式では放送局側でCGキャラクタの生成を行った映像を放送しているため、従来の放送方式と同様に、番組として定められた映像・音響情報のみしか視聴できなかった。
In the conventional broadcasting system, the viewer can view only the video / audio information determined as a program.
On the other hand, in recent years, attempts have been made to measure human movements and facial expressions as data, and to generate and broadcast CG characters in real time based on the data (Non-Patent Document 1). However, in this system, since the video on which the CG character is generated is broadcast on the broadcasting station side, only the video / audio information determined as a program can be viewed as in the conventional broadcasting system.
本発明は、視聴者が、好みのキャラクタを選択し、放送されている番組を、同キャラクタが出演する番組として視聴可能とするための手段を提供する。 The present invention provides means for enabling a viewer to select a favorite character and view a broadcast program as a program in which the character appears.
本発明では、キャラクタの表情や動作データを、データ放送として映像情報と共に配信し、受信装置で、視聴者が選択したCGキャラクタを生成、表示する。キャラクタの表情や動作データを、データ放送として映像情報と共に配信し、受信装置で、視聴者が選択したCGキャラクタを生成、表示することにより、放送された番組を、視聴者が選択した好みのキャラクタが出演する番組として視聴することができる。 In the present invention, the facial expression and motion data of a character are distributed together with video information as a data broadcast, and a CG character selected by the viewer is generated and displayed by the receiving device. Character expressions and motion data are distributed together with video information as a data broadcast, and a CG character selected by the viewer is generated and displayed by the receiving device, whereby the broadcasted program is selected by the viewer as a desired character. Can be viewed as a program that appears.
本発明によれば、キャラクタの表情や動作データを、データ放送として映像情報と共に配信し、受信装置で、視聴者が選択したCGキャラクタを生成、表示することにより、放送された番組を、視聴者が選択した好みのキャラクタが出演する番組として視聴可能とする。 According to the present invention, a facial expression and motion data of a character are distributed together with video information as a data broadcast, and a CG character selected by the viewer is generated and displayed by the receiving device, so that the broadcasted program can be viewed by the viewer. Can be viewed as a program in which the favorite character selected by appears.
以下では、本発明の実施例を、図面を用いて詳細に説明する。
最初に、本発明の放送方法を、図1と図2を用いて説明する。
まず、動作情報入力装置(101)を用いてキャラクタの動作情報を入力し(201)、該情報をデータ放送として動作情報放送装置(102)を用いて配信する(203)。同時に、背景映像生成装置(103)で生成した背景映像を、背景映像放送装置(104)を用いてデータ放送とは異なる周波数で配信する(204)。本実施例では、背景映像生成装置はテレビカメラで、街の映像を入力する(202)が、CGで背景映像を合成してもよい。また、動作情報を背景映像の垂直帰線区間にデータ放送として挿入し、1つの周波数で配信してもよい。
放送受信再生装置に接続されたCD−ROM、DVD−ROM等のリムーバブル・メディア(114)には、複数のキャラクタ・モデルが保存されていて、ユーザは、プロセッサ(112)を用いて、メモリ(115)上に存在するキャラクタ選択プログラム(118)を実行し、該モデルの中から、好みのキャラクタを予め選択しておく(206)。一方、映像情報と動作情報は、受信装置(111)を用いて受信される(205)。次に、プロセッサ(112)を用いて、メモリ(115)上に存在するキャラクタ生成プログラム(116)が実行され、リムーバブル・メディア(114)上に存在する選択されたキャラクタ・モデルと受信されたキャラクタ動作情報から、キャラクタ映像が生成される(207)。最後に、プロセッサ(112)を用いて、メモリ(115)上に存在する映像・キャラクタ合成プログラム(117)が実行され、受信された背景映像と、キャラクタ生成(207)によって生成されたキャラクタ映像から表示される映像が合成され(208)、テレビ等の映像表示装置(113)に表示される(209)。
Below, the example of the present invention is described in detail using a drawing.
First, the broadcasting method of the present invention will be described with reference to FIGS.
First, character motion information is input using the motion information input device (101) (201), and the information is distributed as a data broadcast using the motion information broadcast device (102) (203). At the same time, the background video generated by the background video generation device (103) is distributed using a background video broadcast device (104) at a frequency different from that of the data broadcast (204). In this embodiment, the background video generation device is a television camera and inputs a city video (202), but the background video may be synthesized by CG. Further, the operation information may be inserted as a data broadcast in the vertical blanking section of the background video and distributed at one frequency.
A plurality of character models are stored in a removable medium (114) such as a CD-ROM and a DVD-ROM connected to the broadcast receiving / reproducing apparatus, and the user uses a processor (112) to store a memory ( 115) The existing character selection program (118) is executed, and a favorite character is selected in advance from the model (206). On the other hand, the video information and the operation information are received using the receiving device (111) (205). Next, using the processor (112), the character generation program (116) existing on the memory (115) is executed, and the selected character model and received character existing on the removable medium (114) are executed. A character video is generated from the motion information (207). Finally, using the processor (112), the video / character synthesis program (117) existing on the memory (115) is executed, and the received background video and the character video generated by the character generation (207) are used. The displayed video is synthesized (208) and displayed on a video display device (113) such as a television set (209).
次に、キャラクタ動作入力方法(201)と、該方法により入力されるデータに関し、図3を用いて説明する。本実施例におけるキャラクタの動作は2ボタンのマウスを用いて行われる。データは、マウスがクリックされたタイミングで配信され、左右ボタンを両方同時に押下した場合には押下時のマウス座標が胴体の位置を、左ボタンのみ押下の場合には左手の位置を、右ボタンのみ押下の場合には右手の位置をそれぞれ表わしていて、一連のクリック動作により、例えば図3に示すデータが生成される。同図は310〜314で時系列のデータを表していて、各列の意味は、左から順に、動作データであることを示す数値「1」(300)、何の位置を表わすかを示す数値(301)、X座標(302)、Y座標(303)である。また、301は、1が左手、2が右手、3が胴体を意味する。したがって、例えば312は、動作データであり、右手の座標が(20、80)であることを示す。
Next, a character motion input method (201) and data input by the method will be described with reference to FIG. The character movement in this embodiment is performed using a two-button mouse. The data is distributed when the mouse is clicked. When both the left and right buttons are pressed simultaneously, the mouse coordinates at the time of pressing indicate the body position, when only the left button is pressed, the left hand position and only the right button In the case of pressing, each represents the position of the right hand, and for example, data shown in FIG. 3 is generated by a series of click operations. In the figure, 310 to 314 represent time-series data, and the meaning of each column is a numerical value “1” (300) indicating operation data in order from the left, and a numerical value indicating what position is represented. (301), X coordinate (302), and Y coordinate (303).
次に、リムーバブル・メディア(114)に保存されているキャラクタ・モデルの例を、図4を用いて説明する。図4では、キャラクタとして熊(410)とロボット(411)が保存されている。それぞれのモデルは、モデル名称(400)、胴体の画像(401)、手の画像(402)から構成される。また、胴体画像には手の接続位置情報(420×印)が、手の画像には胴体への接続位置情報(421×印)と動作情報座標を反映する位置を表わす情報(422○印)がそれぞれ含まれる。 Next, an example of a character model stored in the removable medium (114) will be described with reference to FIG. In FIG. 4, a bear (410) and a robot (411) are stored as characters. Each model includes a model name (400), a torso image (401), and a hand image (402). In addition, hand connection position information (420 × mark) is shown on the torso image, and hand position information (421 × mark) on the torso and information indicating the position reflecting the motion information coordinates (422 ○ mark) are shown on the hand image. Is included.
次に、キャラクタ・モデルの選択方法(206)の例を、図5を用いて説明する。キャラクタ選択プログラム(118)が起動されると、リムーバブル・メディア(114)に保存されているキャラクタ・モデルの名前(400)が映像表示装置(500)に列挙される(501、502)。これらの名前の中からリモコンを用いて1つのモデルを選択する。図5の場合、ロボット(502)が選択されている。 Next, an example of the character model selection method (206) will be described with reference to FIG. When the character selection program (118) is activated, the names (400) of the character models stored in the removable medium (114) are listed in the video display device (500) (501, 502). One model is selected from these names using the remote control. In the case of FIG. 5, the robot (502) is selected.
次に、キャラクタ生成方法(207)を、図3、6を用いて説明する。図5のように、キャラクタ・モデルとしてロボットが選択された場合、図6aのようにキャラクタ映像が生成される。ここで、画像の大きさを(100、100)とする。まず、310の情報が受信されると、胴体が(50、50)に描画される(600)。次に311が受信されると、胴体の左側の接続位置(×印)に左手の接続位置(×印)が、動作情報座標を反映する部分(○印)が受信された座標(80、80)になるように左手が描画される(601)。次に312が受信されると、同様に右手が描画される(602)。次に313が受信されると、○印の位置が(80、20)になるように左手が移動する。次に314が受信されると、○印の位置が(20、20)になるように右手が移動する。同様にくまが選択された場合には、図6bの610〜614のようにキャラクタ映像が生成される。
Next, the character generation method (207) will be described with reference to FIGS. As shown in FIG. 5, when a robot is selected as the character model, a character image is generated as shown in FIG. 6a. Here, the size of the image is (100, 100). First, when the
次に、背景・キャラクタ合成方法(208)を、図7を用いて説明する。まず、受信された背景映像が描画され(700)、次にキャラクタ生成(207)で生成されたキャラクタ映像(620)を描画する(701)。このとき、キャラクタとして熊が選択されていれば、702のような映像が合成される。
以上で、同じ番組を、ユーザが選ぶキャラクタにより異なった映像(701、702)として視聴可能となる。
Next, the background / character combination method (208) will be described with reference to FIG. First, the received background video is drawn (700), and then the character video (620) generated in the character generation (207) is drawn (701). At this time, if a bear is selected as the character, an image such as 702 is synthesized.
As described above, the same program can be viewed as different videos (701, 702) depending on the character selected by the user.
本実施例では、キャラクタ・モデルは、予めリムーバブル・メディア(114)に保存されていたが、番組の最初時、もしくは前もって、図4で示した情報を、データ放送を用いて配信する方法も考えられる。この場合には、受信されたキャラクタ・モデルはメモリ(115)に保存される。 In this embodiment, the character model is stored in advance on the removable medium (114). However, a method of distributing the information shown in FIG. 4 using data broadcasting at the beginning of the program or in advance may be considered. It is done. In this case, the received character model is stored in the memory (115).
また、選択可能な全てのキャラクタより小さい、または細いキャラクタを、デフォルトのキャラクタとして背景映像に含めておくことにより、図1のような構成を持たない通常のテレビのような放送受信再生装置でも通常の番組としてみることができる。このような背景映像の例を図8に示す。同キャラクタは、図7に示したような背景・キャラクタ合成処理におけるキャラクタ映像により完全に隠される。 In addition, by including characters that are smaller or thinner than all selectable characters in the background video as a default character, even in a broadcast receiving and reproducing apparatus such as a normal television that does not have the configuration shown in FIG. It can be seen as a program. An example of such a background video is shown in FIG. The character is completely hidden by the character video in the background / character synthesis process as shown in FIG.
また、図4に示した各々のキャラクタ・モデルに、50音(濁音、半濁音を含む)全ての声の音声データを保存し、データ放送として図3に示した情報の他に台詞情報を配信することにより、選択されたキャラクタ特有の声でしゃべる番組を生成できる。この場合、情報として300に相当する音声データを表わす「2」と発生する言葉を表わす仮名1文字を発声タイミングに合わせて配信する。
同様に、キャラクタの足音や鳴き声等の効果音を、各々のキャラクタ・モデルに保存し、これらの発音タイミングに合わせて効果音の種類を表わす情報をデータ放送として図3に示した情報の他に配信することにより、選択されたキャラクタ特有の効果音を発音させることができる。この場合、情報として300に相当する音声データを表わす「3」と発音する効果音を表わす数値(例えば足音は「1」、鳴き声は「2」)を配信する。
In addition, voice data of all 50 sounds (including muddy and semi-voiced sounds) is stored in each character model shown in FIG. 4, and dialogue information is distributed in addition to the information shown in FIG. 3 as data broadcasting. By doing so, it is possible to generate a program that can be spoken by the voice unique to the selected character. In this case, “2” representing voice data corresponding to 300 as information and one kana character representing a generated word are distributed in accordance with the utterance timing.
Similarly, sound effects such as footsteps and screams of characters are stored in the respective character models, and information indicating the type of sound effects in accordance with the sound generation timing is used as data broadcast in addition to the information shown in FIG. By distributing, a sound effect specific to the selected character can be generated. In this case, as information, a numerical value representing a sound effect pronounced as “3” representing voice data corresponding to 300 (for example, “1” for footsteps and “2” for crying) is distributed.
また、MPEG−4等のコンテンツ符号化が可能である方式を用いた放送の場合、図8に示したようなデフォルトのキャラクタを背景映像とは別のコンテンツとして符号化することにより、通常の受信再生装置ではデフォルトのキャラクタを合成し、図1に示した構成の受信再生装置ではキャラクタ生成(207)により生成されたキャラクタを背景画像に合成することができる。この場合には、デフォルトのキャラクタは大きさ、太さ等は任意である。また、逆にデータ放送としてキャラクタ・モデルを配信し、受信再生装置側でマウス等により動作情報を入力し、キャラクタ生成(207)、背景・キャラクタ合成(208)を行うことにより、出演しているキャラクタを視聴者が動かすことが可能な番組を構成できる。 Further, in the case of broadcasting using a system capable of content encoding such as MPEG-4, normal reception is performed by encoding the default character as shown in FIG. 8 as content different from the background video. The playback device can synthesize a default character, and the receiving and playback device having the configuration shown in FIG. 1 can synthesize the character generated by the character generation (207) with the background image. In this case, the size and thickness of the default character are arbitrary. On the contrary, a character model is distributed as a data broadcast, and motion information is input with a mouse or the like on the reception / playback apparatus side, and character generation (207) and background / character synthesis (208) are performed. A program in which the viewer can move the character can be configured.
101〜105…放送送信装置、111〜118…放送受信再生装置、300〜314…動作情報データ、400〜422…キャラクタ・モデル、500…映像表示装置、600〜614…キャラクタ映像、700…背景映像、701〜702…合成映像。
101-105 ... Broadcast transmission device, 111-118 ... Broadcast reception / playback device, 300-314 ... Motion information data, 400-422 ... Character model, 500 ... Video display device, 600-614 ... Character video, 700 ... Background video , 701 to 702... Composite video.
Claims (11)
The broadcast station broadcasts the background image and the model information of the object, and the receiver has the operation information input means, and generates the object to be displayed on the video using the operation information input by the user and the broadcast model information. And displaying with a background image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006066900A JP2006191676A (en) | 2006-03-13 | 2006-03-13 | Receiving system and removable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006066900A JP2006191676A (en) | 2006-03-13 | 2006-03-13 | Receiving system and removable medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP35225498A Division JP4126126B2 (en) | 1998-12-11 | 1998-12-11 | Transmission system and transmission method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006191676A true JP2006191676A (en) | 2006-07-20 |
Family
ID=36798242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006066900A Withdrawn JP2006191676A (en) | 2006-03-13 | 2006-03-13 | Receiving system and removable medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006191676A (en) |
-
2006
- 2006-03-13 JP JP2006066900A patent/JP2006191676A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2004248274B2 (en) | Intelligent collaborative media | |
US9866795B2 (en) | System and method for interactive animations for enhanced and personalized video communications | |
JP4618384B2 (en) | Information presenting apparatus and information presenting method | |
JP4725936B1 (en) | Input support apparatus, input support method, and program | |
JP2002041276A (en) | Interactive operation-supporting system, interactive operation-supporting method and recording medium | |
JP5239469B2 (en) | Information presenting apparatus and information presenting method | |
JP2006041887A (en) | Information processing apparatus and method, recording medium, and program | |
JP2003503925A (en) | Post-synchronization of information streams | |
JP2005051703A (en) | Live streaming broadcasting method, live streaming broadcasting apparatus, live streaming broadcasting system, program, recording medium, broadcasting method, and broadcasting apparatus | |
AU2018233050B2 (en) | Accessible Audio Switching for Client Devices in an Online Conference | |
JP2011175598A (en) | Device and program for generating sign language animation | |
JP4126126B2 (en) | Transmission system and transmission method | |
JP4725918B2 (en) | Program image distribution system, program image distribution method, and program | |
JP2001243044A (en) | User interface system and device and method for generating scene description and method for distributing scene description server device and remote terminal equipment and transmitting medium and recording medium | |
JP7294337B2 (en) | Information processing device, information processing method, and information processing system | |
JP2014220572A (en) | Content distribution system, distribution device, reception terminal, distribution program, and reception program | |
JP2006191676A (en) | Receiving system and removable medium | |
JP2011109371A (en) | Server, terminal, program, and method for superimposing comment text on three-dimensional image for display | |
JP5777233B1 (en) | Movie generation apparatus and movie generation method | |
JP7314387B1 (en) | CONTENT GENERATION DEVICE, CONTENT GENERATION METHOD, AND PROGRAM | |
JP5111405B2 (en) | Content production system and content production program | |
US20130215013A1 (en) | Mobile communication terminal and method of generating content thereof | |
JP2016170767A (en) | Video generation device and video generation method | |
JP2006039705A (en) | Content creation device, content creation method, and content creation system | |
JP2012108493A (en) | Picture reproducer and picture reproduction system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060421 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090410 |