JP2013026644A - Receiving device, receiving method, and transmitting/receiving method - Google Patents

Receiving device, receiving method, and transmitting/receiving method Download PDF

Info

Publication number
JP2013026644A
JP2013026644A JP2011156262A JP2011156262A JP2013026644A JP 2013026644 A JP2013026644 A JP 2013026644A JP 2011156262 A JP2011156262 A JP 2011156262A JP 2011156262 A JP2011156262 A JP 2011156262A JP 2013026644 A JP2013026644 A JP 2013026644A
Authority
JP
Japan
Prior art keywords
video
display
program
data
descriptor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011156262A
Other languages
Japanese (ja)
Inventor
Takashi Kanamaru
隆 金丸
Sadao Tsuruga
貞雄 鶴賀
Toshifumi Otsuka
敏史 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2011156262A priority Critical patent/JP2013026644A/en
Priority to US13/540,054 priority patent/US20130169762A1/en
Priority to CN2012102439635A priority patent/CN102883172A/en
Publication of JP2013026644A publication Critical patent/JP2013026644A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable the user to view 3D content suitably.SOLUTION: A transmitting device transmits 3D video content containing video data and caption data and depth display position information or parallax information with regard to the caption data, and a receiving device receives the 3D video content, in which the receiving device performs video processing in order to display the received video data and caption data in 3D or 2D mode, and the video processing includes a first video processing which displays the received video data of the 3D video content in 3D mode and displays the received caption data in 3D mode by using the depth display position information or the parallax information. And, if an input signal for switching display modes from 3D to 2D is input from an operation input unit of the receiving device, a second video processing is available for displaying the video data of the received 3D video content in 2D mode and for displaying the received caption data in 2D mode without relying on the depth display position information or the parallax information.

Description

技術分野は、三次元(Three dimension:以下3D)映像の放送受信装置、受信方法および送受信方法に関する。   The technical field relates to a three-dimensional (three-dimensional) video broadcast receiving apparatus, receiving method, and transmitting / receiving method.

特許文献1には、「ユーザーが求めている番組が或るチャンネルで始まること等を能動的に告知することができるディジタル放送受信装置を提供すること」(特許文献1[0005]参照)を課題とし、その解決手段として、「ディジタル放送波に含まれる番組情報を取り出し、ユーザーによって登録された選択情報を用いて告知対象番組を選択する手段と、選択した告知対象番組の存在を告げるメッセージを現在表示中の画面に割り込ませて表示する手段と、を備えたこと」(特許文献1[0006]参照)等が記載されている。   Patent Document 1 has a problem of “providing a digital broadcast receiver capable of actively notifying that a program requested by a user starts on a certain channel” (see Patent Document 1 [0005]). As a means for solving the problem, “a means for extracting program information included in a digital broadcast wave and selecting a notification target program using selection information registered by the user; And a means for interrupting and displaying the screen being displayed "(see Patent Document 1 [0006]).

また特許文献2には、「字幕を適切な位置に表示することができるようにする」(特許文献2[0011]参照)ことを課題とし、その解決手段として、「字幕発生部は、字幕データDを発生するとともに、復号側の立体表示装置において字幕データDに基づく字幕をユーザからどのくらいの距離に表示するか、すなわち、立体表示装置の表示画面からどのくらいの距離に字幕があるように表示するかを示す距離パラメータEを発生し、多重化部に供給する。多重化部は、ステレオ符号化部から供給された符号化画像データCに、字幕発生部から供給された字幕データDと距離パラメータEを、所定のフォーマットに基づいて多重化し、多重化されたデータストリームFを所定の伝送路またはメディアを介して復号システムに伝送する。これにより、立体表示装置において、字幕をユーザから所定の奥行き方向の距離にあるように表示することができる。本発明は、ステレオビデオカメラに適用できる」(特許文献2[0027]参照)こと等が記載されている。   Further, Patent Document 2 has an object of “allowing subtitles to be displayed at appropriate positions” (see Patent Document 2 [0011]). D is generated, and at what distance the subtitle based on the subtitle data D is displayed on the decoding side stereoscopic display device from the user, that is, how far the subtitle is from the display screen of the stereoscopic display device Is generated and supplied to the multiplexing unit, and the multiplexing unit adds the caption data D supplied from the caption generation unit and the distance parameter to the encoded image data C supplied from the stereo encoding unit. E is multiplexed based on a predetermined format, and the multiplexed data stream F is transmitted to a decoding system via a predetermined transmission path or medium. In the stereoscopic display device, the subtitles can be displayed at a predetermined distance from the user.The present invention can be applied to a stereo video camera ”(see Patent Document 2 [0027]) and the like. Have been described.

特開2003−9033JP2003-9033 特開2004−274125JP 2004-274125 A

しかし、特許文献1においては3Dコンテンツの視聴に関して開示がない。そのため、受信機が現在受信している、あるいは将来受信する番組が3D番組であることが認識できないという課題がある。   However, Patent Document 1 does not disclose the viewing of 3D content. For this reason, there is a problem that the receiver cannot recognize that the program currently received or received in the future is a 3D program.

また特許文献2では「符号化画像データC」、「字幕データD」、「距離パラメータE」の送信と受信の単純な動作が開示されているのみであり、実際の放送や通信における他の様々な情報や状況に対応する送信処理や受信処理を実現するには不十分であるという課題がある。   Patent Document 2 only discloses simple operations of transmission and reception of “encoded image data C”, “caption data D”, and “distance parameter E”, and other various operations in actual broadcasting and communication. There is a problem that it is insufficient to realize transmission processing and reception processing corresponding to various information and situations.

上記課題を解決するために、本発明の一実施の態様は、例えば、送信装置が、映像データと前記字幕データと字幕データについての奥行き表示位置情報または視差情報を含む3D映像コンテンツを送信し、受信装置が、前記3D映像コンテンツを受信し、前記受信装置が、受信した前記映像データと前記字幕データとを3D表示または2D表示するための映像処理を行い、前記映像処理には、受信した前記3D映像コンテンツの映像データを3D表示し、受信した前記字幕データを前記奥行き表示位置情報または前記視差情報を用いて3D表示するための第1の映像処理と、前記受信装置の操作入力部から、3D表示を2D表示に切り替え操作入力信号が入力された場合に、受信した前記3D映像コンテンツの映像データを2D表示し、受信した前記字幕データを前記奥行き表示位置情報または前記視差情報に基づかずに2D表示するための第2の映像処理とがあるように構成すればよい。   In order to solve the above-described problem, according to an embodiment of the present invention, for example, a transmission device transmits 3D video content including video data and depth display position information or parallax information about the caption data and the caption data. A receiving device receives the 3D video content, and the receiving device performs video processing for 3D display or 2D display of the received video data and the caption data. From the first video processing for displaying the video data of the 3D video content in 3D, and displaying the received caption data in 3D using the depth display position information or the parallax information, and the operation input unit of the receiving device, Switching the 3D display to the 2D display When the operation input signal is input, the received video data of the 3D video content is displayed in 2D and received. May be configured such that there is a second video processing for 2D display of the caption data without based on the depth display position information and the disparity information.

本発明によれば、ユーザが3Dコンテンツをより好適に視聴することが可能となる。   According to the present invention, it is possible for a user to more appropriately view 3D content.

システムの構成例を示すブロック図の一例An example of a block diagram showing a system configuration example 送信装置1の構成例を示すブロック図の一例An example of a block diagram showing a configuration example of the transmission apparatus 1 ストリーム形式種別の割り当ての例Example of stream format type assignment コンポーネント記述子の構造の一例Example component descriptor structure コンポーネント記述子の構成要素であるコンポーネント内容とコンポーネント種別の一例Example of component contents and component types that are components of a component descriptor コンポーネント記述子の構成要素であるコンポーネント内容とコンポーネント種別の一例Example of component contents and component types that are components of a component descriptor コンポーネント記述子の構成要素であるコンポーネント内容とコンポーネント種別の一例Example of component contents and component types that are components of a component descriptor コンポーネント記述子の構成要素であるコンポーネント内容とコンポーネント種別の一例Example of component contents and component types that are components of a component descriptor コンポーネント記述子の構成要素であるコンポーネント内容とコンポーネント種別の一例Example of component contents and component types that are components of a component descriptor コンポーネントグループ記述子の構造の一例An example of the structure of a component group descriptor コンポーネントグループ種別の例Example of component group type コンポーネントグループ識別の例Component group identification example 課金単位識別の例Billing unit identification example 3D番組詳細記述子の構造の一例Example of 3D program details descriptor structure 3D/2D種別の例を示す図The figure which shows the example of 3D / 2D classification 3Dの方式種別の例を示す図The figure which shows the example of the system classification of 3D サービス記述子の構造の一例Example service descriptor structure サービス形式種別の例Examples of service type types サービスリスト記述子の構造の一例Example service list descriptor structure コンポーネント記述子の送信装置1における送出運用規則の一例An example of a sending operation rule in the component descriptor sending apparatus 1 コンポーネントグループ記述子の送信装置1における送出運用規則の一例である。It is an example of the transmission operation rule in the transmission apparatus 1 of a component group descriptor. 3D番組詳細記述子の送信装置1における送出運用規則の一例An example of a transmission operation rule in the transmission device 1 for a 3D program detail descriptor サービス記述子の送信装置1における送出運用規則の一例An example of a transmission operation rule in the service descriptor transmission apparatus 1 サービスリスト記述子の送信装置1における送出運用規則の一例An example of a transmission operation rule in the transmission device 1 of the service list descriptor 受信装置4における、コンポーネント記述子の各フィールドに対する処理の一例Example of processing for each field of component descriptor in receiving apparatus 4 受信装置4における、コンポーネントグループ記述子の各フィールドに対する処理の一例An example of processing for each field of the component group descriptor in the receiving device 4 受信装置4における、3D番組詳細記述子の各フィールドに対する処理の一例Example of processing for each field of 3D program detail descriptor in receiving apparatus 4 受信装置4における、サービス記述子の各フィールドに対する処理の一例Example of processing for each field of service descriptor in receiving apparatus 4 受信装置4における、サービスリスト記述子の各フィールドに対する処理の一例Example of processing for each field of service list descriptor in receiving apparatus 4 本発明の受信装置の構成図の一例Example of configuration diagram of receiving apparatus of the present invention 本発明の受信装置におけるCPU内部機能ブロック図の概要図の一例An example of a schematic diagram of an internal functional block diagram of a CPU in the receiving apparatus of the present invention 次番組が3Dコンテンツであるか否かに基づく2D/3D映像表示処理のフローチャートの一例An example of a flowchart of 2D / 3D video display processing based on whether or not the next program is 3D content メッセージ表示の一例Example of message display メッセージ表示の一例Example of message display メッセージ表示の一例Example of message display メッセージ表示の一例Example of message display 次番組開始時のシステム制御部のフローチャートの一例An example of the flowchart of the system controller at the start of the next program メッセージ表示の一例Example of message display メッセージ表示の一例Example of message display システムの構成例を示すブロック図の一例An example of a block diagram showing a system configuration example システムの構成例を示すブロック図の一例An example of a block diagram showing a system configuration example 3Dコンテンツの3D再生/出力/表示処理の一例の説明図Explanatory drawing of an example of 3D playback / output / display processing of 3D content 3Dコンテンツの2D再生/出力/表示処理の一例の説明図Explanatory drawing of an example of 2D playback / output / display processing of 3D content 3Dコンテンツの3D再生/出力/表示処理の一例の説明図Explanatory drawing of an example of 3D playback / output / display processing of 3D content 3Dコンテンツの2D再生/出力/表示処理の一例の説明図Explanatory drawing of an example of 2D playback / output / display processing of 3D content 現番組が3Dコンテンツであるか否かに基づく2D/3D映像表示処理のフローチャートの一例An example of a flowchart of 2D / 3D video display processing based on whether or not the current program is 3D content メッセージ表示の一例Example of message display ユーザー選択後の表示処理フローチャートの一例Example of display processing flowchart after user selection メッセージ表示の一例Example of message display 現番組が3Dコンテンツであるか否かに基づく2D/3D映像表示処理のフローチャートの一例An example of a flowchart of 2D / 3D video display processing based on whether or not the current program is 3D content メッセージ表示の一例Example of message display 3D映像伝送時のストリームの組合せ例Example of stream combination during 3D video transmission コンテント記述子の構造の一例Example content descriptor structure 番組ジャンルについてのコード表の一例Example code table for program genre 番組特性についてのコード表の一例Example code table for program characteristics 番組特性についてのコード表の一例Example code table for program characteristics 字幕・文字スーパーデータの送信装置1における送信データ構成の一例An example of transmission data configuration in the subtitle / character super data transmission apparatus 1 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 字幕データの符号の一例Example of subtitle data code 字幕データの拡張方法の一例An example of subtitle data expansion method 字幕データに関する符号とその制御の一例Example of code and control for subtitle data 字幕データに関する符号とその制御の一例Example of code and control for subtitle data 字幕データに関する符号の一例Example of code for subtitle data 字幕データに関する符号とその制御の一例Example of code and control for subtitle data 字幕データに関する符号の一例Example of code for subtitle data 字幕データに関する符号の一例Example of code for subtitle data 字幕データに関する符号の一例Example of code for subtitle data 字幕データに関する符号とその制御の一例Example of code and control for subtitle data 字幕データに関する符号とその制御の一例Example of code and control for subtitle data 字幕データに関する符号とその制御の一例Example of code and control for subtitle data 本発明の一実施例に係る字幕データ表示時の処理フローチャートの一例An example of a processing flowchart when displaying caption data according to an embodiment of the present invention 本発明の一実施例に係る3Dコンテンツの3D表示処理の一例Example of 3D display processing of 3D content according to an embodiment of the present invention 本発明の一実施例に係る3Dコンテンツの3D表示処理の一例Example of 3D display processing of 3D content according to an embodiment of the present invention 本発明の一実施例に係る字幕データ表示時の処理フローチャートの一例An example of a processing flowchart when displaying caption data according to an embodiment of the present invention 本発明の一実施例に係る字幕データ表示時の処理フローチャートの一例An example of a processing flowchart when displaying caption data according to an embodiment of the present invention 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 送信装置から送信されるデータの一例An example of data transmitted from the transmitter 本発明の一実施例に係る3Dコンテンツの3D表示処理の一例Example of 3D display processing of 3D content according to an embodiment of the present invention 本発明の一実施例に係る3Dコンテンツの3D表示処理の一例Example of 3D display processing of 3D content according to an embodiment of the present invention 本発明の一実施例に係る装置構成の一例Example of apparatus configuration according to one embodiment of the present invention 本発明の一実施例に係る3Dコンテンツの3D表示処理の一例Example of 3D display processing of 3D content according to an embodiment of the present invention 本発明の一実施例に係る3Dコンテンツの3D表示処理の一例Example of 3D display processing of 3D content according to an embodiment of the present invention

以下、本発明に好適な実施形態の例(実施例)を説明する。但し、本発明は本実施例に限定されない。本実施例は、主には受信装置について説明してあり、受信装置での実施に好適であるが、受信装置以外への適用を妨げるものではない。また、実施例の構成すべてが採用される必要はなく取捨選択可能である。   Hereinafter, examples (examples) of the preferred embodiments of the present invention will be described. However, the present invention is not limited to this embodiment. The present embodiment mainly describes the receiving apparatus and is suitable for implementation in the receiving apparatus, but does not hinder application to other than the receiving apparatus. Moreover, it is not necessary to employ all the configurations of the embodiment, and can be selected.

<システム>
図1は、本実施例のシステムの構成例を示すブロック図である。放送で情報を送受信して記録再生する場合を例示している。ただし放送に限定されず通信によるVODであってもよく、総称して配信ともいう。
<System>
FIG. 1 is a block diagram illustrating a configuration example of a system according to the present embodiment. The case where information is transmitted / received by broadcast and recorded / reproduced is illustrated. However, it is not limited to broadcasting but may be VOD by communication, and is also collectively referred to as distribution.

1は放送局などの情報提供局に設置される送信装置、2は中継局や放送用衛星などに設置される中継装置、3はインターネットなど一般家庭と放送局を繋ぐ公衆回線網、ユーザーの宅内などに設置される4は受信装置、10は受信装置4に内蔵される受信記録再生部である。受信記録再生部10では、放送された情報を記録し再生、またはリムーバブルな外部媒体からのコンテンツの再生、などができる。   1 is a transmission device installed in an information providing station such as a broadcasting station, 2 is a relay device installed in a relay station or a broadcasting satellite, 3 is a public line network connecting a general household and the broadcasting station such as the Internet, and the user's home 4 is a receiving device, and 10 is a reception recording / reproducing unit built in the receiving device 4. The reception recording / reproducing unit 10 can record and reproduce the broadcast information, or reproduce the content from a removable external medium.

送信装置1は、中継装置2を介して変調された信号電波を伝送する。図のように衛星による伝送以外にも例えばケーブルによる伝送、電話線による伝送、地上波放送による伝送、公衆回線網3を介したインターネットなどのネットワーク経由による伝送などを用いることもできる。受信装置4で受信されたこの信号電波は、後に述べるように、復調されて情報信号となった後、必要に応じ記録媒体に記録される。または公衆回線網3を介して伝送する場合には、公衆回線網3に適したプロトコル(例えばTCP/IP)に準じたデータ形式(IPパケット)等の形式に変換され、前記データを受信した受信装置4は、復号して情報信号とし、必要に応じ記録するに適した信号となって記録媒体に記録される。また、ユーザーは、受信装置4にディスプレイが内蔵されている場合はこのディスプレイで、内蔵されていない場合には受信装置4と図示しないディスプレイとを接続して情報信号が示す映像音声を視聴することができる。   The transmission device 1 transmits the modulated signal radio wave via the relay device 2. As shown in the figure, in addition to transmission by satellite, for example, transmission by cable, transmission by telephone line, transmission by terrestrial broadcasting, transmission via a network such as the Internet via the public network 3, etc. can also be used. As will be described later, the signal radio wave received by the receiving device 4 is demodulated into an information signal and then recorded on a recording medium as necessary. Alternatively, when the data is transmitted via the public line network 3, the data is converted into a format such as a data format (IP packet) conforming to a protocol suitable for the public line network 3 (for example, TCP / IP), and the received data is received. The device 4 decodes the information signal and records it on a recording medium as a signal suitable for recording if necessary. In addition, the user can watch the video and audio indicated by the information signal by connecting the receiving device 4 and a display (not shown) when the receiving device 4 has a built-in display, and connecting the receiving device 4 to a display (not shown). Can do.

<送信装置>
図2は、図1のシステムのうち、送信装置1の構成例を示すブロック図である。
<Transmitter>
FIG. 2 is a block diagram illustrating a configuration example of the transmission device 1 in the system of FIG.

11はソース発生部、12はMPEG2、或いはH.264方式等で圧縮を行い、番組情報などを付加するエンコード部、13はスクランブル部、14は変調部、15は送信アンテナ、16は管理情報付与部である。カメラ、記録再生装置などから成るソース発生部11で発生した映像音声などの情報は、より少ない占有帯域で伝送できるよう、エンコード部12でデータ量の圧縮が施される。必要に応じてスクランブル部13で、特定の視聴者には視聴可能となるように伝送暗号化される。変調部14でOFDM,TC8PSK,QPSK、多値QAMなど伝送するに適した信号となるよう変調された後、送信アンテナ15から、中継装置2に向けて電波として送信される。このとき、管理情報付与部16では、ソース発生部11で作成されたコンテンツの属性などの番組特定情報(例えば、映像や音声の符号化情報、音声の符号化情報、番組の構成、3D映像か否か等)が付与され、また、放送局が作成した番組配列情報(例えば現在の番組や次番組の構成、サービスの形式、1週間分の番組の構成情報等)なども付与される。これら番組特定情報および番組配列情報を合わせて、以下では番組情報と呼ぶ。   11 is a source generation unit, 12 is an encoding unit that compresses MPEG2 or H.264 and adds program information, 13 is a scramble unit, 14 is a modulation unit, 15 is a transmission antenna, and 16 is management information. Part. Information such as video and audio generated by the source generation unit 11 including a camera and a recording / playback device is compressed by the encoding unit 12 so that it can be transmitted in a smaller occupied band. If necessary, the scrambler 13 performs transmission encryption so that a specific viewer can view. The signal is modulated as a signal suitable for transmission, such as OFDM, TC8PSK, QPSK, and multilevel QAM, by the modulation unit 14, and then transmitted as a radio wave from the transmission antenna 15 toward the relay device 2. At this time, the management information adding unit 16 sets program identification information such as content attributes created by the source generation unit 11 (for example, video and audio encoding information, audio encoding information, program configuration, 3D video In addition, program arrangement information created by the broadcasting station (for example, the configuration of the current program and the next program, the format of the service, the configuration information of the program for one week, etc.) is also added. The program specifying information and the program arrangement information are collectively referred to as program information below.

なお、一つの電波には複数の情報が、時分割、スペクトル拡散などの方法で多重されることが多い。簡単のため図2には記していないが、この場合、ソース発生部11とエンコード部12の系統が複数個あり、エンコード部12とスクランブル部13との間に、複数の情報を多重するマルチプレクス部(多重化部)が置かれる。   In many cases, a plurality of pieces of information are multiplexed in one radio wave by a method such as time division or spread spectrum. Although not shown in FIG. 2 for simplicity, in this case, there are a plurality of systems of the source generation unit 11 and the encoding unit 12, and a multiplex for multiplexing a plurality of pieces of information between the encoding unit 12 and the scramble unit 13. Part (multiplexing part) is placed.

また、公衆回線網3を経由して送信する信号についても同様に、エンコード部12で作成された信号が必要に応じて暗号化部17で、特定の視聴者には視聴可能となるように暗号化される。通信路符号化部18で公衆回線網3で伝送するに適した信号となるよう符号化された後、ネットワークI/F(Interface)部19から、公衆回線網3に向けて送信される。   Similarly, a signal transmitted via the public network 3 is encrypted so that a signal generated by the encoding unit 12 can be viewed by a specific viewer by an encryption unit 17 as necessary. It becomes. After being encoded by the communication path encoding unit 18 so as to be a signal suitable for transmission through the public line network 3, the signal is transmitted from the network I / F (Interface) unit 19 toward the public line network 3.

<3D伝送方式>
送信装置1から伝送される3D番組の伝送方式には大きく分けて二つの方式がある。一つの方式は、既存の2D番組の放送方式を生かし、1枚の画像内に左目用と右目用の映像を収めた方式がある。この方式は映像圧縮方式として既存のMPEG2(Moving Picture Experts Group 2)やH.264 AVCが利用され、その特徴は、既存の放送と互換があり、既存の中継インフラを利用でき、既存の受信機(STBなど)での受信が可能であるが、既存の放送の再高解像度の半分(垂直方向、あるいは水平方向)の3D映像の伝送となる。例えば、図39(a)で示すように1枚の画像を左右に分割して左目用映像(L)と右目用映像(R)それぞれの水平方向の幅が2D番組の約半分、垂直方向の幅が2D番組と同等の画面サイズで収めた「Side-by-Side」方式や1枚の画像を上下に分割して左目用映像(L)と右目用映像(R)それぞれの水平方向の幅が2D番組と同等、垂直方向が2D番組の約半分の画面サイズで収めた「Top-and-Bottom」方式、その他インタレースを利用して収めた「Field alternative」方式や走査線1本ごとに左目用と右目用の映像を交互に収めた「Line alternative」方式や2次元(片側の)映像と映像の各ピクセルごとの深度(被写体までの距離)情報を収めた「Left+Depth」方式がある。これらの方式は、1枚の画像を複数の画像に分割して複数の視点の画像を格納するものであるので、符号化方式自体は、元々多視点映像符号化方式ではないMPEG2やH.264 AVC(MVCを除く)符号化方式をそのまま用いることができ、既存の2D番組の放送方式を生かして3D番組放送を行うことができるというメリットがある。なお、例えば、2D番組を最大水平方向が1920ドット、垂直方向が1080ラインの画面サイズで伝送可能な場合には、「Side-by-Side」方式で3D番組放送を行う場合には、1枚の画像を左右に分割して左目用映像(L)と右目用映像(R)それぞれが水平方向が960ドット、垂直方向が1080ラインの画面サイズで収めて伝送すればよい。同様にこの場合、「Top-and-Bottom」方式で3D番組放送を行う場合には、1枚の画像を上下に分割して左目用映像(L)と右目用映像(R)それぞれが水平方向が1920ドット、垂直方向が540ラインの画面サイズで収めて伝送すればよい。
<3D transmission system>
There are roughly two types of transmission methods for 3D programs transmitted from the transmission apparatus 1. One method is a method in which video for the left eye and right eye is stored in one image by utilizing an existing 2D program broadcasting method. This method is an MPEG2 (Moving Picture Experts Group 2) or H.264 standard as a video compression method. H.264 AVC is used, and its features are compatible with existing broadcasts, can use existing relay infrastructure, and can be received by existing receivers (STB, etc.). Half (vertical or horizontal) 3D video transmission. For example, as shown in FIG. 39A, one image is divided into right and left, and the horizontal width of each of the left-eye video (L) and the right-eye video (R) is about half that of a 2D program, The horizontal width of each of the left-eye video (L) and right-eye video (R) by dividing the top and bottom of the “Side-by-Side” method, which is the same screen size as a 2D program, Is equivalent to 2D programs, the vertical direction is about half the screen size of 2D programs, the “Top-and-Bottom” method, other “Field alternative” methods that use interlace, and each scanning line There are a “Line alternative” method in which left-eye and right-eye images are alternately stored, and a “Left + Depth” method in which two-dimensional (one side) images and depth (distance to the subject) information for each pixel of the images are stored. Since these methods divide one image into a plurality of images and store a plurality of viewpoint images, the encoding method itself is MPEG2 or H.264 which is not originally a multi-view video encoding method. The H.264 AVC (excluding MVC) encoding method can be used as it is, and there is an advantage that 3D program broadcasting can be performed by utilizing the existing 2D program broadcasting method. In addition, for example, when a 2D program can be transmitted with a screen size of 1920 dots in the maximum horizontal direction and 1080 lines in the vertical direction, one piece is required when 3D program broadcasting is performed in the “Side-by-Side” format. The left-eye video (L) and the right-eye video (R) are each stored in a screen size of 960 dots in the horizontal direction and 1080 lines in the vertical direction and transmitted. Similarly, in this case, when a 3D program broadcast is performed by the “Top-and-Bottom” method, one image is divided into upper and lower parts, and the left-eye video (L) and the right-eye video (R) are respectively horizontal. May be transmitted with a screen size of 1920 dots and a vertical size of 540 lines.

他の方式としては、左目用の映像と右目用の映像をそれぞれ別ストリーム(ES)で伝送する方式がある。本実施例では、当該方式を以下、「3D2視点別ES伝送」と称する。
この方式の一例として、例えば、多視点映像符号化方式であるH.264 MVCによる伝送方式がある。その特徴は、高解像度の3D映像が伝送できる。この方式を用いると、高解像度の3D映像を伝送できるという効果がある。なお、多視点映像符号化方式とは、多視点の映像を符号化するために規格化された符号化方式であり、1画像を視点ごとに分割することなく、多視点の映像を符号化でき、視点ごとに別画像を符号化するものである。
As another method, there is a method of transmitting the left-eye video and the right-eye video in separate streams (ES). In this embodiment, this method is hereinafter referred to as “3D2 viewpoint-specific ES transmission”.
As an example of this method, for example, H., which is a multi-view video encoding method. There is a transmission system based on H.264 MVC. The feature is that high-resolution 3D video can be transmitted. When this method is used, there is an effect that high-resolution 3D video can be transmitted. Note that the multi-view video encoding method is a standardized encoding method for encoding multi-view video, and multi-view video can be encoded without dividing one image for each viewpoint. A separate image is encoded for each viewpoint.

この方式で3D映像を伝送する場合では、例えば左目用視点の符号化画像を主視点画像とし、右目用の符号化画像を他の視点画像として伝送すればよい。このようにすれば主視点画像については既存の2D番組の放送方式と互換性を保つことが可能である。例えば、多視点映像符号化方式としてH.264 MVCを用いる場合には、H.264 MVCのベースサブストリームについては、主視点画像はH.264 AVCの2D画像と互換性を保つことができ、主視点画像を2D画像として表示可能である。   When transmitting 3D video in this manner, for example, the encoded image for the left-eye viewpoint may be used as the main viewpoint image, and the encoded image for the right eye may be transmitted as another viewpoint image. In this way, the main viewpoint image can be compatible with the existing 2D program broadcasting system. For example, H.264 is used as a multi-view video encoding method. When H.264 MVC is used, H.264 is used. For the base substream of H.264 MVC, the main viewpoint image is H.264. H.264 AVC 2D images can be kept compatible, and the main viewpoint image can be displayed as a 2D image.

さらに、本発明の実施例では、「3D2視点別ES伝送方式」の他の例として以下の方式も含めることとする。   Furthermore, in the embodiment of the present invention, the following scheme is also included as another example of the “3D2 viewpoint-specific ES transmission scheme”.

「3D2視点別ES伝送方式」の他の一例に、左目用の符号化画像を主視点画像としMPEG2で符号化し、右目用の符号化画像を他の視点画像としH.264 AVCで符号化してそれぞれ別ストリームとする方式を含める。この方式によれば、主視点画像はMPEG2互換となり2D画像として表示可能となることから、MPEG2による符号化画像が広く普及している既存の2D番組の放送方式と互換性を保つことが可能である。   As another example of the “3D2 viewpoint-specific ES transmission method”, the encoded image for the left eye is encoded as the main viewpoint image in MPEG2, and the encoded image for the right eye is set as another viewpoint image. H.264 AVC is encoded and included in a separate stream. According to this method, since the main viewpoint image becomes MPEG2 compatible and can be displayed as a 2D image, it is possible to maintain compatibility with an existing 2D program broadcasting method in which MPEG2 encoded images are widely used. is there.

「3D2視点別ES伝送方式」の他の一例に、左目用の符号化画像を主視点画像としMPEG2で符号化し、右目用の符号化画像を他の視点画像としてMPEG2で符号化してそれぞれ別ストリームとする方式を含める。この方式も、主視点画像はMPEG2互換となり2D画像として表示可能となることから、MPEG2による符号化画像が広く普及している既存の2D番組の放送方式と互換性を保つことが可能である。   Another example of the “3D2 viewpoint-specific ES transmission method” is that the encoded image for the left eye is encoded with MPEG2 as the main viewpoint image, the encoded image for the right eye is encoded with MPEG2 as the other viewpoint image, and each stream is separate. Include the method. In this method, since the main viewpoint image is compatible with MPEG2 and can be displayed as a 2D image, it is possible to maintain compatibility with an existing 2D program broadcasting method in which encoded images based on MPEG2 are widely used.

「3D2視点別ES伝送方式」の他の一例として、左目用の符号化画像を主視点画像としH.264 AVCまたはH.264 MVCで符号化し、右目用の符号化画像を他の視点画像としてMPEG2で符号化することもありえる。   As another example of the “3D2 viewpoint-specific ES transmission method”, an encoded image for the left eye is used as a main viewpoint image, and H.264 AVC or H.264. It is possible to encode with H.264 MVC and encode with MPEG2 the encoded image for the right eye as another viewpoint image.

なお、「3D2視点別ES伝送方式」とは別に、元々多視点映像符号化方式として規定された符号化方式ではないMPEG2やH.264 AVC(MVCを除く)などの符号化方式であっても左目用の映像と右目用のフレームを交互に格納したストリームを生成することで3D伝送も可能である。   Apart from the “3D2 viewpoint-specific ES transmission scheme”, MPEG2 and H.264 which are not originally defined as multi-view video encoding schemes. Even with an encoding method such as H.264 AVC (excluding MVC), 3D transmission is also possible by generating a stream in which left-eye video and right-eye frames are alternately stored.

<番組情報>
番組特定情報と番組配列情報とを番組情報という。
番組特定情報はPSI(Program Specific Information)とも呼ばれ、所要の番組を選択するために必要な情報で、放送番組に関連するPMT(Program Map Table)を伝送するTSパケットのパケット識別子を指定するPAT(Program Association Table)、放送番組を構成する各符号化信号を伝送するTSパケットのパケット識別子および有料放送の関連情報のうち共通情報を伝送するTSパケットのパケット識別子を指定するPMT、変調周波数など伝送路の情報と放送番組を関連付ける情報を伝送するNIT(Network Information Table)、有料放送の関連情報のうち個別情報を伝送するTSパケットのパケット識別子を指定するCAT(Conditional Access Table)の4つのテーブルからなり、MPEG2システム規格で規定されている。例えば、映像の符号化情報、音声の符号化情報、番組の構成を含む。本発明では、さらに3D映像か否かなどを示す情報を新たに含める。当該PSIは管理情報付与部16で付加される。
<Program information>
Program identification information and program arrangement information are referred to as program information.
The program specific information is also called PSI (Program Specific Information), and is information necessary for selecting a required program, and specifies a packet identifier of a TS packet that transmits a PMT (Program Map Table) related to the broadcast program. (Program Association Table), a packet identifier of a TS packet that transmits each encoded signal constituting a broadcast program, and a PMT that specifies a packet identifier of a TS packet that transmits common information among related information of pay broadcasting, a modulation frequency, etc. From four tables, NIT (Network Information Table) for transmitting information relating road information and broadcast programs, and CAT (Conditional Access Table) for specifying packet identifiers of TS packets for transmitting individual information among related information of pay broadcasting. Therefore, it is defined in the MPEG2 system standard. For example, it includes video encoding information, audio encoding information, and program configuration. In the present invention, information indicating whether or not the video is a 3D video is newly included. The PSI is added by the management information adding unit 16.

番組配列情報はSI(Service Information)とも呼ばれ、番組選択の利便性のために規定された各種情報であり、MPEG−2システム規格のPSI 情報も含まれ、番組名、放送日時、番組内容など、番組に関する情報が記載されるEIT(Event Information Table)、編成チャンネル名、放送事業者名など、編成チャンネル(サービス)に関する情報が記載されるSDT(Service Description Table)などがある。   Program sequence information, also called SI (Service Information), is a variety of information defined for the convenience of program selection, including MPEG-2 system standard PSI information, program name, broadcast date, program content, etc. There are an EIT (Event Information Table) in which information related to a program is described, an SDT (Service Description Table) in which information related to an organized channel (service) is described, such as an organized channel name and a broadcaster name.

例えば、現在放送されている番組や次に放送される番組の構成、サービスの形式、また、1週間分の番組の構成情報などを示す情報を含み、管理情報付与部16で付加される。 番組情報には番組情報の構成要素であるコンポーネント記述子、コンポーネントグループ記述子、3D番組詳細記述子、サービス記述子、サービスリスト記述子などを含む。これらの記述子は、PMT、EIT[schedule basic/schedule extended/present/following]、NIT、SDTといったテーブルの中に記載される。   For example, the management information adding unit 16 includes information indicating the configuration of the currently broadcast program, the program to be broadcast next, the format of the service, and the program configuration information for one week. The program information includes a component descriptor, a component group descriptor, a 3D program detail descriptor, a service descriptor, a service list descriptor, and the like, which are constituent elements of the program information. These descriptors are described in tables such as PMT, EIT [schedule basic / schedule extended / present / following], NIT, and SDT.

PMT、EITそれぞれのテーブルの使い分けとしては、例えばPMTについては現在放送されている番組の情報のみの記載であるため、未来に放送される番組の情報については確認することができない。しかし、送信側からの送信周期が短いため受信完了までの時間が短く、現在放送されている番組の情報なので変更されることがないという意味での信頼度が高いといった特徴がある。一方、EIT[schedule basic/schedule extended]については現在放送されている番組以外に7日分先までの情報を取得できるが、送信側からの送信周期がPMTに比べ長いため受信完了までの時間が長く、保持する記憶領域が多く必要で、かつ未来の事象のため変更される可能性があるという意味で信頼度が低いなどのデメリットがある。EIT[following]については次の放送時間の番組の情報を取得できる。   As the usage of the PMT and EIT tables, for example, since only information on programs currently broadcast is described for PMT, information on programs broadcast in the future cannot be confirmed. However, since the transmission cycle from the transmission side is short, the time until the reception is completed is short, and the reliability is high in the sense that the information is not changed because it is information on the currently broadcast program. On the other hand, for EIT [schedule basic / schedule extended], information up to 7 days ahead can be acquired in addition to the currently broadcasted program, but the time until the reception is completed because the transmission cycle from the transmission side is longer than the PMT. There is a demerit such as low reliability in the sense that it requires a long storage area and may be changed due to a future event. As for EIT [following], information on the program of the next broadcast time can be acquired.

番組特定情報のPMTは、ISO/IEC13818−1で規定されているテーブル構造を用い、その2ndループ(ES(Elementary Stream)毎のループ)に記載の8ビットの情報であるstream_type(ストリーム形式種別)により、放送されている番組のESの形式を示すことができる。本発明の実施例では、従来よりもESの形式を増やし、例えば、図3に示すように放送する番組のESの形式を割り当てる。   The program specific information PMT uses a table structure defined by ISO / IEC13818-1, and stream_type (stream format type) which is 8-bit information described in the 2nd loop (loop for each ES (Elementary Stream)). Thus, the ES format of the broadcast program can be indicated. In the embodiment of the present invention, the ES format is increased as compared with the prior art. For example, as shown in FIG.

まず、多視点映像符号化(例:H.264/MVC)ストリームのベースビューサブビットストリーム(主視点)について、既存のITU-T 勧告H.264|ISO/IEC 14496-10 映像で規定されるAVC 映像ストリームと同じ0x1Bを割り当てる。次に、0x20に3D映像番組に用いることが可能な多視点映像符号化ストリーム(例えばH.264 MVC)のサブビットストリーム(他の視点)を割り当てる。   First, the base-view sub-bitstream (main viewpoint) of a multi-view video encoding (eg H.264 / MVC) stream is defined by the existing ITU-T recommendation H.264 | ISO / IEC 14496-10 video The same 0x1B as the AVC video stream is allocated. Next, a sub-bit stream (other viewpoint) of a multi-view video encoded stream (for example, H.264 MVC) that can be used for a 3D video program is assigned to 0x20.

また、3D映像の複数視点を別ストリームで伝送する「3D2視点別ES伝送方式」でもちいる場合のH.262(MPEG2)方式のベースビュービットストリーム(主視点)について、既存のITU-T 勧告H.262|ISO/IEC 13818-2 映像と同じ0x02を割り当てる。ここで、3D映像の複数視点を別ストリームで伝送する場合のH.262(MPEG2)方式のベースビュービットストリーム(主視点)とは、3D映像の複数視点の映像のうち、主視点の映像のみをH.262(MPEG2)方式で符号化したストリームである。   Also, the existing ITU-T recommendation for the H.262 (MPEG2) system base-view bitstream (main viewpoint) when using the "3D2 viewpoint-specific ES transmission system" that transmits multiple viewpoints of 3D video in separate streams. H.262 | ISO / IEC 13818-2 Assign 0x02 which is the same as video. Here, the H.262 (MPEG2) base-view bitstream (main viewpoint) when transmitting multiple viewpoints of 3D video in separate streams is only the video of the main viewpoint among the multiple viewpoint videos of 3D video. Is a stream encoded by the H.262 (MPEG2) system.

さらに、0x21に、3D映像の複数視点を別ストリームで伝送する場合のH.262(MPEG2)方式の他の視点のビットストリームを割り当てる。   Furthermore, a bit stream of another viewpoint of the H.262 (MPEG2) scheme when transmitting a plurality of viewpoints of 3D video in different streams is assigned to 0x21.

さらに、0x22に3D映像の複数視点を別ストリームで伝送する場合のITU-T 勧告H.264|ISO/IEC 14496-10 映像で規定されるAVC ストリーム方式の他の視点ビットストリームのビットストリームを割り当てる。   In addition, a bit stream of another viewpoint bit stream of the AVC stream method specified by ITU-T recommendation H.264 | ISO / IEC 14496-10 video when multiple viewpoints of 3D video are transmitted in different streams is assigned to 0x22. .

なお、ここでの説明では3D映像番組に用いることが可能な多視点映像符号化ストリームのサブビットストリームを0x20に割り当て、3D映像の複数視点を別ストリームで伝送する場合のH.262(MPEG2)方式の他の視点のビットストリームを0x21に割り当て、3D映像の複数視点を別ストリームで伝送する場合のITU-T 勧告H.264|ISO/IEC 14496-10 映像で規定されるAVC ストリームを0x22に割り当てるとしたが、0x23〜0x7Eの何れかに割り当てられることでも良い。また、MVC映像ストリームは単なる一例であって、3D映像番組に用いることが可能な多視点映像符号化ストリームを示すのであれば、H.264/MVC以外の映像ストリームでもよい。   In this description, H.262 (MPEG2) in the case of assigning a sub-bit stream of a multi-view video encoded stream that can be used for a 3D video program to 0x20 and transmitting multiple viewpoints of 3D video in separate streams. The bit stream of the other viewpoint of the system is assigned to 0x21, and the AVC stream specified by the ITU-T recommendation H.264 | ISO / IEC 14496-10 video when transmitting the multiple viewpoints of 3D video as separate streams is set to 0x22 Although assigned, it may be assigned to any of 0x23 to 0x7E. Further, the MVC video stream is merely an example, and a video stream other than H.264 / MVC may be used as long as it represents a multi-view video encoded stream that can be used for a 3D video program.

以上ように、stream_type(ストリーム形式種別)のビットを割りあてることにより、送信装置1側の放送事業者が3D番組を伝送(放送)するにあたり、本発明の実施例では、例えば、図47に示すようなストリームの組合せで伝送することが可能となる。   As described above, when the broadcaster on the transmission apparatus 1 side transmits (broadcasts) the 3D program by allocating the stream_type (stream format type) bit, in the embodiment of the present invention, for example, as shown in FIG. It is possible to transmit in such a stream combination.

組合せ例1では、主視点(左目用)映像ストリームとして、多視点映像符号化(例:H.264/MVC)ストリームのベースビューサブビットストリーム(主視点)(ストリーム形式種別0x1B)を伝送し、副視点(右目用) 映像ストリームとして多視点映像符号化(例:H.264/MVC)ストリームの他の視点用サブビットストリーム(ストリーム形式種別0x20)を伝送する。   In combination example 1, a base-view sub-bit stream (main viewpoint) (stream format type 0x1B) of a multi-view video encoding (eg, H.264 / MVC) stream is transmitted as a main viewpoint (left-eye) video stream, Sub-viewpoint (for right eye) Another viewpoint sub-bit stream (stream format type 0x20) is transmitted as a multi-view video encoding (eg, H.264 / MVC) stream as a video stream.

この場合は、主視点(左目用)映像ストリーム、副視点(右目用) 映像ストリームともに、多視点映像符号化(例:H.264/MVC)方式のストリームを用いる。多視点映像符号化(例:H.264/MVC)方式は、そもそも多視点の映像を伝送するための方式であり、図47の組合せ例の中で最も効率よく3D番組を伝送することができる。   In this case, both the main-viewpoint (left-eye) video stream and the sub-viewpoint (right-eye) video stream use multi-viewpoint video encoding (eg, H.264 / MVC) format streams. The multi-view video encoding (eg, H.264 / MVC) method is a method for transmitting multi-view video in the first place, and can transmit a 3D program most efficiently among the combination examples in FIG. .

また、3D番組を3D表示(出力)する際には、受信装置は、主視点(左目用)映像ストリームと副視点(右目用) 映像ストリームとの両者を処理して、3D番組を再生することが可能となる。   Further, when 3D display (output) of a 3D program, the receiving apparatus processes both the main viewpoint (for left eye) video stream and the sub-viewpoint (for right eye) video stream to reproduce the 3D program. Is possible.

受信装置が3D番組を2D表示(出力)する場合には、主視点(左目用)映像ストリームのみを処理すれば、2D番組として表示(出力)することが可能となる。   When the receiving apparatus displays (outputs) a 3D program in 2D, it can display (output) as a 2D program by processing only the main-viewpoint (left-eye) video stream.

なお、多視点映像符号化方式H.264/MVCのベースビューサブビットストリームと、既存のH.264/AVC(MVCを除く)の映像ストリームには互換性があるので、図3のように両者のストリーム形式種別を同じ0x1Bに割り当てることにより以下の効果がある。つまり、3D番組を3D表示(出力)する機能を有していない受信装置が組合せ例1の3D番組を受信したとしても、受信装置に既存のH.264/AVC(MVCを除く)の映像ストリーム(ITU-T 勧告H.264|ISO/IEC 14496-10 映像で規定されるAVC 映像ストリーム)を表示(出力)する機能さえあれば、ストリーム形式種別に基づいて当該番組の主視点(左目用)映像ストリームを、既存のH.264/AVC(MVCを除く)の映像ストリームと同様のストリームと認識して通常の2D番組として表示(出力)することが可能となるという効果である。   Since the multi-view video encoding method H.264 / MVC base-view sub-bit stream and the existing H.264 / AVC (excluding MVC) video stream are compatible, both are as shown in FIG. By assigning the same stream format type to 0x1B, the following effects are obtained. That is, even if a receiving device that does not have the function of 3D display (output) of a 3D program receives the 3D program of Combination Example 1, the video stream of the existing H.264 / AVC (excluding MVC) is received by the receiving device. As long as it has a function to display (output) (AVC video stream defined by ITU-T recommendation H.264 | ISO / IEC 14496-10 video), the main viewpoint of the program (for the left eye) based on the stream format type This is an effect that the video stream can be recognized as a stream similar to the existing H.264 / AVC (excluding MVC) video stream and displayed (output) as a normal 2D program.

さらに、副視点(右目用) 映像ストリームには、従来にないストリーム形式種別を割り当てているので既存の受信装置では無視される。これにより、既存の受信装置で副視点(右目用) 映像ストリームについて放送局側が意図しない表示(出力)を防止できる。   In addition, since the sub-viewpoint (for the right eye) video stream is assigned a stream format type that has not been used in the past, it is ignored by existing receivers. As a result, it is possible to prevent the substation (for the right eye) video stream from being unintentionally displayed (output) by the broadcasting station in the existing receiving apparatus.

よって、新たに組合せ例1の3D番組の放送を開始したとしても、既存のH.264/AVC(MVCを除く)の映像ストリームを表示(出力)する機能を有する既存の受信装置で表示(出力)できないという状況を回避することができる。これにより、CM(commercial message)などの広告収入により運営する放送などで新たに当該3D番組放送を開始したとても、3D表示(出力)機能に対応していない受信装置でも視聴可能となるので、受信装置の機能の制限により、視聴率が低下すること回避することができ、放送局側でもメリットがある。   Therefore, even if the 3D program broadcast of Combination Example 1 is newly started, it is displayed (output) by an existing receiving device having a function of displaying (outputting) an existing H.264 / AVC (excluding MVC) video stream. ) You can avoid the situation that you can not. As a result, it is possible to view even a receiving device that does not support the 3D display (output) function, since the 3D program broadcast was newly started by broadcasting operated by advertising revenue such as CM (commercial message). By limiting the function of the device, it is possible to avoid a decrease in the audience rating, and there is a merit on the broadcasting station side.

組合せ例2では、主視点(左目用)映像ストリームとして、3D映像の複数視点を別ストリームで伝送する場合のH.262(MPEG2)方式のベースビュービットストリーム(主視点)(ストリーム形式種別0x02)を伝送し、副視点(右目用) 映像ストリームとして3D映像の複数視点を別ストリームで伝送する場合のITU-T 勧告H.264|ISO/IEC 14496-10 映像で規定されるAVC ストリーム(ストリーム形式種別0x22)を伝送する。   In combination example 2, an H.262 (MPEG2) base-view bit stream (main viewpoint) (stream format type 0x02) when transmitting multiple viewpoints of 3D video as separate streams as the main viewpoint (left-eye) video stream AVC stream (stream format specified by ITU-T recommendation H.264 | ISO / IEC 14496-10 video when transmitting multiple viewpoints of 3D video as separate video streams as sub-viewpoint (right-eye) video streams Type 0x22) is transmitted.

組合せ例1と同様に、3D番組を3D表示(出力)する際には、受信装置は、主視点(左目用)映像ストリームと副視点(右目用) 映像ストリームとの両者を処理して、3D番組を再生することが可能となり、受信装置が3D番組を2D表示(出力)する場合には、主視点(左目用)映像ストリームのみを処理すれば、2D番組として表示(出力)することが可能となる。   As in the combination example 1, when 3D display (output) of a 3D program is performed, the receiving apparatus processes both the main viewpoint (left-eye) video stream and the sub-viewpoint (right-eye) video stream to perform 3D When a receiver can display (output) a 3D program in 2D, it can display (output) it as a 2D program by processing only the main-viewpoint (left-eye) video stream. It becomes.

さらに、3D映像の複数視点を別ストリームで伝送する場合のH.262(MPEG2)方式のベースビュービットストリーム(主視点)を、既存のITU-T勧告H.262|ISO/IEC 13818-2映像ストリームと互換性のあるストリームとし、図3のように両者のストリーム形式種別を同じ0x1Bに割り当てることにより、既存のITU-T勧告H.262|ISO/IEC 13818-2映像ストリームを表示(出力)する機能を有する受信装置であれば、3D表示(出力)機能を有しない受信装置でも、2D番組として表示(出力)することが可能となる。   In addition, the H.262 (MPEG2) base-view bitstream (main viewpoint) when multiple viewpoints of 3D video are transmitted as separate streams is converted into the existing ITU-T recommendation H.262 | ISO / IEC 13818-2 video. The stream is compatible with the stream, and the stream format type of both is assigned to the same 0x1B as shown in Fig. 3 to display (output) the existing ITU-T recommendation H.262 | ISO / IEC 13818-2 video stream If the receiving device has a function to do this, even a receiving device that does not have a 3D display (output) function can display (output) it as a 2D program.

また、組合せ例1と同様に、副視点(右目用) 映像ストリームには、従来にないストリーム形式種別を割り当てているので既存の受信装置では無視される。これにより、既存の受信装置で副視点(右目用) 映像ストリームについて放送局側が意図しない表示(出力)を防止できる。   Further, as in the combination example 1, the sub-viewpoint (for the right eye) video stream is assigned a stream format type that has not been conventionally used, and thus is ignored by existing receiving apparatuses. As a result, it is possible to prevent the substation (for the right eye) video stream from being unintentionally displayed (output) by the broadcasting station in the existing receiving apparatus.

既存のITU-T勧告H.262|ISO/IEC 13818-2映像ストリームについての表示(出力)機能を有する受信装置は広く普及しているので、受信装置の機能の制限による視聴率の低下をより防ぐことが可能となり、放送局にとって最も好ましい放送を実現することができる。   Receiving devices with a display (output) function for existing ITU-T Recommendation H.262 | ISO / IEC 13818-2 video streams are widely used. Therefore, it is possible to realize the most preferable broadcasting for the broadcasting station.

さらに、副視点(右目用) 映像ストリームを、ITU-T 勧告H.264|ISO/IEC 14496-10 映像で規定されるAVC ストリーム(ストリーム形式種別0x22)とすることにより、副視点(右目用) 映像ストリームを高い圧縮率で伝送することが可能となる。   Furthermore, the sub-viewpoint (for the right eye) is changed to the AVC stream (stream format type 0x22) defined by the ITU-T recommendation H.264 | ISO / IEC 14496-10 video as the sub-viewpoint (for the right eye). A video stream can be transmitted at a high compression rate.

すなわち、組合せ例2によれば、放送局の商業的なメリットと高効率伝送による技術的メリットを両立することが可能となる。   That is, according to the combination example 2, it is possible to achieve both the commercial merit of the broadcasting station and the technical merit of high-efficiency transmission.

組合せ例3では、主視点(左目用)映像ストリームとして、3D映像の複数視点を別ストリームで伝送する場合のH.262(MPEG2)方式のベースビュービットストリーム(主視点)(ストリーム形式種別0x02)を伝送し、副視点(右目用) 映像ストリームとして3D映像の複数視点を別ストリームで伝送する場合のH.262(MPEG2)方式の他の視点のビットストリーム(ストリーム形式種別0x21)を伝送する。   In combination example 3, an H.262 (MPEG2) base-view bit stream (main viewpoint) (stream format type 0x02) in the case of transmitting multiple viewpoints of 3D video as separate streams as the main viewpoint (left-eye) video stream And a bit stream (stream format type 0x21) of another viewpoint of the H.262 (MPEG2) system when transmitting a plurality of viewpoints of 3D video as separate streams as a sub-viewpoint (right eye) video stream.

この場合も、組合せ例2と同様に、既存のITU-T勧告H.262|ISO/IEC 13818-2映像ストリームを表示(出力)する機能を有する受信装置であれば、3D表示(出力)機能を有しない受信装置でも、2D番組として表示(出力)することが可能となる。   Also in this case, as in the combination example 2, if the receiving apparatus has a function of displaying (outputting) an existing ITU-T recommendation H.262 | ISO / IEC 13818-2 video stream, a 3D display (output) function It is possible to display (output) as a 2D program even in a receiving apparatus that does not have the.

受信装置の機能の制限による視聴率の低下をより防ぐという放送局の商業的なメリットに加え、主視点(左目用)映像ストリームと副視点(右目用) 映像ストリームとの符号化方式をH.262(MPEG2)方式に統一することにより、受信装置における映像復号化機能のハードウェア構成を簡素化することが可能となる。   In addition to the commercial merits of the broadcast station, which further prevents a decrease in audience rating due to restrictions on the functions of the receiving device, the encoding method of the main viewpoint (left eye) video stream and the sub viewpoint (right eye) video stream is H. By unifying the 262 (MPEG2) system, the hardware configuration of the video decoding function in the receiving apparatus can be simplified.

なお、組合せ例4のように、主視点(左目用)映像ストリームとして、多視点映像符号化(例:H.264/MVC)ストリームのベースビューサブビットストリーム(主視点)(ストリーム形式種別0x1B)を伝送し、副視点(右目用) 映像ストリームとして3D映像の複数視点を別ストリームで伝送する場合のH.262(MPEG2)方式の他の視点のビットストリーム(ストリーム形式種別0x21)を伝送することも可能である。   Note that, as in combination example 4, as the main viewpoint (left-eye) video stream, a multi-view video encoding (eg, H.264 / MVC) stream base-view sub-bit stream (main viewpoint) (stream format type 0x1B) And a bit stream (stream format type 0x21) of another viewpoint of the H.262 (MPEG2) system when transmitting multiple viewpoints of 3D video as separate streams as a sub-viewpoint (for the right eye) video stream Is also possible.

なお、図47の組合せにおいて、多視点映像符号化(例:H.264/MVC)ストリームのベースビューサブビットストリーム(主視点)(ストリーム形式種別0x1B)の代わりに、ITU-T 勧告H.264|ISO/IEC 14496-10 映像で規定されるAVC 映像ストリーム(ストリーム形式種別0x1B)としても同様の効果を得ることができる。   47, instead of the base-view sub-bitstream (main viewpoint) (stream format type 0x1B) of the multi-view video coding (eg, H.264 / MVC) stream, the ITU-T recommendation H.264 | Similar effects can also be obtained as an AVC video stream (stream format type 0x1B) defined by ISO / IEC 14496-10 video.

また、図47の組合せにおいて、3D映像の複数視点を別ストリームで伝送する場合のH.262(MPEG2)方式のベースビュービットストリーム(主視点)の代わりに、ITU-T勧告H.262|ISO/IEC 13818-2映像ストリーム(ストリーム形式種別0x02)としても同様の効果を得ることができる。   47, instead of the base view bit stream (main viewpoint) of the H.262 (MPEG2) method when transmitting multiple viewpoints of 3D video in separate streams, the ITU-T recommendation H.262 | ISO The same effect can be obtained with / IEC 13818-2 video stream (stream format type 0x02).

図4は、番組情報の一つであるコンポーネント記述子(Component Descriptor)の構造の一例を示す。コンポーネント記述子はコンポーネント(番組を構成する要素。例えば、映像、音声、文字、各種データなど)の種別を示し、エレメンタリストリームを文字形式で表現するためにも利用される。この記述子はPMTおよび/またはEITに配置される。   FIG. 4 shows an example of the structure of a component descriptor (Component Descriptor) which is one piece of program information. The component descriptor indicates the type of a component (element constituting a program. For example, video, audio, character, various data, etc.), and is also used for expressing an elementary stream in a character format. This descriptor is placed in the PMT and / or EIT.

コンポーネント記述子の意味は次の通りである。つまり、descriptor_tagは8ビットのフィールドで、この記述子がコンポーネント記述子と識別可能な値が記載される。descriptor_lengthは8ビットのフィールドで、この記述子のサイズを記載している。stream_content(コンポーネント内容)は4ビットのフィールドで、ストリームの種別(映像、音声、データ)を表し、図4に従って符号化される。component_type(コンポーネント種別)は8ビットのフィールド、映像、音声、データといったコンポーネントの種別を規定し、図4に従って符号化される。component_tag(コンポーネントタグ)は、8 ビットのフィールドである。サービスのコンポーネントストリームは、この8ビットのフィールドにより、コンポーネント記述子で示される記述内容(図5)を参照できる。   The meaning of the component descriptor is as follows. In other words, descriptor_tag is an 8-bit field and describes a value that can identify this descriptor as a component descriptor. descriptor_length is an 8-bit field and describes the size of this descriptor. The stream_content (component content) is a 4-bit field and represents a stream type (video, audio, data), and is encoded according to FIG. The component_type (component type) defines the type of component such as an 8-bit field, video, audio, and data, and is encoded according to FIG. component_tag (component tag) is an 8-bit field. The component stream of the service can refer to the description content (FIG. 5) indicated by the component descriptor by this 8-bit field.

プログラムマップセクションでは、各ストリームに与えるコンポーネントタグの値は異なる値とすべきである。コンポーネントタグは、コンポーネントストリームを識別するためのラベルであり、ストリーム識別記述子内のコンポーネントタグと同一の値である(ただし、ストリーム識別記述子がPMT内に存在する場合)。ISO_639_language_code(言語コード)の24 ビットのフィールドは、コンポーネント(音声、あるいはデータ)の言語、およびこの記述子に含まれる文字記述の言語を識別する。   In the program map section, the component tag value given to each stream should be different. The component tag is a label for identifying the component stream, and has the same value as the component tag in the stream identification descriptor (provided that the stream identification descriptor exists in the PMT). The 24-bit field of ISO_639_language_code (language code) identifies the language of the component (speech or data) and the language of the character description contained in this descriptor.

言語コードは、ISO 639-2(22)に規定されるアルファベット3文字コードで表す。各文字はISO8859-1(24)に従って8ビットで符号化され、その順で24ビットフィールドに挿入される。例えば、日本語はアルファベット3文字コードで「jpn」であり、次のように符号化される。「0110 1010 0111 0000 0110 1110」。text_char(コンポーネント記述)は、8ビットのフィールドである。一連のコンポーネント記述のフィールドは、コンポーネントストリームの文字記述を規定する。   The language code is represented by a three-letter code defined in ISO 639-2 (22). Each character is encoded in 8 bits according to ISO8859-1 (24) and inserted in the 24-bit field in that order. For example, Japanese is “jpn”, which is a three-letter code of the alphabet, and is encoded as follows. “0110 1010 0111 0000 0110 1110”. text_char (component description) is an 8-bit field. A series of component description fields define the character description of the component stream.

図5(a)〜(e)は、コンポーネント記述子の構成要素であるstream_content(コンポーネント内容)とcomponent_type(コンポーネント種別)の一例を示す。図5(a)に示すコンポーネント内容の0x01は、MPEG2形式で圧縮された映像ストリームの様々な映像フォーマットについて表す。   FIGS. 5A to 5E show examples of stream_content (component content) and component_type (component type) that are components of the component descriptor. The component content 0x01 shown in FIG. 5A represents various video formats of a video stream compressed in the MPEG2 format.

図5(b)に示すコンポーネント内容の0x05は、H.264 AVC形式で圧縮された映像ストリームの様々な映像フォーマットについて表す。図5(c)に示すコンポーネント内容の0x06は、多視点映像符号化(例えば、H.264 MVC形式)で圧縮された3D映像ストリームの様々な映像フォーマットについて表す。   Component content 0x05 shown in FIG. 5B represents various video formats of a video stream compressed in the H.264 AVC format. Component content 0x06 shown in FIG. 5C represents various video formats of a 3D video stream compressed by multi-view video coding (for example, H.264 MVC format).

図5(d)に示すコンポーネント内容の0x07は、MPEG2、またはH.264 AVC形式で圧縮された3D映像のSide-by-Side形式のストリームの様々な映像フォーマットについて表す。この例ではMPEG2とH.264 AVC形式で同じコンポーネント内容の値としたが、MPEG2とH.264 AVCで別の値を設定することでも良い。   The component content 0x07 shown in FIG. 5D represents various video formats of a side-by-side stream of 3D video compressed in MPEG2 or H.264 AVC format. In this example, the same component content value is used in MPEG2 and H.264 AVC format, but different values may be set in MPEG2 and H.264 AVC.

図5(e)に示すコンポーネント内容の0x08は、MPEG2、またはH.264 AVC形式で圧縮された3D映像のTop-and-Bottom形式のストリームの様々な映像フォーマットについて表す。この例ではMPEG2とH.264 AVC形式で同じコンポーネント内容の値としたが、MPEG2とH.264 AVCで別の値を設定することでも良い。   The component content 0x08 shown in FIG. 5 (e) represents various video formats of a Top-and-Bottom stream of 3D video compressed in MPEG2 or H.264 AVC format. In this example, the same component content value is used in MPEG2 and H.264 AVC format, but different values may be set in MPEG2 and H.264 AVC.

図5(d)や図5(e)のように、コンポーネント記述子の構成要素であるstream_content(コンポーネント内容)とcomponent_type(コンポーネント種別)の組合せによって、3D映像であるか否か、3D映像の方式、解像度、アスペクト比の組合せを示す構成とすることにより、3Dと2Dの混合放送であっても、少ない伝送量で、2D番組/3D番組識別を含めた各種映像方式情報の伝送が可能となる。   As shown in FIG. 5 (d) and FIG. 5 (e), whether or not it is 3D video depending on the combination of stream_content (component content) and component_type (component type) that are components of the component descriptor. By adopting a configuration that shows a combination of resolution and aspect ratio, it is possible to transmit various types of video system information including 2D program / 3D program identification with a small transmission amount even in mixed 3D and 2D broadcasting. .

特に、元々多視点映像符号化方式として規定された符号化方式ではないMPEG2やH.264 AVC(MVCを除く)などの符号化方式を用いて、Side-by-Side形式やTop-and-Bottom形式などの1画像中に複数の視点の画像を含めて3D映像番組を伝送する場合は、上述したstream_type(ストリーム形式種別)だけでは、3D映像番組用に一画像中に複数の視点の画像を含めて伝送しているのか、1視点の通常の画像なのかを識別することは困難である。よって、この場合は、stream_content(コンポーネント内容)とcomponent_type(コンポーネント種別)の組合せによって、当該番組が2D番組/3D番組識別を含めた各種映像方式の識別を行えばよい。また、EITにより現在放送している、或いは将来放送される番組に関するコンポーネント記述子が配信されることにより、受信装置4においてEITを取得することによりEPG(番組表)を作成し、EPGの情報として3D映像であるか否か、3D映像の方式、解像度、アスペクト比、3D映像であるか否かを作成することができる。受信装置は、EPGにこれらの情報を表示(出力)できるようになるメリットがある。   In particular, using a coding method such as MPEG2 or H.264 AVC (excluding MVC) that is not originally defined as a multi-view video coding method, Side-by-Side format or Top-and-Bottom When transmitting a 3D video program including a plurality of viewpoint images in one image such as a format, only the above-described stream_type (stream format type) allows multiple viewpoint images to be included in one image for a 3D video program. It is difficult to identify whether the image is included and transmitted or a normal image from one viewpoint. Therefore, in this case, identification of various video systems including 2D program / 3D program identification for the program may be performed by a combination of stream_content (component content) and component_type (component type). Also, by receiving component descriptors related to programs that are currently being broadcast or will be broadcast in the future by EIT, the receiver 4 creates an EPG (program guide) by acquiring the EIT, and as EPG information. It can be created whether it is 3D video, whether it is 3D video system, resolution, aspect ratio, 3D video. The receiving apparatus has an advantage that such information can be displayed (output) on the EPG.

以上説明したとおり、受信装置4がstream_contentとcomponent_typeを監視することで、現在受信している、あるいは将来受信する番組が3D番組であることを認識できる効果がある。   As described above, the receiver 4 monitors stream_content and component_type, so that it is possible to recognize that the currently received program or a future received program is a 3D program.

図6は、番組情報の一つであるコンポーネントグループ記述子(Component Group Descriptor)の構造の一例を示す。コンポーネントグループ記述子は、イベント内のコンポーネントの組み合わせを定義し、識別する。つまり、複数コンポーネントのグループ化情報を記述する。この記述子はEITに配置される。   FIG. 6 shows an example of the structure of a component group descriptor (Component Group Descriptor), which is one piece of program information. The component group descriptor defines and identifies the combination of components in the event. That is, grouping information of a plurality of components is described. This descriptor is placed in the EIT.

コンポーネントグループ記述子の意味は次の通りである。つまり、descriptor_tagは8ビットのフィールドで、この記述子がコンポーネントグループ記述子と識別可能な値が記載される。descriptor_lengthは8ビットのフィールドで、この記述子のサイズを記載している。component_group_type(コンポーネントグループ種別)は3ビットのフィールドで、図7に従い、コンポーネントのグループ種別を表す。
ここで、001は、3DTVサービスを表し、000のマルチビューTVサービスと区別される。ここで、マルチビューTVサービスとは、複数視点の2D映像をそれぞれの視点ごとに切り替えて表示可能なTVサービスである。例えば、多視点映像符号化映像ストリームや、元々多視点映像符号化方式として規定された符号化方式ではない符号化方式のストリームにおいて1画面中に複数の視点の画像を含めて伝送する場合のストリームを3D映像番組のみならず、マルチビューTV番組にも用いる場合もありえる。この場合には、ストリームに多視点の映像が含まれていても、上述したstream_type(ストリーム形式種別)だけでは3D映像番組なのか、マルチビューTV番組なのか識別できない場合もある。このような場合は、component_group_type(コンポーネントグループ種別)による識別が有効である。total_bit_rate_flag(総ビットレートフラグ)は1 ビットのフラグで、イベント中のコンポーネントグループ内の総ビットレートの記述状態を示す。このビットが「0」の場合、コンポーネントグループ内の総ビットレートフィールドが当該記述子中に存在しないことを示す。このビットが「1」の場合、コンポーネントグループ内の総ビットレートフィールドが当該記述子中に存在することを示す。num_of_group(グループ数)は4 ビットのフィールドで、イベント内でのコンポーネントグループの数を示す。
The meaning of the component group descriptor is as follows. In other words, descriptor_tag is an 8-bit field, and a value that can identify this descriptor as a component group descriptor is described. descriptor_length is an 8-bit field and describes the size of this descriptor. component_group_type (component group type) is a 3-bit field and represents the group type of the component in accordance with FIG.
Here, 001 represents a 3DTV service and is distinguished from 000 multi-view TV services. Here, the multi-view TV service is a TV service capable of switching and displaying a 2D video of a plurality of viewpoints for each viewpoint. For example, in a multi-view video encoded video stream or a stream of an encoding method that is not originally an encoding method defined as a multi-view video encoding method, a stream in which images of a plurality of viewpoints are transmitted in one screen May be used not only for 3D video programs but also for multi-view TV programs. In this case, even if a multi-view video is included in the stream, it may be impossible to identify whether the stream is a 3D video program or a multi-view TV program only by the above-described stream_type (stream format type). In such a case, identification by component_group_type (component group type) is effective. total_bit_rate_flag (total bit rate flag) is a 1-bit flag and indicates the description state of the total bit rate in the component group in the event. When this bit is “0”, it indicates that the total bit rate field in the component group does not exist in the descriptor. When this bit is “1”, it indicates that the total bit rate field in the component group exists in the descriptor. num_of_group (number of groups) is a 4-bit field and indicates the number of component groups in the event.

component_group_id(コンポーネントグループ識別)は4 ビットのフィールドで、図8に従い、コンポーネントグループ識別を記述する。num_of_CA_unit(課金単位数)は4 ビットのフィールドで、コンポーネントグループ内での課金/非課金単位の数を示す。CA_unit_id(課金単位識別)は4 ビットのフィールドで、図9に従い、コンポーネントが属する課金単位識別を記述する。   component_group_id (component group identification) is a 4-bit field and describes the component group identification according to FIG. num_of_CA_unit (billing unit number) is a 4-bit field and indicates the number of billing / non-billing units in the component group. CA_unit_id (charging unit identification) is a 4-bit field and describes the charging unit identification to which the component belongs according to FIG.

num_of_component(コンポーネント数)は4 ビットのフィールドで、当該コンポーネントグループに属し、かつ直前のCA_unit_id で示される課金/非課金単位に属するコンポーネントの数を示す。component_tag(コンポーネントタグ)は8 ビットのフィールドで、コンポーネントグループに属するコンポーネントタグ値を示す。   num_of_component (number of components) is a 4-bit field and indicates the number of components belonging to the component group and belonging to the billing / non-billing unit indicated by the immediately preceding CA_unit_id. component_tag (component tag) is an 8-bit field indicating the value of the component tag belonging to the component group.

total_bit_rate(トータルビットレート)は8 ビットのフィールドで、コンポーネントグループ内のコンポーネントの総ビットレートを、トランスポートストリームパケットの伝送レートを1/4Mbps 毎に切り上げて記述する。text_length(コンポーネントグループ記述長)は8 ビットのフィールドで、後続のコンポーネントグループ記述のバイト長を表わす。text_char(コンポーネントグループ記述)は8 ビットのフィールドである。一連の文字情報フィールドは、コンポーネントグループに関する説明を記述する。   total_bit_rate (total bit rate) is an 8-bit field, and describes the total bit rate of the components in the component group by rounding up the transport stream packet transmission rate every 1/4 Mbps. text_length (component group description length) is an 8-bit field and represents the byte length of the subsequent component group description. text_char (component group description) is an 8-bit field. A series of character information fields describes a description about the component group.

以上、受信装置4がcomponent_group_typeを監視することで、現在受信している、あるいは将来受信する番組が3D番組であることを認識できる効果がある。   As described above, the monitoring of the component_group_type by the receiving device 4 has an effect of recognizing that a program that is currently received or that will be received in the future is a 3D program.

次に、3D番組に関する情報を示す新たな記述子を用いる例を説明する。図10(a)は、番組情報の一つである3D番組詳細記述子の構造の一例を示す。3D番組詳細記述子は番組が3D番組である場合の詳細情報を示し、受信機における3D番組判定用などに利用される。この記述子はPMTおよび/またはEITに配置される。3D番組詳細記述子は、既に説明した図5(c)〜(e)に示す3D映像番組用のstream_content(コンポーネント内容やとcomponent_type(コンポーネント種別)と並存させてもよい。しかし、3D番組詳細記述子を伝送することにより、3D映像番組用のstream_content(コンポーネント内容やcomponent_type(コンポーネント種別)を伝送しない構成としても良い。3D番組詳細記述子の意味は次の通りである。次にdescriptor_tagは8ビットのフィールドで、この記述子が3D番組詳細記述子と識別可能な値(例えば0xE1)が記載される。descriptor_lengthは8ビットのフィールドで、この記述子のサイズを記載している。   Next, an example in which a new descriptor indicating information related to a 3D program is used will be described. FIG. 10A shows an example of the structure of a 3D program detail descriptor, which is one piece of program information. The 3D program detailed descriptor indicates detailed information when the program is a 3D program, and is used for determining a 3D program in the receiver. This descriptor is placed in the PMT and / or EIT. The 3D program detail descriptor may coexist with stream_content (component content and component_type (component type) for the 3D video program shown in FIGS. 5 (c) to 5 (e) already described. By transmitting the child, the stream_content (component content or component_type (component type)) for the 3D video program may not be transmitted. The meaning of the 3D program detail descriptor is as follows. In this field, a value (for example, 0xE1) that can distinguish this descriptor from the 3D program detail descriptor is described, and descriptor_length is an 8-bit field that describes the size of this descriptor.

3d_2d _type(3D/2D種別)は8ビットのフィールドで、図10(b)に従い、3D番組中における3D映像/2D映像の種別を表す。このフィールドは、例えば番組本編は3D映像であり、番組の途中で挿入されるコマーシャルなどが2D映像で構成されるような3D番組において、3D映像なのか2D映像なのかを識別するための情報であり、受信装置における誤動作(受信装置は3D処理を行っているのに放送番組が2D映像のため発生する表示(出力)の問題)を防ぐ目的で配置される。0x01は3D映像、0x02は2D映像を表す。
3d_method_type(3D方式種別)は8ビットのフィールドで、図11に従い、3Dの方式種別を表す。0x01は「3D2視点別ES伝送方式」方式、0x02はSide-by-Side 方式、0x03はTop-and-Bottom 方式を表す。stream_type(ストリーム形式種別)は8ビットのフィールドで、上記で説明した図3に従い、番組のESの形式を示す。なお、3D番組詳細記述子を、3D映像番組の場合に伝送し、2D映像番組では伝送しない構成としてもよい。受信した番組についての3D番組詳細記述子の伝送の有無だけで、当該番組が2D映像番組なのか、3D映像番組なのか識別することが可能となる。
3d_2d_type (3D / 2D type) is an 8-bit field and represents the type of 3D video / 2D video in the 3D program according to FIG. 10B. This field is information for identifying whether a 3D video or a 2D video in a 3D program in which the main part of the program is a 3D video and a commercial inserted in the middle of the program is composed of 2D video, for example. Yes, it is arranged for the purpose of preventing malfunction in the receiving apparatus (display (output) problem that occurs because the broadcast program is 2D video even though the receiving apparatus performs 3D processing). 0x01 represents 3D video, and 0x02 represents 2D video.
3d_method_type (3D method type) is an 8-bit field and represents a 3D method type according to FIG. 0x01 represents the “3D2 viewpoint-specific ES transmission scheme”, 0x02 represents the Side-by-Side scheme, and 0x03 represents the Top-and-Bottom scheme. The stream_type (stream format type) is an 8-bit field and indicates the ES format of the program according to FIG. 3 described above. The 3D program detail descriptor may be transmitted in the case of a 3D video program and not transmitted in a 2D video program. It is possible to identify whether the program is a 2D video program or a 3D video program only by transmitting or not transmitting the 3D program detail descriptor for the received program.

component_tag(コンポーネントタグ)は、8ビットのフィールドである。サービスのコンポーネントストリームは、この8ビットのフィールドにより、コンポーネント記述子で示される記述内容(図5)を参照できる。プログラムマップセクションでは、各ストリームに与えるコンポーネントタグの値は異なる値とすべきである。コンポーネントタグは、コンポーネントストリームを識別するためのラベルであり、ストリーム識別記述子内のコンポーネントタグと同一の値である(ただし、ストリーム識別記述子がPMT内に存在する場合)。   The component_tag (component tag) is an 8-bit field. The component stream of the service can refer to the description content (FIG. 5) indicated by the component descriptor by this 8-bit field. In the program map section, the component tag value given to each stream should be different. The component tag is a label for identifying the component stream, and has the same value as the component tag in the stream identification descriptor (provided that the stream identification descriptor exists in the PMT).

以上、受信装置4が3D番組詳細記述子を監視することで、この記述子が存在すれば、現在受信している、あるいは将来受信する番組が3D番組であることを認識できる効果がある。加えて、番組が3D番組である場合には、3D伝送方式の種別を識別すること、3D映像と2D映像が混在している場合にはその識別が可能となる。   As described above, the receiving device 4 monitors the 3D program detail descriptor, and if this descriptor exists, there is an effect that it is possible to recognize that the program currently received or received in the future is a 3D program. In addition, when the program is a 3D program, the type of the 3D transmission method can be identified, and when 3D video and 2D video are mixed, the identification can be performed.

次に、サービス(編成チャンネル)単位で3D映像か2D映像かを識別する例について説明する。図12は、番組情報の一つであるサービス記述子(Service Descriptor)の構造の一例を示す。サービス記述子は、編成チャンネル名とその事業者名をサービス形式種別とともに文字符号で表す。この記述子はSDTに配置される。   Next, an example in which 3D video or 2D video is identified on a service (organization channel) basis will be described. FIG. 12 shows an example of the structure of a service descriptor (Service Descriptor) which is one piece of program information. The service descriptor represents the organization channel name and the business operator name together with the service format type by a character code. This descriptor is placed in the SDT.

サービス記述子の意味は次の通りである。つまり、service_type(サービス形式種別)は8ビットのフィールドで、図13に従ってサービスの種類を表す。0x01は、3D映像サービスを表す。service_provider_name_length(事業者名長)の8 ビットのフィールドは、後続の事業者名のバイト長を表す。char(文字符号)は8 ビットのフィールドである。一連の文字情報フィールドは、事業者名あるいはサービス名を表す。service_name_length(サービス名長)の8 ビットのフィールドは、後続のサービス名のバイト長を表す
The meaning of the service descriptor is as follows. That is, service_type (service format type) is an 8-bit field and represents the type of service according to FIG. 0x01 represents a 3D video service. The 8-bit field of service_provider_name_length (operator name length) represents the byte length of the subsequent operator name. char (character code) is an 8-bit field. A series of character information fields represents a business name or a service name. The 8-bit field of service_name_length (service name length) represents the byte length of the subsequent service name.

以上、受信装置4がservice_typeを監視することで、サービス(編成チャンネル)が3D番組のチャンネルであることを認識できる効果がある。このように、サービス(編成チャンネル)が3D映像サービスか2D映像サービスかを識別することができれば、例えば、EPG表示などで、当該サービスが3D映像番組放送サービスである旨の表示などが可能となる。但し、3D映像番組を中心に放送しているサービスといえども、広告映像のソースが2D映像しかない場合など、2D映像を放送しなければならない場合もありうる。よって、当該サービス記述子のservice_type(サービス形式種別)による3D映像サービスの識別は、既に説明した、stream_content(コンポーネント内容)とcomponent_type(コンポーネント種別)の組合せによる3D映像番組の識別、component_group_type(コンポーネントグループ種別)による3D映像番組の識別、または3D番組詳細記述子による3D映像番組の識別と併用することが望ましい。複数の情報を組み合わせて識別する場合は、3D映像放送サービスであるが、一部の番組だけ2D映像であるなどの識別も可能となる。このような識別ができる場合は、受信装置で、例えばEPGでは当該サービスが「3D映像放送サービス」であることを明示することができ、かつ、当該サービスに3D映像番組以外に2D映像番組が混在していても、番組受信時等に3D映像番組と2D映像番組とで表示制御等を必要に応じて切り替えることが可能となる。   As described above, there is an effect that the reception device 4 can recognize that the service (organization channel) is a 3D program channel by monitoring service_type. In this way, if it is possible to identify whether a service (organization channel) is a 3D video service or a 2D video service, it is possible to display, for example, that the service is a 3D video program broadcast service by EPG display or the like. . However, even a service that broadcasts mainly 3D video programs may need to broadcast 2D video, such as when the source of advertisement video is only 2D video. Therefore, the identification of the 3D video service based on the service_type (service type type) of the service descriptor is the same as the identification of the 3D video program based on the combination of the stream_content (component content) and the component_type (component type) as described above. 3D video program identification by 3) or 3D video program identification by 3D program detail descriptor is desirable. When a plurality of pieces of information are combined and identified, it is a 3D video broadcasting service, but it is also possible to identify that only some programs are 2D video. If such identification can be made, the receiving device, for example, EPG can clearly indicate that the service is a “3D video broadcasting service”, and the service includes a mixture of 2D video programs in addition to 3D video programs. Even when the program is received, the display control or the like can be switched as necessary between the 3D video program and the 2D video program.

図14は、番組情報の一つであるサービスリスト記述子(Service List Descriptor)の構造の一例を示す。サービスリスト記述子は、サービス識別とサービス形式種別によるサービスの一覧を提供する。つまり、編成チャンネルとその種別の一覧を記述する。この記述子はNITに配置される。   FIG. 14 shows an example of the structure of a service list descriptor (Service List Descriptor) which is one piece of program information. The service list descriptor provides a list of services according to service identification and service type. That is, a list of organization channels and their types is described. This descriptor is placed in the NIT.

サービスリスト記述子の意味は次の通りである。つまり、service_id(サービス識別)は16 ビットのフィールドで、そのトランスポートストリーム内の情報サービスをユニークに識別する。サービス識別は、対応するプログラムマップセクション内の放送番組番号識別(program_number)に等しい。service_type(サービス形式種別)は8ビットのフィールドで、上記で説明した図12に従ってサービスの種類を表す。   The meaning of the service list descriptor is as follows. That is, service_id (service identification) is a 16-bit field, and uniquely identifies the information service in the transport stream. The service identification is equal to the broadcast program number identification (program_number) in the corresponding program map section. The service_type (service type type) is an 8-bit field and represents the type of service according to FIG. 12 described above.

これらのservice_type(サービス形式種別)によって「3D映像放送サービス」であるか否かを識別することができるので、例えば、当該サービスリスト記述子に示される編成チャンネルとその種別の一覧を用いて、EPG表示において「3D映像放送サービス」のみをグルーピングする表示を行うことなどが可能となる。   Since it is possible to identify whether or not it is “3D video broadcasting service” by these service_type (service type type), for example, by using the list of organized channels and their types indicated in the service list descriptor, EPG In the display, it is possible to perform a display in which only “3D video broadcasting service” is grouped.

以上、受信装置4がservice_typeを監視することで、編成チャンネルが3D番組のチャンネルであることを認識できる効果がある。   As described above, there is an effect that the receiving device 4 can recognize that the organization channel is a channel of a 3D program by monitoring service_type.

以上説明した記述子の例は、代表的なメンバのみを記載しており、これ以外のメンバを持つこと、複数のメンバを一つに纏めること、一つのメンバを詳細情報を持つ複数のメンバに分割することも考えられる。   The examples of descriptors described above describe only representative members. Having other members, combining multiple members into one, and converting one member into multiple members with detailed information. Dividing is also conceivable.

<番組情報の送出運用規則例>
上記で説明した番組情報のコンポーネント記述子、コンポーネントグループ記述子、3D番組詳細記述子、サービス記述子、サービスリスト記述子は、例えば管理情報付与部16で生成、付加され、MPEG-TSのPSI(一例としてPMTなど)、或いはSI(一例としてEIT、或いはSDT、或いはNITなど)に格納されて送信装置1から送出される情報である。
<Examples of program information transmission operation rules>
The component descriptor, component group descriptor, 3D program detail descriptor, service descriptor, and service list descriptor of the program information described above are generated and added by the management information adding unit 16, for example, and the MPEG-TS PSI ( This is information that is stored in SI (eg, EIT, SDT, or NIT) and transmitted from the transmission apparatus 1 as an example.

送信装置1における番組情報の送出運用規則例について以下説明する。
図15は、コンポーネント記述子の送信装置1における送出処理の一例を示す。「descriptor_tag」にはコンポーネント記述子を意味する“0x50”を記述する。「descriptor_length」には、コンポーネント記述子の記述子長を記述する。記述子長の最大値は規定しない。「stream_content」には、“0x01”(映像)を記述する。
An example of program information transmission operation rules in the transmission apparatus 1 will be described below.
FIG. 15 shows an example of a transmission process in the component descriptor transmission apparatus 1. In “descriptor_tag”, “0x50” indicating a component descriptor is described. In “descriptor_length”, the descriptor length of the component descriptor is described. The maximum descriptor length is not specified. In “stream_content”, “0x01” (video) is described.

「component_type」には、当該コンポーネントの映像コンポーネント種別を記述する。コンポーネント種別については、図5の中から設定する。「component_tag」は当該番組内で一意となるコンポーネントタグ値を記述する。「ISO_639_language_code」は“jpn(”0x6A706E“)”を記述する。   In “component_type”, the video component type of the component is described. The component type is set from FIG. “Component_tag” describes a component tag value that is unique within the program. “ISO_639_language_code” describes “jpn (“ 0x6A706E ”)”.

「text_char」は複数映像コンポーネント存在時に映像種類名として16byte(全角8文字)以下で記述する。改行コードは使用しない。コンポーネント記述がデフォルトの文字列である場合はこのフィールドを省略することができる。デフォルト文字列は「映像」である。   “Text_char” is described with a video type name of 16 bytes (8 full-width characters) or less when there are multiple video components. Do not use a line feed code. This field can be omitted if the component description is the default string. The default character string is “video”.

なお、イベント(番組)に含まれる0x00〜0x0F のcomponent_tag 値を持つ、全ての映像コンポーネントに対して必ず一つ送出する。   It should be noted that at least one video component having a component_tag value of 0x00 to 0x0F included in the event (program) is always transmitted.

このように送信装置1で送出運用することにより、受信装置4がstream_contentとcomponent_typeを監視することで、現在受信している、あるいは将来受信する番組が3D番組であることを認識できる効果がある。   As described above, when the transmission apparatus 1 performs the transmission operation, the reception apparatus 4 monitors the stream_content and the component_type, so that it is possible to recognize that the program currently received or received in the future is a 3D program.

図16は、コンポーネントグループ記述子の送信装置1における送出処理の一例を示す。   FIG. 16 shows an example of a transmission process in the component group descriptor transmission apparatus 1.

「descriptor_tag」にはコンポーネントグループ記述子を意味する“0xD9”を記述する。「descriptor_length」には、コンポーネントグループ記述子の記述子長を記述する。
記述子長の最大値は規定しない。「component_group_type」は、コンポーネントグループの種別を示す。‘000’は、マルチビューテレビを‘001’は、3Dテレビを示す。
In “descriptor_tag”, “0xD9” indicating a component group descriptor is described. In “descriptor_length”, the descriptor length of the component group descriptor is described.
The maximum descriptor length is not specified. “Component_group_type” indicates the type of component group. “000” indicates a multi-view TV, and “001” indicates a 3D TV.

「total_bit_rate_flag」には、イベント中のグループ内の総ビットレートがすべて規定のデフォルト値にある場合は’0’を、イベント中のグループ内の総ビットレートのいずれかが規定のデフォルト値を越えている場合は’1’を示す。   In “total_bit_rate_flag”, if all the total bit rates in the group in the event are at the specified default value, set to “0”, and one of the total bit rates in the group in the event exceeds the specified default value. If it is present, it indicates '1'.

「num_of_group」はイベント内でのコンポーネントグループの数を記述する。マルチビューテレビ(MVTV)の場合には最大3とし、3Dテレビ(3DTV)の場合には最大2とする。   “Num_of_group” describes the number of component groups in the event. The maximum is 3 for multi-view television (MVTV) and 2 for 3D television (3DTV).

「component_group_id」はコンポーネントグループ識別を記述する。メイングループの場合には”0x0”を割り当て、各サブグループの場合には放送事業者がイベント内で一意に割り当てる。   “Component_group_id” describes component group identification. In the case of the main group, “0x0” is assigned, and in the case of each subgroup, the broadcaster assigns it uniquely within the event.

「num_of_CA_unit」はコンポーネントグループ内での課金/非課金単位の数を記述する。最大値は2 とする。当該コンポーネントグループ内に課金を行うコンポーネントが一切含まれない場合は"0x1"とする。   “Num_of_CA_unit” describes the number of charge / non-charge units in the component group. The maximum value is 2. Set to "0x1" if no component to be charged is included in the component group.

「CA_unit_id」は課金単位識別を記述する。放送事業者がイベント内で一意に割り当てる。「num_of_component」は当該コンポーネントグループに属し、かつ直前の「CA_unit_id 」で示される課金/非課金単位に属するコンポーネントの数を記述する。最大値は15とする。   “CA_unit_id” describes the charging unit identification. The broadcaster assigns it uniquely within the event. “Num_of_component” describes the number of components belonging to the component group and belonging to the billing / non-billing unit indicated by the immediately preceding “CA_unit_id”. The maximum value is 15.

「component_tag」はコンポーネントグループに属するコンポーネントタグ値を記述する。「total_bit_rate」はコンポーネントグループ内の総ビットレートを記述する。ただし、デフォルト値の場合は”0x00”を記述する。   “Component_tag” describes a component tag value belonging to the component group. “Total_bit_rate” describes the total bit rate in the component group. However, “0x00” is described for the default value.

「text_length」は後続のコンポーネントグループ記述のバイト長を記述する。最大値は16(全角8 文字)とする。「text_char」はコンポーネントグループに関する説明を必ず記述する。デフォルト文字列は規定しない。また、改行コードは使用しない。   “Text_length” describes the byte length of the subsequent component group description. The maximum value is 16 (8 full-width characters). “Text_char” always describes the description about the component group. No default string is specified. Also, no line feed code is used.

なお、マルチビューテレビサービスを行う場合には「component_group_type」は’000’として必ず送出する。また、3Dテレビサービスを行う場合には「component_group_type」は’001’として必ず送出する。   When performing multi-view TV service, “component_group_type” is always transmitted as “000”. When performing 3D television service, “component_group_type” is always transmitted as “001”.

このように送信装置1で送出運用することにより、受信装置4がcomponent_group_typeを監視することで、現在受信している、あるいは将来受信する番組が3D番組であることを認識できる効果がある。   By performing transmission operation in the transmission apparatus 1 in this way, there is an effect that the reception apparatus 4 can recognize that the program currently received or received in the future is a 3D program by monitoring component_group_type.

図17は、3D番組詳細記述子の送信装置1における送出処理の一例を示す。「descriptor_tag」には3D番組詳細記述子を意味する“0xE1”を記述する。「descriptor_length」には、3D番組詳細記述子の記述子長を記述する。「3d_2d_type」は3D/2D識別を記述する。図10(b)の中から設定する。「3d_method_type」は3D方式識別を記述する。図11の中から設定する。「stream_type」は番組のESの形式をを記述する。図3の中から設定する。「component_tag」は当該番組内で一意となるコンポーネントタグ値を記述する。   FIG. 17 shows an example of a transmission process in the 3D program detail descriptor transmission apparatus 1. In “descriptor_tag”, “0xE1” indicating a 3D program detail descriptor is described. In “descriptor_length”, the descriptor length of the 3D program detail descriptor is described. “3d_2d_type” describes 3D / 2D identification. It sets from FIG.10 (b). “3d_method_type” describes 3D method identification. The setting is made from FIG. “Stream_type” describes the ES format of the program. The setting is made from FIG. “Component_tag” describes a component tag value that is unique within the program.

このように送信装置1で送出運用することにより、受信装置4が3D番組詳細記述子を監視することで、この記述子が存在すれば、現在受信している、あるいは将来受信する番組が3D番組であることを認識できる効果がある。   By performing transmission operation in the transmission apparatus 1 in this way, the reception apparatus 4 monitors the 3D program detail descriptor, and if this descriptor exists, a program that is currently received or will be received in the future is a 3D program. There is an effect that can be recognized.

図18は、サービス記述子の送信装置1における送出処理の一例を示す。「descriptor_tag」にはサービス記述子を意味する“0x48”を記述する。「descriptor_length」には、サービス記述子の記述子長を記述する。「service_type」はサービス形式種別を記述する。   FIG. 18 shows an example of transmission processing in the service descriptor transmission apparatus 1. In “descriptor_tag”, “0x48” indicating a service descriptor is described. In “descriptor_length”, the descriptor length of the service descriptor is described. “Service_type” describes the service type.

サービス形式種別については、図13の中から設定する。「service_provider_name_length」はBS/CSデジタルテレビジョン放送では事業者名長を記述する。最大値は20とする。地上デジタルテレビジョン放送ではservice_provider_name を運用しないため、“0x00”を記述する。   The service format type is set from FIG. “Service_provider_name_length” describes the name of the operator in BS / CS digital television broadcasting. The maximum value is 20. Since service_provider_name is not used in terrestrial digital television broadcasting, describe “0x00”.

「char」はBS/CSデジタルテレビジョン放送では事業者名を記述する。最大全角10文字。地上デジタルテレビジョン放送では何も記述しない。「service_name_length」は編成チャンネル名長を記述する。最大値は20 とする。「char」は編成チャンネル名を記述する。20バイト以内かつ全角10文字以内である。なお、対象編成チャンネルに対し、1個のみを必ず配置する。   “Char” describes an operator name in BS / CS digital television broadcasting. Maximum 10 characters. Nothing is described for digital terrestrial television broadcasting. “Service_name_length” describes the organization channel name length. The maximum value is 20. “Char” describes the organization channel name. It is within 20 bytes and within 10 full-width characters. Note that only one is always arranged for the target knitting channel.

このように送信装置1で送出運用することにより、受信装置4がservice_typeを監視することで、編成チャンネルが3D番組のチャンネルであることを認識できる効果がある。   By performing transmission operation in the transmission apparatus 1 in this manner, there is an effect that the reception apparatus 4 can recognize that the organization channel is a 3D program channel by monitoring service_type.

図19は、サービスリスト記述子の送信装置1における送出処理の一例を示す。「descriptor_tag」にはサービスリスト記述子を意味する“0x41”を記述する。「descriptor_length」には、サービスリスト記述子の記述子長を記述する。「loop」は対象トランスポートストリームに含まれるサービス数のループを記述する。   FIG. 19 shows an example of a transmission process of the service list descriptor in the transmission apparatus 1. In “descriptor_tag”, “0x41” indicating a service list descriptor is described. In “descriptor_length”, the descriptor length of the service list descriptor is described. “Loop” describes a loop of the number of services included in the target transport stream.

「service_id」は当該トランスポートストリームに含まれるservice_id を記述する。「service_type」は対象サービスのサービスタイプを記述する。図13の中から設定する。なお、NIT内TSループに対して必ず配置する。   “Service_id” describes service_id included in the transport stream. “Service_type” describes the service type of the target service. The setting is made from FIG. Note that this is always arranged for the TS loop in the NIT.

このように送信装置1で送出運用することにより、受信装置4がservice_typeを監視することで、編成チャンネルが3D番組のチャンネルであることを認識できる効果がある。   By performing transmission operation in the transmission apparatus 1 in this manner, there is an effect that the reception apparatus 4 can recognize that the organization channel is a 3D program channel by monitoring service_type.

以上、送信装置1における番組情報の送出例について説明したが、番組が2D番組から3D番組に切り替わる際に、3D番組の始まる最初の画面において、例えばテロップなどを用いて「これから3D番組が開始される旨」、「3D表示で視聴する場合には3D視聴用のメガネを装着する旨」、「眼が疲れているときや体調が悪いときには2D表示の視聴を勧める旨」、「3D番組の長時間の視聴は眼が疲れたり体調が悪くなる可能性がある旨」などを送信装置1で作成する3D番組の映像にはめ込んで送出することにより受信装置4で3D番組を視聴するユーザに対して3D番組視聴に対する注意・警告を行うことができるメリットがある。   As described above, the transmission example of the program information in the transmission apparatus 1 has been described. When the program is switched from the 2D program to the 3D program, on the first screen where the 3D program starts, for example, using a telop, the “3D program is started. “When viewing with 3D display, wearing 3D viewing glasses”, “Recommending viewing with 2D display when eyes are tired or unwell”, “3D program length For a user who views a 3D program on the receiving device 4 by inserting and sending it to the video of the 3D program created by the transmitting device 1 such as “viewing time may cause eyestrain or poor physical condition”. There is a merit that warning / warning for 3D program viewing can be performed.

<受信装置のハードウェア構成>
図25は、図1のシステムのうち、受信装置4の構成例を示すハードウェア構成図である。21は受信機全体を制御するCPU(Central Processing Unit)、22はCPU21と受信装置内各部との制御および情報を送信するための汎用バス、23は無線(衛星、地上)、ケーブルなどの放送伝送網を介して送信装置1から送信された放送信号を受信し、特定の周波数を選局し復調、誤り訂正処理、などを行い、MPEG2-Transport Stream(以下、「TS」ともいう。)などの多重化パケットを出力するチューナ、24はスクランブル部13によるスクランブルを復号するデスクランブラ、25はネットワークと情報を送受信し、インターネットと受信装置間で各種情報およびMPEG2―TSを送受信するネットワークI/F(Interface)、26は例えば受信装置4に内蔵されているHDD(Hard Disk Drive)やフラッシュメモリ、またはリムーバブルなHDD、ディスク型記録媒体、フラッシュメモリ、などの記録媒体、27は記録媒体26を制御し、記録媒体26への信号の記録や記録媒体26からの信号の再生を制御する記録再生部、29はMPEG2―TSなどの形式に多重化されている信号を、映像ES(Elementary Stream)、音声ES、番組情報などの信号に分離する多重分離部である。ESとは、圧縮・符号化された画像・音声データのそれぞれのことである。30は映像ESを、映像信号に復号する映像復号部、31は音声ESを、音声信号に復号し、スピーカ48に出力または音声出力42から出力する音声復号部、32は、映像復号部30で復号された映像信号を前記CPUの指示に従い3Dまたは2Dの映像信号を後述する変換処理により所定のフォーマットに変換する処理や、CPU21が作成したOSD(On Screen Display)などの表示を映像信号に重畳する処理などを行い、処理後の映像信号をディスプレイ47または映像信号出力部41に出力し、処理後の映像信号のフォーマットに対応する同期信号や制御信号(機器制御に使用)を映像信号出力部41および制御信号出力部43から出力する映像変換処理部、33はユーザー操作入力部45からの操作入力(例えばIR(Infrared Radiation)信号を発信するリモートコントローラーからのキーコード)を受信し、またCPU21や映像変換処理部32が生成した外部機器への機器制御信号(例えばIR)を機器制御信号送信部44から送信する制御信号送受信部、34は内部にカウンタを有し、また現在の時刻の保持を行うタイマー、46は前記多重分離部で再構成されたTSに対し暗号化等必要な処理を行い外部にTSを出力、または外部から受信したTSを復号化して多重分離部29に対して入力するシリアルインタフェースやIPインタフェースなどの高速デジタルI/F、47は映像復号部30が復号して映像変換処理部32により映像が変換された3D映像および2D映像を表示するディスプレイ、48は音声復号部が復号した音声信号に基づいて音を出力するスピーカを表しており、主にこれらの装置により、受信装置4は構成されている。ディスプレイに3D表示する場合も、必要であれば、同期信号や制御信号は制御信号出力部43や機器制御信号送信端子44から出力する。
<Hardware configuration of receiving device>
FIG. 25 is a hardware configuration diagram illustrating a configuration example of the receiving device 4 in the system of FIG. 21 is a CPU (Central Processing Unit) that controls the entire receiver, 22 is a general-purpose bus for transmitting control and information between the CPU 21 and each part in the receiver, 23 is a radio (satellite, ground), broadcast transmission such as a cable A broadcast signal transmitted from the transmission apparatus 1 is received via the network, a specific frequency is selected, demodulation, error correction processing, and the like are performed, and an MPEG2-Transport Stream (hereinafter also referred to as “TS”) or the like. A tuner that outputs multiplexed packets, 24 is a descrambler that decodes scrambled data by the scrambler 13, and 25 is a network I / F that transmits / receives information to / from the network and transmits / receives various information and MPEG2-TS between the Internet and the receiving device. Interface) 26 is, for example, an HDD (Hard Disk Drive), a flash memory, or a removable device built in the receiving device 4. A recording medium 27 such as a DD, a disk-type recording medium, a flash memory, etc. 27 controls a recording medium 26, and a recording / reproducing unit 29 controls the recording of signals on the recording medium 26 and the reproduction of signals from the recording medium 26. It is a demultiplexing unit that demultiplexes signals multiplexed in a format such as MPEG2-TS into signals such as video ES (Elementary Stream), audio ES, and program information. An ES is each of compressed and encoded image / sound data. 30 is a video decoding unit that decodes the video ES into a video signal, 31 is an audio decoding unit that decodes the audio ES into an audio signal and outputs it to the speaker 48 or output from the audio output 42, and 32 is the video decoding unit 30. The decoded video signal is superposed on the video signal by processing to convert the 3D or 2D video signal into a predetermined format by a conversion process to be described later according to the instruction of the CPU, and the display such as OSD (On Screen Display) created by the CPU 21. The processed video signal is output to the display 47 or the video signal output unit 41, and the synchronization signal and control signal (used for device control) corresponding to the processed video signal format are output to the video signal output unit. 41 and a video conversion processing unit 33 output from the control signal output unit 43, 33 is an operation input from the user operation input unit 45 (for example, IR (Infrared Radiation) Control signal transmission / reception for receiving a device control signal (for example, IR) to the external device generated by the CPU 21 or the video conversion processing unit 32 from the device control signal transmission unit 44. , 34 has a counter inside and a timer for holding the current time, 46 performs necessary processing such as encryption on the TS reconfigured by the demultiplexing unit, and outputs the TS to the outside, or A high-speed digital I / F such as a serial interface or an IP interface that decodes TS received from the outside and inputs it to the demultiplexing unit 29, 47 is decoded by the video decoding unit 30, and video is converted by the video conversion processing unit 32 Display for displaying 3D video and 2D video, 48 is a speaker for outputting sound based on the audio signal decoded by the audio decoding unit The receiving device 4 is mainly composed of these devices. In the case of 3D display on the display, if necessary, the synchronization signal and the control signal are output from the control signal output unit 43 and the device control signal transmission terminal 44.

受信装置および視聴装置および3D視聴補助装置(例えば3Dメガネ)を含めたシステム構成について、図35および図36に例を示す。図35は受信装置と視聴装置が一体となったシステム構成、また図36は受信装置と視聴装置が別構成となった場合の例である。   Examples of the system configuration including the receiving device, the viewing device, and the 3D viewing assistance device (for example, 3D glasses) are shown in FIG. 35 and FIG. FIG. 35 shows a system configuration in which the receiving device and the viewing device are integrated, and FIG. 36 shows an example in which the receiving device and the viewing device are configured separately.

図35において、3501は前記受信装置4の構成を含み3D映像表示および音声出力が可能な表示装置、3503は前記表示装置3501から出力される3D視聴補助装置制御信号(例えばIR信号)、3502は3D視聴補助装置を表している。図35の例においては、映像信号は前記表示装置3501が具備する映像ディスプレイから表示され、また音声信号は前記表示装置3501が具備するスピーカから出力される。また同様に表示装置3501は機器制御信号44または制御信号43の出力部から出力される3D視聴補助装置制御信号を出力する出力端子を具備する。   In FIG. 35, 3501 is a display device including the configuration of the receiving device 4 and capable of 3D video display and audio output, 3503 is a 3D viewing assist device control signal (for example, IR signal) output from the display device 3501, and 3502 is 3D shows a 3D viewing assistance device. In the example of FIG. 35, the video signal is displayed from a video display included in the display device 3501, and the audio signal is output from a speaker included in the display device 3501. Similarly, the display device 3501 includes an output terminal that outputs a 3D viewing assist device control signal output from the device control signal 44 or the output portion of the control signal 43.

なお、上記の説明は、図35に示す表示装置3501と3D視聴補助装置3502とが後述するアクティブシャッター方式により表示する例を前提として説明したが、図35に示す表示装置3501と3D視聴補助装置3502とが後述する偏光分離による3D映像表示装置を行う方式の場合には、3D視聴補助装置3502は左目と右目に異なる映像が入射するように偏光分離を行うものであればよく、表示装置3501から機器制御信号44または制御信号43の出力部から3D視聴補助装置3502へ出力される3D視聴補助装置制御信号3503を出力しなくともよい。   The above description has been made on the assumption that the display device 3501 and the 3D viewing assistance device 3502 shown in FIG. 35 perform display by an active shutter method to be described later, but the display device 3501 and the 3D viewing assistance device shown in FIG. In the case of a method of performing a 3D video display device by polarization separation, which will be described later, the 3D viewing assistance device 3502 only needs to perform polarization separation so that different images are incident on the left eye and the right eye, and the display device 3501. Therefore, the 3D viewing assist device control signal 3503 that is output to the 3D viewing assist device 3502 from the output unit of the device control signal 44 or the control signal 43 may not be output.

また図36において、3601は前記受信装置4の構成を含む映像音声出力装置、3602は映像/音声/制御信号を伝送する伝送経路(例えばHDMIケーブル)、3603は外部から入力された映像信号や音声信号を表示出力するディスプレイを表す。   In FIG. 36, 3601 is a video / audio output device including the configuration of the receiving device 4, 3602 is a transmission path (for example, HDMI cable) for transmitting video / audio / control signals, and 3603 is a video signal or audio input from the outside. Represents a display that displays and outputs signals.

この場合、映像音声出力装置3601(受信装置4)の映像出力41から出力される映像信号と音声出力42から出力される音声信号、制御信号出力部43から出力される制御信号は、伝送路3602で規定されているフォーマット(例えばHDMI規格により規定されるフォーマット)に適した形式の伝送信号に変換され、伝送経路3602を経由しディスプレイ3603に入力される。ディスプレイ3603では前記伝送信号を受信し、もとの映像信号、音声信号、制御信号に復号し、映像と音声を出力するとともに、3D視聴補助装置3502に対して3D視聴補助装置制御信号3503を出力する。   In this case, the video signal output from the video output 41 of the video / audio output device 3601 (reception device 4), the audio signal output from the audio output 42, and the control signal output from the control signal output unit 43 are transmitted through the transmission path 3602. Is converted into a transmission signal in a format suitable for the format specified in (for example, a format specified by the HDMI standard), and input to the display 3603 via the transmission path 3602. The display 3603 receives the transmission signal, decodes it to the original video signal, audio signal, and control signal, outputs video and audio, and outputs a 3D viewing assist device control signal 3503 to the 3D viewing assist device 3502. To do.

なお、上記の説明は、図36に示す表示装置3603と3D視聴補助装置3502とが後述するアクティブシャッター方式により表示する例を前提として説明したが、図36に示す表示装置3603と3D視聴補助装置3502とが後述する偏光分離による3D映像表示装置を行う方式の場合には、3D視聴補助装置3502は左目と右目に異なる映像が入射するように偏光分離を行うものであればよく、表示装置3603から3D視聴補助装置3502へ3D視聴補助装置制御信号3603を出力しなくともよい。   The above description has been made on the assumption that the display device 3603 and the 3D viewing assistance device 3502 shown in FIG. 36 display by an active shutter method described later, but the display device 3603 and the 3D viewing assistance device shown in FIG. In the case of a method of performing a 3D video display device by polarization separation, which will be described later, the 3D viewing assistance device 3502 only needs to perform polarization separation so that different images are incident on the left eye and the right eye, and the display device 3603. 3D viewing assist device control signal 3603 does not have to be output from 3D to 3D viewing assist device 3502.

なお、図25に示した21〜46の各構成要件の一部は、1つの、又は複数のLSIで構成されていてもよい。また、図25に示した21〜46の各構成要件の一部の機能をソフトウェアで実現する構成としてもよい。   A part of each of the constituent elements 21 to 46 shown in FIG. 25 may be composed of one or a plurality of LSIs. Moreover, it is good also as a structure which implement | achieves a part of function of each structural requirement of 21-46 shown in FIG. 25 with software.

<受信装置の機能ブロック図>
図26は、CPU21内部における処理の機能ブロック構成の一例である。ここで各機能ブロックは例えばCPU21で実行されるソフトウェアのモジュールとして存在しており、それぞれのモジュール間は何らかの手段(例えばメッセージパッシング、ファンクションコール、イベント送信)などを行って情報やデータの受け渡しおよび制御指示を行う。
<Functional block diagram of receiver>
FIG. 26 is an example of a functional block configuration of processing inside the CPU 21. Here, each functional block exists, for example, as a software module executed by the CPU 21, and some means (for example, message passing, function call, event transmission) is performed between each module to exchange and control information and data. Give instructions.

また、各モジュールは受信装置4内部の各ハードウェアとも、汎用バス22を介して情報の送受信を行っている。また図に記載の関係線(矢印)は今回の説明に関連する部分を主に記載しているが、その他のモジュール間についても通信手段および通信を必要とした処理は存在する。例えば選局制御部59は、選局に必要な番組情報を番組情報解析部54から適宜取得している。   Each module also transmits / receives information to / from hardware in the receiving device 4 via the general-purpose bus 22. Moreover, although the relationship line (arrow) described in the figure mainly describes the part related to this explanation, there is a communication means and a process that requires communication between other modules. For example, the channel selection control unit 59 appropriately acquires program information necessary for channel selection from the program information analysis unit 54.

次に各機能ブロックの機能について説明する。システム制御部51は各モジュールの状態やユーザーの指示状態などを管理し、各モジュールに対して制御指示を行う。ユーザー指示受信部52は制御信号送受信部33が受信したユーザー操作の入力信号を受信および解釈し、ユーザーの指示をシステム制御部51に伝える。機器制御信号送信部53はシステム制御部51や、他のモジュールからの指示に従い、制御信号送受信部33に対して機器制御信号を送信するように指示する。   Next, the function of each functional block will be described. The system control unit 51 manages the state of each module, the user instruction state, and the like, and issues a control instruction to each module. The user instruction receiving unit 52 receives and interprets a user operation input signal received by the control signal transmitting / receiving unit 33 and transmits the user instruction to the system control unit 51. The device control signal transmission unit 53 instructs the control signal transmission / reception unit 33 to transmit a device control signal in accordance with instructions from the system control unit 51 and other modules.

番組情報解析部54は多重分離部29から番組情報を取得して内容を分析し、必要な情報を各モジュールに対して提供する。時間管理部55は番組情報解析部54から、TSに含まれる時刻補正情報(TOT:Time offset table)を取得して現在の時刻を管理するとともに、タイマー34が有するカウンタを使用し、各モジュールの要求に従いアラーム(指定時刻の到来を通知)やワンショットタイマ(一定時間の経過を通知)の通知を行う。   The program information analysis unit 54 acquires program information from the demultiplexing unit 29, analyzes the contents, and provides necessary information to each module. The time management unit 55 acquires time correction information (TOT: Time offset table) included in the TS from the program information analysis unit 54 and manages the current time, and uses the counter of the timer 34 to An alarm (notification of the arrival of a specified time) and a one-shot timer (notification of the elapse of a certain time) are performed as requested.

ネットワーク制御部56は、ネットワークI/F25を制御し、特定URL(Unique Resource Locater)や特定IP(Internet Protocol)アドレスからの各種情報およびTSの取得を行う。復号制御部57は、映像復号部30および音声復号部31を制御し、デコードの開始や停止、ストリームに含まれる情報の取得などを行う。   The network control unit 56 controls the network I / F 25 and acquires various information and TS from a specific URL (Unique Resource Locater) or a specific IP (Internet Protocol) address. The decoding control unit 57 controls the video decoding unit 30 and the audio decoding unit 31 to start and stop decoding and acquire information included in the stream.

記録再生制御部58は記録再生部27を制御し、記録媒体26から、特定のコンテンツの特定の位置から、また任意の読み出しの形式(通常再生、早送り、巻戻し、一時停止)で信号を読み出す。また、記録再生部27に入力された信号を、記録媒体26に対して記録する制御を行う。   The recording / playback control unit 58 controls the recording / playback unit 27 to read a signal from the recording medium 26 from a specific position of a specific content and in any reading format (normal playback, fast forward, rewind, pause). . Further, control is performed to record the signal input to the recording / reproducing unit 27 on the recording medium 26.

選局制御部59は、チューナ23、デスクランブラ24、多重分離部29および復号制御部57を制御し、放送の受信および放送信号の記録を行う。または記録媒体からの再生を行い、映像信号および音声信号を出力するまでの制御を行う。詳しい放送受信の動作および放送信号の記録動作、記録媒体からの再生動作については後述する。   The channel selection control unit 59 controls the tuner 23, the descrambler 24, the demultiplexing unit 29, and the decoding control unit 57 to receive broadcasts and record broadcast signals. Alternatively, control is performed until reproduction from the recording medium and output of the video signal and the audio signal. Detailed broadcast reception operation, broadcast signal recording operation, and reproduction operation from the recording medium will be described later.

OSD作成部60は、特定のメッセージを含むOSDデータを作成し、映像変換制御部61に対して前記作成したOSDデータを映像信号に重畳して出力するように指示を行う。ここでOSD作成部60は、左目用と右目用といった視差のあるOSDデータを作成し、映像変換制御部61に対して、前記左目用と右目用のOSDデータをもとに3D表示を要求することにより、3Dでのメッセージ表示等を行う。   The OSD creation unit 60 creates OSD data including a specific message, and instructs the video conversion control unit 61 to superimpose the created OSD data on the video signal and output it. Here, the OSD creation unit 60 creates parallax OSD data for left eye and right eye, and requests the video conversion control unit 61 to perform 3D display based on the left-eye and right-eye OSD data. As a result, message display in 3D is performed.

映像変換制御部61は、映像変換処理部32を制御し、映像復号部30から映像変換処理部32に入力された映像信号を、前記システム制御部51からの指示に従い3Dまたは2Dの映像に変換し変換した映像と、OSD作成部60から入力されたOSDを重畳し、さらに必要に応じて映像を加工(スケーリングやPinP、3D表示など)してディスプレイ47に表示または外部に出力する。映像変換処理部32における3D映像、2D映像の所定のフォーマットへの変換方法の詳細については後述する。各機能ブロックはこれらのような機能を提供する。   The video conversion control unit 61 controls the video conversion processing unit 32 to convert the video signal input from the video decoding unit 30 to the video conversion processing unit 32 into 3D or 2D video according to an instruction from the system control unit 51. The converted video and the OSD input from the OSD creation unit 60 are superimposed, and the video is further processed as necessary (scaling, PinP, 3D display, etc.) and displayed on the display 47 or output to the outside. Details of a method for converting 3D video and 2D video into a predetermined format in the video conversion processing unit 32 will be described later. Each functional block provides these functions.

<放送受信>
ここで放送受信を行う場合の制御手順と信号の流れについて説明する。まず特定チャンネル(CH)の放送受信を示すユーザーの指示(例えばリモコンのCHボタン押下)を、ユーザー指示受信部52から受信したシステム制御部51は、ユーザーの指示したCH(以下指定CH)での選局を選局制御部59に指示する。
<Broadcast reception>
Here, a control procedure and a signal flow when performing broadcast reception will be described. First, the system control unit 51 that has received a user instruction (for example, pressing the CH button on the remote controller) indicating broadcast reception of a specific channel (CH) from the user instruction receiving unit 52 uses the CH (hereinafter designated CH) designated by the user. The channel selection control unit 59 is instructed to select a channel.

前記指示を受信した選局制御部59は、チューナ23に対して指定CHの受信制御(指定周波数帯への選局、放送信号復調処理、誤り訂正処理)を指示し、TSをデスクランブラ24に出力させる。   Upon receiving the instruction, the channel selection control unit 59 instructs the tuner 23 to perform reception control of the designated CH (tuning to the designated frequency band, broadcast signal demodulation processing, error correction processing), and sends the TS to the descrambler 24. Output.

次に選局制御部59は、デスクランブラ24に対して前記TSのデスクランブルし多重分離部29に出力するように指示し、多重分離部29に対しては、入力されたTSの多重分離、および多重分離した映像ESの映像復号部30への出力と、音声ESの音声復号部31への出力、を指示する。   Next, the channel selection control unit 59 instructs the descrambler 24 to descramble the TS and output it to the demultiplexing unit 29. The demultiplexing unit 29 receives the demultiplexing of the input TS, In addition, an instruction to output the demultiplexed video ES to the video decoding unit 30 and to output the audio ES to the audio decoding unit 31 is given.

また、選局制御部59は、復号制御部57に対し、映像復号部30と音声復号部31に入力された映像ESおよび音声ESの復号指示を行う。前記復号指示を受信した復号制御部31は、映像復号部30に対して復号した映像信号を映像変換処理部32に出力するように制御し、音声復号部31に対して復号した音声信号をスピーカ48または音声出力42に出力するように制御を行う。このようにして、ユーザーが指定したCHの映像および音声を出力する制御を行う。   Further, the channel selection control unit 59 instructs the decoding control unit 57 to decode the video ES and the audio ES input to the video decoding unit 30 and the audio decoding unit 31. Upon receiving the decoding instruction, the decoding control unit 31 controls the video decoding unit 30 to output the decoded video signal to the video conversion processing unit 32, and the audio decoding unit 31 receives the decoded audio signal from the speaker. 48 or the audio output 42 is controlled. In this way, control is performed to output the video and audio of the CH designated by the user.

また、選局時のCHバナー(CH番号や番組名、番組情報等を表示するOSD)を表示するために、システム制御部51はOSD作成部60に対してCHバナーの作成および出力を指示する。前記指示を受信したOSD作成部60は、作成したCHバナーのデータを映像変換制御部61に送信し、前記データを受信した映像変換制御部61はCHバナーを映像信号に重畳して出力するように制御を行う。このようにして、選局時等のメッセージ表示を行う。   Further, in order to display a CH banner (OSD for displaying a CH number, program name, program information, etc.) at the time of channel selection, the system control unit 51 instructs the OSD creation unit 60 to create and output a CH banner. . The OSD creation unit 60 that has received the instruction transmits the created CH banner data to the video conversion control unit 61, and the video conversion control unit 61 that has received the data outputs the CH banner superimposed on the video signal. To control. In this way, a message is displayed at the time of channel selection.

<放送信号の記録>
次に放送信号の記録制御と信号の流れについて説明する。特定のCHの記録を行う場合には、システム制御部51は選局制御部59に対して特定CHの選局および記録再生部27への信号出力を指示する。
<Recording of broadcast signal>
Next, broadcast signal recording control and signal flow will be described. When recording a specific CH, the system control unit 51 instructs the channel selection control unit 59 to select a specific CH and output a signal to the recording / reproducing unit 27.

前記指示を受信した選局制御部59は、前記放送受信処理と同様に、チューナ23に対して指定CHの受信制御を指示し、デスクランブラ24に対して、チューナー23から受信したMPEG2−TSのデスクランブル、多重分離部29に対してデスクランブラ24からの入力を記録再生部27に出力するように制御する。   The channel selection control unit 59 that has received the instruction instructs the tuner 23 to receive the designated channel as in the broadcast reception process, and the MPEG2-TS received from the tuner 23 to the descrambler 24. The descrambling / demultiplexing unit 29 is controlled to output the input from the descrambler 24 to the recording / reproducing unit 27.

また、システム制御部51は、記録再生制御部58に対して、記録再生部27への入力TSを記録するように指示する。前記指示を受信した記録再生制御部58は、記録再生部27に入力される信号(TS)に対して、暗号化などの必要な処理を行い、また記録再生時に必要な付加情報(記録CHの番組情報、ビットレート等のコンテンツ情報)の作成、また管理データ(記録コンテンツのID、記録媒体26上の記録位置、記録形式、暗号化情報など)への記録を行った後に、前記MPEG2−TSおよび付加情報、管理データを記録媒体26へ書き込む処理を行う。このようにして放送信号の記録を行う。   In addition, the system control unit 51 instructs the recording / playback control unit 58 to record the input TS to the recording / playback unit 27. Receiving the instruction, the recording / playback control unit 58 performs necessary processing such as encryption on the signal (TS) input to the recording / playback unit 27, and also adds additional information (recording CH of the recording CH) required for recording / playback. Program information, bit rate and other content information), and management data (recorded content ID, recording position on recording medium 26, recording format, encrypted information, etc.), and then the MPEG2-TS In addition, a process of writing additional information and management data to the recording medium 26 is performed. In this way, the broadcast signal is recorded.

<記録媒体からの再生>
次に記録媒体からの再生処理について説明する。特定の番組の再生を行う場合には、システム制御部51は、記録再生制御部58に対して、特定の番組の再生を指示する。この際の指示としては、コンテンツのIDと再生開始位置(例えば番組の先頭、先頭から10分の位置、前回の続き、先頭から100Mbyteの位置等)を指示する。前記指示を受信した記録再生制御部58は、記録再生部27を制御し、付加情報や管理データを用いて記録媒体26から信号(TS)を読み出して、暗号の復号などの必要な処理を行った後に、多重分離部29に対してTSを出力するように処理を行う。
<Reproduction from recording media>
Next, playback processing from a recording medium will be described. When reproducing a specific program, the system control unit 51 instructs the recording / reproduction control unit 58 to reproduce the specific program. As an instruction at this time, the content ID and the reproduction start position (for example, the beginning of the program, the position of 10 minutes from the beginning, the continuation of the previous time, the position of 100 Mbyte from the beginning, etc.) are instructed. The recording / playback control unit 58 that has received the instruction controls the recording / playback unit 27 to read out a signal (TS) from the recording medium 26 using additional information and management data, and perform necessary processing such as decryption of encryption. After that, processing is performed to output TS to the demultiplexing unit 29.

また、システム制御部51は、再生信号の映像音声出力を選局制御部59に対して指示する。前記指示を受信した選局制御部59は、記録再生部27からの入力を多重分離部29に出力するように制御し、多重分離部29に対して、入力されたTSの多重分離、および多重分離された映像ESの映像復号部30への出力、および多重分離された音声ESの音声復号部31への出力、を指示する。   In addition, the system control unit 51 instructs the channel selection control unit 59 to output the video and audio of the reproduction signal. The channel selection control unit 59 that has received the instruction performs control so that the input from the recording / reproducing unit 27 is output to the demultiplexing unit 29, and the demultiplexing unit 29 performs demultiplexing and demultiplexing of the input TS. The output of the separated video ES to the video decoding unit 30 and the output of the demultiplexed audio ES to the audio decoding unit 31 are instructed.

また、選局制御部59は、復号制御部57に対し、映像復号部30と音声復号部31に入力された映像ESおよび音声ESの復号指示を行う。前記復号指示を受信した復号制御部31は、映像復号部30に対して復号した映像信号を映像変換処理部32に出力するように制御し、音声復号部31に対して復号した音声信号をスピーカ48または音声出力42に出力するように制御を行う。このようにして記録媒体からの信号再生処理を行う。   Further, the channel selection control unit 59 instructs the decoding control unit 57 to decode the video ES and the audio ES input to the video decoding unit 30 and the audio decoding unit 31. Upon receiving the decoding instruction, the decoding control unit 31 controls the video decoding unit 30 to output the decoded video signal to the video conversion processing unit 32, and the audio decoding unit 31 receives the decoded audio signal from the speaker. 48 or the audio output 42 is controlled. In this way, signal reproduction processing from the recording medium is performed.

<3D映像の表示方法>
本発明に用いることのできる3D映像の表示方式としては、左目と右目に視差を感じさせる左目用と右目用の映像を作成し、人間に立体物が存在しているように認識させるいくつかの方式がある。
<3D video display method>
As a 3D video display method that can be used in the present invention, left and right eye images that make the left and right eyes feel parallax are created, and a human being recognizes that a three-dimensional object exists. There is a method.

ひとつの方式としては、ユーザーが着用するメガネに対して、液晶シャッター等を用いて左右のグラスを交互に遮光を行い、またそれと同期させて左目用と右目用の映像を表示させ、左右の目に映る画像に視差を発生させるアクティブシャッター方式がある。   As one method, the glasses worn by the user are shielded from light by the left and right glasses alternately using a liquid crystal shutter, etc., and the left and right eye images are displayed in synchronization with the glasses. There is an active shutter system that generates parallax in an image displayed on the screen.

この場合、受信装置4は、ユーザーが着用するアクティブシャッター方式メガネへ、制御信号出力部43や機器制御信号送信端子44から同期信号や制御信号を出力する。また、映像信号出力部41から映像信号を外部の3D映像表示装置へ出力して、左目用の映像と右目用の映像とを交互に表示させる。または、受信装置4の有するディスプレイ47に同様の3D表示を行う。このようにすれば、アクティブシャッター方式メガネを着用したユーザは、当該3D映像表示装置または受信装置4の有するディスプレイ47で3D映像を視聴することができる。   In this case, the receiving device 4 outputs a synchronization signal and a control signal from the control signal output unit 43 and the device control signal transmission terminal 44 to the active shutter glasses worn by the user. Further, the video signal is output from the video signal output unit 41 to an external 3D video display device, and the left-eye video and the right-eye video are alternately displayed. Alternatively, the same 3D display is performed on the display 47 of the receiving device 4. In this way, a user wearing active shutter glasses can view 3D video on the display 47 of the 3D video display device or the receiving device 4.

また、別の方式としては、ユーザーが着用するメガネに対して、左右のグラスに直線偏光で直交するフィルムを貼るもしくは直線偏光コートを施す、または円偏光で偏光軸の回転方向が逆方向のフィルムを貼るもしくは円偏光コートを施し、左目と右目のメガネの偏光にそれぞれ対応した互いに異なる偏光による左目用の映像と右目用の映像を同時に出力することにより、左目と右目のそれぞれに入射する映像を偏光状態により分離することで左目と右目で視差を発生させる偏光方式がある。   As another method, for the glasses worn by the user, a film orthogonal to the linearly polarized light is applied to the left and right glasses, or a linearly polarized coating is applied, or a circularly polarized film with the rotation direction of the polarization axis reversed. Or apply a circularly polarized coat, and simultaneously output the image for the left eye and the image for the right eye with different polarizations corresponding to the polarization of the glasses for the left eye and the right eye respectively. There is a polarization method that generates parallax between the left eye and the right eye by separating them according to the polarization state.

この場合、受信装置4は、映像信号出力部41から映像信号を外部の3D映像表示装置へ出力して、該3D映像表示装置は、左目用の映像と右目用の映像とを異なる偏光状態で表示させる。または、受信装置4の有するディスプレイ47によって同様の表示を行う。このようにすれば、偏光方式メガネを着用したユーザは、当該3D映像表示装置または受信装置4の有するディスプレイ47で3D映像を視聴することができる。なお、偏光方式では、偏光方式メガネには、受信装置4から同期信号や制御信号を送信することなく、3D映像視聴が可能となるため、制御信号出力部43や機器制御信号送信端子44から同期信号や制御信号を出力する必要はない。   In this case, the receiving device 4 outputs the video signal from the video signal output unit 41 to an external 3D video display device, and the 3D video display device converts the left-eye video and the right-eye video in different polarization states. Display. Alternatively, the same display is performed on the display 47 of the receiving device 4. In this way, a user wearing polarized glasses can view 3D video on the display 47 of the 3D video display device or the receiving device 4. In the polarization method, since the 3D video can be viewed without transmitting a synchronization signal or a control signal from the receiving device 4 to the polarization method glasses, it is synchronized from the control signal output unit 43 or the device control signal transmission terminal 44. There is no need to output signals or control signals.

また、このほか、色による左右の目の映像を分離させるカラー分離方式を用いてもよい。また、裸眼で視聴可能な視差障壁を利用して3D映像を作り出す視差障壁方式を用いてもよい。   In addition, a color separation method that separates the left and right eye images by color may be used. Alternatively, a parallax barrier method that creates a 3D image using a parallax barrier that can be viewed with the naked eye may be used.

なお、本発明に係る3D表示方式は特定の方式に限定されるものではない。   The 3D display method according to the present invention is not limited to a specific method.

<番組情報を利用した3D番組の具体的な判定方法の例>
3D番組の判定方法の例としては、既に説明した放送信号および再生信号の番組情報に含まれる各種テーブルや記述子から、新たに含めた3D番組か否かを判定する情報を取得し、3D番組か否かを判定することが可能である。
<Example of specific determination method of 3D program using program information>
As an example of a 3D program determination method, information for determining whether or not a 3D program is newly included is obtained from various tables and descriptors included in the program information of the broadcast signal and the reproduction signal described above. It is possible to determine whether or not.

PMTや、EIT[schedule basic/schedule extended/present/following]、といったテーブルの中に記載の、コンポーネント記述子、コンポーネントグループ記述子に新たに含められた3D番組か否かを判定する情報を確認する、または3D番組判定用の新たな記述子である3D番組詳細記述子を確認する、NITや、SDT、といったテーブルの中に記載の、サービス記述子、サービスリスト記述子などに新たに含められた3D番組か否かを判定する情報を確認する、などにより3D番組か否かを判定する。これらの情報は、前述した送信装置において放送信号に付与され、送信される。送信装置では、例えば管理情報付与部16によってこれらの情報が放送信号に付与される。   Check the information to determine whether the 3D program is newly included in the component descriptor or component group descriptor described in the table such as PMT and EIT [schedule basic / schedule extended / present / following]. Or 3D program details descriptor, which is a new descriptor for 3D program determination, is newly included in the service descriptor, service list descriptor, etc. described in tables such as NIT and SDT It is determined whether or not it is a 3D program by checking information for determining whether or not it is a 3D program. These pieces of information are added to the broadcast signal in the transmission device described above and transmitted. In the transmission device, for example, the management information adding unit 16 adds these pieces of information to the broadcast signal.

それぞれのテーブルの使い分けとしては、例えばPMTについては現在の番組の情報しか記載していないため、未来の番組の情報については確認することができないが、信頼度は高いといった特徴がある。一方EIT[schedule basic/schedule extended]については現在の番組だけでなく未来の番組の情報を取得できるが、受信完了までの時間が長く、保持する記憶領域が多く必要で、かつ未来の事象のため信頼度が低いなどのデメリットがある。EIT[following]については次の放送時間の番組の情報を取得できるため、本実施例への適用については好適である。またEIT[present]については現在の番組情報の取得に使用でき、PMTとは異なる情報を入手できる。   The use of each table is characterized in that, for example, only information on the current program is described for PMT, so information on future programs cannot be confirmed, but the reliability is high. On the other hand, for EIT [schedule basic / schedule extended], information on future programs as well as current programs can be acquired, but it takes a long time to complete reception, requires a large storage area, and is a future event. There are disadvantages such as low reliability. As for EIT [following], it is possible to obtain information on a program at the next broadcast time, and therefore it is suitable for application to the present embodiment. Further, EIT [present] can be used to obtain current program information, and information different from PMT can be obtained.

次に、送信装置1から送出された、図4、図6、図10、図12、図14で説明した番組情報に関係する受信装置4の処理の詳細例を説明する。   Next, a detailed example of processing of the receiving device 4 related to the program information described in FIGS. 4, 6, 10, 12, and 14 sent from the transmitting device 1 will be described.

図20は、受信装置4における、コンポーネント記述子の各フィールドに対する処理の一例を示す。   FIG. 20 shows an example of processing for each field of the component descriptor in the receiving device 4.

「descriptor_tag」が“0x50”だと、当該記述子がコンポーネント記述子であると判断する。「descriptor_length」により、コンポーネント記述子の記述子長であると判断する。「stream_content」が“0x01”,“0x05”,“0x06”,“0x07”だと、当該記述子は有効(映像)である判断する。“0x01”,“0x05”,“0x06”,“0x07”以外の場合、当該記述子は無効である判断する。「stream_content」が“0x01”,“0x05”,“0x06”,“0x07”の場合、以降の処理を行う。   If “descriptor_tag” is “0x50”, it is determined that the descriptor is a component descriptor. Based on “descriptor_length”, it is determined to be the descriptor length of the component descriptor. If “stream_content” is “0x01”, “0x05”, “0x06”, “0x07”, it is determined that the descriptor is valid (video). In cases other than “0x01”, “0x05”, “0x06”, and “0x07”, it is determined that the descriptor is invalid. When “stream_content” is “0x01”, “0x05”, “0x06”, “0x07”, the following processing is performed.

「component_type」は、当該コンポーネントの映像コンポーネント種別と判断する。このコンポーネント種別については、図5のいずれかの値が指定されている。この内容により、当該コンポーネントが3D映像番組についてのコンポーネントか否かが判断可能である。   “Component_type” is determined as the video component type of the component. For this component type, one of the values in FIG. 5 is designated. From this content, it can be determined whether or not the component is a component for a 3D video program.

「component_tag」は、当該番組内で一意となるコンポーネントタグ値で、PMT のストリーム識別子のコンポーネントタグ値と対応させて利用できる。   “Component_tag” is a component tag value that is unique within the program, and can be used in association with the component tag value of the PMT stream identifier.

「ISO_639_language_code」は、“jpn(”0x6A706E“)”以外でも、後に配置される文字コードを”jpn”として扱う。   “ISO_639_language_code” treats a character code arranged later as “jpn”, except for “jpn (“ 0x6A706E ”)”.

「text_char」は、16byte(全角8 文字)以内をコンポーネント記述と判断する。このフィールドが省略された場合はデフォルトのコンポーネント記述と判断する。デフォルト文字列は「映像」である。   “Text_char” is determined to be a component description within 16 bytes (8 full-width characters). If this field is omitted, it is determined as the default component description. The default character string is “video”.

以上説明したように、コンポーネント記述子はイベント(番組)を構成する映像コンポーネント種別を判断でき、コンポーネント記述を受信機における映像コンポーネント選択の際に利用する事ができる。   As described above, the component descriptor can determine the type of video component constituting the event (program), and the component description can be used when selecting the video component in the receiver.

なお、component_tag値が0x00〜0x0F の値に設定された映像コンポーネントのみを単独での選択対象とする。前記以外のcomponent_tag 値で設定された映像コンポーネントは、単独での選択対象とはならず、コンポーネント選択機能などの対象としてはならない。   Note that only video components whose component_tag value is set to a value between 0x00 and 0x0F are to be selected independently. A video component set with a component_tag value other than the above is not a single selection target, and a target for a component selection function or the like.

また、イベント(番組)中のモード変更などにより、コンポーネント記述が実際のコンポーネントと一致しないことが有る。(コンポーネント記述子のcomponent_type は、当該コンポーネントの代表的なコンポーネント種別を記載し、番組途中でのモード変更に対しリアルタイムでこの値を変えるようなことは行わない。)
また、コンポーネント記述子により記載されたcomponent_type は、デジタル記録機器におけるコピー世代を制御する情報および最大伝送レートの記述であるデジタルコピー制御記述子が当該イベント(番組)に対して省略された場合のデフォルトのmaximum_bit_rate を判断する際に参照される。
In addition, the component description may not match the actual component due to a mode change during an event (program). (The component_type of the component descriptor describes the representative component type of the component, and this value is not changed in real time in response to a mode change during the program.)
The component_type described by the component descriptor is the default when the digital copy control descriptor, which is a description of the information for controlling the copy generation in the digital recording device and the maximum transmission rate, is omitted for the event (program). It is referred to when determining the maximum_bit_rate.

このように受信装置4における、本記述子の各フィールドに対する処理をおこなうことにより、受信装置4がstream_contentとcomponent_typeを監視することで、現在受信している、あるいは将来受信する番組が3D番組であることを認識できる効果がある。   In this way, by performing processing for each field of this descriptor in the receiving device 4, the receiving device 4 monitors the stream_content and component_type, so that the program currently received or received in the future is a 3D program. There is an effect that can be recognized.

図21は、受信装置4における、コンポーネントグループ記述子の各フィールドに対する処理の一例を示す。   FIG. 21 shows an example of processing for each field of the component group descriptor in the receiving device 4.

「descriptor_tag」が“0xD9”だと、当該記述子がコンポーネントグループ記述子であると判断する。「descriptor_length」により、コンポーネントグループ記述子の記述子長であると判断する。   If “descriptor_tag” is “0xD9”, it is determined that the descriptor is a component group descriptor. Based on “descriptor_length”, it is determined to be the descriptor length of the component group descriptor.

「component_group_type」が‘000’ だと、マルチビューテレビサービスと判断し、‘001’ だと、3Dテレビサービスと判断する。   When “component_group_type” is “000”, it is determined as a multi-view TV service, and when it is “001”, it is determined as a 3D TV service.

「total_bit_rate_flag」が’0’だと、イベント(番組)中のグループ内の総ビットレートが当該記述子に記載されていないと判断する。’1’だと、イベント(番組)中のグループ内の総ビットレートが当該記述子に記載されていると判断する。   When “total_bit_rate_flag” is “0”, it is determined that the total bit rate in the group in the event (program) is not described in the descriptor. If “1”, it is determined that the total bit rate in the group in the event (program) is described in the descriptor.

「num_of_group」は、イベント(番組)内でのコンポーネントグループの数と判断する。最大値が存在しこれを越えた場合には最大値として処理する可能性がある。「component_group_id」は、”0x0”だと、メイングループと判断する。”0x0”以外だと、サブグループと判断する。   “Num_of_group” is determined as the number of component groups in the event (program). If the maximum value exists and exceeds this value, it may be processed as the maximum value. If “component_group_id” is “0x0”, it is determined as the main group. If it is not “0x0”, it is determined as a subgroup.

「num_of_CA_unit」は、コンポーネントグループ内での課金/非課金単位の数と判断する。最大値を越えた場合には2 として処理する可能性がある。   “Num_of_CA_unit” is determined as the number of billing / non-billing units in the component group. If the maximum value is exceeded, it may be processed as 2.

「CA_unit_id」が“0x0”だと、非課金単位グループと判断する。“0x1”だと、デフォルトES群を含む課金単位と判断する。“0x0”と“0x1”以外だと、上記以外の課金単位識別と判断する。   If “CA_unit_id” is “0x0”, it is determined as a non-billing unit group. If it is “0x1”, it is determined as a charging unit including the default ES group. If it is other than “0x0” and “0x1”, it is determined that the charging unit is not identified above.

「num_of_component」は、当該コンポーネントグループに属し、かつ直前のCA_unit_id で示される課金/非課金単位に属するコンポーネントの数と判断する。最大値を越えた場合には15として処理する可能性がある。   “Num_of_component” is determined to be the number of components belonging to the component group and belonging to the billing / non-billing unit indicated by the immediately preceding CA_unit_id. If it exceeds the maximum value, it may be processed as 15.

「component_tag」は、コンポーネントグループに属するコンポーネントタグ値と判断し、PMTのストリーム識別子のコンポーネントタグ値と対応させて利用できる。「total_bit_rate」は、コンポーネントグループ内の総ビットレートと判断する。ただし、”0x00”の際はデフォルトと判断する。   “Component_tag” is determined to be a component tag value belonging to the component group, and can be used in correspondence with the component tag value of the PMT stream identifier. “Total_bit_rate” is determined as the total bit rate in the component group. However, when it is “0x00”, it is determined as the default.

「text_length」が16(全角8 文字)以下だとコンポーネントグループ記述長と判断し、16(全角8 文字)より大きいと、コンポーネントグループ記述長が16(全角8文字)を超えた分の説明文は無視して良い。   If “text_length” is 16 (8 full-width characters) or less, it is determined as the component group description length. If it is greater than 16 (8 full-width characters), the description for the component group description length exceeding 16 (8 full-width characters) is You can ignore it.

「text_char」は、コンポーネントグループに関する説明文を指す。なお、component_group_type=’000’のコンポーネントグループ記述子の配置によって、当該イベント(番組)においてマルチビューテレビサービスを行うと判断し、コンポーネントグループ毎の処理に利用することができる。   “Text_char” indicates an explanatory text related to the component group. Note that the arrangement of the component group descriptor of component_group_type = '000' determines that the multi-view TV service is to be performed in the event (program), and can be used for processing for each component group.

また、component_group_type=’001’のコンポーネントグループ記述子の配置によって、当該イベント(番組)において3Dテレビサービスを行うと判断し、コンポーネントグループ毎の処理に利用することができる。   Further, the arrangement of the component group descriptor of component_group_type = '001' makes it possible to determine that a 3D television service is to be performed in the event (program) and use it for processing for each component group.

さらに、各グループのデフォルトES群は、CA_unit ループ先頭に配置されるコンポーネントループ中に必ず記載する。   Furthermore, the default ES group of each group is always described in the component loop arranged at the head of the CA_unit loop.

メイングループ(component_group_id=0x0)において、
・グループのデフォルトES群が非課金対象ならば、free_CA_mode=0 とし、CA_unit_id=0x1 のコンポーネントループを設定してはならない。
・グループのデフォルトES群が課金対象ならば、free_CA_mode=1 とし、CA_unit_id=”0x1”のコンポーネントループを必ず設定し、記載する。
また、サブグループ(component_group_id>0x0)において、
・サブグループに対しては、メイングループと同じ課金単位、あるいは非課金単位のみ設定できる。
・グループのデフォルトES群が非課金対象ならば、CA_unit_id=0x0 のコンポーネントループを設定し、記載する。
・グループのデフォルトES群が課金対象ならば、CA_unit_id=0x1 のコンポーネントループを設定し、記載する。
In the main group (component_group_id = 0x0)
・ If the group's default ES group is non-chargeable, set free_CA_mode = 0 and do not set a component loop with CA_unit_id = 0x1.
-If the default ES group of the group is the object of billing, set free_CA_mode = 1 and be sure to set and describe the component loop with CA_unit_id = "0x1".
In the subgroup (component_group_id> 0x0)
-Only the same billing unit as the main group or a non-billing unit can be set for the sub group.
-If the default ES group of the group is a non-billing target, set and describe a component loop with CA_unit_id = 0x0.
・ If the group's default ES group is a chargeable target, set and describe a component loop with CA_unit_id = 0x1.

このように受信装置4における、本記述子の各フィールドに対する処理をおこなうことにより、受信装置4がcomponent_group_typeを監視することで、現在受信している、あるいは将来受信する番組が3D番組であることを認識できる効果がある。   In this way, by performing processing for each field of this descriptor in the receiving device 4, the receiving device 4 monitors the component_group_type, so that a program that is currently received or that will be received in the future is a 3D program. There is a recognizable effect.

図22は、受信装置4における、3D番組詳細記述子の各フィールドに対する処理の一例を示す。   FIG. 22 shows an example of processing for each field of the 3D program detail descriptor in the receiving device 4.

「descriptor_tag」が“0xE1”だと、当該記述子が3D番組詳細記述子であると判断する。「descriptor_length」により、3D番組詳細記述子の記述子長であると判断する。「3d_2d_type」は、当該3D番組における3D/2D識別であると判断する。図10(b)の中から指定される。「3d_method_type」は、当該3D番組における3D方式識別であると判断する。図11の中から指定される。   If “descriptor_tag” is “0xE1”, it is determined that the descriptor is a 3D program detail descriptor. Based on “descriptor_length”, the descriptor length of the 3D program detail descriptor is determined. “3d_2d_type” is determined to be 3D / 2D identification in the 3D program. It is specified from FIG. “3d_method_type” is determined to be 3D method identification in the 3D program. It is specified from FIG.

「stream_type」は、当該3D番組のESの形式であると判断する。図3の中から指定される。「component_tag」は、当該3D番組内で一意となるコンポーネントタグ値であると判断する。PMT のストリーム識別子のコンポーネントタグ値と対応させて利用できる。   “Stream_type” is determined to be the ES format of the 3D program. It is specified from FIG. “Component_tag” is determined to be a component tag value that is unique within the 3D program. It can be used in correspondence with the component tag value of the PMT stream identifier.

なお、3D番組詳細記述子自体の有無により、当該番組が3D映像番組であるか否かを判断する構成としてもよい。すなわち、この場合は、3D番組詳細記述子がなければ、2D映像番組と判断し、3D番組詳細記述子がある場合には、3D映像番組であると判断する。   Note that it may be configured to determine whether or not the program is a 3D video program based on the presence or absence of the 3D program detail descriptor itself. That is, in this case, if there is no 3D program detailed descriptor, it is determined as a 2D video program, and if there is a 3D program detailed descriptor, it is determined as a 3D video program.

このように受信装置4における、本記述子の各フィールドに対する処理をおこなうことにより、受信装置4が3D番組詳細記述子を監視することで、この記述子が存在すれば、現在受信している、あるいは将来受信する番組が3D番組であることを認識できる効果がある。   In this way, by performing processing for each field of this descriptor in the receiving device 4, the receiving device 4 monitors the 3D program detail descriptor, and if this descriptor exists, it is currently received. Alternatively, it is possible to recognize that a program to be received in the future is a 3D program.

図23は、受信装置4における、サービス記述子の各フィールドに対する処理の一例を示す。「descriptor_tag」が“0x48”だと、当該記述子がサービス記述子であると判断する。「descriptor_length」により、サービス記述子の記述子長であると判断する。「service_type」は、図13に示されたservice_type 以外の場合は当該記述子を無効と判断する。   FIG. 23 shows an example of processing for each field of the service descriptor in the receiving device 4. If “descriptor_tag” is “0x48”, it is determined that the descriptor is a service descriptor. Based on “descriptor_length”, it is determined to be the descriptor length of the service descriptor. If “service_type” is other than the service_type shown in FIG. 13, the descriptor is determined to be invalid.

「service_provider_name_length」は、BS/CSデジタルテレビジョン放送の受信の場合には、20以下だと、事業者名長と判断し、20より大きいと、事業者名を無効と判断する。一方、地上デジタルテレビジョン放送の受信の場合には、“0x00”以外は無効と判断する。   When “service_provider_name_length” is 20 or less in the case of reception of BS / CS digital television broadcasts, it is determined that the name of the operator is greater than 20, and if it is greater than 20, the operator name is determined to be invalid. On the other hand, in the case of reception of digital terrestrial television broadcasting, it is determined that anything other than “0x00” is invalid.

「char」は、BS/CSデジタルテレビジョン放送の受信の場合には、事業者名と判断する。一方、地上デジタルテレビジョン放送の受信の場合には、記載内容は無視する。「service_name_length」が20以下だと、編成チャンネル名長と判断し、20より大きいと、編成チャンネル名を無効と判断する。   In the case of receiving BS / CS digital television broadcasting, “char” is determined to be a business name. On the other hand, in the case of receiving terrestrial digital television broadcasting, the description is ignored. If “service_name_length” is 20 or less, it is determined as the composition channel name length, and if it is greater than 20, the composition channel name is determined to be invalid.

「char」は、編成チャンネル名と判断する。なお、上記図18で説明した送出処理の一例に従って記述子を配置したSDTを受信できなければ、対象サービスの基本情報は無効であると判断する。   “Char” is determined as the organization channel name. If the SDT in which the descriptor is arranged cannot be received according to the example of the transmission process described with reference to FIG. 18, it is determined that the basic information of the target service is invalid.

このように受信装置4における、本記述子の各フィールドに対する処理をおこなうことにより、受信装置4がservice_typeを監視することで、編成チャンネルが3D番組のチャンネルであることを認識できる効果がある。   Thus, by performing processing for each field of this descriptor in the receiving device 4, there is an effect that the receiving device 4 can recognize that the organization channel is a 3D program channel by monitoring service_type.

図24は、受信装置4における、サービスリスト記述子の各フィールドに対する処理の一例を示す。「descriptor_tag」が“0x41”だと、当該記述子がサービスリスト記述子であると判断する。「descriptor_length」により、サービスリスト記述子の記述子長であると判断する。   FIG. 24 shows an example of processing for each field of the service list descriptor in the receiving device 4. If “descriptor_tag” is “0x41”, it is determined that the descriptor is a service list descriptor. Based on “descriptor_length”, it is determined that it is the descriptor length of the service list descriptor.

「loop」は、対象トランスポートストリームに含まれるサービス数のループを記述する。「service_id」は、当該トランスポートストリームに対するservice_id と判断する。「service_type」は、対象サービスのサービスタイプを示す。図13で規定されるサービスタイプ以外は無効と判断する。   “Loop” describes a loop of the number of services included in the target transport stream. “Service_id” is determined to be service_id for the transport stream. “Service_type” indicates the service type of the target service. It is determined that the service types other than those specified in FIG. 13 are invalid.

以上説明したように、サービスリスト記述子は対象ネットワークに含まれるトランスポートストリームの情報と判断することができる。   As described above, the service list descriptor can be determined as information on the transport stream included in the target network.

このように受信装置4における、本記述子の各フィールドに対する処理をおこなうことにより、受信装置4がservice_typeを監視することで、編成チャンネルが3D番組のチャンネルであることを認識できる効果がある。   Thus, by performing processing for each field of this descriptor in the receiving device 4, there is an effect that the receiving device 4 can recognize that the organization channel is a 3D program channel by monitoring service_type.

次に各テーブル内の具体的な記述子について説明する。まず、PMTの2ndループ(ES毎のループ)に記載のstream_typeの中のデータの種類により、上記図3で説明したようにESの形式を判定することができるが、この中に、現在放送されているストリームが3D映像であることを示す記述が存在する場合には、その番組を3D番組と判定する(例えば、stream_typeに多視点映像符号化(例:H.264/MVC)ストリームのサブビットストリーム(他の視点)を示す0x1Fがあれば、その番組を3D番組と判定する。   Next, specific descriptors in each table will be described. First, the ES format can be determined as described with reference to FIG. 3 according to the data type in the stream_type described in the 2nd loop of PMT (loop for each ES). If there is a description indicating that the stream is 3D video, the program is determined to be a 3D program (for example, multi-view video encoding (eg, H.264 / MVC) stream sub-type in stream_type) If there is 0x1F indicating a stream (other viewpoint), the program is determined to be a 3D program.

また、stream_type以外にも、PMTの中で現在reservedとされている領域について、新たに3D番組または2D番組を識別する2D/3D識別ビットを割り当て、その領域で判定することも可能である。   In addition to stream_type, it is also possible to newly assign a 3D program or a 2D / 3D identification bit for identifying a 2D program to an area that is currently reserved in the PMT, and make a determination based on the area.

EITについても同様にreservedの領域に新たに2D/3D識別ビットを割り当てして判定することも可能である。   Similarly, EIT can be determined by newly assigning a 2D / 3D identification bit to the reserved area.

PMTおよび/またはEITに配置されるコンポーネント記述子で3D番組を判定する場合は、上記図4および5で説明したようにコンポーネント記述子のcomponent_typeに、3D映像を示す種別を割り当て(例えば、図5(c)〜(e))、component_typeが3Dを表すものが存在すれば、その番組を3D番組と判定することが可能である。(例えば、図5(c)〜(e)などを割り当てし、その値が対象番組の番組情報に存在していることを確認する。)
EITに配置されるコンポーネントグループ記述子による判定方法としては、上記図6および7で説明したようにcomponent_group_typeの値に、3Dサービスを表す記述を割り当て、component_group_typeの値が、3Dサービスを表していれば、3D番組と判別可能である(例えば、ビットフィールドで001は、3DTVサービスなどを割り当てし、その値が対象番組の番組情報に存在していることを確認する。)
PMTおよび/またはEITに配置される3D番組詳細記述子による判定方法としては、上記図10および11で説明したように対象の番組が3D番組であるか判定する場合には、3D番組詳細記述子内の3d_2d _type(3D/2D種別)の内容により判定可能である。また、受信番組について3D番組詳細記述子が伝送されていない無い場合は、2D番組と判断する。また、前記記述子の中に含まれる3D方式種別(上記3d_method_type)に受信装置が対応可能な3D方式であれば、次番組を3D番組と判定する方法も考えられる。その場合には、記述子の解析処理は複雑になるが、受信装置が対応不可能な3D番組に対してメッセージ表示処理や記録処理を行う動作を中止することが可能になる。
When a 3D program is determined by a component descriptor arranged in the PMT and / or EIT, a type indicating 3D video is assigned to component_type of the component descriptor as described in FIGS. 4 and 5 (for example, FIG. 5). (C) to (e)) If there is a component_type representing 3D, it is possible to determine that the program is a 3D program. (For example, assign FIGS. 5C to 5E and confirm that the value exists in the program information of the target program.)
As described above with reference to FIGS. 6 and 7, as a determination method using the component group descriptor arranged in the EIT, a description representing 3D service is assigned to the value of component_group_type, and the value of component_group_type represents 3D service. 3D program can be discriminated (for example, 001 in the bit field assigns a 3D TV service or the like, and confirms that the value exists in the program information of the target program).
As a determination method using the 3D program detail descriptor arranged in the PMT and / or EIT, as described in FIGS. 10 and 11, when determining whether the target program is a 3D program, the 3D program detail descriptor It can be determined by the content of 3d_2d_type (3D / 2D type). If no 3D program detail descriptor is transmitted for the received program, it is determined to be a 2D program. In addition, if the receiving apparatus is compatible with the 3D method type (3d_method_type) included in the descriptor, a method of determining the next program as a 3D program is also conceivable. In this case, although the descriptor analysis process is complicated, it is possible to stop the operation for performing the message display process and the recording process for the 3D program that cannot be handled by the receiving apparatus.

SDTに配置されるサービス記述子やNITに配置されるサービスリスト記述子に含まれるservice_typeの情報に、上記図12および13および14で説明したように0x01に3D映像サービスを割り当て、当該記述子がある番組情報を取得した場合に、3D番組として判定することが可能である。この場合には、番組単位での判定ではなく、サービス(CH、編成チャンネル)単位での判定となり、同一編成チャンネル内での次番組の3D番組判定はできないが、情報の取得が番組単位でないため容易といった利点もある。   As described with reference to FIGS. 12, 13, and 14, a 3D video service is assigned to 0x01 in the service_type information included in the service descriptor arranged in the SDT and the service list descriptor arranged in the NIT. When certain program information is acquired, it can be determined as a 3D program. In this case, the determination is not made in units of programs, but in units of services (CHs, organization channels), and 3D program determination of the next program in the same organization channel cannot be made, but information acquisition is not in units of programs. There is also an advantage such as easy.

また番組情報については、専用の通信路(放送信号、またはインターネット)を通じて取得する方法もある。その場合にも、番組の開始時間とCH(放送編成チャンネル、URLまたはIPアドレス)、その番組が3D番組かをあらわす識別子があれば、同様に3D番組判定は可能である。   There is also a method of acquiring program information through a dedicated communication channel (broadcast signal or the Internet). Even in this case, if there is a program start time, CH (broadcast organization channel, URL or IP address), and an identifier indicating whether the program is a 3D program, the 3D program determination is possible.

以上の説明では、サービス(CH)または番組単位で3D映像か否かを判定するためのさまざまな情報(テーブルや記述子に含まれる情報)について説明したが、これらは本発明において必ずしも全て送信する必要はない。放送形態に合せて必要な情報を送信すればよい。これらの情報のうち、それぞれ単独の情報を確認して、サービス(CH)または番組単位で3D映像か否かを判定してもよく、複数の情報を組み合わせてサービス(CH)または番組単位で3D映像か否かを判定してもよい。複数の情報を組み合わせて判定する場合は、3D映像放送サービスであるが、一部の番組だけ2D映像であるなどの判定も可能となる。このような判定ができる場合は、受信装置で、例えばEPGでは当該サービスが「3D映像放送サービス」であることを明示することができ、かつ、当該サービスに3D映像番組以外に2D映像番組が混在していても、番組受信時に3D映像番組と2D映像番組とで表示制御等を切り替えることが可能となる。   In the above description, various information (information included in tables and descriptors) for determining whether or not a 3D video is a service (CH) or a program unit has been described. There is no need. What is necessary is just to transmit required information according to a broadcast form. Of these pieces of information, each piece of information may be checked to determine whether it is a 3D video for each service (CH) or program, or a combination of multiple pieces of information for 3D for each service (CH) or program. You may determine whether it is an image | video. When determining by combining a plurality of pieces of information, it is a 3D video broadcasting service, but it is also possible to determine that only some programs are 2D video. If such a determination can be made, the receiving device, for example, EPG can clearly indicate that the service is a “3D video broadcasting service”, and the service includes a mixture of 2D video programs in addition to 3D video programs. Even when the program is received, the display control or the like can be switched between the 3D video program and the 2D video program.

なお、以上説明した3D番組の判定方法により、3D番組と判定された場合において、例えば図5(c)〜(e)で指定された3Dコンポーネントが受信装置4で適切に処理(表示、出力)することができる場合には3Dにて処理(再生、表示、出力)し、受信装置4で適切に処理(再生、表示、出力)することができない場合(例えば、指定された3D伝送方式に対応する3D映像再生機能がない場合など)には2Dにて処理(再生、表示、出力)してもよい。このとき、2D映像の表示、出力とともに、当該3D映像番組が、受信装置において適切に3D表示または3D出力できない旨を合せて表示してもよい。このようにすれば、2D映像番組として放送された番組なのか、3D映像番組として放送された番組であるが受信装置で適切に処理できないため2D映像を表示しているのかをユーザが把握することができる。   When the 3D program is determined to be a 3D program by the above-described 3D program determination method, for example, the 3D component specified in FIGS. 5C to 5E is appropriately processed (displayed and output) by the receiving device 4. If it can be processed in 3D (playback, display, output), and cannot be properly processed (playback, display, output) in the receiving device 4 (for example, it corresponds to the specified 3D transmission method) For example, when there is no 3D video playback function to be performed), processing (playback, display, output) may be performed in 2D. At this time, along with the display and output of the 2D video, it may be displayed that the 3D video program cannot be appropriately 3D displayed or 3D output by the receiving apparatus. In this way, the user needs to know whether the program is broadcast as a 2D video program or is a program broadcast as a 3D video program, but the 2D video is displayed because it cannot be properly processed by the receiving device. Can do.

<3D2視点別ES伝送方式の3Dコンテンツの3D再生/出力/表示処理>
次に3Dコンテンツ(3D映像を含むデジタルコンテンツ)再生時の処理について説明する。ここではまず、図47に示すような、1つのTSに主視点映像ESと副視点映像ESが存在する、3D2視点別ES伝送方式の場合の再生処理について説明する。まずユーザーが3D出力/表示への切替指示(例えばリモコンの「3D」キー押下)等を行った場合、前記キーコードを受信したユーザー指示受信部52は、システム制御部51に対して3D映像への切替を指示する(なお、以下の処理は、3D2視点別ES伝送方式のコンテンツについて、3Dコンテンツの3D表示/出力へのユーザー切替指示以外の条件で3D出力/表示に切り替える場合でも同様の処理を行う)。次に、システム制御部51は、上記の方法で現在の番組が3D番組か否かを判定する。
<3D playback / output / display processing of 3D content by 3D2 viewpoint-based ES transmission method>
Next, processing during playback of 3D content (digital content including 3D video) will be described. Here, first, description will be made regarding the playback processing in the case of the 3D2 viewpoint-specific ES transmission method in which the main viewpoint video ES and the sub-viewpoint video ES exist in one TS as shown in FIG. First, when the user gives an instruction to switch to 3D output / display (for example, pressing the “3D” key on the remote controller), the user instruction receiving unit 52 that has received the key code converts the 3D video to the system control unit 51. (Note that the following processing is similar even when switching to 3D output / display for 3D2 viewpoint-specific ES transmission type content under conditions other than the user switching instruction to 3D display / output of 3D content. I do). Next, the system control unit 51 determines whether or not the current program is a 3D program by the above method.

現在の番組が3D番組であった場合には、システム制御部51はまず選局制御部59に対して、3D映像の出力を指示する。前記指示を受信した選局制御部59は、まず番組情報解析部54から主視点映像ESと副視点映像ESそれぞれについて、PID(packet ID)、および符号化方式(例えばH.264/MVC,MPEG2,H.264/AVCなど)を取得し、次に多重分離部29に対して前記主視点映像ESと副視点映像ESを多重分離して映像復号部30に出力するよう制御を行う。   If the current program is a 3D program, the system control unit 51 first instructs the channel selection control unit 59 to output 3D video. Upon receiving the instruction, the channel selection control unit 59 first receives a PID (packet ID) and an encoding method (for example, H.264 / MVC, MPEG2) from the program information analysis unit 54 for each of the main viewpoint video ES and the sub-viewpoint video ES. , H.264 / AVC, etc.), and then the demultiplexing unit 29 is controlled to demultiplex and demultiplex the main viewpoint video ES and sub-viewpoint video ES and output them to the video decoding unit 30.

ここで、例えば前記主視点映像ESは、映像復号部の1番入力、前記副視点映像ESは映像復号部の2番入力に入力するように、多重分離部29を制御する。その後選局制御部59は、復号制御部57に対して、映像復号部30の1番入力は主視点映像ESで2番入力は副視点映像ESという情報およびそれぞれの前記符号化方式を送信し、かつこれらのESを復号するように指示を行う。   Here, for example, the demultiplexing unit 29 is controlled so that the main viewpoint video ES is input to the first input of the video decoding unit and the sub-viewpoint video ES is input to the second input of the video decoding unit. Thereafter, the channel selection control unit 59 transmits to the decoding control unit 57 the information that the first input of the video decoding unit 30 is the main viewpoint video ES and the second input is the sub-view video ES and the respective encoding methods. And instruct to decrypt these ESs.

図47に示す3D2視点別ES伝送方式の組合せ例2や組合せ例4のように、主視点映像ESと副視点映像ESで符号化方式が異なる3D番組を復号するために、映像復号部30は、それぞれの符号化方式に対応した、複数種類の復号機能を有するように構成すればよい。   In order to decode 3D programs having different encoding methods between the main-view video ES and the sub-view video ES, as in combination example 2 and combination example 4 of the 3D2 viewpoint-specific ES transmission method shown in FIG. 47, the video decoding unit 30 It is sufficient to configure so as to have a plurality of types of decoding functions corresponding to the respective encoding methods.

図47に示す3D2視点別ES伝送方式の組合せ例1や組合せ例3のように、主視点映像ESと副視点映像ESで符号化方式が同じ3D番組を復号するために、映像復号部30は、単一の符号化方式に対応した復号機能のみを有する構成でもかまわない。この場合は、映像復号部30を安価に構成することができる。   In order to decode a 3D program having the same encoding method between the main viewpoint video ES and the sub-view video ES as in combination example 1 and combination example 3 of the 3D2 viewpoint-specific ES transmission method shown in FIG. 47, the video decoding unit 30 A configuration having only a decoding function corresponding to a single encoding method may be used. In this case, the video decoding unit 30 can be configured at low cost.

前記指示を受信した復号制御部57は、主視点映像ESと副視点映像ESそれぞれの符号化方式に対応した復号を行い、左目用と右目用の映像信号を映像変換処理部32に出力する。ここで、システム制御部51は映像変換制御部61に対して、3D出力処理を行うように指示を行う。前記指示をシステム制御部51から受信した映像変換制御部61は、映像変換処理部32を制御して、映像出力41から出力する、または受信装置4が備えるディスプレイ47に3D映像を表示する。   Upon receiving the instruction, the decoding control unit 57 performs decoding corresponding to the encoding methods of the main viewpoint video ES and the sub viewpoint video ES, and outputs the left-eye and right-eye video signals to the video conversion processing unit 32. Here, the system control unit 51 instructs the video conversion control unit 61 to perform 3D output processing. The video conversion control unit 61 that has received the instruction from the system control unit 51 controls the video conversion processing unit 32 to output from the video output 41 or display a 3D video on the display 47 provided in the receiving device 4.

当該3D再生/出力/表示方法について、図37を用いて説明する。   The 3D playback / output / display method will be described with reference to FIG.

図37(a)は、3D2視点別ES伝送方式の3Dコンテンツの左右の視点の映像を交互に表示、出力するフレームシーケンシャル方式の出力、表示に対応する再生/出力/表示方法の説明図である。図の左側上部のフレーム列(M1,M2,M3,・・・)が、3D2視点別ES伝送方式のコンテンツの主視点(左目用)映像ESに含まれる複数のフレーム、図の左側下部のフレーム列(S1,S2,S3,・・・)が3D2視点別ES伝送方式のコンテンツの副視点(右目用)映像ESに含まれる複数のフレームを表している。映像変換処理部32では、前記入力された主視点(左目用)/副視点(右目用)映像信号の各フレームを、図の右側のフレーム列(M1,S1,M2,S2,M3,S3,・・・・・・)で表すように、交互にフレームを映像信号として出力/表示する。このような出力/表示方式によれば、各視点それぞれについてディスプレイに表示可能な解像度を最大に用いることができ、高解像度の3D表示が可能となる。   FIG. 37 (a) is an explanatory diagram of a frame sequential method output for alternately displaying and outputting videos of the left and right viewpoints of 3D content in the 3D2 viewpoint-specific ES transmission method, and a playback / output / display method corresponding to the display. . The upper left frame sequence (M1, M2, M3,...) Is a plurality of frames included in the main viewpoint (left eye) video ES of the content in the 3D2 viewpoint-specific ES transmission method, and the lower left frame in the figure. The columns (S1, S2, S3,...) Represent a plurality of frames included in the sub-viewpoint (for the right eye) video ES of the content in the 3D2 viewpoint-specific ES transmission method. In the video conversion processing unit 32, each frame of the input main viewpoint (for left eye) / sub-viewpoint (for right eye) video signal is converted into a right frame sequence (M1, S1, M2, S2, M3, S3). As indicated by..., Frames are alternately output / displayed as video signals. According to such an output / display method, the maximum resolution that can be displayed on the display for each viewpoint can be used, and high-resolution 3D display is possible.

図36のシステム構成において、図37(a)の方式を用いる場合には、上記映像信号の出力とともに、それぞれの映像信号が主視点(左目)用、副視点(右目)用と判別可能な同期信号を制御信号43から出力する。前記映像信号と前記同期信号を受信した外部の映像出力装置は、前記映像信号を前記同期信号に合わせて主視点(左目用)、副視点(右目用)の映像を出力し、かつ3D視聴補助装置に同期信号を送信することにより3D表示を行うことが可能になる。なお、外部の映像出力装置から出力される同期信号は、外部の映像出力装置で生成してもよい。   In the system configuration of FIG. 36, when the method of FIG. 37 (a) is used, the video signals are output and synchronized so that each video signal can be discriminated for the main viewpoint (left eye) and for the sub viewpoint (right eye). A signal is output from the control signal 43. The external video output device that has received the video signal and the synchronization signal outputs the video of the main viewpoint (for the left eye) and the sub-viewpoint (for the right eye) according to the synchronization signal, and supports 3D viewing. By sending a synchronization signal to the device, 3D display can be performed. Note that the synchronization signal output from the external video output device may be generated by the external video output device.

また図35のシステム構成において、図37(a)の方式を用いて、前記映像信号を受信装置4が備えるディスプレイ47に表示する場合には、前記同期信号を機器制御信号送信部53および制御信号送受信部33を経由し、機器制御信号送信端子44から出力して、外部の3D視聴補助装置の制御(例えばアクティブシャッターの遮光切替)を行うことにより、3D表示を行う。   In the system configuration of FIG. 35, when the video signal is displayed on the display 47 included in the receiving device 4 using the method of FIG. 37A, the synchronization signal is transmitted to the device control signal transmission unit 53 and the control signal. 3D display is performed by outputting from the device control signal transmission terminal 44 via the transmission / reception unit 33 and controlling the external 3D viewing assistance device (for example, shading switching of the active shutter).

図37(b)は、3D2視点別ES伝送方式の3Dコンテンツの左右の視点の映像をディスプレイの異なる領域に表示する方式の出力、表示に対応する再生/出力/表示方法の説明図である。当該処理は、3D2視点別ES伝送方式のストリームを映像復号部30で復号し、映像変換処理部32で映像変換処理を行うものである。ここで、異なる領域に表示するとは、例えば、ディスプレイの奇数ラインと偶数ラインをそれぞれ主視点(左目)用、副視点(右目)用の表示領域として表示する等の方法がある。または、表示領域はライン単位でなくともよく、視点ごとに異なる画素を持つディスプレイの場合は、主視点(左目)用の複数の画素の組合せと副視点(右目)用の画素の複数の画素の組合せのそれぞれの表示領域とすればよい。例えば、上述した偏光方式の表示装置では、例えば、上記の異なる領域から、3D視聴補助装置の左目右目のそれぞれの偏光状態に対応した、互いに異なる偏光状態の映像を出力すればよい。このような出力/表示方式によれば、各視点それぞれについてディスプレイに表示可能な解像度は、図37(a)の方式よりも少なくなるが、主視点(左目)用の映像と副視点(右目)用の映像を同時に出力/表示可能であり、交互に表示する必要がない。これにより、図37(a)の方式よりもちらつきの少ない3D表示が可能となる。   FIG. 37 (b) is an explanatory diagram of the output / reproduction / display method corresponding to the output and display of the method of displaying the video of the left and right viewpoints of 3D content in the 3D2 viewpoint-specific ES transmission method in different areas of the display. In this process, the 3D2 viewpoint-specific ES transmission system stream is decoded by the video decoding unit 30 and the video conversion processing unit 32 performs the video conversion process. Here, to display in different areas includes, for example, a method of displaying odd lines and even lines of the display as display areas for the main viewpoint (left eye) and the sub viewpoint (right eye), respectively. Alternatively, the display area does not have to be in line units, and in the case of a display having different pixels for each viewpoint, a combination of a plurality of pixels for the main viewpoint (left eye) and a plurality of pixels for the sub viewpoint (right eye) Each display area of the combination may be used. For example, in the above-described polarization type display device, for example, images of different polarization states corresponding to the respective polarization states of the left eye and right eye of the 3D viewing assistance device may be output from the different regions. According to such an output / display method, the resolution that can be displayed on the display for each viewpoint is smaller than that in the method of FIG. 37 (a), but the video for the main viewpoint (left eye) and the sub viewpoint (right eye). Video can be output / displayed simultaneously, and there is no need to display them alternately. Thereby, 3D display with less flicker than the method of FIG.

なお、図35、図36のいずれのシステム構成においても、図37(b)の方式を用いる場合には、3D視聴補助装置は、偏光分離メガネであればよく、特に電子制御を行う必要がない。この場合、3D視聴補助装置をより安価に提供することが可能となる。   In any of the system configurations shown in FIGS. 35 and 36, when the method shown in FIG. 37 (b) is used, the 3D viewing assistance device may be polarization-separated glasses and does not need to perform electronic control. . In this case, the 3D viewing assistance device can be provided at a lower cost.

<3D2視点別ES伝送方式の3Dコンテンツの2D出力/表示処理>
3D2視点別ES伝送方式の3Dコンテンツの2D出力/表示を行う場合の動作について以下に説明する。ユーザーが2D映像への切替指示(例えばリモコンの「2D」キー押下)を行った場合、前記キーコードを受信したユーザー指示受信部52は、システム制御部51に対して2D映像への信号切替を指示する(なお、以下の処理は、3D2視点別ES伝送方式の3Dコンテンツの2D出力/表示へのユーザー切替指示以外の条件で2D出力/表示に切り替える場合でも同様の処理を行う)。次に、システム制御部51はまず選局制御部59に対して、2D映像の出力を指示する。
<3D2 2D output / display processing of 3D content by viewpoint-based ES transmission method>
The operation in the case of performing 2D output / display of 3D content in the 3D2 viewpoint-specific ES transmission method will be described below. When the user gives an instruction to switch to 2D video (for example, pressing the “2D” key on the remote control), the user instruction receiving unit 52 that has received the key code instructs the system control unit 51 to switch the signal to 2D video. (The following processing is performed even when switching to 2D output / display under conditions other than the user switching instruction to 2D output / display of 3D content in the 3D2 viewpoint-specific ES transmission method). Next, the system control unit 51 first instructs the channel selection control unit 59 to output 2D video.

前記指示を受信した選局制御部59は、まず番組情報解析部54から2D映像用のES(前記主視点ES、またはデフォルトタグを持つES)のPIDを取得し、多重分離部29に対して前記ESを映像復号部30に出力するよう制御を行う。その後選局制御部59は復号制御部57に対して、前記ESを復号するように指示を行う。すなわち、3D2視点別ES伝送方式では、主視点と副視点とで、サブストリームまたはESが異なっているので、主視点のサブストリームまたはESのみを復号すればよい。   The channel selection control unit 59 that has received the instruction first acquires the PID of the ES for 2D video (the main viewpoint ES or the ES having the default tag) from the program information analysis unit 54, and sends it to the demultiplexing unit 29. Control is performed to output the ES to the video decoding unit 30. Thereafter, the channel selection control unit 59 instructs the decoding control unit 57 to decode the ES. That is, in the 3D2 viewpoint-specific ES transmission method, since the substream or ES is different between the main viewpoint and the subview, it is only necessary to decode the substream or ES of the main viewpoint.

前記指示を受信した復号制御部57は映像復号部30を制御して前記ESの復号を行い、映像信号を映像変換処理部32に出力する。ここで、システム制御部51は映像変換制御部61に対して、映像の2D出力を行うように制御を行う。前記指示をシステム制御部51から受信した映像変換制御部61は、映像変換処理部32に2D映像信号を映像出力端子41から出力する、またはディスプレイ47に2D映像を表示する制御を行う。   Upon receiving the instruction, the decoding control unit 57 controls the video decoding unit 30 to decode the ES and outputs a video signal to the video conversion processing unit 32. Here, the system control unit 51 controls the video conversion control unit 61 to perform 2D video output. The video conversion control unit 61 that has received the instruction from the system control unit 51 performs control to output a 2D video signal from the video output terminal 41 to the video conversion processing unit 32 or display a 2D video on the display 47.

当該2D出力/表示方法について、図38を用いて説明する。符号化映像の構成は図37と同様であるが、上記説明の通り、映像復号部30では第2のES(副視点映像ES)は復号されないため、映像変換処理部32復号される一方のES側の映像信号を図の右側のフレーム列(M1,M2,M3,・・・・・・)で表すような2D映像信号に変換して出力する。このようにして2D出力/表示を行う。   The 2D output / display method will be described with reference to FIG. Although the configuration of the encoded video is the same as that of FIG. 37, as described above, since the second ES (sub-viewpoint video ES) is not decoded by the video decoding unit 30, one ES to be decoded by the video conversion processing unit 32 The video signal on the side is converted into a 2D video signal as represented by the right frame sequence (M1, M2, M3,...) And output. In this way, 2D output / display is performed.

ここでは2D出力/表示の方法として右目用ESの復号を行わない方法について記載したが、3D表示時と同様に、左目用ESと右目用ESの両方の復号を行い、映像変換処理部32で右目用映像信号を間引く処理を実施することにより2D表示を行っても良い。その場合は復号処理や多重分離処理の切り替え処理が無くなり切り替え時間の低減やソフトウェア処理の簡略化などの効果が期待できる。   Here, the method of not decoding the right-eye ES as a 2D output / display method has been described, but both the left-eye ES and the right-eye ES are decoded and the video conversion processing unit 32 performs the same as in 3D display. You may perform 2D display by implementing the process which thins out the video signal for right eyes. In that case, the switching process between the decoding process and the demultiplexing process is eliminated, and effects such as a reduction in switching time and simplification of software processing can be expected.

<Side-by-Side方式/Top-and-Bottom方式の3Dコンテンツの3D出力/表示処理>
次に1つの映像ESに左目用映像と右目用映像が存在する場合(例えばSide-by-Side方式やTop-and-Bottom方式のように1つの2D画面中に左目用映像と右目用映像とを格納する場合)の3Dコンテンツの再生処理を説明する。上記と同様にユーザーが3D映像への切替指示を行った場合、前記キーコードを受信したユーザー指示受信部52は、システム制御部51に対して3D映像への切替を指示する(なお、以下の処理は、Side-by-Side方式やTop-and-Bottom方式の3Dコンテンツの2D出力/表示へのユーザー切替指示以外の条件で2D出力/表示に切り替える場合でも同様の処理を行う)。次に、システム制御部51は、同様に上記の方法で現在の番組が3D番組か否かを判定する。
<3D output / display processing of 3D content in Side-by-Side format / Top-and-Bottom format>
Next, when there is a left-eye video and a right-eye video in one video ES (for example, a left-eye video and a right-eye video in one 2D screen as in the Side-by-Side method and the Top-and-Bottom method) 3D content playback processing will be described. When the user instructs to switch to 3D video in the same manner as described above, the user instruction receiving unit 52 that has received the key code instructs the system control unit 51 to switch to 3D video (note that The same processing is performed even when switching to 2D output / display under conditions other than the user switching instruction to 2D output / display of 3D content of the Side-by-Side system or Top-and-Bottom system). Next, the system control unit 51 similarly determines whether or not the current program is a 3D program by the above method.

現在の番組が3D番組であった場合には、システム制御部51はまず選局制御部59に対して、3D映像の出力を指示する。前記指示を受信した選局制御部59は、まず番組情報解析部54から3D映像を含む3D映像ESのPID(packet ID)、および符号化方式(例えばMPEG2,H.264/AVC等)を取得し、次に多重分離部29に対して前記3D映像ESを多重分離して映像復号部30に出力するよう制御し、また映像復号部30に符号化方式に応じた復号化処理を行い、復号した映像信号を映像変換処理部32に出力するように制御を行う。   If the current program is a 3D program, the system control unit 51 first instructs the channel selection control unit 59 to output 3D video. Upon receiving the instruction, the channel selection control unit 59 first obtains the PID (packet ID) of 3D video ES including 3D video and the encoding method (for example, MPEG2, H.264 / AVC, etc.) from the program information analysis unit 54. Then, the demultiplexing unit 29 is controlled to demultiplex and output the 3D video ES to the video decoding unit 30, and the video decoding unit 30 is subjected to a decoding process according to the encoding method to perform decoding. Control is performed so that the processed video signal is output to the video conversion processing unit 32.

ここで、システム制御部51は映像変換制御部61に対して、3D出力処理を行うように指示を行う。前記指示をシステム制御部51から受信した映像変換制御部61は、入力された映像信号を左目用映像と右目用映像に分離してスケーリング等の加工(詳細は後述する)を行うように映像変換処理部32に対して指示を行う。映像変換処理部32は変換した映像信号を映像出力41から出力する、または受信装置4が備えるディスプレイ47に映像を表示する。   Here, the system control unit 51 instructs the video conversion control unit 61 to perform 3D output processing. Upon receiving the instruction from the system control unit 51, the video conversion control unit 61 converts the input video signal into a left-eye video and a right-eye video and performs processing such as scaling (details will be described later). An instruction is given to the processing unit 32. The video conversion processing unit 32 outputs the converted video signal from the video output 41 or displays the video on the display 47 provided in the receiving device 4.

当該3D映像の再生/出力/表示方法について、図39を用いて説明する。   The 3D video playback / output / display method will be described with reference to FIG.

図39(a)は、Side-by-Side方式またはTop-and-Bottom方式の3Dコンテンツの左右の視点の映像を交互に表示、出力するフレームシーケンシャル方式の出力、表示に対応する再生/出力/表示方法の説明図である。符号化映像としてSide-by-Side方式、Top-and-Bottom方式の説明を併記して図示しているが、両者の異なる点は左目用映像と右目用映像の映像内の配置が異なる点のみのため、以下の説明ではSide-by-Side方式を用いて説明し、Top-and-Bottom方式の説明を省略する。図の左側のフレーム列(L1/R1,L2/R2,L3/R3・・・)が、左目用と右目用の映像が1フレームの左側/右側に配置されたSide-by-Side方式映像信号を表している。映像復号部30では、左目用と右目用の映像1フレームの左側/右側に配置された状態のSide-by-Side方式映像信号が復号され、映像変換処理部32では、前記復号されたSide-by-Side方式映像信号の各フレームを左目用映像と右目用映像になるように左右分離して、さらにスケーリング(出力映像の横サイズに合うように伸張/補間、または圧縮/間引等を実施)をする。さらに、図の右側のフレーム列(L1,R1,L2,R2,L3,R3,・・・・・・)で表すように、交互にフレームを映像信号として出力する。   FIG. 39 (a) shows a frame sequential output that alternately displays and outputs video from the left and right viewpoints of 3D content in the Side-by-Side format or the Top-and-Bottom format, and the playback / output / It is explanatory drawing of a display method. The descriptions of Side-by-Side and Top-and-Bottom are shown together as encoded video, but the only difference between the two is the difference in the arrangement of the left-eye video and the right-eye video in the video. Therefore, in the following description, description will be made using the Side-by-Side method, and description of the Top-and-Bottom method will be omitted. The left-side frame sequence (L1 / R1, L2 / R2, L3 / R3...) Is a side-by-side video signal in which left-eye and right-eye images are arranged on the left / right side of one frame. Represents. The video decoding unit 30 decodes the side-by-side video signal arranged on the left / right side of the left-eye and right-eye video frames, and the video conversion processing unit 32 decodes the decoded Side- Each frame of the by-Side video signal is separated into left and right images so that it becomes a left-eye image and a right-eye image, and is further scaled (expanded / interpolated or compressed / decimated to match the horizontal size of the output image) )do. Further, as represented by the right frame sequence (L1, R1, L2, R2, L3, R3,...), Frames are alternately output as video signals.

図39(a)において、交互にフレームを出力/表示する出力/表示映像に変換した後の処理および、3D視聴補助装置への同期信号や制御信号の出力等については、既に説明した、図37(a)で説明した3D2視点別ES伝送方式の3Dコンテンツの3D再生/出力/表示処理と同様であるため、説明を省略する。   In FIG. 39 (a), the processing after the conversion to the output / display video for alternately outputting / displaying the frame, the output of the synchronization signal and the control signal to the 3D viewing assistance device, etc. have already been described. Since this is the same as the 3D playback / output / display processing of 3D content in the 3D2 viewpoint-specific ES transmission method described in (a), description thereof is omitted.

図39(b)は、Side-by-Side方式またはTop-and-Bottom方式の3Dコンテンツの左右の視点の映像をディスプレイの異なる領域に表示する方式の出力、表示に対応する再生/出力/表示方法の説明図である。図39(a)と同様に、符号化映像としてSide-by-Side方式、Top-and-Bottom方式の説明を併記して図示しているが、両者の異なる点は左目用映像と右目用映像の映像内の配置が異なる点のみのため、以下の説明ではSide-by-Side方式を用いて説明し、Top-and-Bottom方式の説明を省略する。図の左側のフレーム列(L1/R1,L2/R2,L3/R3・・・)が、左目用と右目用の映像が1フレームの左側/右側に配置されたSide-by-Side方式映像信号を表している。映像復号部30では、左目用と右目用の映像1フレームの左側/右側に配置された状態のSide-by-Side方式映像信号が復号され、映像変換処理部32では、前記復号されたSide-by-Side方式映像信号の各フレームを左目用映像と右目用映像になるように左右分離して、さらにスケーリング(出力映像の横サイズに合うように伸張/補間、または圧縮/間引等を実施)をする。さらに、スケーリングした左目用映像と右目用映像とを異なる異なる領域に出力、表示する。図37(b)での説明と同様に、ここで、異なる領域に表示するとは、例えば、ディスプレイの奇数ラインと偶数ラインをそれぞれ主視点(左目)用、副視点(右目)用の表示領域として表示する等の方法がある。その他、異なる領域への表示処理および偏光方式の表示装置での表示方法等は、図37(b)で説明した3D2視点別ES伝送方式の3Dコンテンツの3D再生/出力/表示処理と同様であるため、説明を省略する。   FIG. 39 (b) shows the output of the method of displaying the left and right viewpoint video of the 3D content of the Side-by-Side method or Top-and-Bottom method in different areas of the display, and playback / output / display corresponding to the display. It is explanatory drawing of a method. As in FIG. 39 (a), descriptions of side-by-side and top-and-bottom methods are shown together as encoded video, but the difference between the two is that the video for the left eye and the video for the right eye In the following description, description will be made using the Side-by-Side method, and description of the Top-and-Bottom method will be omitted. The left-side frame sequence (L1 / R1, L2 / R2, L3 / R3...) Is a side-by-side video signal in which left-eye and right-eye images are arranged on the left / right side of one frame. Represents. The video decoding unit 30 decodes the side-by-side video signal arranged on the left / right side of the left-eye and right-eye video frames, and the video conversion processing unit 32 decodes the decoded Side- Each frame of the by-Side video signal is separated into left and right images so that it becomes a left-eye image and a right-eye image, and is further scaled (expanded / interpolated or compressed / decimated to match the horizontal size of the output image) )do. Further, the scaled left-eye video and right-eye video are output and displayed in different areas. Similar to the description in FIG. 37 (b), displaying in different areas means, for example, that the odd lines and even lines of the display are used as the display areas for the main viewpoint (left eye) and the sub viewpoint (right eye), respectively. There are methods such as displaying. In addition, the display processing in different areas, the display method in the polarization type display device, and the like are the same as the 3D playback / output / display processing of 3D content of the 3D2 viewpoint-specific ES transmission method described in FIG. Therefore, the description is omitted.

図39(b)の方式では、ディスプレイの垂直解像度と入力映像の垂直解像度とが同じであっても、左目用映像と右目用映像とをそれぞれディスプレイの奇数ラインと偶数ラインに出力、表示する場合は、それぞれの垂直の解像度を減らす必要がある場合があるが、このような場合も上記スケーリング処理において、左目用映像と右目用映像の表示領域の解像度に対応した間引を実施すればよい。   In the method of FIG. 39 (b), when the vertical resolution of the display and the vertical resolution of the input video are the same, the left-eye video and the right-eye video are output and displayed on the odd-numbered line and the even-numbered line of the display, respectively. In some cases, it is necessary to reduce the vertical resolution of each, but in such a case as well, thinning corresponding to the resolution of the display area of the left-eye video and the right-eye video may be performed in the scaling process.

<Side-by-Side方式/Top-and-Bottom方式の3Dコンテンツの2D出力/表示処理>
Side-by-Side方式またはTop-and-Bottom方式の3Dコンテンツの2D表示を行う場合の各部の動作について下記に説明する。ユーザーが2D映像への切替指示(例えばリモコンの「2D」キー押下)を行った場合、前記キーコードを受信したユーザー指示受信部52は、システム制御部51に対して2D映像への信号切替を指示する(なお、以下の処理は、Side-by-Side方式またはTop-and-Bottom方式の3Dコンテンツの2D出力/表示へのユーザー切替指示以外の条件で2D出力/表示に切り替える場合でも同様の処理を行う)。前記指示を受信したシステム制御部51は映像変換制御部61に対して、2D映像の出力を指示する。前記指示をシステム制御部51から受信した映像変換制御部61は、映像変換処理部32に入力された前記映像信号に対して、2D映像出力を行うように制御を行う。
<2D output / display processing of 3D content in Side-by-Side format / Top-and-Bottom format>
The operation of each unit when performing 2D display of 3D content in Side-by-Side format or Top-and-Bottom format will be described below. When the user gives an instruction to switch to 2D video (for example, pressing the “2D” key on the remote control), the user instruction receiving unit 52 that has received the key code instructs the system control unit 51 to switch the signal to 2D video. (Note that the following processing is the same even when switching to 2D output / display under conditions other than the user switching instruction to 2D output / display of 3D content in the Side-by-Side format or Top-and-Bottom format) Process). The system control unit 51 that has received the instruction instructs the video conversion control unit 61 to output 2D video. The video conversion control unit 61 that has received the instruction from the system control unit 51 performs control so that 2D video output is performed on the video signal input to the video conversion processing unit 32.

映像の2D出力/表示方法について、図40を用いて説明する。図40(a)はSide-by-Side方式、図40(b)はTop-and-Bottom方式の説明を図示しており、どちらも左目用映像と右目用映像の映像内の配置が異なるのみのため、説明は図40(a)のSide-by-Side方式を用いて説明する。図の左側のフレーム列(L1/R1,L2/R2,L3/R3・・・)が、左目用と右目用の映像信号が、1フレームの左側/右側に配置されたSide-by-Side方式映像信号を表している。映像変換処理部32では、前記入力されたSide-by-Side方式映像信号の各フレームを左右の左目用映像、右目用映像の各フレームに分離した後、主視点映像(左目用映像)部分のみをスケーリングし、図の右側のフレーム列(L1,L2,L3,・・・・・・)で表すように、主視点映像(左目用映像)のみを映像信号として出力する。   A video 2D output / display method will be described with reference to FIG. FIG. 40 (a) illustrates the Side-by-Side method, and FIG. 40 (b) illustrates the Top-and-Bottom method. Both differ only in the arrangement of the left-eye video and the right-eye video. Therefore, the description will be made using the Side-by-Side method of FIG. The left-side frame sequence (L1 / R1, L2 / R2, L3 / R3...) Is a side-by-side system in which video signals for left eye and right eye are arranged on the left / right side of one frame. Represents a video signal. The video conversion processing unit 32 separates each frame of the input side-by-side video signal into left and right left-eye video and right-eye video frames, and then only the main viewpoint video (left-eye video) portion. Is scaled, and only the main viewpoint video (left-eye video) is output as a video signal as represented by the right frame sequence (L1, L2, L3,...).

映像変換処理部32は、上記処理を行った映像信号について、2D映像として映像出力41から出力し、制御信号43から制御信号を出力する。このようにして2D出力/表示を行う。   The video conversion processing unit 32 outputs the processed video signal as a 2D video from the video output 41 and outputs a control signal from the control signal 43. In this way, 2D output / display is performed.

なお、Side-by-Side方式やTop-and-Bottom方式の3Dコンテンツを、1画像に2視点格納したそのままの2D出力/表示を行う例も図40(c)(d)に示す。例えば、図36のように、受信装置と視聴装置が別構成の場合などにおいて、受信装置からは復号したSide-by-Side方式やTop-and-Bottom方式の映像を1画像に2視点格納した映像のまま出力し、視聴装置で3D表示のための変換をおこなってもよい。   FIGS. 40C and 40D also show an example of performing 2D output / display of 3D content of the Side-by-Side system or Top-and-Bottom system as it is, with 2 viewpoints stored in one image. For example, as shown in FIG. 36, when the receiving device and the viewing device have different configurations, the receiving device stores the decoded side-by-side or top-and-bottom video in two viewpoints in one image. The video may be output as it is, and the viewing device may perform conversion for 3D display.

<現番組が3Dコンテンツであるか否かに基づく2D/3D映像表示処理フローの例>
次に、現番組が3Dコンテンツである場合、または現番組が3Dコンテンツになった場合のコンテンツの出力/表示処理について説明する。現番組が3Dコンテンツ番組である場合または3Dコンテンツ番組になった場合の3Dコンテンツの視聴に関して、無条件で3Dコンテンツの表示が開始されてしまうと、ユーザは当該コンテンツを視聴することはできず、ユーザの利便性を損ねるおそれがある。これに対し、以下に示す処理を行うことで、ユーザの利便性を向上させることができる。
<Example of 2D / 3D video display processing flow based on whether or not the current program is 3D content>
Next, content output / display processing when the current program is 3D content or when the current program becomes 3D content will be described. When viewing the 3D content when the current program is a 3D content program or when it becomes a 3D content program, if the display of the 3D content is unconditionally started, the user cannot view the content. There is a possibility that the convenience of the user is impaired. On the other hand, user convenience can be improved by performing the following processing.

図41は、番組の切り替わり時における現在番組や番組情報の変更などの契機で実行されるシステム制御部51の処理フローの一例である。図41の例では、2D番組でも、3D番組でも、まずは一方の視点(例えば主視点)の映像の2D表示を行うフローである。   FIG. 41 is an example of a processing flow of the system control unit 51 that is executed when the current program or program information is changed at the time of program switching. In the example of FIG. 41, the flow is for performing 2D display of video from one viewpoint (for example, the main viewpoint) for both 2D programs and 3D programs.

システム制御部51は番組情報解析部54から現在の番組の番組情報を取得し、現在の番組が3D番組か否かを上記の3D番組の判定方法により判定し、さらに現在の番組の3D方式種別(例えば2視点別ES伝送方式/Side-by-Side方式など、例えば3D番組詳細記述子に記載の3D方式種別から判断)を同様に番組情報解析部54から取得する(S401)。なお、現在番組の番組情報の取得は、番組の切り替わり時に限らず、定期的に取得しても良い。   The system control unit 51 acquires the program information of the current program from the program information analysis unit 54, determines whether or not the current program is a 3D program by the above 3D program determination method, and further determines the 3D system type of the current program (For example, determination based on the 3D system type described in the 3D program detail descriptor, such as 2-view ES transmission system / Side-by-Side system) is obtained from the program information analysis unit 54 in the same manner (S401). The acquisition of the program information of the current program is not limited to when the program is switched, and may be acquired periodically.

判定の結果、現在の番組が3D番組で無い場合(S402のno)、2Dの映像を2Dで表示するように制御を行う(S403)。   As a result of the determination, if the current program is not a 3D program (No in S402), control is performed so that 2D video is displayed in 2D (S403).

現在の番組が3D番組の場合(S402のyes)、システム制御部51は、図38や図40(a)(b)で説明した方法で、それぞれの3D方式種別に対応した形式で3D映像信号の一方の視点(例えば主視点)を2D表示するように制御を行う(S404)。このとき、3D番組である旨を示す表示を番組の2D表示映像に重畳して表示してもよい。このようにして、現在の番組が3D番組の場合に、一方の視点(例えば主視点)の映像を2D表示する。   When the current program is a 3D program (Yes in S402), the system control unit 51 uses the method described in FIGS. 38 and 40 (a) and 40 (b) to generate a 3D video signal in a format corresponding to each 3D system type. Control is performed so that one of the viewpoints (for example, the main viewpoint) is displayed in 2D (S404). At this time, a display indicating that the program is a 3D program may be displayed superimposed on the 2D display video of the program. In this way, when the current program is a 3D program, the video from one viewpoint (for example, the main viewpoint) is displayed in 2D.

なお、選局動作を行い、現在の番組が変更になった場合にも、システム制御部51において上記のフローが実施される。   Even when the channel selection operation is performed and the current program is changed, the above-described flow is performed in the system control unit 51.

このように、現在番組が3D番組である場合に、とりあえず一方の視点(例えば主視点)の映像の2D表示とする。これにより、ユーザが3D視聴補助装置を装着していない等、ユーザの3D視聴準備が整っていなくとも、ユーザはとりあえず2D番組とほぼ同様に視聴することが可能となる。特に、Side-by-Side方式やTop-and-Bottom方式の3Dコンテンツの場合には、図40(c)(d)に示すように、1画像に2視点格納した映像のまま出力するのではなく、図40(a)(b)に示すように、一方の視点の2D出力/表示とすることにより、1画像に2視点格納した映像を一方の視点のを2D表示する指示を、リモコン等を介してユーザが手動で行わなくとも、ユーザが通常の2D番組と同様に視聴することが可能となる。   As described above, when the current program is a 3D program, the video of one viewpoint (for example, the main viewpoint) is displayed in 2D for the time being. As a result, even if the user is not ready for 3D viewing, such as when the user is not wearing a 3D viewing assistance device, the user can view almost the same as the 2D program for the time being. In particular, in the case of 3D content in the Side-by-Side format or Top-and-Bottom format, as shown in FIGS. As shown in FIGS. 40 (a) and 40 (b), an instruction for 2D display of one viewpoint from a video stored in two viewpoints in one image by using 2D output / display of one viewpoint, a remote control or the like Even if the user does not perform it manually, it is possible for the user to view the program in the same way as a normal 2D program.

次に、図42は、例えばステップS404で映像を2D表示するとともにシステム制御部51がOSD作成部60に表示させるメッセージの一例である。ユーザーに3D番組が開始されたことを通知するメッセージを表示し、さらにユーザーが応答を行うオブジェクト(以下ユーザー応答受信オブジェクト:例えばOSD上のボタン)1602を表示し、その後の動作を選択させる。   Next, FIG. 42 shows an example of a message that is displayed in 2D in step S404 and the system control unit 51 displays on the OSD creation unit 60, for example. A message notifying the user that the 3D program has started is displayed, and an object (hereinafter referred to as a user response receiving object: for example, a button on the OSD) 1602 to which the user responds is displayed, and the subsequent operation is selected.

メッセージ1601表示時、例えばユーザーがリモコンの“OK”ボタンを押下した場合、ユーザー指示受信部52は“OK”が押下されたことをシステム制御部51に通知する。   When the message 1601 is displayed, for example, when the user presses the “OK” button on the remote controller, the user instruction receiving unit 52 notifies the system control unit 51 that “OK” has been pressed.

図42の画面表示におけるユーザー選択の判定方法の一例としては、ユーザーがリモコンを操作し、リモコンの<3D>ボタンを押下した場合または画面の「OK/3D」にカーソルを合わせリモコンの<OK>ボタンを押下した場合は、ユーザー選択は“3D切替”と判定する。   As an example of a user selection determination method in the screen display of FIG. 42, when the user operates the remote control and presses the <3D> button on the remote control, or moves the cursor to “OK / 3D” on the screen and <OK> on the remote control When the button is pressed, the user selection is determined as “3D switching”.

または、ユーザーがリモコンの<キャンセル>ボタンまたは<戻る>ボタンを押下した場合または画面の「キャンセル」にカーソルを合わせリモコンの<OK>を押下した場合は、ユーザー選択は“3D切替以外”と判定する。これ以外にも、例えばユーザーの3D視聴準備が完了したか否かの状態(3D視聴準備状態)がOKになる動作が行われた場合(例えば3Dメガネ装着)には、ユーザー選択は“3D切替”となる。   Or, when the user presses the <Cancel> button or <Return> button on the remote control, or when the cursor is placed on "Cancel" on the screen and <OK> is pressed on the remote control, the user selection is determined to be "other than 3D switching" To do. In addition to this, for example, when an operation is performed in which the state of whether or not the user is ready for 3D viewing (3D viewing preparation state) is OK (for example, wearing 3D glasses), the user selection is “3D switching”. "

ユーザーが選択を行った後に実行されるシステム制御部51の処理フローについて、図43に示す。ユーザー選択結果を、システム制御部51はユーザー指示受信部52から取得する(S501)。ユーザー選択が、“3D切替”で無かった場合(S502のno)、映像は2D表示のまま終了し、特に処理は行わない。   FIG. 43 shows a processing flow of the system control unit 51 executed after the user makes a selection. The system control unit 51 acquires the user selection result from the user instruction receiving unit 52 (S501). If the user selection is not “3D switching” (No in S502), the video ends in 2D display, and no processing is performed.

ユーザーの選択が“3D切替”であった場合(S502のyes)、上記の3D表示方法で映像を3D表示(S504)する。   When the user's selection is “3D switching” (yes in S502), the video is displayed in 3D by the above 3D display method (S504).

以上のフローにより、3D番組開始時には、一方の視点の映像を2D出力/表示しておき、ユーザーが操作や3D視聴準備などを行った後など、ユーザが3D視聴を行いたいときに、3D映像を出力/表示して映像を3Dで視聴をすることが可能となり、ユーザの都合に合せた視聴方法を提供することができる。   With the above flow, when the 3D program starts, the video of one viewpoint is output / displayed in 2D, and the user wants to perform 3D viewing, such as after the user prepares for operation or 3D viewing, etc. Can be output / displayed to view the video in 3D, and a viewing method suited to the convenience of the user can be provided.

なお、図42の表示例では、ユーザーが応答を行うためのオブジェクトを表示したが、単純に「3D番組」等、当該番組が「3D視聴」に対応した番組であることを単に示す文字または、ロゴ、マーク等を表示するのみでもよい。この場合は、「3D視聴」に対応した番組であることを認識したユーザがリモコンの「3D」キーを押下げ、当該リモコンからの信号を受信したユーザー指示受信部52からシステム制御部51への通知を契機に2D表示から3D表示に切り替えを行えばよい。   In the display example of FIG. 42, the object for the user to respond to is displayed. However, a character that simply indicates that the program is a program corresponding to “3D viewing”, such as “3D program”, or It is also possible to display only a logo, a mark or the like. In this case, the user who has recognized that the program is compatible with “3D viewing” depresses the “3D” key of the remote controller and receives the signal from the remote controller from the user instruction receiver 52 to the system controller 51. Switching from 2D display to 3D display is triggered by the notification.

さらに、ステップS404で表示するメッセージ表示の別の例としては、図42のように単純にOKだけでなく、番組の表示方式を2D映像にするか3D映像にするかを明記する方法も考えられる。その場合のメッセージと、ユーザー応答受信オブジェクトの例を図44に示す。   Furthermore, as another example of the message display displayed in step S404, a method of clearly indicating whether the program display method is 2D video or 3D video as well as simply OK as shown in FIG. . FIG. 44 shows an example of the message and the user response reception object in that case.

このようにすると図42のような“OK”の表示に比べ、ユーザーがボタン押下後の動作をより判断しやすくなる他、明示的に2Dでの表示を指示できるなど(1202に記載の“2Dで見る”押下時には、ユーザー3D視聴準備状態をNGと判定)、利便性が高まる。   This makes it easier for the user to determine the operation after the button is pressed as compared to the “OK” display as shown in FIG. 42, and allows the user to explicitly indicate a 2D display (see “2D described in 1202”). When “view with” is pressed, the user 3D viewing preparation state is determined to be NG), and convenience is improved.

次に、3Dコンテンツの視聴に関して、3D番組視聴開始時に、特定の映像/音声を出力、または映像/音声をミュート(黒画面表示/表示停止、音声出力を停止)する例について説明する。これはユーザーが3D番組を視聴開始した場合に。無条件で3Dコンテンツの表示が開始されてしまうと、ユーザは当該コンテンツを視聴することはできず、ユーザの利便性を損ねるおそれがある。これに対し、以下に示す処理を行うことで、ユーザの利便性を向上させることができる。 この場合の3D番組開始時にシステム制御部51で実行される処理フローを図45に示す。図41の処理フローと異なる点は、S404の処理に代わり、特定映像音声を出力するステップ(S405)が追加された点である。   Next, an example in which specific video / audio is output or video / audio is muted (black screen display / display stop, audio output is stopped) when 3D program viewing is started will be described. This is when the user starts viewing a 3D program. If the display of the 3D content is started unconditionally, the user cannot view the content, and there is a possibility that the convenience of the user is impaired. On the other hand, user convenience can be improved by performing the following processing. FIG. 45 shows a processing flow executed by the system control unit 51 at the start of the 3D program in this case. A difference from the processing flow of FIG. 41 is that a step (S405) of outputting specific video and audio is added instead of the processing of S404.

ここでいう特定映像音声とは、例えば映像であれば、3D準備を促すメッセージ、黒画面、番組の静止画、などが挙げられ、音声としては、無音、または固定パターンの音楽(環境音楽)などが挙げられる。   The specific video / audio here includes, for example, a 3D preparation message, a black screen, a still image of a program, etc. for video, and the audio includes silence or fixed pattern music (environmental music), etc. Is mentioned.

固定パターン映像(メッセージや環境映像、または3D映像等)の表示については、映像復号部30内部または図に記載していないROMまたは記録媒体26からデータを読み出し、映像復号部30が復号して出力することにより実現できる。黒画面の出力については、例えば映像復号部30が黒色を表す信号のみの映像を出力する、または映像変換処理部32が出力信号のミュートまたは黒映像の出力することにより実現できる。   For display of fixed pattern video (message, environment video, 3D video, etc.), data is read from the video decoding unit 30 or from a ROM or recording medium 26 not shown in the figure, and the video decoding unit 30 decodes and outputs the data. This can be achieved. The output of the black screen can be realized, for example, by the video decoding unit 30 outputting only the video signal indicating black, or the video conversion processing unit 32 muting the output signal or outputting the black video.

また、固定パターン音声(無音、環境音楽)の場合も同様に、音声復号部31の内部またはROMまたは記録媒体26からデータを読み出して復号出力、出力信号のミュート等により実現できる。   Similarly, in the case of fixed pattern sound (silence, environmental music), it can be realized by reading out data from the inside of the sound decoding unit 31 or from the ROM or the recording medium 26, decoding output, muting output signals, and the like.

番組映像の静止画の出力については、システム制御部51から記録再生制御部58に対して、番組の再生および映像の一時停止を指示することにより実現できる。ユーザー選択を実施した後のシステム制御部51の処理は上記と同様、図43のように実行する。   The output of the still image of the program video can be realized by instructing the recording / playback control unit 58 from the system control unit 51 to play back the program and pause the video. The processing of the system control unit 51 after the user selection is executed as shown in FIG.

これによりユーザーが3D視聴準備を完了するまでの間、番組の映像や音声を出力しないことが可能になる。   This makes it possible to prevent the program video and audio from being output until the user completes preparation for 3D viewing.

前記の例と同様に、ステップS405で表示するメッセージ表示としては、図46のようになる。図42と異なる点は、表示されている映像および音声が異なるのみで、ひょうじされるメッセージやユーザー応答受信オブジェクトの構成、ユーザー応答受信オブジェクトの動作も同様である。   Similar to the above example, the message display displayed in step S405 is as shown in FIG. The difference from FIG. 42 is that only the displayed video and audio are different, and the displayed message, the configuration of the user response receiving object, and the operation of the user response receiving object are the same.

メッセージの表示については図46のように単純にOKだけでなく、番組の表示方式を2D映像にするか3D映像にするかを明記する方法も考えられる。その場合のメッセージと、ユーザー応答受信オブジェクトの例も図44と同様に表示可能であり、このようにすると前記のような“OK”の表示に比べ、ユーザーがボタン押下後の動作をより判断しやすくなる他、明示的に2Dでの表示を指示できるなど、前記の例と同様に利便性が高まる。   As for the message display, not only simply OK as shown in FIG. 46, but also a method of clearly specifying whether the display method of the program is 2D video or 3D video. In this case, the message and an example of the user response receiving object can be displayed in the same manner as in FIG. 44. In this way, the user can judge the operation after pressing the button more than the display of “OK” as described above. In addition to facilitating the convenience, it is possible to explicitly instruct display in 2D, and the convenience is improved as in the above example.

<次番組が3Dコンテンツであるか否かに基づく2D/3D映像表示処理フローの例>
次に、次番組が3Dコンテンツである場合のコンテンツの出力/表示処理について説明する。次番組が3Dコンテンツである場合の当該次番組である3Dコンテンツ番組の視聴に関して、ユーザが3Dコンテンツを視聴する状態ではないにもかかわらず、3Dコンテンツの表示が開始されてしまうと、ユーザはベストの状態で当該コンテンツを視聴することはできず、ユーザの利便性を損ねるおそれがある。これに対し、以下に示す処理を行うことで、ユーザの利便性を向上させることができる。
<Example of 2D / 3D video display processing flow based on whether the next program is 3D content>
Next, content output / display processing when the next program is 3D content will be described. Regarding the viewing of the 3D content program that is the next program when the next program is 3D content, if the user is not in a state of viewing the 3D content and the display of the 3D content starts, the user is best. In such a state, the content cannot be viewed, which may impair user convenience. On the other hand, user convenience can be improved by performing the following processing.

図27では、選局処理などにより次の番組開始までの時間が変化した場合や、放送局から送信される番組情報のEITに含まれる次番組の開始時刻または現在番組の終了時刻情報などにより、次の番組の開始時刻が変化したと判定した場合などに、システム制御部51で実行されるフローの一例である。まずシステム制御部51は番組情報解析部54から次の番組の番組情報を取得し(S101)、前記3D番組の判定方法により、次番組が3D番組か否かを判定する。   In FIG. 27, when the time until the start of the next program changes due to channel selection processing or the like, or by the start time of the next program or the end time information of the current program included in the EIT of the program information transmitted from the broadcast station, It is an example of the flow performed by the system control unit 51 when it is determined that the start time of the next program has changed. First, the system control unit 51 acquires program information of the next program from the program information analysis unit 54 (S101), and determines whether or not the next program is a 3D program by the 3D program determination method.

次番組が3D番組でない場合(S102のno)、特に処理は行わずに終了する。次番組が3D番組の場合(S102のyes)、次番組の開始までの時間を計算する。具体的には前記取得した番組情報のEITから次番組の開始時刻または現在番組の終了時刻を取得し、時間管理部55から現在時刻を取得して、その差分を計算する。   If the next program is not a 3D program (No in S102), the process ends without performing any particular process. When the next program is a 3D program (yes in S102), the time until the start of the next program is calculated. Specifically, the start time of the next program or the end time of the current program is acquired from the EIT of the acquired program information, the current time is acquired from the time management unit 55, and the difference is calculated.

次番組開始までX分以下で無い場合(S103のno)、特に処理を行わずに次番組開始X分前となるまで待つ。次番組開始までX分以下の場合(S103のyes)、ユーザーに対して、3D番組がもうすぐ始まる旨のメッセージを表示する(S104)。   If it is not less than X minutes until the next program start (No in S103), the process waits until X minutes before the next program start without any particular processing. When it is X minutes or less until the next program start (yes in S103), a message is displayed to the user that the 3D program will start soon (S104).

図28にその際のメッセージ表示の例を示す。701が装置が表示する画面全体、702に装置が表示するメッセージを示している。このようにして、3D番組が開始される以前に、ユーザーに対して3D視聴補助装置を準備させるように注意を促すことが可能となる。   FIG. 28 shows an example of message display at that time. Reference numeral 701 denotes an entire screen displayed by the apparatus, and reference numeral 702 denotes a message displayed by the apparatus. In this way, it is possible to alert the user to prepare the 3D viewing assistance device before the 3D program is started.

上記番組開始前までの判定時間Xについては、Xを小さくすると番組開始までにユーザーの3D視聴準備が間に合わない可能性がある。またXを大きくすると、長期間メッセージ表示が視聴の妨げになる、準備が完了した後に間が空いてしまうというデメリットがあるため、適度な時間に調整する必要がある。   As for the determination time X before the start of the program, if X is reduced, the user may not be ready for 3D viewing before the start of the program. Further, if X is increased, there is a demerit that message display is hindered for a long period of time, and there is a gap after preparation is completed, so it is necessary to adjust to an appropriate time.

また、ユーザーに対してメッセージを表示する際に、具体的に次の番組の開始時間を表示しても良い。その場合の画面表示例を図29に示す。802が3D番組開始までの時間を表示したメッセージである。ここでは分単位での記載を行っているが、秒単位で記載を行っても良い。その場合には、より詳細な次番組の開始時間をユーザーが知ることができるが、処理負荷が高くなるというデメリットもある。   Further, when displaying a message to the user, the start time of the next program may be specifically displayed. FIG. 29 shows a screen display example in that case. A message 802 displays the time until the start of the 3D program. Here, description is made in units of minutes, but description may be made in units of seconds. In that case, the user can know the start time of the next program in more detail, but there is a demerit that the processing load increases.

なお、図29には3D番組が開始されるまでの時間を表示する例を示したが、3D番組が開始される時刻を表示するようにしてもよい。午後9時に3D番組が開始される場合は、例えば「午後9時から3D番組が始まります。3Dメガネを着用して下さい。」というメッセージを表示すればよい。
このようなメッセージを表示することにより、ユーザーが具体的な次番組の開始時間を知り適切なペースで3D視聴の準備を行うことが可能になる。
In addition, although the example which displays the time until a 3D program is started was shown in FIG. 29, you may make it display the time when a 3D program starts. When the 3D program starts at 9:00 pm, for example, a message “3D program starts from 9:00 pm. Please wear 3D glasses” may be displayed.
By displaying such a message, the user can know the specific start time of the next program and prepare for 3D viewing at an appropriate pace.

また、図30のように、3D視聴補助装置使用時には立体的に見えるマーク(3Dチェックマーク)を付加することも考えられる。902が3D番組開始を予告するメッセージ、903が3D視聴補助装置使用時に立体に見えるマークである。これにより、3D番組開始前に、ユーザーが3D視聴補助装置の正常動作を確認することができる。例えば3D視聴補助装置に不具合(例えばバッテリー切れ、故障など)が発生した場合に、番組開始までに修理や交換等の対応を行うことも可能になる。   In addition, as shown in FIG. 30, it is also conceivable to add a mark (3D check mark) that looks stereoscopic when using the 3D viewing assistance device. 902 is a message for notifying the start of a 3D program, and 903 is a mark that looks three-dimensional when the 3D viewing assistance device is used. Thereby, the user can confirm the normal operation of the 3D viewing assistance device before the start of the 3D program. For example, when a malfunction (for example, battery exhaustion or failure) occurs in the 3D viewing assistance device, it is possible to take measures such as repair or replacement before the program starts.

次に、次番組が3Dであることをユーザーに通知した後、ユーザーの3D視聴準備が完了したか否かの状態(3D視聴準備状態)を判定し、3D番組の映像を2D表示または3D表示に切り替える方法について説明する。   Next, after notifying the user that the next program is 3D, it is determined whether or not the user is ready for 3D viewing (3D viewing preparation state), and the video of the 3D program is displayed in 2D or 3D. A method of switching to will be described.

次番組が3Dであることをユーザーに通知する方法については、上述したとおりである。ただし、ステップS104でユーザーに表示するメッセージについて、ユーザーが応答を行うオブジェクト(以下ユーザー応答受信オブジェクト:例えばOSD上のボタン)が表示されている点が異なる。このメッセージの例について図31に示す。   The method for notifying the user that the next program is 3D is as described above. However, the message displayed to the user in step S104 is different in that an object to which the user responds (hereinafter, a user response receiving object: for example, a button on the OSD) is displayed. An example of this message is shown in FIG.

1001はメッセージ全体、1002はユーザーが応答を行うためのボタンを表している。図31のメッセージ1001表示時、例えばユーザーがリモコンの“OK”ボタンを押下した場合、ユーザー指示受信部52は“OK”が押下されたことをシステム制御部51に通知する。   Reference numeral 1001 denotes an entire message, and reference numeral 1002 denotes a button for a user to respond. When the message 1001 in FIG. 31 is displayed, for example, when the user presses the “OK” button on the remote controller, the user instruction receiving unit 52 notifies the system control unit 51 that “OK” has been pressed.

前記通知を受信したシステム制御部51は、ユーザーの3D視聴準備状態がOKであることを状態として保存する。次に時間が経過し、現在番組が3D番組になった場合のシステム制御部51の処理フローについて、図32を用いて説明する。   The system control unit 51 that has received the notification stores the state that the user's 3D viewing preparation state is OK as a state. Next, a processing flow of the system control unit 51 when time has elapsed and the current program becomes a 3D program will be described with reference to FIG.

システム制御部51は番組情報解析部54から現在の番組の番組情報を取得し(S201)、現在の番組が3D番組か否かを上記の3D番組の判定方法により判定する。現在の番組が3D番組で無い場合(S202のno)、上記の方法で映像を2D表示するように制御を行う(S203)。   The system control unit 51 acquires program information of the current program from the program information analysis unit 54 (S201), and determines whether or not the current program is a 3D program by the above-described 3D program determination method. When the current program is not a 3D program (No in S202), control is performed so that the video is displayed in 2D by the above method (S203).

現在の番組が3D番組の場合(S202のyes)、次にユーザーの3D視聴準備状態を確認する(S204)。システム制御部51が保存している前記3D視聴準備状態が、OKで無い場合(S205のno)、同様に映像を2D表示するように制御を行う(S203)。   If the current program is a 3D program (yes in S202), then the user's 3D viewing preparation status is confirmed (S204). If the 3D viewing preparation state stored by the system control unit 51 is not OK (No in S205), the control is similarly performed so that the video is displayed in 2D (S203).

前記3D視聴準備状態がOKの場合(S205のyes)、上記の方法で映像を3D表示するように制御を行う(S206)。このようにして、現在の番組が3D番組でかつユーザーの3D視聴準備が完了したことを確認できた場合に、映像の3D表示を行う。   When the 3D viewing preparation state is OK (Yes in S205), control is performed so that the video is displayed in 3D by the above method (S206). In this way, when it is confirmed that the current program is a 3D program and the user's 3D viewing preparation is completed, the video is displayed in 3D.

ステップS104で表示するメッセージ表示としては、図31のように単純にOKだけでなく、次番組の表示方式を2D映像にするか3D映像にするかを明記する方法も考えられる。その場合のメッセージと、ユーザー応答受信オブジェクトの例を図33および図34に示す。   As the message display displayed in step S104, not only simply OK as shown in FIG. 31, but also a method of clearly indicating whether the display method of the next program is 2D video or 3D video is conceivable. Examples of the message and the user response reception object in that case are shown in FIGS.

このようにすると前記のような“OK”の表示に比べ、ユーザーがボタン押下後の動作をより判断しやすくなる他、明示的に2Dでの表示を指示できるなど(1202に記載の“2Dで見る”押下時には、ユーザー3D視聴準備状態をNGと判定)、利便性が高まる。   In this way, compared to the “OK” display as described above, the user can more easily determine the operation after the button is pressed, and the user can explicitly instruct the display in 2D (see “2D in 1202”). When “view” is pressed, the user 3D viewing preparation state is determined to be NG, and convenience is enhanced.

また、ユーザーの3D視聴準備状態の判定は、ここではリモコンでのユーザーメニューの操作としているが、他にも例えば3D視聴補助装置が発信するユーザー装着完了信号により、前記3D視聴準備状態を判定する方法や、撮像装置でユーザーの視聴状態を撮影し、前記撮影結果から画像認識やユーザーの顔認識を行い、3D視聴補助装置を着用していることを判定しても良い。   The determination of the 3D viewing preparation state of the user is performed by operating the user menu on the remote controller here, but the 3D viewing preparation state is also determined by, for example, a user wearing completion signal transmitted by the 3D viewing assistance device, for example. A method or an imaging device may be used to photograph a user's viewing state, and image recognition or user's face recognition may be performed based on the photographing result to determine that a 3D viewing assistance device is worn.

このように判定することにより、ユーザーが何か受信装置に対して操作を行う手間を省くことが可能になり、さらに誤操作で2D映像視聴と3D映像視聴を誤って設定してしまうことを避けることが可能になる。   By making such a determination, it is possible to save the user from having to perform any operation on the receiving device, and to avoid erroneously setting 2D video viewing and 3D video viewing due to an erroneous operation. Is possible.

また、別の方法としては、ユーザーがリモコンの<3D>ボタンを押下した場合に、3D視聴準備状態をOKと判断、ユーザーがリモコンの<2D>ボタンまたは<戻る>ボタンまたは<キャンセル>ボタンを押下した場合に、3D視聴準備状態をNGと判定する方法もある。この場合は明確で容易にユーザーが自分の状態を装置に通知できるが、誤操作や誤解による状態送信などのデメリットも考えられる。   As another method, when the user presses the <3D> button on the remote control, the 3D viewing preparation state is determined to be OK, and the user presses the <2D> button, the <Return> button, or the <Cancel> button on the remote control. There is also a method of determining that the 3D viewing preparation state is NG when pressed. In this case, the user can clearly and easily notify the device of his / her state, but there are also disadvantages such as erroneous operation and state transmission due to misunderstanding.

また、上記例において、現在の番組の情報を取得せず、事前に取得した次の番組の番組情報のみを判定して処理を行うことも考えられる。この場合は、図32のステップS201において、現在の番組が3D番組かの判定を行なわず、事前に(例えば図27のステップS101)取得した番組情報を使用する方法も考えられる。この場合は処理構造が簡易になるなどのメリットが考えられるが、突如番組構成が変更になり、次番組が3D番組でなくなるような場合にも3D映像切替処理が実行される可能性があるなどのデメリットが存在する。   In the above example, it is also conceivable to perform processing by determining only the program information of the next program acquired in advance without acquiring information of the current program. In this case, a method of using program information acquired in advance (for example, step S101 in FIG. 27) without determining whether the current program is a 3D program in step S201 in FIG. 32 is also conceivable. In this case, there is a merit that the processing structure becomes simple. However, there is a possibility that the 3D video switching process may be executed even when the program configuration is suddenly changed and the next program is not a 3D program. There are disadvantages.

本実施例で説明した各ユーザーへのメッセージ表示については、ユーザー操作後に消去することが望ましい。その場合にはユーザーが操作を行った後には映像が視聴しやすいというメリットがある。また一定時間経過後についても同様に、ユーザーはすでにメッセージの情報を認識していると考え、メッセージを消去し、映像を視聴しやすい状態にすることがユーザーの利便性を高める。   The message display for each user described in this embodiment is preferably deleted after a user operation. In this case, there is an advantage that the video can be easily viewed after the user performs the operation. Similarly, after a certain period of time has elapsed, it is assumed that the user has already recognized the message information, and deleting the message to make it easy to view the video improves the user's convenience.

上記で説明した実施例によれば、3D番組の開始部分について、事前にユーザーが3D視聴準備を完了できたり、3D番組の開始に間に合わない場合には記録再生機能を用いてユーザーが3D番組を視聴する準備が完了してから再度映像表示をさせたりするなど、より良い状態でユーザーが3D番組を視聴することが可能になる。また、ユーザーにとって望ましいと思われる表示方法(3D映像を視聴したい場合に3D映像表示、またはその逆)へ映像表示を自動的に切り替えるなど、ユーザーの利便性を高めることが可能になる。また、選局により3D番組へと切り替えた場合や、記録されている3D番組の再生開始時なども同様の効果が期待できる。   According to the embodiment described above, the user can complete 3D viewing preparation in advance for the start portion of the 3D program, or the user can use the recording / playback function to start the 3D program when the 3D program is not ready for the start. The user can view the 3D program in a better state, such as displaying video again after preparation for viewing is completed. In addition, it is possible to improve user convenience, such as automatically switching the video display to a display method that is desirable for the user (3D video display when viewing 3D video, or vice versa). The same effect can be expected when switching to a 3D program by channel selection or when starting playback of a recorded 3D program.

以上の説明においては、図10(a)で説明した3D番組詳細記述子をPMT(Program Map Table)やEIT(Event Information Table)などのテーブルに配置して伝送する例を説明した。これに替えて、またはこれに加えて、当該3D番組詳細記述子に含まれる情報を映像符号化時に映像とともに符号化するユーザデータ領域や付加情報領域に格納して伝送してもよい。この場合、これらの情報は番組の映像ES内に含まれることとなる。   In the above description, an example has been described in which the 3D program detail descriptor described in FIG. 10A is arranged and transmitted in a table such as a PMT (Program Map Table) or an EIT (Event Information Table). Instead of this, or in addition to this, information included in the 3D program detail descriptor may be stored and transmitted in a user data area or an additional information area that is encoded together with the video during video encoding. In this case, these pieces of information are included in the program video ES.

格納する情報は、図10(b)で説明した3d_2d _type(3D/2D種別)情報や図11で説明した3d_method_type(3D方式種別)情報などが挙げられる。なお、格納する際には、3d_2d _type(3D/2D種別)情報と3d_method_type(3D方式種別)情報とは別情報でも良いが、3D映像か2D映像かの識別と、当該3D映像がどの3D方式であるかの識別とをあわせて識別する情報としてもよい。   Examples of information to be stored include the 3d_2d_type (3D / 2D type) information described in FIG. 10B and the 3d_method_type (3D method type) information described in FIG. When storing, the 3d_2d_type (3D / 2D type) information and the 3d_method_type (3D system type) information may be different information. It is good also as information which identifies together with identification of whether it is.

具体的には、映像符号化方式がMPEG2方式である場合には、Picture header、Picture Coding Extensionに続くユーザデータ領域に上記の3D/2D種別情報や3D方式種別情報を含めて符号化を行えばよい。   Specifically, when the video encoding method is the MPEG2 method, encoding is performed by including the 3D / 2D type information and the 3D method type information in the user data area following the Picture header and Picture Coding Extension. Good.

また、映像符号化方式がH.264/AVC方式である場合には、アクセスユニットに含まれる付加情報(supplemental enhancement information)領域に上記の3D/2D種別情報や3D方式種別情報を含めて符号化を行えばよい。   In addition, when the video encoding method is the H.264 / AVC method, the additional information (supplemental enhancement information) region included in the access unit is encoded including the 3D / 2D type information and the 3D method type information. Can be done.

このように、ES内の映像の符号化層において3D映像/2D映像の種別を表す情報や3D方式の種別を表す情報を伝送することにより、映像のフレーム(ピクチャー)単位での識別が可能になるという効果がある。   As described above, by transmitting the information indicating the type of 3D video / 2D video or the information indicating the type of 3D system in the video encoding layer in the ES, it is possible to identify the video in units of frames (pictures). There is an effect of becoming.

この場合、PMT(Program Map Table)に格納した場合よりも、短い単位で上記識別が可能となるため、送信される映像における3D映像/2D映像の切り替わりに対する受信機の応答速度を向上させることが可能となり、3D映像/2D映像切り替わり時に生じる可能性があるノイズなどをより抑えることが可能となる。   In this case, since the identification can be performed in a shorter unit than when stored in a PMT (Program Map Table), the response speed of the receiver with respect to switching of 3D video / 2D video in the transmitted video can be improved. This makes it possible to further suppress noise and the like that may occur when switching between 3D video / 2D video.

また、PMT(Program Map Table)には、上記3D番組詳細記述子を配置せず、映像符号化時に映像とともに符号化する映像符号化層に上記情報を格納する場合は、従来の2D放送の放送局で新たに2D/3D混在放送を開始する際に、例えば、放送局側は、図2の送信装置1におけるエンコード部12のみを新たに2D/3D混在放送に対応する構成とすればよく、管理情報付与部16で付加するPMT(Program Map Table)の構成を変更する必要がなく、より低コストに2D/3D混在放送を開始することが可能となる。   In addition, when the above information is stored in a video coding layer that is encoded together with a video at the time of video coding without placing the 3D program detail descriptor in a PMT (Program Map Table), a conventional 2D broadcast broadcast When a 2D / 3D mixed broadcast is newly started at a station, for example, the broadcast station only needs to configure only the encoding unit 12 in the transmission device 1 of FIG. 2 to newly support the 2D / 3D mixed broadcast. It is not necessary to change the configuration of the PMT (Program Map Table) added by the management information adding unit 16, and 2D / 3D mixed broadcasting can be started at a lower cost.

なお、映像符号化時に映像とともに符号化されるユーザデータ領域や付加情報領域などの所定領域に、3d_2d _type(3D/2D種別)情報や3d_method_type(3D方式種別)情報などの3D関連情報(特に3D/2Dを識別する情報)が格納されていない場合には、受信機は、当該映像は2D映像であると判断する構成にしてもよい。この場合、放送局は、2D映像については、符号化処理時にこれらの情報の格納を省略することも可能となり、放送における処理工数が低減できる。   It should be noted that 3D related information (particularly 3D) such as 3d_2d_type (3D / 2D type) information and 3d_method_type (3D method type) information is added to predetermined areas such as a user data area and additional information area that are encoded together with video during video encoding. / 2D identification information) is not stored, the receiver may be configured to determine that the video is a 2D video. In this case, for the 2D video, the broadcasting station can omit storing these pieces of information during the encoding process, and the processing man-hours in broadcasting can be reduced.

以上の説明において、番組(イベント)単位、サービス単位で3D映像を識別する識別情報を配置する例として、コンポーネント記述子、コンポーネントグループ記述子、サービス記述子、サービスリスト記述子などの番組情報に含める例や、新たに3D番組詳細記述子を設ける例を説明した。また、これらの記述子をPMT、EIT[schedule basic/schedule extended/present/following]、NIT、SDTなどのテーブルに含めて伝送することとした。   In the above description, as an example of arranging identification information for identifying 3D video in units of programs (events) and services, it is included in program information such as a component descriptor, a component group descriptor, a service descriptor, and a service list descriptor. The example which provided the 3D program detailed descriptor newly and the example was demonstrated. In addition, these descriptors are transmitted by being included in tables such as PMT, EIT [schedule basic / schedule extended / present / following], NIT, and SDT.

ここで、さらに別の例として、図48に示すコンテント記述子(Content descriptor)に3D番組(イベント)の識別情報を配置する例を説明する。   Here, as yet another example, an example will be described in which identification information of a 3D program (event) is arranged in a content descriptor shown in FIG.

図48は、番組情報の一つであるコンテント記述子の構造の一例を示す。コンテント記述子は、イベント(番組)のジャンルに関する情報を記述する。この記述子はEITに配置する。コンテント記述子には、イベント(番組)のジャンル情報のほか、番組特性を示す情報を記述できる。   FIG. 48 shows an example of the structure of a content descriptor that is one piece of program information. The content descriptor describes information on the genre of the event (program). This descriptor is placed in the EIT. In the content descriptor, in addition to event (program) genre information, information indicating program characteristics can be described.

コンテント記述子の構造は次の通りである。descriptor_tagは記述子自体を識別するための8ビットのフィールドで、この記述子がコンテント記述子と識別可能な値“0x54”が記載される。descriptor_lengthは8ビットのフィールドで、この記述子のサイズを記載している。
content_nibble_level_1(ジャンル1)は4ビットのフィールドで、コンテント識別の第一段階分類を表す。具体的には、番組ジャンルの大分類を記述する。番組特性を示す際には”0xE”を指定する。
content_nibble_level_2(ジャンル2)は4ビットのフィールドで、content_nibble_level_1(ジャンル1)より詳細なコンテント識別の第二段階分類を表す。具体的には、番組ジャンルの中分類を記述する。content_nibble_level1=”0xE”のときは、番組特性コード表の種類を記述する。
user_nibble(ユーザジャンル)は4ビットのフィールドで、content_nibble_level1=”0xE”としたときのみ、番組特性を記述する。その他の場合は、”0xFF”(未定義)とする。図48に示すようにuser_nibbleの4ビットのフィールドは二つ配置可能であり、当該二つのuser_nibbleの値の組合せ(以下、先に配置されるビットを「第1のuser_nibbleビット」、後に配置されるビットを「第2のuser_nibbleビット」と称する)により、番組特性を定義することができる。
The structure of the content descriptor is as follows. The descriptor_tag is an 8-bit field for identifying the descriptor itself, and a value “0x54” that can identify this descriptor as a content descriptor is described. descriptor_length is an 8-bit field and describes the size of this descriptor.
content_nibble_level_1 (genre 1) is a 4-bit field and represents the first stage classification of content identification. Specifically, the major classification of the program genre is described. Specify "0xE" to indicate program characteristics.
content_nibble_level_2 (genre 2) is a 4-bit field and represents the second stage classification of content identification in more detail than content_nibble_level_1 (genre 1). Specifically, the middle classification of the program genre is described. When content_nibble_level1 = “0xE”, the type of program characteristic code table is described.
user_nibble (user genre) is a 4-bit field and describes the program characteristics only when content_nibble_level1 = “0xE”. In other cases, it is set to “0xFF” (undefined). As shown in FIG. 48, two 4-bit fields of user_nibble can be arranged, and the combination of the values of the two user_nibble (hereinafter, the first arranged bit is “first user_nibble bit” and arranged later) Bits are referred to as “second user_nibble bits”) to define program characteristics.

当該コンテント記述子を受信した受信機は、descriptor_tagが“0x54”であれば、当該記述子はコンテント記述子と判断する。また、descriptor_lengthにより、本記述子で記述されるデータの終わりを判断できる。さらにdescriptor_lengthに示される長さ以下の部分の記述を有効と判断し、超えた部分の記述は無視して処理を行う。   If the descriptor_tag is “0x54”, the receiver that has received the content descriptor determines that the descriptor is a content descriptor. Further, the end of data described by this descriptor can be determined by descriptor_length. Further, it is determined that the description of the portion equal to or shorter than the length indicated by descriptor_length is valid, and the processing of the portion exceeding the length is ignored.

また、受信機は、content_nibble_level_1の値が“0xE”か否かを判断し、“0xE”ではないときは、番組ジャンルの大分類であると判断する。“0xE”ではないときはジャンルとして判断せず、後続のuser_nibble で何らかの番組特性が指定されていると判断する。   Further, the receiver determines whether or not the value of content_nibble_level_1 is “0xE”. If the value is not “0xE”, the receiver determines that the program category is a major category. When it is not “0xE”, it is not determined as a genre, and it is determined that some program characteristic is specified by the subsequent user_nibble.

受信機は、上記content_nibble_level_1の値が“0xE”でなかった場合には、content_nibble_level_2を番組ジャンルの中分類と判断し、番組ジャンルの大分類と共に、検索、表示等に利用する。上記content_nibble_level_1の値が“0xE”であった場合には、第1のuser_nibbleビットと第2のuser_nibbleビットの組合せにより定義される番組特性コード表の種類を示すと判断する。   If the value of the content_nibble_level_1 is not “0xE”, the receiver determines that the content_nibble_level_2 is a medium category of the program genre, and uses it for searching, displaying, etc. together with the large category of the program genre. If the value of the content_nibble_level_1 is “0xE”, it is determined that it indicates the type of program characteristic code table defined by the combination of the first user_nibble bit and the second user_nibble bit.

受信機は、上記content_nibble_level_1の値が“0xE”である場合には、第1のuser_nibbleビット、第2のuser_nibbleビットを組合せにより番組特性を示すビットと判断する。上記content_nibble_level_1の値が“0xE”でない場合には、第1のuser_nibbleビット、第2のuser_nibbleビットにいかなる値が入っていても無視する。   When the value of the content_nibble_level_1 is “0xE”, the receiver determines that the first user_nibble bit and the second user_nibble bit are bits indicating program characteristics by combining them. When the value of the content_nibble_level_1 is not “0xE”, any value in the first user_nibble bit and the second user_nibble bit is ignored.

よって、放送局は、当該コンテント記述子のcontent_nibble_level_1の値を“0xE”としない場合、content_nibble_level_1の値とcontent_nibble_level_2の値の組合せによって、受信機に対象イベント(番組)のジャンル情報を伝送することができる。   Therefore, if the content_nibble_level_1 value of the content descriptor is not “0xE”, the broadcasting station can transmit the genre information of the target event (program) to the receiver by a combination of the content_nibble_level_1 value and the content_nibble_level_2 value. .

ここで、例えば、図49に示すように、content_nibble_level_1の値が“0x0”の場合、番組ジャンルの大分類を「ニュース/報道」と定義し、content_nibble_level_1の値が“0x0”であってcontent_nibble_level_2の値が”0x1”の場合を「天気」と定義し、content_nibble_level_1の値が“0x0”であってcontent_nibble_level_2の値が”0x2”の場合を「特集・ドキュメント」と定義し、content_nibble_level_1の値が“0x1”の場合、番組ジャンルの大分類を「スポーツ」と定義し、content_nibble_level_1の値が“0x1”であってcontent_nibble_level_2の値が”0x1”の場合を「野球」と定義し、content_nibble_level_1の値が“0x1”であってcontent_nibble_level_2の値が”0x2”の場合を「サッカー」と定義した場合について説明する。   Here, for example, as shown in FIG. 49, when the value of content_nibble_level_1 is “0x0”, the major category of the program genre is defined as “news / report”, the value of content_nibble_level_1 is “0x0”, and the value of content_nibble_level_2 Is defined as "weather" when the value is "0x1", the value of content_nibble_level_1 is "0x0" and the value of content_nibble_level_2 is "0x2" is defined as "special feature / document", and the value of content_nibble_level_1 is "0x1" In this case, the major category of the program genre is defined as “sports”, and the content_nibble_level_1 value is “0x1” and the content_nibble_level_2 value is “0x1” is defined as “baseball”, and the content_nibble_level_1 value is “0x1” The case where the value of content_nibble_level_2 is “0x2” is defined as “soccer”.

この場合、受信機は、content_nibble_level_1の値により、番組ジャンルの大分類が「ニュース/報道」なのか「スポーツ」なのか判断することが可能となり、content_nibble_level_1の値とcontent_nibble_level_2の値の組合せにより、「ニュース/報道」や「スポーツ」などの番組ジャンルの大分類よりも下位の番組ジャンルである番組ジャンルの中分類まで判断することが可能となる。   In this case, the receiver can determine whether the major category of the program genre is “news / report” or “sports” based on the value of content_nibble_level_1. The combination of the value of content_nibble_level_1 and content_nibble_level_2 It is possible to determine up to the middle category of the program genre, which is a lower program genre than the major category of the program genre such as “/ report” and “sports”.

なお、当該判断処理を実現するためには、受信機の有する記憶部にcontent_nibble_level_1の値とcontent_nibble_level_2の値の組合せと番組ジャンルの定義の対応関係を示すジャンルコード表情報を予め記憶しておけばよい。   In order to realize the determination process, genre code table information indicating the correspondence between the combination of the value of content_nibble_level_1 and the value of content_nibble_level_2 and the definition of the program genre may be stored in advance in the storage unit of the receiver. .

ここで、当該コンテント記述子を用いて対象イベント(番組)の3D番組関連の番組特性情報を伝送する場合について説明する。以下では、3D番組の識別情報を番組ジャンルではなく番組特性として伝送する場合について説明する。   Here, a case will be described in which the 3D program-related program characteristic information of the target event (program) is transmitted using the content descriptor. Hereinafter, a case will be described in which identification information of a 3D program is transmitted as a program characteristic instead of a program genre.

まず、コンテント記述子を用いて3D番組関連の番組特性情報を伝送する場合に、放送局は、コンテント記述子のcontent_nibble_level_1の値を“0xE”として伝送する。これにより、受信機は、当該コンテント記述子が伝送する情報が対象イベント(番組)のジャンル情報ではなく対象イベント(番組)の番組特性情報であると判断できる。また、これによりコンテント記述子に記述される第1のuser_nibbleビットと第2のuser_nibbleビットとがその組合せにより番組特性情報を示すものであると判断することができる。   First, when transmitting 3D program-related program characteristic information using a content descriptor, the broadcast station transmits the content descriptor's content_nibble_level_1 value as “0xE”. Thereby, the receiver can determine that the information transmitted by the content descriptor is not the genre information of the target event (program) but the program characteristic information of the target event (program). Further, it can be determined that the first user_nibble bit and the second user_nibble bit described in the content descriptor indicate the program characteristic information by the combination thereof.

ここで、例えば、図50に示すように、第1のuser_nibbleビットの値が“0x3”の場合、該コンテント記述子が伝送する対象イベント(番組)の番組特性情報が「3D番組関連の番組特性情報」であると定義し、第1のuser_nibbleビットの値が“0x3”であって第2のuser_nibbleビットの値が“0x0”の場合の番組特性を「対象イベント(番組)に3D映像が含まれない」と定義し、第1のuser_nibbleビットの値が“0x3”であって第2のuser_nibbleビットの値が“0x1”の場合の番組特性を「対象イベント(番組)の映像は3D映像である」と定義し、第1のuser_nibbleビットの値が“0x3”であって第2のuser_nibbleビットの値が“0x2”の場合の番組特性を「対象イベント(番組)中に3D映像と2D映像とが含まれる」と定義した場合について説明する。   Here, for example, as shown in FIG. 50, when the value of the first user_nibble bit is “0x3”, the program characteristic information of the target event (program) transmitted by the content descriptor is “3D program related program characteristics”. Information ”, the program characteristics when the value of the first user_nibble bit is“ 0x3 ”and the value of the second user_nibble bit is“ 0x0 ”,“ 3D video is included in the target event (program) ” And the program characteristics when the value of the first user_nibble bit is “0x3” and the value of the second user_nibble bit is “0x1” are “the target event (program) video is 3D video” If the value of the first user_nibble bit is “0x3” and the value of the second user_nibble bit is “0x2”, the program characteristics are defined as “3D video and 2D video during the target event (program)”. Will be described.

この場合、受信機は、第1のuser_nibbleビットの値と第2のuser_nibbleビットの値の組合せによって、対象イベント(番組)の3D番組関連の番組特性を判断可能となり、当該コンテント記述子が含まれるEITを受信した受信機は、電子番組表(EPG)表示において、将来受信するまたは現在受信している番組について「3D映像が含まれない」旨、当該番組について「3D映像番組である」旨、当該番組について「3D映像と2D映像とが含まれる」旨の説明の表示や、その旨を示す図形の表示を行うことが可能となる。   In this case, the receiver can determine the 3D program-related program characteristics of the target event (program) by the combination of the value of the first user_nibble bit and the value of the second user_nibble bit, and the content descriptor is included. In the electronic program guide (EPG) display, the receiver that has received the EIT indicates that “a 3D video is not included” for a program that is received in the future or that is currently received, and that it is a “3D video program” for the program. With respect to the program, it is possible to display an explanation to the effect that “3D video and 2D video are included” and to display a graphic indicating the fact.

また、当該コンテント記述子が含まれるEITを受信した受信機は、3D映像が含まれない番組、3D映像が含まれる番組、3D映像と2D映像とが含まれる番組等の検索が可能となり、該当番組の一覧表示等を行うことが可能となる。   In addition, the receiver that has received the EIT including the content descriptor can search for a program that does not include 3D video, a program that includes 3D video, a program that includes 3D video and 2D video, and the like. It is possible to display a list of programs.

なお、当該判断処理を実現するためには、受信機の有する記憶部に第1のuser_nibbleビットの値と第2のuser_nibbleビットの値の組合せと番組特性の定義の対応関係を示す番組特性コード表情報を予め記憶しておけばよい。   In order to realize the determination process, a program characteristic code table indicating a correspondence relationship between the combination of the value of the first user_nibble bit and the value of the second user_nibble bit and the definition of the program characteristic is stored in the storage unit of the receiver. Information may be stored in advance.

また、3D番組関連の番組特性情報の別の定義例として、例えば、図51に示すように、第1のuser_nibbleビットの値が“0x3”の場合、該コンテント記述子が伝送する対象イベント(番組)の番組特性情報が「3D番組関連の番組特性情報」であると定義し、第1のuser_nibbleビットの値が“0x3”であって第2のuser_nibbleビットの値が“0x0”の場合の番組特性を「対象イベント(番組)に3D映像が含まれない」と定義し、第1のuser_nibbleビットの値が“0x3”であって第2のuser_nibbleビットの値が“0x1”の場合の番組特性を「対象イベント(番組)に3D映像が含まれ、その3D映像伝送方式がSide-by-Side方式である」と定義し、第1のuser_nibbleビットの値が“0x3”であって第2のuser_nibbleビットの値が“0x2”の場合の番組特性を「対象イベント(番組)に3D映像が含まれ、その3D映像伝送方式がTop-and-Bottom方式である」と定義し、第1のuser_nibbleビットの値が“0x3”であって第2のuser_nibbleビットの値が“0x3”の場合の番組特性を「対象イベント(番組)に3D映像が含まれ、その3D映像伝送方式が3D2視点別ES伝送方式である」と定義した場合について説明する。   As another definition example of the program characteristic information related to the 3D program, for example, as shown in FIG. 51, when the value of the first user_nibble bit is “0x3”, the target event (program to be transmitted by the content descriptor) ) Is defined as “program characteristic information related to 3D program”, the value of the first user_nibble bit is “0x3”, and the value of the second user_nibble bit is “0x0” The characteristic is defined as “the target event (program) does not include 3D video”, and the value of the first user_nibble bit is “0x3” and the value of the second user_nibble bit is “0x1” Is defined as “the target event (program) includes 3D video and the 3D video transmission method is the Side-by-Side method”, and the value of the first user_nibble bit is “0x3” and the second When the user_nibble bit value is “0x2”, the program characteristics are set to “Target event (program 3D video is included, and the 3D video transmission method is a top-and-bottom method ”, the value of the first user_nibble bit is“ 0x3 ”and the value of the second user_nibble bit is“ 0x3 ” The case where “3D video is included in the target event (program) and the 3D video transmission method is the 3D2 viewpoint-specific ES transmission method” will be described.

この場合、受信機は、第1のuser_nibbleビットの値と第2のuser_nibbleビットの値の組合せによって、対象イベント(番組)の3D番組関連の番組特性を判断可能となり、対象イベント(番組)に3D映像が含まれるかのみならず、3D映像が含まれる場合の3D伝送方式を判断することが可能となる。受信機が対応可能(3D再生可能)な3D伝送方式の情報を予め受信機が有する記憶部に記憶しておけば、受信機は、予め記憶部に記憶した当該対応(再生)可能な3D伝送方式の情報と、EITに含まれるコンテント記述子により判断した対象イベント(番組)の3D伝送方式の情報を比較することにより、電子番組表(EPG)表示において、将来受信するまたは現在受信している番組について「3D映像が含まれない」旨、当該番組について「3D映像が含まれ、本受信機で3D再生が可能である」旨、当該番組について「3D映像が含まれるが、本受信機で3D再生はできない」旨の説明の表示や、その旨を示す図形の表示を行うことが可能となる。   In this case, the receiver can determine the 3D program-related program characteristics of the target event (program) based on the combination of the value of the first user_nibble bit and the value of the second user_nibble bit. It is possible to determine the 3D transmission method when not only the video is included but also the 3D video is included. If information on a 3D transmission method that can be supported by the receiver (3D playback is possible) is stored in advance in a storage unit included in the receiver, the receiver can perform the corresponding (reproduceable) 3D transmission stored in the storage unit in advance. By comparing the system information with the 3D transmission system information of the target event (program) determined by the content descriptor included in the EIT, in the electronic program guide (EPG) display, it is received in the future or currently received “3D video is not included” for the program, “3D video is included and 3D playback is possible with this receiver” for the program, and “3D video is included with the receiver,” It is possible to display an explanation to the effect that “3D playback is not possible” and to display a graphic indicating that effect.

また、上記の例では、第1のuser_nibbleビットの値が“0x3”であって第2のuser_nibbleビットの値が“0x3”の場合の番組特性を「対象イベント(番組)に3D映像が含まれ、その3D映像伝送方式が3D2視点別ES伝送方式である」と定義したが、図47に示す「3D2視点別ES伝送方式」の詳細なストリーム組合せごとに第2のuser_nibbleビットの値を用意してもよい。このようにすれば、受信機においてさらに詳細な識別が可能となる。   Further, in the above example, the program characteristic when the value of the first user_nibble bit is “0x3” and the value of the second user_nibble bit is “0x3” is “the target event (program) includes 3D video. The 3D video transmission method is a 3D2 viewpoint-specific ES transmission method ”, but a second user_nibble bit value is prepared for each detailed stream combination of the“ 3D2 viewpoint-specific ES transmission method ”shown in FIG. May be. In this way, further detailed identification is possible at the receiver.

また、対象イベント(番組)の3D伝送方式の情報を表示しても良い。   Moreover, you may display the information of the 3D transmission system of an object event (program).

また、当該コンテント記述子が含まれるEITを受信した受信機は、3D映像が含まれない番組、3D映像が含まれ本受信機で3D再生可能な番組、3D映像が含まれるが本受信機で3D再生できない番組等の検索が可能となり、該当番組の一覧表示等を行うことが可能となる。   A receiver that receives an EIT including the content descriptor includes a program that does not include 3D video, a program that includes 3D video, and a 3D video that can be played back by the receiver. It is possible to search for programs that cannot be played back in 3D, and to display a list of the corresponding programs.

また、3D映像が含まれる番組について3D伝送方式ごとに番組検索も可能となり、3D伝送方式ごと番組の一覧表示を行うことも可能となる。なお、3D映像が含まれるが本受信機で3D再生できない番組の検索や3D伝送方式ごとの番組検索は、例えば、本受信機では3D再生できなくとも、利用者が有する他の3D映像番組再生機器において再生可能である場合に有効である。本受信機で3D再生できない3D映像が含まれる番組であっても、本受信機の映像出力部から他の3D映像番組再生機器に当該番組をトランスポートストリーム形式のまま出力して、3D映像番組再生機器で、受信したランスポートストリーム形式の番組を3D再生することも可能であり、また、本受信機にリムーバブルメディアへのコンテンツを記録する記録部があれば、リムーバブルメディアへ当該番組を記録して、上記他の3D映像番組再生機器で当該リムーバブルメディアに記録された上記番組を3D再生することも可能だからである。   In addition, programs that include 3D video can be searched for each 3D transmission system, and a list of programs can be displayed for each 3D transmission system. Searching for programs that include 3D video but cannot be played back in 3D with this receiver, or search for programs for each 3D transmission method, for example, playback of other 3D video programs that the user has even if 3D playback is not possible with this receiver. This is effective when playback is possible on the device. Even if a program includes 3D video that cannot be played back in 3D by this receiver, the program is output from the video output unit of this receiver to another 3D video program playback device in the form of a transport stream. It is also possible to 3D play the received transport stream program on the playback device, and if the receiver has a recording unit for recording content on the removable medium, the program is recorded on the removable medium. This is because the above-mentioned program recorded on the removable medium can be played back in 3D by the other 3D video program playback device.

なお、当該判断処理を実現するためには、受信機の有する記憶部に、第1のuser_nibbleビットの値と第2のuser_nibbleビットの値の組合せと番組特性の定義の対応関係を示す番組特性コード表情報と、受信機が対応可能(3D再生可能)な3D伝送方式の情報とを予め記憶しておけばよい。   In order to realize the determination process, a program characteristic code indicating the correspondence between the combination of the value of the first user_nibble bit and the value of the second user_nibble bit and the definition of the program characteristic is stored in the storage unit of the receiver. The table information and the information of the 3D transmission method that the receiver can support (3D playback is possible) may be stored in advance.

<字幕データ送出の規定・運用について>
上記送信装置から伝送される3D映像番組に字幕データを重畳する場合には、その字幕データにも奥行き情報を付加することで3D表示に対応可能である。
<Regulation and operation of subtitle data transmission>
When subtitle data is superimposed on a 3D video program transmitted from the transmission device, 3D display can be supported by adding depth information to the subtitle data.

例えば送出されるデータには以下の字幕・文字スーパーのサービスが行われる。すなわち、字幕のサービスとは、メインの映像・音声・データと同期した字幕サービス(例、訳字字幕など)であり、文字スーパーのサービスとは、メインの映像・音声・データと非同期な字幕サービス(例、速報ニュース、編成ことわり、時報、緊急地震速報など)である。   For example, the following subtitle / superimpose service is provided for the transmitted data. That is, the subtitle service is a subtitle service synchronized with the main video / audio / data (eg, translated subtitles), and the superimpose service is a subtitle service asynchronous with the main video / audio / data. (Eg, breaking news, organization change, hourly report, earthquake early warning, etc.).

送信装置側でのストリーム作成時の編成・伝送上の制約としては、字幕、文字スーパーは例えば図3に示したストリーム形式種別の割り当てのうち、独立PES伝送方式(0x06)で伝送すること、また字幕および文字スーパーはそれぞれ別々のESで伝送される。またメインの映像データなどと同一PMTで同時刻に伝送され、字幕データを同一番組内または番組開始前に事前配信する事は行わないこと、また例えば、同時に伝送できる字幕・文字スーパーのES数はそれぞれ1ESづつ、計2ESとすること、また同時に同一階層(階層とは、放送の送受信においては、異なる変調方式を一度の送出で使用することが可能であり、各変調方式で送出される周波数帯とそこに重畳されるデータの集まりを階層と呼ぶ。)に伝送できる字幕・文字スーパーのES 数は、それぞれ1ESづつ、計2ESとする。また臨時編成チャンネル毎に、字幕ES数最大1、文字スーパーES数最大1とすること、また同時に伝送可能な言語は1ESあたり最大2言語までとし、言語識別(複数言語の字幕・文字スーパーを伝送する場合に言語を識別する番号)はES内の字幕管理データ(後述)により行うこと、また文字スーパーにおいては、ビットマップデータを使用することができること、また字幕においては、「受信時自動表示・記録再生時選択表示」、「受信時選択表示・記録再生時選択表示」(各表示手法については後述)のみ運用することができる。文字スーパーにおいては、「受信時自動表示・記録再生時自動表示」、「受信時自動表示・記録再生時選択表示」、「受信時選択表示・記録再生時選択表示」(各表示手法については後述)のみ運用することができる。複数言語を伝送する場合、それら言語の表示モード(後述)は同一とする。これに反して伝送した場合の受信機動作は、受信機実装に依存するが、自動表示が優先されること、また字幕・文字スーパーにおける警告音は、受信機内蔵音(複数の場面で共通に使用される音声データはあらかじめ受信装置4内のメモリ上に保持されている)に限り運用することができる。付加音(送信装置1から都度送付する効果音音声)は、字幕および文字スーパー共に運用を行わないこと、また対象地域の指定を行う場合は、PMTの対象地域記述子により制御する。ただし、字幕においては、字幕単独の対象地域を指定する運用は行わない。文字スーパーにおいては、文字スーパー単独の対象地域を指定する運用を行うことができる。この場合、対象地域の異なる文字スーパーは、時間をずらして伝送すること、また文字スーパーはイベント(当該の番組)との関連性がないためEITのデータコンテンツ記述子は記載しない。字幕の場合は1ESにつき1記述子を記載するものとする。ただし、パラメータがPMTのデータ符号化方式記述子および字幕管理データの設定と一致しない場合は、受信機動作において、表示モード、言語数、言語コードなど各パラメータは、PMTのデータ符号化方式記述子および字幕管理データの設定が優先されること、また字幕管理データには、字幕・文字スーパーを表示するための必要な情報が含まれるので、字幕管理データが受信されるまでの間字幕文の表示はできない。そこで、チャンネル選択時などを考慮し、通常の字幕・文字スーパー送出時、所定の間隔(例えば、最高送出頻度:1回/0.3 秒、最低送出頻度:1回/5.0 秒、ただし、CM(コマーシャルメッセージ)等で中断する場合がある)で字幕管理データを伝送すること、が挙げられる。   As restrictions on organization and transmission at the time of stream creation on the transmission device side, subtitles and character supers are transmitted by the independent PES transmission method (0x06) in the allocation of stream format types shown in FIG. 3, for example. Subtitles and superimpose are transmitted by separate ESs. Also, it is transmitted at the same time with the same PMT as the main video data etc., and subtitle data is not pre-distributed within the same program or before the start of the program. 1 ES each, and 2 ES in total, and at the same time the same layer (with the hierarchy, it is possible to use different modulation schemes in one transmission, and the frequency band transmitted in each modulation scheme. The number of ESs of subtitles / superimposes that can be transmitted to a superimposed data group is 2 ES, one ES each. In addition, for each temporary organization channel, the maximum number of subtitle ES and the maximum number of character super ES is 1, and the maximum number of languages that can be transmitted at the same time is 2 languages per ES. The number used to identify the language) is determined by subtitle management data (described later) in the ES. Bitmap data can be used for superimposing characters. Only “Recording / reproduction selection display” and “Reception selection / recording / reproduction selection display” (each display method will be described later) can be used. In superimpose, “Automatic display during reception / automatic display during recording / playback”, “Automatic display during reception / selection display during recording / playback”, “Selection display during reception / selection display during recording / playback” (each display method will be described later) ) Can only be operated. When transmitting a plurality of languages, the display modes (described later) of these languages are the same. Contrary to this, the receiver operation depends on the receiver implementation, but automatic display is given priority, and the warning sound in subtitles / superimposed characters is the receiver built-in sound (common to multiple scenes). The audio data to be used can be operated only if it is stored in the memory in the receiving device 4 in advance. The additional sound (sound effect sound transmitted from the transmission apparatus 1 each time) is controlled by the target region descriptor of the PMT when neither the caption nor the character superimposing is operated, and the target region is designated. However, for subtitles, the operation to specify the target area of the subtitles alone is not performed. In the character supermarket, it is possible to perform an operation of designating a target area of the character supermarket alone. In this case, character supermarkets with different target areas are transmitted at different times, and the data superscript is not described because the character supermarket is not related to the event (the program concerned). In the case of subtitles, one descriptor per ES is described. However, if the parameters do not match the settings of the PMT data encoding descriptor and subtitle management data, each parameter such as the display mode, the number of languages, and the language code in the receiver operation is the PMT data encoding descriptor. And subtitle management data settings are given priority, and subtitle management data includes necessary information for displaying subtitles / superimposed characters, so subtitle text is displayed until subtitle management data is received. I can't. Therefore, in consideration of channel selection, etc., when sending normal subtitles / superimposed characters, predetermined intervals (for example, maximum transmission frequency: once / 0.3 seconds, minimum transmission frequency: once / 5.0 seconds, but CM (commercial) The subtitle management data may be interrupted by a message).

字幕で用いるPES伝送方式としては同期型PES伝送方式を適用し、PTSによりタイミング同期をとることとする。文字スーパーで用いるPES伝送方式としては非同期型PES伝送方式を適用する。   As a PES transmission method used for subtitles, a synchronous PES transmission method is applied, and timing synchronization is achieved by PTS. As the PES transmission method used in the character superposition, an asynchronous PES transmission method is applied.

送信装置1から受信装置4に送信される、字幕のPESデータ形式の一例を図52に示し、字幕PESパケットに設定するパラメータを図53(a)に示す。文字スーパーについてもPESデータ形式は同様であり、文字スーパーPESパケットに設定するパラメータを図53(b)に示す。図52のPESヘッダ部分に図53のStream_idからPES_data_private_data_byteが該当し、データグループ部分にSyncronized_PES_data_byteが該当する。Stream_id, data_identifier, private_stream_idは図中に記載の規定値を使用することで受信機で字幕データ・文字スーパーデータの認識が可能である。データグループはデータグループヘッダとデータグループデータから成り、そのパラメータは図54に示す。図52のデータグループヘッダに図54のdata_group_idからdata_group_sizeフィールドが該当し、字幕データの種類やサイズを表す情報が含まれ、データグループデータにdata_group_data_byteが該当する。   An example of the subtitle PES data format transmitted from the transmission apparatus 1 to the reception apparatus 4 is shown in FIG. 52, and the parameters set in the subtitle PES packet are shown in FIG. 53 (a). The PES data format is the same for the character super, and the parameters set in the character super PES packet are shown in FIG. 52 corresponds to PES_data_private_data_byte from Stream_id in FIG. 53, and Syncronized_PES_data_byte corresponds to the data group portion. For Stream_id, data_identifier, and private_stream_id, the receiver can recognize subtitle data and character super data by using the prescribed values described in the figure. The data group includes a data group header and data group data, and parameters thereof are shown in FIG. The data group header in FIG. 52 corresponds to the data_group_size field from data_group_id in FIG. 54, includes information indicating the type and size of caption data, and the data group data corresponds to data_group_data_byte.

図25の受信装置4では以上で示したデータ形式のPESデータを受信すると、多重分離部29においてStream_idやdata_identifierの値を見てデータを分類し、図には記載していないメモリ上にデータの種類ごとに展開する。   25 receives the PES data in the data format shown above, the demultiplexer 29 classifies the data by looking at the values of Stream_id and data_identifier, and stores the data on a memory not shown in the figure. Expand by type.

データグループデータは、字幕管理データおよび0または最大8言語の字幕文データにより伝送され、図55に、データグループヘッダに含まれるデータグループIDの取りえる値と意味を示す。この番号を参照することでデータグループデータが字幕管理データか字幕文データかを判断可能であり、また字幕文データの言語種別(日本語、英語、...など)を判断可能である。data_group_idは、字幕管理データの更新にともない、データグループを組Aから組B、組Bから組Aに切り換えて送出すること。ただし、字幕管理データを3分以上送出しない場合は、前の組に関わらず組A、組Bどちらかが送出される場合がある。data_group_versionは、運用しない。字幕管理データが組Aの時は、受信機は字幕文(本文、ビットマップデータ、DRCS)も組Aのみ処理し、字幕管理データが組Bの時は、受信機は字幕文も組Bのみ処理する。現在の受信済みの字幕管理データと同一組の字幕管理データを受信した場合は、再送された字幕管理データとして処理し、字幕管理データによる初期化動作は行わない。現在受信済みの字幕管理データと同一組の字幕文を複数回受信した場合、それぞれの字幕文を新規の字幕文として処理する。   The data group data is transmitted by subtitle management data and subtitle sentence data of 0 or a maximum of eight languages. FIG. 55 shows possible values and meanings of the data group ID included in the data group header. By referring to this number, it is possible to determine whether the data group data is caption management data or caption text data, and it is possible to determine the language type (Japanese, English,...) Of caption text data. The data_group_id is to be transmitted by switching the data group from the set A to the set B and from the set B to the set A in accordance with the update of the caption management data. However, when subtitle management data is not transmitted for more than 3 minutes, either group A or group B may be transmitted regardless of the previous group. data_group_version is not used. When subtitle management data is set A, the receiver processes only subtitle text (text, bitmap data, DRCS) only for set A, and when subtitle management data is set B, the receiver only processes subtitle text for set B. Process. When subtitle management data of the same set as the currently received subtitle management data is received, it is processed as retransmitted subtitle management data, and the initialization operation by the subtitle management data is not performed. When a subtitle sentence of the same set as the currently received subtitle management data is received a plurality of times, each subtitle sentence is processed as a new subtitle sentence.

字幕管理データは図56に示す情報からなり、設定情報などを伝送するのに用いられる。図56(a)は字幕における字幕管理データのパラメータを示している。   The subtitle management data includes information shown in FIG. 56, and is used to transmit setting information and the like. FIG. 56A shows the parameters of caption management data in captions.

TMDは時刻制御モードを意味し、2ビットのフィールドによって受信再生時の時刻制御モードを示している。2ビットの値が’00’の場合、モード「フリー」を示し、再生時刻を時計に同期させる制限を設けない、ことを意味する。’01’の場合、モード「リアルタイム」を示し、再生時刻は時計信号(TDT)の時計較正により較正された時計の時刻に従う。または、再生時刻はPTSによる、ことを意味する。’10’の場合、モード「オフセットタイム」を示し、再生時刻にオフセット時刻を加えた時刻を新たな再生時刻とし、時計信号の時計較正により較正された時計に従い再生する、ことを意味する。’11’は予備の値であり、使用しない。   TMD means a time control mode, and the time control mode at the time of reception and reproduction is indicated by a 2-bit field. When the 2-bit value is “00”, it indicates that the mode is “free” and there is no restriction to synchronize the playback time with the clock. In the case of “01”, the mode “real time” is indicated, and the reproduction time follows the time of the clock calibrated by the clock calibration of the clock signal (TDT). Or it means that the playback time is based on PTS. In the case of “10”, the mode indicates “offset time”, which means that the reproduction time is set to a new reproduction time that is obtained by adding the offset time to the reproduction time, and reproduction is performed according to a clock calibrated by clock calibration of the clock signal. '11' is a reserved value and is not used.

num_languages(言語数)は、この字幕・文字スーパーのES 中に含まれる言語の数を意味する。language_tag(言語識別)は、言語を識別する番号であり、0:第1言語、… 7:第8言語を意味する。   num_languages (number of languages) means the number of languages included in ES of this caption / superimpose. The language_tag (language identification) is a number for identifying a language, and means 0: first language,... 7: eighth language.

DMFは表示モードを意味し、4ビットのフィールドによって字幕文の表示モードを示している。表示モードは受信時および記録再生時の提示動作を各2ビットで表わしており、上位2ビットが受信時の提示動作を示す。’00’の場合、受信時自動表示を示す。’01’の場合、受信時自動非表示を示す。’10’の場合、受信時選択表示を示す。’11’の場合、受信時特定条件自動表示/非表示を示す。下位2ビットが記録再生時の提示動作を示し、’00’の場合、記録再生時自動表示を示す。’01’の場合、記録再生時自動非表示を示す。’10’の場合、記録再生時選択表示を示す。’11’の場合は未定義である。なお、表示モードが「特定条件自動表示/非表示」のときの、表示または非表示の条件の指定とは、例えば降雨減衰時のお断りメッセージ表示を指定する。各表示モードにおける表示開始、終了時の動作例は図67に示している。   DMF means display mode, and the display mode of caption text is indicated by a 4-bit field. In the display mode, the presentation operation during reception and recording / reproduction is represented by 2 bits each, and the upper 2 bits indicate the presentation operation during reception. In the case of “00”, automatic display at the time of reception is shown. In the case of “01”, automatic non-display at the time of reception is shown. In the case of “10”, a selection display at the time of reception is shown. In the case of “11”, automatic display / non-display of the specific condition at the time of reception is shown. The lower 2 bits indicate a presentation operation during recording / reproduction. When “00”, automatic display during recording / reproduction is indicated. In the case of “01”, automatic non-display during recording / reproduction is shown. In the case of “10”, a recording / reproduction selection display is shown. The case of “11” is undefined. The designation of the display or non-display condition when the display mode is “specific condition automatic display / non-display” specifies, for example, the display of a rejection message at the time of rain attenuation. An example of the operation at the start and end of display in each display mode is shown in FIG.

ISO_639_language_code(言語コード)は、language_tag で識別される言語に対応する言語コードをISO639-2 に規定されるアルファベット3文字コードで表す。   ISO_639_language_code (language code) represents a language code corresponding to the language identified by language_tag as a three-letter code defined in ISO639-2.

format(表示書式)は、字幕表示画面の表示書式の初期状態を示す。例えば、水平1920画素、垂直1080画素の表示領域で横書き、水平960画素、垂直540画素の表示領域で縦書き、といった指定を行う。   format (display format) indicates the initial state of the display format of the caption display screen. For example, designation is made such that horizontal writing is performed in a display area of horizontal 1920 pixels and vertical 1080 pixels, and vertical writing is performed in a display area of horizontal 960 pixels and vertical 540 pixels.

TCS(文字符号化方式)は、文字符号化方式の種類を示す。例えば8単位符号での符号化を指定する。   TCS (character encoding scheme) indicates the type of character encoding scheme. For example, encoding with 8 unit codes is designated.

data_unit_loop_length(データユニットループ長)は、後続のデータユニットの全バイト長を規定する。なお、データユニットを配置しない場合は、値を0とする。   data_unit_loop_length (data unit loop length) defines the total byte length of the subsequent data unit. If no data unit is arranged, the value is 0.

data_unit()(データユニット)には、同一ES で送られる字幕番組全体で有効となるデータユニットが配置される。   In data_unit () (data unit), a data unit that is valid for the entire caption program transmitted in the same ES is arranged.

字幕管理データの運用については、同一字幕管理データ内には、同一あるいは異なるデータユニットパラメータのデータユニットを複数配置できる。同一字幕管理データ内に複数のデータユニットが存在する場合は、データユニットの出現順に処理される。ただし、本文に記述できるデータは、SWF、SDF、SDP、SSM、SHS、SVS、SDDの制御符号(後述)だけであり、画面表示を伴うような文字符号集合は記述できない。   Regarding the operation of caption management data, a plurality of data units having the same or different data unit parameters can be arranged in the same caption management data. When there are a plurality of data units in the same caption management data, they are processed in the order of appearance of the data units. However, the data that can be described in the text is only SWF, SDF, SDP, SSM, SHS, SVS, and SDD control codes (described later), and character code sets that accompany screen display cannot be described.

字幕で用いる字幕管理データについては、少なくとも3分に1回以上送出しなければならない。字幕管理データを3分以上未受信の場合は、受信機は選局時の初期化動作を行う。   Subtitle management data used for subtitles must be sent at least once every three minutes. When caption management data has not been received for 3 minutes or more, the receiver performs an initialization operation at the time of channel selection.

文字スーパーで用いる字幕管理データについては、時報スーパーを考慮し、STM(時間制御用データTIMEで指定可能な提示開始時刻)による時刻同期を行うためにTMD にはフリーだけでなくリアルタイムの設定も可とする。字幕管理データを3分以上未受信の場合は、受信機は選局時の初期化動作を行う。文字スーパーで用いる字幕管理データに指定できるパラメータを図56(b)に示す。図56(b)で用いられるパラメータの定義は、図56(a)と同様であるため説明を省略する。   For subtitle management data used in character superimposition, TMD can be set not only for free but also in real time to perform time synchronization by STM (presentation start time that can be specified by time control data TIME) in consideration of time signal super. And When caption management data has not been received for 3 minutes or more, the receiver performs an initialization operation at the time of channel selection. FIG. 56B shows parameters that can be specified for the caption management data used in the character superimposition. The definition of the parameters used in FIG. 56B is the same as that in FIG.

同一字幕文データ内に、同一あるいは異なるデータユニットパラメータのデータユニットを複数配置できる。同一字幕文データ内に複数のデータユニットが存在する場合は、データユニットの出現順に処理される。字幕文データに設定できるパラメータを図57 に示す。STM(提示開始時刻)は、後続の字幕文の提示開始時刻を示す。提示開始時刻は、9個の4ビット2進化10 進数(BCD)を用い、時、分、秒、ミリ秒の順で符号化する。なお、提示終了は文字符号部の符号による。   A plurality of data units having the same or different data unit parameters can be arranged in the same caption text data. When there are a plurality of data units in the same caption text data, they are processed in the order of appearance of the data units. The parameters that can be set in the caption text data are shown in FIG. STM (presentation start time) indicates the presentation start time of the subsequent caption text. The presentation start time is encoded in the order of hour, minute, second, and millisecond using nine 4-bit binary coded decimal numbers (BCD). The end of presentation depends on the code of the character code part.

また、データユニットに設定できるパラメータを図58に示す。   Further, FIG. 58 shows parameters that can be set in the data unit.

unit_separator(データユニット分離符号)は、0x1F (固定値)とする。   unit_separator (data unit separation code) is 0x1F (fixed value).

data_unit_parameter(データユニットパラメータ)は、データユニットの種類を識別する。例えばデータユニットを本文と指定することで、機能として字幕文を構成する文字データの送出、字幕管理において表示領域など設定データの送出を表したり、ジオメトリックと指定してジオメトリック図形データの送出機能を表す。   data_unit_parameter (data unit parameter) identifies the type of data unit. For example, by specifying the data unit as the main text, the function can transmit the text data that composes the caption text, the transmission of setting data such as the display area in the caption management, or the geometric graphic data transmission function that can be specified as geometric Represents.

data_unit_size(データユニットサイズ)は、後続のデータユニットデータのバイト数を示す。   data_unit_size (data unit size) indicates the number of bytes of the subsequent data unit data.

data_unit_data_byte(データユニットデータ)に伝送するデータユニットデータを格納する。なお、DRCSとは外字の一種として扱われる図形データを示す。   Data unit data to be transmitted is stored in data_unit_data_byte (data unit data). DRCS refers to graphic data that is handled as a kind of external character.

図25の受信装置4においては、多重分離部29により展開された字幕データ(データグループヘッダおよびデータグループデータ)をシステム制御部51が読解する。データグループヘッダに含まれるデータグループIDの値により、データユニットデータの情報が字幕管理データであることを検出した際には、図56に示した字幕管理データの持つ各パラメータの値に応じて処理を行う。例えばTMD、DMFの値によってシステム制御部51から映像変換制御部61への字幕データ転送タイミングを設定する。TMDが「フリー」であり、受信時自動表示であれば、システム制御部51は以降、これらのデータが更新されるまでは字幕データを受信すると即座に映像変換制御部61へ字幕データを転送しても良い。また例えば、num_languagesやISO_639_language_codeの値から、字幕情報をユーザに通知するためにOSD作成部60に字幕データ数や識別された言語名をディスプレイ47に表示するように指示してもよい。また例えばFormatによって映像変換制御部61には字幕表示プレーンにおける字幕文字列(文字やグラフィックデータも含む)の描画位置を指定する。   In the receiving device 4 of FIG. 25, the system control unit 51 reads the caption data (data group header and data group data) developed by the demultiplexing unit 29. When it is detected from the value of the data group ID included in the data group header that the information of the data unit data is caption management data, processing is performed according to the value of each parameter of the caption management data shown in FIG. I do. For example, the subtitle data transfer timing from the system control unit 51 to the video conversion control unit 61 is set by the values of TMD and DMF. If the TMD is “free” and automatically displayed upon reception, the system control unit 51 thereafter transfers the subtitle data to the video conversion control unit 61 immediately after receiving the subtitle data until these data are updated. May be. Further, for example, from the values of num_languages and ISO_639_language_code, the OSD creation unit 60 may be instructed to display the number of caption data and the identified language name on the display 47 in order to notify the user of caption information. Further, for example, the rendering position of the subtitle character string (including characters and graphic data) in the subtitle display plane is designated in the video conversion control unit 61 by Format.

またシステム制御部51は字幕データを読解し、データグループヘッダに含まれるデータグループIDの値から、データユニットデータの情報が字幕文データである場合には、図57に示すパラメータの値に応じて処理を行う。例えばSTMに示される時間に合わせて後続のデータユニットに含まれる字幕データを映像変換制御部61へ転送するようにする。またデータユニットを解析し、unit_separatorを検出すると直後のdata_unit_parameterの値によって後続のデータユニットデータのデータ種別を判断する。データユニットデータ内に後述する制御データを検出した場合には映像変換制御部61に字幕データの表示位置や装飾方法などを指示する制御を行う。データユニットデータから字幕文作成(詳細は後述)を行い、所定のタイミングでディスプレイ47に表示すべき字幕文を映像変換制御部61へ通知する。映像変換処理部32では、映像変換制御部61が、映像復号部30から出力される表示用映像データに、前記表示制御に基づいて決定される表示位置に文字列を重畳し、OSD作成部60で作成されるOSDデータと合成することでディスプレイ47に表示する映像を作成する。   Further, the system control unit 51 reads the subtitle data, and from the value of the data group ID included in the data group header, if the information of the data unit data is subtitle sentence data, the system control unit 51 corresponds to the parameter value shown in FIG. Process. For example, the caption data included in the subsequent data unit is transferred to the video conversion control unit 61 in accordance with the time indicated in the STM. When the data unit is analyzed and unit_separator is detected, the data type of the subsequent data unit data is determined based on the value of data_unit_parameter immediately after. When control data to be described later is detected in the data unit data, the video conversion control unit 61 is controlled to instruct the display position and decoration method of the caption data. A caption sentence is created from the data unit data (details will be described later), and a caption sentence to be displayed on the display 47 is notified to the video conversion control unit 61 at a predetermined timing. In the video conversion processing unit 32, the video conversion control unit 61 superimposes a character string on the display position determined based on the display control on the display video data output from the video decoding unit 30, and the OSD creation unit 60. A video to be displayed on the display 47 is created by synthesizing with the OSD data created in the above.

次に、字幕・文字スーパーに関するPSI/SIの運用について説明する。   Next, the operation of PSI / SI related to caption / text superimposition will be described.

字幕ESのコンポーネントタグ値は、0x30〜0x37、文字スーパーESのコンポーネントタグ値は、0x38〜0x3F の範囲の値を設定する。ただし、字幕のデフォルトESのコンポーネントタグ値は0x30、文字スーパーのデフォルトESのコンポーネントタグ値は0x38 を設定する。   The component tag value of the caption ES is set to a value in the range of 0x30 to 0x37, and the component tag value of the character super ES is set to a value in the range of 0x38 to 0x3F. However, the component tag value of the default ES for subtitles is set to 0x30, and the component tag value of the default ES for character superimposing is set to 0x38.

PMTの更新は、字幕および文字スーパーの開始・終了時にES情報の追加・削除を原則とするが、常時ES情報を記載しておく運用も可とする。   In principle, the update of the PMT is performed by adding / deleting ES information at the start / end of subtitles and superimposing characters. However, it is also possible to always record ES information.

字幕・文字スーパーESのストリーム識別記述子(stream_type)は、0x06(独立PES_packet)である。図59(a)に字幕・文字スーパーに対するPMTおよびEITの記述子運用を示す。字幕伝送においては、EITのデータコンテンツ記述子は、1ESにつき1記述子を記述するものとする。ただし、速報スーパーなどのあらかじめ予定されていない応用においては、EITにデータコンテンツ記述子を挿入しない運用が許容されるとする。図59(a)に示したデータ符号化方式記述子のdata_component_idは、字幕、文字スーパーとも、0x0008である。付加情報識別に設定するパラメータを図59(b)に示す。字幕に対しては番組同期を示す値とする。文字スーパーに対しては非同期もしくは時刻同期を示す値とする。   The stream identification descriptor (stream_type) of the caption / character super ES is 0x06 (independent PES_packet). FIG. 59 (a) shows PMT and EIT descriptor operations for subtitles / superimpose. In caption transmission, one EIT data content descriptor is described per ES. However, in an application that is not scheduled in advance, such as a bulletin supermarket, an operation that does not insert a data content descriptor into the EIT is allowed. The data_component_id of the data encoding scheme descriptor shown in FIG. 59A is 0x0008 for both the caption and the character superimposition. The parameters set for additional information identification are shown in FIG. For subtitles, the value indicates program synchronization. For character super, it is a value indicating asynchronous or time synchronous.

図59(a)に示した対象地域記述子の運用はサービス全体の対象とする地域の情報を記述する。   The operation of the target area descriptor shown in FIG. 59 (a) describes the information of the target area of the entire service.

図59(a)に示したデータコンテンツ記述子に設定できるパラメータは図59(c)および図59(d)に示す。ただし、同一イベント中に、これら設定パラメータ値がPMTのデータ符号化方式記述子および字幕管理データと不整合の場合は、データ符号化方式記述子および字幕管理データの設定値の方が優先される。data_component_idの値は0x0008とする。entry_componentの値は当該字幕ESのcomponent_tag 値とする。num_of_component_refの値は0を指定することとする。component_refの値はnum_of_component_ref=0 のため不要。ISO_639_language_codeの値は jpn(日本語)に固定とする。text_length 値の上限を16(バイト)とする。text_charの値はEPG に表示する字幕の内容を記述する。また、Num_languagesの値は字幕管理データと同じ値とする。DMFの値はデータ符号化方式記述子と同じ値とする。ISO_639_language_codeは字幕管理データと同じ値とする。   Parameters that can be set in the data content descriptor shown in FIG. 59A are shown in FIGS. 59C and 59D. However, if these setting parameter values are inconsistent with the PMT data encoding descriptor and caption management data during the same event, the setting values of the data encoding descriptor and caption management data have priority. . The value of data_component_id is 0x0008. The entry_component value is the component_tag value of the caption ES. 0 is specified for the value of num_of_component_ref. The component_ref value is not necessary because num_of_component_ref = 0. The value of ISO_639_language_code is fixed to jpn (Japanese). The upper limit of the text_length value is 16 (bytes). The value of text_char describes the content of the caption displayed on the EPG. The value of Num_languages is the same value as caption management data. The value of DMF is the same value as the data encoding scheme descriptor. ISO_639_language_code is the same value as caption management data.

受信装置4では上記PSI情報のひとつであるPMTの内容を番組情報解析部54で解析し、例えばストリーム識別記述子の値が’0x06’であれば該当するPIDを持つTSパケットが字幕・文字スーパーデータであることが判別でき、以降そのPIDを示すパケットを分離するためのフィルタ設定を多重分離部29に設定する。これによって多重分離部29において字幕・文字スーパーデータのPESデータを抽出可能である。またデータ符号化方式記述子が含む設定パラメータであるTimingで示される値によりシステム制御部31および/または映像変換処理部61の字幕表示タイミングの設定を行う。文字スーパーの対象地域記述子の値は、予め適切な方法を用いてユーザーが設定していた受信地域情報と一致していない場合には、字幕表示のための一連の処理を行わないようにして良い。データコンテンツ記述子に含まれるtext_charからデータを検出すると、システム制御部51はEPG表示時のデータとして使用しても良い。データコンテンツ記述子のセレクタ領域の各設定パラメータについては字幕管理データにおいても同じ値が使用されるため、制御を行う必要はないが、システム制御部51で上述したような制御を行っても良い。   The receiver 4 analyzes the contents of the PMT, which is one of the PSI information, by the program information analysis unit 54. For example, if the value of the stream identification descriptor is “0x06”, the TS packet having the corresponding PID is subtitled / superimposed. It can be determined that the data is data, and thereafter, a filter setting for separating a packet indicating the PID is set in the demultiplexer 29. As a result, the demultiplexing unit 29 can extract the PES data of caption / character super data. Also, the subtitle display timing of the system control unit 31 and / or the video conversion processing unit 61 is set according to a value indicated by Timing which is a setting parameter included in the data encoding descriptor. If the value of the target area descriptor of the character superimpose does not match the reception area information set by the user using an appropriate method in advance, do not perform a series of processing for subtitle display. good. When data is detected from text_char included in the data content descriptor, the system control unit 51 may use it as data at the time of EPG display. Since the same value is used in the caption management data for each setting parameter in the selector area of the data content descriptor, it is not necessary to perform control, but the system control unit 51 may perform the control as described above.

<表示領域>
以上の形式で送信装置1より送出されたデータを受信装置4で受信、表示する場合には例えば以下に示す表示形式に従う。例えば、表示書式として、960×540 と720×480 の、それぞれ横書、縦書などが使用できる。また、動画プレーン(映像復号部30で復号した後、表示用画像データを格納するメモリ領域)の解像度と字幕・文字スーパーの表示書式は動画プレーンの解像度に応じて決定し、動画プレーンが1920×1080の場合は字幕・文字スーパーの表示書式を960×540、動画プレーンが720×480の場合は字幕・文字スーパーの表示書式を720×480とし、それぞれ横書、縦書とする。720×480 時の表示は、映像のアスペクト比にかかわらず同一表示書式とし、アスペクト比を考慮した表示を行う場合は、送出側で補正することとする。
<Display area>
When the data transmitted from the transmission device 1 in the above format is received and displayed by the reception device 4, for example, the following display format is used. For example, as the display format, 960 × 540 and 720 × 480, horizontal writing and vertical writing, respectively, can be used. Also, the resolution of the video plane (the memory area for storing the display image data after being decoded by the video decoding unit 30) and the display format of the caption / superimpose are determined according to the resolution of the video plane. In the case of 1080, the subtitle / character super display format is 960 × 540, and in the case of the video plane is 720 × 480, the subtitle / superimpose display format is 720 × 480, which is horizontal writing and vertical writing, respectively. The display at 720x480 has the same display format regardless of the aspect ratio of the video. When displaying in consideration of the aspect ratio, correction is made on the transmission side.

字幕、文字スーパーにつき、それぞれ、同時に設定できる表示領域は1つとする。また、表示領域は、ビットマップデータに対しても有効となる。表示領域の優先順位は、(1) 字幕文データの本文中で、SDF 及びSDP により指示された値、(2) 更新された字幕管理データの本文中で、SDF 及びSDP により指示された値、(3) 更新された字幕管理データヘッダで指定される表示書式を元にした初期値、である。字幕・文字スーパーにおいて用いる文字符号化方式は、8単位符号を用いるとする。また、字幕・文字スーパーにおいて用いる文字フォントは、丸ゴシックが望ましい。また、字幕・文字スーパーで表示できる文字サイズは、16ドット、20ドット、24ドット、30ドット、36ドットの5サイズとする。送出時の文字サイズの指定は、前記サイズを指定する。また、それぞれのサイズに対しては、標準、中型、小型サイズが使用できる。尚、標準、中型、小型の定義は例えば、標準は制御符号SSM により指定される大きさの文字、中型は標準より字方向の大きさのみが半分の大きさの文字、小型は標準より字方向および行方向の大きさがそれぞれ半分の大きさの文字とする。   For each subtitle and superimpose, one display area can be set simultaneously. The display area is also effective for bitmap data. The priority of the display area is (1) the value specified by SDF and SDP in the text of caption text data, (2) the value specified by SDF and SDP in the text of updated caption management data, (3) An initial value based on the display format specified in the updated caption management data header. It is assumed that an 8-unit code is used as a character encoding method used in caption / superimpose. In addition, it is desirable that the character font used in the subtitle / superimpose is round gothic. In addition, the character size that can be displayed in the caption / superimpose is 5 sizes of 16 dots, 20 dots, 24 dots, 30 dots, and 36 dots. The character size at the time of sending designates the size. For each size, standard, medium, and small sizes can be used. For example, the standard, medium, and small definitions are, for example, standard characters with the size specified by the control code SSM, medium sizes are half the size of the character direction, and small sizes are the character direction from the standard. The characters in the line direction are half the size.

<制御符号について>
字幕データの符号体系は8単位符号を基本とし、その符号体系を図60(a)に示し、拡張方法を図60(b)に示す。符号の拡張における符号の呼び出し(符号集合G0、G1、G2、およびG3 を8 単位符号表へ呼び出すこと)の制御の内容を図61(a)に示し、符号の指示(符号集合の集まりの中から一つの符号集合をG0、G1、G2、またはG3 集合として指示すること)の制御の内容を図61(b)に示し、符号集合の分類と終端符号を図61(c)に示す。各呼び出し制御、指示制御の符号化表現は図60(a)に示す符号体系における「列番号/行番号」で表現され、例えば実データが0x11であれば、上位4bitが列番号、下位4bitが行番号を示し、01/1と表現される。ESCについては図60(a)の字幕データの符号体系に示す01/11である。Fは図61(c)に示す終端符号のいずれかであり、この値によって呼び出される符号集合の種類を判定し、また一つの指示内容の終端であることを意味する。
<About control codes>
The encoding system of the caption data is based on an 8-unit code, and the encoding system is shown in FIG. 60 (a), and the expansion method is shown in FIG. 60 (b). Fig. 61 (a) shows the control contents of code call (calling code sets G0, G1, G2, and G3 to the 8-unit code table) in code extension. FIG. 61 (b) shows the contents of the control of (indicating one code set as G0, G1, G2, or G3 set), and FIG. 61 (c) shows the code set classification and terminal code. The coded representation of each call control and instruction control is represented by “column number / row number” in the coding system shown in FIG. 60A. For example, if the actual data is 0x11, the upper 4 bits are the column number and the lower 4 bits are Indicates the line number and is expressed as 01/1. ESC is 01/11 shown in the code system of caption data in FIG. F is one of the terminal codes shown in FIG. 61 (c), which means that the type of code set to be called is determined by this value, and means that it is the terminal of one instruction content.

漢字系集合、英数集合、平仮名集合、片仮名集合、およびモザイク集合の符号構成は、それぞれ2バイトもしくは1バイトのデータ列に任意の文字を割り付けているものである。JIS 互換漢字1 面集合はJIS X0213:2004 で示される漢字1 面、JIS 互換漢字2 面集合はJIS X0213:2004 で示される漢字2 面のとおりとする。追加記号集合は追加記号および追加漢字からなる。ノンスペーシング文字およびノンスペーシングモザイクは、例えば後続する符号により指定され、文字、モザイクまたはスペース等と合成して表示する。
外字符号に使用する符号は1バイト符号または2バイト符号とする。1バイト外字符号はDRCS-1 からDRCS-15 までの15集合とし、各集合は94字で構成される(2/1 から7/14 を使用する。列番号/行番号の表記方法において、列番号が1 桁で表記されている場合は、列番号はb7 からb5 の3ビットの2進値により示されるものとする)。
The code structures of the Kanji set, alphanumeric set, hiragana set, katakana set, and mosaic set are such that arbitrary characters are assigned to 2-byte or 1-byte data strings. One set of JIS compatible Kanji characters is set to the first Kanji character set shown in JIS X0213: 2004, and two sets of JIS compatible Kanji characters are set to the second set of Kanji characters shown in JIS X0213: 2004. The additional symbol set consists of additional symbols and additional kanji. A non-spacing character and a non-spacing mosaic are specified by, for example, a subsequent code, and are displayed by being combined with a character, a mosaic, a space, or the like.
The code used for the external character code is a 1-byte code or a 2-byte code. The 1-byte gaiji code consists of 15 sets from DRCS-1 to DRCS-15, and each set consists of 94 characters (2/1 to 7/14 are used. In the column number / line number notation method, If the number is written in one digit, the column number shall be indicated by a binary value of 3 bits from b7 to b5).

2バイト外字符号集合は、DRCS-0 の集合とする。DRCS-0 は2バイトで構成される符号表とする。   The 2-byte external character code set is the DRCS-0 set. DRCS-0 is a code table consisting of 2 bytes.

受信装置4では、字幕文として使用する符号集合(上述した漢字系集合、英数集合、平仮名集合、片仮名集合などの文字、また追加記号集合や外字など字幕として表示される符号全てを指す)を予め図には未記載のメモリ上に展開しておき、図60(a)に記載の符号体系に準じたメモリ領域および、図60(b)に示すG0からG3に相当するメモリ領域を確保しておく。システム制御部51は字幕文データを受信した順に先頭から文字列の読解を行い、その中に図61(b)に記した指示制御の符号化表現に相当するデータ列を検出すると、制御の内容に示した文字符号集合を指示先のメモリ領域に展開する。また字幕文データ中に図61Aに示す呼び出し制御の符号化表現に相当するデータ列を検出すると、該当する符号集合(G0からG3のいずれか)を呼び出し先(図60(a)に示すGL符号領域もしくはGR符号領域)のメモリ領域へ展開する。図61(a)に示す呼び出し形態がロッキングシフトの場合は、一度呼び出しを行うと次回別の符号集合の呼び出しを行うまで有効となる。シングルシフトはその直後に続く1文字のみ呼び出しを行い、呼出し後に以前の状態に戻す呼び出し方法である。字幕文データの制御コマンド以外のデータ(02/1〜07/14、 10/1〜15/14)はその時のGL符号領域もしくはGR符号領域に読み出された符号集合のその列番号/行番号に該当する文字を字幕文として使用することを意味する。映像変換制御部61は文字列表示用のメモリ領域(字幕表示プレーン)を確保し、字幕文データの数字列に応じて、02/1〜07/14および10/1〜15/14までの数字列を検出した場合には、以上の指示、呼び出し制御を経て、GL、GR符号領域にマッピングされている文字データを、表示用文字列データとする。システム制御部51は字幕文データを映像変換制御部61へ伝送し、映像変換制御部61は字幕表示プレーン上に表示文字列データを例えばビットマップデータとして描画する。またシステム制御部51が制御符号(とそのパラメータ)を検出した場合は、制御符号(とそのパラメータ)を映像変換制御部61へ伝送し、映像変換制御部61がそれに応じた処理を実行する。制御符号の使用方法の詳細は後述する。なお、字幕文データの伝送は必ずしも1文字ごとに行う必要はなく、例えば所定時間分蓄積してデータを纏めて伝送するといった方法でも良いし、所定サイズ分蓄積して纏めて伝送するといった方法でも良い。   In the receiving device 4, code sets used as subtitle sentences (refer to all the codes displayed as subtitles such as the above-described kanji set, alphanumeric set, hiragana set, katakana set, etc., and additional symbol sets and external characters). It is developed in advance on a memory not shown in the figure, and a memory area conforming to the coding system shown in FIG. 60 (a) and memory areas corresponding to G0 to G3 shown in FIG. 60 (b) are secured. Keep it. The system control unit 51 reads the character string from the top in the order in which the subtitle sentence data is received, and when the data string corresponding to the coded representation of the instruction control shown in FIG. The character code set shown in FIG. If a data string corresponding to the coded representation of the call control shown in FIG. 61A is detected in the caption text data, the corresponding code set (any of G0 to G3) is selected as the call destination (GL code shown in FIG. 60 (a)). In the memory area of the area or the GR code area). When the calling form shown in FIG. 61A is a locking shift, once a call is made, it is effective until another code set is called next time. Single shift is a calling method in which only one character immediately following is called and the previous state is restored after the call. Data other than the control command of caption text data (02/1 to 07/14, 10/1 to 15/14) is the column number / row number of the code set read in the GL code area or GR code area at that time This means that the characters corresponding to are used as subtitle sentences. The video conversion control unit 61 secures a memory area for displaying a character string (caption display plane), and numbers from 02/1 to 07/14 and from 10/1 to 15/14 according to the number sequence of caption text data. When a column is detected, the character data mapped to the GL and GR code areas is set as display character string data through the above instruction and call control. The system control unit 51 transmits the caption text data to the video conversion control unit 61, and the video conversion control unit 61 renders display character string data as, for example, bitmap data on the caption display plane. When the system control unit 51 detects the control code (and its parameters), the control code (and its parameters) is transmitted to the video conversion control unit 61, and the video conversion control unit 61 executes processing corresponding thereto. Details of how to use the control code will be described later. Note that it is not always necessary to transmit subtitle text data for each character. For example, a method of storing data for a predetermined time and transmitting the data collectively may be used, or a method of storing data for a predetermined size and transmitting the data collectively. good.

この符号体系と運用によって、後述する制御指示と表示する文字の指定を同一字幕文データで行うことが出来、高頻度で使用される符号集合をG0からG3に予め呼び出しておくことで膨大な文字データの中から効率的に使用する文字を指定可能な仕組みとなっている。なお、システム初期化時のGL符号領域、GR符号領域、G0からG3の符合領域に設定される符号集合は予め規定されている。   With this code system and operation, it is possible to specify a control instruction and a character to be displayed, which will be described later, with the same caption text data, and by calling a code set frequently used from G0 to G3 in advance, a huge number of characters It is a mechanism that can specify the characters to be used efficiently from the data. Note that code sets set in the GL code area, the GR code area, and the code areas G0 to G3 at the time of system initialization are defined in advance.

マクロ符号集合は、文字符号(モザイク図形及びDRCS 図形表示の図形を含む)および制御符号から成る一連の符号列(以下「マクロ文」という)により代表して使用する機能(以下「マクロ定義」という)の符号集合をいう。マクロ定義は、図62(a)のマクロ指定により行う。マクロ符号は1 バイト符号とし、94 種(2/1 から7/14 を使用する)で構成される。マクロ符号を指定したとき、マクロ文の符号列の復号を実行する。マクロ定義を行わない場合は、図62(b)に示すデフォルトマクロ文による。   The macro code set is a function (hereinafter referred to as “macro definition”) representatively used by a series of code strings (hereinafter referred to as “macro sentence”) consisting of character codes (including mosaic graphics and DRCS graphic display graphics) and control codes. ) Code set. Macro definition is performed by macro designation in FIG. The macro code is a 1-byte code and consists of 94 types (2/1 to 7/14 are used). When the macro code is specified, the code string of the macro sentence is decoded. When the macro definition is not performed, the default macro sentence shown in FIG.

受信装置4は字幕文データを読解していきMACRO(09/5)を検出するとその直後に続くマクロ処理を行う。デフォルトマクロ文に示す高頻度で使用される呼び出しや指示制御を簡便に表現可能なようにマクロ符号が割り振られており、システム制御部51ではマクロ符号を検出した場合にはデフォルトマクロ文に示される制御を実行する。これにより複雑な字幕処理を短縮して表現することで字幕文データの削減を可能にしている。   The receiving device 4 reads and understands the subtitle text data and detects the MACRO (09/5), and performs the macro processing immediately after that. Macro codes are allocated so that the frequently used calls and instruction controls shown in the default macro sentence can be expressed easily. When the macro code is detected by the system control unit 51, it is indicated in the default macro sentence. Execute control. As a result, the caption text data can be reduced by expressing the complicated caption processing in a shortened manner.

字幕文データの本文の表示方法や表示形式を動的に制御する方法として、制御符号を字幕文データ中に挿入することが可能である。C0 、C1制御符号の符号の構成の一例を図63に示す。各制御符号は列番号/行番号の表記方法において、00/0から01/15をC0制御符号に、および08/0から09/15をC1制御符号に割り当てる。各制御符号集合で使用する制御符号の種類について図64で示す。本実施例では、字幕の奥行き表示位置を示す制御符号を新たに拡張制御符号に含める。新たに使用する制御符号の種類として、キャラクタ名称SDD、SDD2、SDD3、SDD4を用いて表現している。奥行き表示位置の指定方法は後述する。   As a method for dynamically controlling the display method and display format of caption text data, it is possible to insert a control code into the caption text data. An example of the configuration of the C0 and C1 control codes is shown in FIG. Each control code assigns 00/0 to 01/15 to the C0 control code and 08/0 to 09/15 to the C1 control code in the column number / row number notation method. The types of control codes used in each control code set are shown in FIG. In the present embodiment, a control code indicating the subtitle depth display position is newly included in the extended control code. Character types SDD, SDD2, SDD3, and SDD4 are used as types of control codes to be newly used. A method for specifying the depth display position will be described later.

C0制御符号の符号の機能の一例を以下に示す。   An example of the function of the C0 control code is shown below.

NULは「空白」の制御機能であり、情報内容に影響を与えることなく追加または削除できる制御符号である。APBは「動作位置後退」の制御機能であり、動作位置を表示区画の動作方向の長さで動作方向に沿って後退させる。この移動により表示区画の基準点が表示領域の端を越えることとなる場合、動作位置を動作方向に沿って表示領域の逆の端へ移動し、動作行後退を行う。APFは「動作位置前進」の制御機能であり、動作位置を表示区画の動作方向の長さで動作方向に沿って前進する。この移動により表示区画の基準点が表示領域の端を越えることとなる場合、動作位置を動作方向に沿って表示領域の逆の端へ移動し、動作行前進を行う。APDは「動作行前進」の制御機能であり、動作位置を表示区画の行方向の長さで行方向に沿って次の行へ移動する。この移動により表示区画の基準点が表示領域の端を越えることとなる場合、動作位置を行方向に沿って表示領域の最初の行へ移動する。APUは「動作行後退」の制御機能であり、動作位置を表示区画の行方向の長さで行方向に沿って前の行へ移動する。この移動により表示区画の基準点が表示領域の端を越えることとなる場合、動作位置を行方向に沿って表示領域の最後の行へ移動する。APRは「動作位置改行」の制御機能であり、動作位置を同じ行の最初の位置へ移動し、動作行前進を行う。PAPFは「指定動作位置前進」の制御機能であり、パラメータP1(1 バイト)により指定する回数の動作位置前進を行う。APSは「動作位置指定」の制御機能であり、動作位置を表示領域の最初の行の最初の位置から表示区画の行方向の長さで第1パラメタにより指定する回数の動作位置行前進を行い、表示区画の動作方向の長さで第2パラメタにより指定する回数の動作位置前進を行う。CSは「画面消去」の制御機能であり、表示画面の当該表示領域を消去状態とする。ESCは「エスケープ」の制御機能であり、符号系拡張のための符号。LS1は「ロッキングシフト1」の制御機能であり、文字符号集合の呼び出しのための符号である。LS0は「ロッキングシフト0」の制御機能であり、文字符号集合の呼び出しのための符号である。SS2は「シングルシフト2」の制御機能であり、文字符号集合の呼び出しのための符号である。SS3は「シングルシフト3」の制御機能であり、文字符号集合の呼び出しのための符号である。   NUL is a “blank” control function, and is a control code that can be added or deleted without affecting the information content. APB is a control function of “retraction of the operation position”, and the operation position is retracted along the operation direction by the length of the display section in the operation direction. When the reference point of the display section exceeds the end of the display area by this movement, the operation position is moved to the opposite end of the display area along the operation direction, and the operation line is moved backward. The APF is a control function of “movement position advance”, and advances the movement position along the movement direction by the length of the display section in the movement direction. When the reference point of the display section exceeds the end of the display area by this movement, the operation position is moved to the opposite end of the display area along the operation direction, and the operation line is advanced. The APD is a control function of “movement line advance”, and moves the operation position to the next line along the line direction by the length of the display section in the line direction. When the reference point of the display section exceeds the edge of the display area by this movement, the operation position is moved to the first line of the display area along the line direction. APU is a control function of “moving operation line backward”, and moves the operation position to the previous line along the line direction by the length of the display section in the line direction. When the reference point of the display section exceeds the end of the display area by this movement, the operation position is moved to the last line of the display area along the line direction. APR is a control function of “operation position line feed”, and moves the operation position to the first position on the same line to advance the operation line. PAPF is a “designated operation position advance” control function, and advances the operation position by the number of times specified by parameter P1 (1 byte). APS is a “motion position designation” control function, and moves the motion position by the number of times specified by the first parameter from the first position of the first line of the display area in the row direction of the display area. The operation position is advanced by the number of times specified by the second parameter by the length in the operation direction of the display section. CS is a control function of “screen erasure”, and puts the display area of the display screen in the erased state. ESC is a control function for “escape” and is a code for extending the code system. LS1 is a control function of “locking shift 1”, and is a code for calling a character code set. LS0 is a control function of “locking shift 0”, and is a code for calling a character code set. SS2 is a control function of “single shift 2”, and is a code for calling a character code set. SS3 is a control function of “single shift 3”, and is a code for calling a character code set.

C1制御符号の符号の機能の一例を以下に示す。   An example of the function of the C1 control code is shown below.

BKFは「前景色黒およびカラーマップ下位アドレス指定」の制御機能であり、前景色を黒に指定するとともに、該当描画プレーンの着色値を規定するカラーマップ下位アドレス(CMLA)を0 に指定する。RDFは「前景色赤およびカラーマップ下位アドレス指定」の制御機能であり、前景色を赤に指定するとともに、該当描画プレーンの着色値を規定するカラーマップ下位アドレス(CMLA)を0 に指定する。GRFは「前景色緑およびカラーマップ下位アドレス指定」の制御機能であり、前景色を緑に指定するとともに、該当描画プレーンの着色値を規定するカラーマップ下位アドレス(CMLA)を0 に指定する。YLFは「前景色黄およびカラーマップ下位アドレス指定」の制御機能であり、前景色を黄色に指定するとともに、該当描画プレーンの着色値を規定するカラーマップ下位アドレス(CMLA)を0 に指定する。BLFは「前景色青およびカラーマップ下位アドレス指定」の制御機能であり、前景色を青に指定するとともに、該当描画プレーンの着色値を規定するカラーマップ下位アドレス(CMLA)を0 に指定する。MGFは「前景色マゼンタおよびカラーマップ下位アドレス指定」の制御機能であり、前景色をマゼンタに指定するとともに、該当描画プレーンの着色値を規定するカラーマップ下位アドレス(CMLA)を0 に指定する。CNFは「前景色シアンおよびカラーマップ下位アドレス指定」の制御機能であり、前景色をシアンに指定するとともに、該当描画プレーンの着色値を規定するカラーマップ下位アドレス(CMLA)を0 に指定する。WHFは「前景色白およびカラーマップ下位アドレス指定」の制御機能であり、前景色を白に指定するとともに、該当描画プレーンの着色値を規定するカラーマップ下位アドレス(CMLA)を0 に指定する。COLは「色指定」の制御機能であり、パラメータにより上記の前景色、背景色、前中間色、背中間色、およびカラーマップ下位アドレス(CMLA)を指定する。階調フォントにおける前景色と背景色の間の色を、前景色に近い色を前中間色、背景色に近い色を背中間色と定義する。POLは「パターン極性」の制御機能であり、本制御符号以降の符号が表す文字、モザイク等のパターンの極性(正常極性の場合は前景色と背景色をそのまま、反転極性の場合は前景色と背景色を反転させる)を指定する。なお、ノンスペーシング文字が含まれている場合は合成後のパターン極性を指定する。また、階調フォントにおける中間色については、前中間色は背中間色へ背中間色は前中間色への変換を行う。SSZは「小型サイズ」の制御機能であり、文字の大きさを小形とする。MSZは「中型サイズ」の制御機能であり、文字の大きさを中型とする。NSZは「標準サイズ」の制御機能であり、文字の大きさを標準とする。SZXは「指定サイズ」の制御機能であり、パラメータにより文字の大きさを指定する。FLCは「フラッシング制御」の制御機能であり、パラメータによりフラッシングの開始および終了、ならびに正相および逆相の別を指定すること。正相フラッシングは画面上最初に開始するフラッシングを言い、逆相フラッシングは明と滅の位相を正相フラッシングの逆にしたフラッシングを言う。WMMは「書き込みモード変更」の制御機能であり、パラメータにより表示メモリへの書き込みモードの変更を指定する。書き込みモードは前景色及び背景色として指定されている部分を書き込むモード、前景色として指定されている部分のみを書き込むモード、背景色として指定されている部分のみを書き込むモードなどがある。なお、階調フォントにおける中間色については、前中間色指定部分および背中間色指定部分を共に前景色として取り扱う。TIMEは「時間制御」の制御機能であり、パラメータにより時間の制御の指定を行う。指定の時間単位は0.1 秒とする。提示開始時刻(STM)、時刻制御モード(TMD)、再生時刻(DTM)、オフセット時間( OTM)、演奏時間( PTM )は使用しない。表示終了時刻( ETM )を使用する。MACROは「マクロ指定」の制御機能であり、パラメータP1(1 バイト)によりマクロ定義開始、マクロ定義のモードおよびマクロ定義終了を指定する。RPCは「文字繰り返し」の制御機能であり、この符号に続く表示上の一つの文字またはモザイクをパラメータにより指定する回数繰り返し表示する。STLは「アンダーライン開始およびモザイク分離開始」の制御機能であり、この符号以降の表示においてモザイクAおよびBの場合は合成を行わず、ノンスペーシングおよび合成制御による合成中にモザイクが含まれる場合は合成後、分離化処理(モザイク素片を表示区画の横方向1/2 縦方向1/3 の大きさの小素片に区分し、それぞれの周辺部に間隔を設ける処理)を行う。その他の場合は、アンダーラインを付加する。SPLは「アンダーライン終了およびモザイク分離終了」の制御機能であり、この符号によりアンダーライン付加およびモザイク分離化処理を終了する。HLCは「囲み制御」の制御機能であり、パラメータにより囲み開始及び終了を指定すること。CSIは「コントロールシーケンスイントロデューサ」の制御機能であり、符号系拡張のための符号である。   BKF is a control function of “foreground color black and color map lower address designation”, and designates the foreground color as black and the color map lower address (CMLA) that defines the coloring value of the drawing plane as 0. RDF is a control function of “Foreground color red and color map lower address designation”, and designates the foreground color as red and the color map lower address (CMLA) that defines the coloring value of the corresponding drawing plane as 0. GRF is a control function of “specify foreground green and color map lower address”, and specifies the foreground color as green and the color map lower address (CMLA) that defines the coloring value of the corresponding drawing plane as 0. YLF is a control function of “Foreground color yellow and color map lower address designation”. The foreground color is designated as yellow, and the color map lower address (CMLA) that defines the coloring value of the corresponding drawing plane is designated as 0. BLF is a control function of “foreground color blue and color map lower address designation”. The foreground color is designated as blue, and the color map lower address (CMLA) that defines the coloring value of the drawing plane is designated as 0. The MGF is a control function of “foreground color magenta and color map lower address designation”, and designates the foreground color as magenta and the color map lower address (CMLA) that defines the coloring value of the drawing plane as 0. CNF is a control function of “foreground color cyan and color map lower address designation”, and designates the foreground color to cyan and the color map lower address (CMLA) that defines the coloring value of the drawing plane concerned to 0. WHF is a control function of “Foreground color white and color map lower address designation”, and designates the foreground color as white and the color map lower address (CMLA) that defines the coloring value of the drawing plane as 0. COL is a control function of “color designation”, and designates the foreground color, background color, front intermediate color, back intermediate color, and color map lower address (CMLA) by parameters. The color between the foreground color and the background color in the gradation font is defined as a color near the foreground color as a front intermediate color and a color close to the background color as a back intermediate color. POL is a control function of “pattern polarity”. The polarity of characters, mosaics, and other patterns represented by the codes after this control code (for normal polarity, the foreground color and background color remain unchanged, and for the reverse polarity, the foreground color and Specify the background color to be inverted). When non-spacing characters are included, the pattern polarity after synthesis is specified. For the intermediate color in the gradation font, the front intermediate color is converted into the back intermediate color, and the back intermediate color is converted into the front intermediate color. SSZ is a “small size” control function, and the character size is small. MSZ is a “medium size” control function, and the character size is medium. NSZ is a control function of “standard size”, and character size is standard. SZX is a “designated size” control function, and designates the size of a character by a parameter. FLC is a control function of “flushing control”, and specifies the start and end of flushing and the distinction between normal phase and reverse phase by parameters. Normal-phase flushing refers to flushing that starts first on the screen, and reverse-phase flushing refers to flushing in which the phases of light and darkness are reversed from those of normal-phase flushing. WMM is a control function of “write mode change”, and designates a change of the write mode to the display memory by a parameter. The writing mode includes a mode for writing a part designated as a foreground color and a background color, a mode for writing only a part designated as a foreground color, and a mode for writing only a part designated as a background color. For the intermediate color in the gradation font, both the front intermediate color designation part and the back intermediate color designation part are handled as the foreground color. TIME is a control function of “time control” and designates time control by a parameter. The specified time unit shall be 0.1 seconds. The presentation start time (STM), time control mode (TMD), playback time (DTM), offset time (OTM), and performance time (PTM) are not used. Use the display end time (ETM). MACRO is a “macro designation” control function, and designates macro definition start, macro definition mode, and macro definition end by parameter P1 (1 byte). The RPC is a “character repeat” control function, and repeatedly displays one character or mosaic on the display following this code as many times as specified by a parameter. STL is a control function of “underline start and mosaic separation start”. In the display after this code, in the case of mosaic A and B, synthesis is not performed, and when mosaic is included during synthesis by non-spacing and synthesis control After the composition, separation processing (processing to divide the mosaic segment into small segments having a size of 1/2 in the horizontal direction and 1/3 in the vertical direction, and providing a space in each peripheral portion) is performed. In other cases, an underline is added. SPL is a control function of “underline end and mosaic separation end”, and this code ends the underline addition and mosaic separation processing. HLC is a control function of “enclosure control”, and the start and end of enclosure are specified by parameters. CSI is a control function of the “control sequence introducer” and is a code for extending the code system.

拡張制御符号(CSI)の符号の機能の一例を以下に示す。   An example of the function of the extended control code (CSI) code is shown below.

SWFは「書式設定」の制御符号であり、パラメータにより初期化を選択し、初期化動作を行う。初期値として標準密度の横書きや、高密度の縦書きといった書式指定、また文字サイズの指定、一行の文字数、行数の指定を行う。RCSは「ラスタ色制御」の制御符号であり、パラメータによりラスタ色を設定する。ACPSは「動作位置座標指定」の制御符号であり、パラメータにより、文字表示区画の動作位置基準点を論理プレーンの左上角からの座標として指定する。SDFは「表示構成ドット指定」の制御符号であり、パラメータにより、表示ドット数を指定する。SDPは「表示位置指定」の制御符号であり、パラメータにより、文字画面の表示位置を左上角の位置座標で指定する。SSMは「文字構成ドット指定」の制御符号であり、パラメータにより、文字ドットを指定する。SHSは「字間隔指定」の制御符号であり、パラメータにより、表示区画の動作方向の長さを指定する。これにより、動作位置移動はデザイン枠に字間隔を加えた長さが単位となる。SVSは「行間隔指定」の制御符号であり、パラメータにより、表示区画の行方向の長さを指定する。これにより、動作行移動はデザイン枠に行間隔を加えた長さが単位となる。GSMは「文字変形」の制御符号であり、パラメータにより、文字の変形を指定する。GAAは「着色区画」の制御符号であり、パラメータにより、文字の着色区画を指定する。TCCは「切替制御」の制御符号であり、パラメータにより字幕の切替モード、字幕の切替方向、字幕の切替時間を指定する。CFSは「文字フォント設定」の制御符号であり、パラメータにより、文字のフォントを指定する。ORNは「文字飾り指定」の制御符号であり、パラメータより文字飾り(縁取り、影付き、中抜きなど)の指定、文字飾り色を指定する。MDFは「字体指定」の制御符号であり、パラメータにより字体(太字、斜体、太字斜体など)を指定する。XCSは「外字代替符号」の制御符号であり、DRCS または第3 水準、第4 水準文字表示不能時に、差し替えて表示する符号列を定義する。PRAは「内蔵音再生」の制御符号であり、パラメータにより指定する内蔵音を再生する。SRCは「ラスタ指定」の制御符号であり、パラメータによりスーパー表示の指定とラスタ色を指定する。CCCは「合成制御」の制御符号であり、パラメータにより文字およびモザイクパターンの合成制御を指示する。SCRは「スクロール指定」の制御符号であり、パラメータにより字幕のスクロールモード(字方向・行方向の指定およびロールアウトあり・無しの指定)、スクロール速度を指定する。UEDは「不可視データ埋め込み制御」の制御符号であり、字幕の文字列に意味的な内容を付加するなどの目的のため、通常の字幕提示系では表示されない不可視データ符号列の埋め込みを行う。本制御符号では、この不可視データ符号列を指定するとともに、不可視データがリンクする字幕表示文字列を指定する。SDD、SDD2、SDD3、SDD4については後述する。   SWF is a control code for “format setting”, selects initialization by a parameter, and performs an initialization operation. As the initial value, format specification such as horizontal writing with standard density or vertical writing with high density, character size, number of characters per line, number of lines are specified. RCS is a control code of “raster color control”, and sets a raster color by a parameter. ACPS is a control code of “motion position coordinate designation”, and designates the motion position reference point of the character display section as a coordinate from the upper left corner of the logical plane by a parameter. SDF is a control code of “display configuration dot designation”, and designates the number of display dots by a parameter. SDP is a “display position designation” control code, and designates the display position of the character screen by the position coordinates of the upper left corner by a parameter. SSM is a control code of “character composition dot designation”, and designates a character dot by a parameter. SHS is a control code of “character spacing designation”, and designates the length in the operation direction of the display section by a parameter. As a result, the movement position moves in units of the length of the design frame plus character spacing. SVS is a control code of “line spacing designation”, and designates the length of the display section in the row direction by a parameter. As a result, the movement line movement is based on a length obtained by adding a line interval to the design frame. GSM is a control code for “character transformation”, and designates character transformation by a parameter. GAA is a control code of “colored section”, and designates a colored section of a character by a parameter. TCC is a control code of “switch control”, and specifies a subtitle switching mode, a subtitle switching direction, and a subtitle switching time by parameters. CFS is a control code of “character font setting”, and designates a character font by a parameter. ORN is a control code for “character decoration designation”, and designates character decoration (bordering, shadowing, hollowing, etc.) and character decoration color from parameters. MDF is a control code for “designation of font”, and designates a font (bold, italic, bold italic, etc.) by a parameter. XCS is a control code of “External character substitution code”, and defines a code string to be replaced and displayed when DRCS or third and fourth level characters cannot be displayed. PRA is a control code for “built-in sound reproduction”, and reproduces a built-in sound designated by a parameter. SRC is a control code of “raster designation”, and designates super display and raster color by parameters. CCC is a control code for “compositing control”, and instructs synthesis control of characters and mosaic patterns by parameters. SCR is a control code for “scroll designation”, and designates a subtitle scroll mode (designation of character direction / line direction and designation of presence / absence of rollout) and scroll speed by parameters. UED is a control code of “invisible data embedding control”, and for the purpose of adding semantic content to a subtitle character string, an invisible data code sequence that is not displayed in a normal subtitle presentation system is embedded. In this control code, the invisible data code string is designated, and the caption display character string to which the invisible data is linked is designated. SDD, SDD2, SDD3, and SDD4 will be described later.

C0,C1制御符号の符号シーケンスは、制御符号の直後にパラメータが配置される。拡張制御符号の符号シーケンスは、制御符号(09/11 = CSI)、パラメータ、中間文字、終端文字の順に配置される。パラメータが複数にわたる場合、パラメータと中間文字を繰り返す。   In the code sequence of the C0 and C1 control codes, parameters are arranged immediately after the control code. The code sequence of the extended control code is arranged in the order of control code (09/11 = CSI), parameter, intermediate character, and termination character. If there are multiple parameters, repeat the parameters and intermediate characters.

受信装置4では、字幕文データを入力順に解析をしていき、C0、C1制御符号を示すデータ列を検出した場合、図64に記した各制御符号に応じた制御内容の処理を行う。例えば、字幕文データ中で01/6を検出した場合、これはPAPF(指定動作位置前進)を意味し、直後の数値が例えば04/1の場合、パラメータ値は1を示し、すなわち映像変換制御部61は字幕表示プレーン上の描画位置を1文字分水平方向に前進させることとする。拡張制御符号(CSI)を検出した場合、後続のデータで終端文字が検出されるまでを一セットとしてデータを処理し、終端文字によって制御機能を判別し、その間の各パラメータ値に基づいて制御内容を実行する。   The receiving apparatus 4 analyzes the caption text data in the order of input, and when a data string indicating the C0 and C1 control codes is detected, processing of control contents corresponding to each control code shown in FIG. 64 is performed. For example, when 01/6 is detected in the caption text data, this means PAPF (designated operation position advance), and when the immediately following numerical value is 04/1, for example, the parameter value indicates 1, that is, video conversion control. The unit 61 advances the drawing position on the caption display plane by one character in the horizontal direction. When the extended control code (CSI) is detected, the data is processed as a set until the termination character is detected in the subsequent data, the control function is determined by the termination character, and the control content is determined based on each parameter value therebetween Execute.

拡張制御で一度指定された内容は再度同種の拡張制御で異なる値が指定されるか、字幕表示の初期化動作が行われるまで継続して表示内容に反映される。例えば、文字構成ドット指定を行う場合、09/11(CSI)を検出してから、以降05/7(F(終端文字))までを読み込み、その間が例えば09/11から03/11(I1(中間文字))までの間がパラメータP1であり、例えば03/5、 03/0であれば横方向のドット数の指定は「50」となる。同様に03/11から02/0(I2(中間文字))までの間がパラメータP2であり、例えば03/4、03/0であれば縦方向のドット数の指定は「40」となる。それ以降の字幕文データの符号列で表示文字列データを横50ドット、縦40ドットのサイズに変換して字幕表示プレーン上に描画し、以降再度文字構成ドット指定を行うか、初期化がされるまではこのドット数で表記を行う。他の制御機能についても同様に処理して任意の制御を行う。   The content once specified by the extended control is continuously reflected in the display content until a different value is specified again by the same type of extended control or the initialization operation of the caption display is performed. For example, when character composition dot designation is performed, after 09/11 (CSI) is detected, 05/7 (F (terminating character)) is read thereafter, and for example between 09/11 and 03/11 (I1 ( The interval between the intermediate characters))) is the parameter P1. For example, if it is 03/5, 03/0, the designation of the number of dots in the horizontal direction is “50”. Similarly, the parameter P2 is from 03/11 to 02/0 (I2 (intermediate character)). For example, in the case of 03/4, 03/0, the designation of the number of dots in the vertical direction is “40”. The display character string data is converted into a size of 50 dots wide and 40 dots high in the code string of the caption text data after that and rendered on the caption display plane. Thereafter, the character configuration dot designation is performed again or initialization is performed. Until this time, the number of dots is used. Other control functions are processed in the same manner to perform arbitrary control.

C0制御符号は主に動作位置の制御や文字符号集合の呼び出し(文字符号は分割された集合として纏められており、字幕に文字を表示するためには一旦その文字が含まれる集合を指定する必要がある。このような制御は例えば装置では集合の呼び出しを指示されるとその集合の文字データを決められたメモリ上に展開するなどの制御を行い、有効にメモリ領域を利用可能とするなどの利点がある。)のための符号が含まれる。C1制御符号には主に文字色や文字サイズの指定、フラッシング、囲み制御といった制御が含まれる。拡張制御符号にはC0、C1制御符号に含まれない詳細な制御を含んでいる。この拡張制御符号中に字幕を3D表示するための奥行き表示位置指定用の制御符号を含む。   The C0 control code mainly controls the operation position and calls the character code set (character codes are grouped as a divided set. In order to display characters in subtitles, it is necessary to specify a set that includes the characters once. For example, when a device is instructed to call a set, such control is performed such that the character data of the set is expanded on a predetermined memory so that the memory area can be used effectively. A sign for). The C1 control code mainly includes control such as designation of character color and character size, flushing, and surrounding control. The extended control code includes detailed control not included in the C0 and C1 control codes. This extended control code includes a depth display position designation control code for 3D display of subtitles.

字幕データを3D表示を行うための制御符号の例を図65に示す。   An example of a control code for performing 3D display of caption data is shown in FIG.

「奥行き表示位置指定」の制御機能を有するキャラクタ「SDD」を新たに設定する。制御内容は例えばCSI(コントロールシーケンスイントロデューサ)の値に続いて、奥行き表示位置を3D表示のための2視点の字幕データの視差情報によって指定する。すなわち、2視点映像の右目用画像に表示する字幕データと、左目用画像に表示する字幕データとの水平方向の表示位置の差異を指定する。制御内容中のCSI情報に続けて、P11・・P1iで左右の水平方向の表示位置の差異をドット数で指定する値を設定し、その後に02/0(中間文字I1)および06/13(終端文字F)を続けてデータを構成する。なお終端文字Fの指定値はその他の制御符号と一致しない値であれば任意の値で良く、本例に限らない。   A character “SDD” having a control function of “depth display position designation” is newly set. For example, following the value of CSI (Control Sequence Introducer), the control content specifies the depth display position by disparity information of subtitle data of two viewpoints for 3D display. That is, it specifies the difference in the horizontal display position between the caption data displayed on the right-eye image of the two-viewpoint video and the caption data displayed on the left-eye image. Following the CSI information in the control content, a value for specifying the difference between the horizontal display positions in the left and right directions by the number of dots is set in P11... P1i, and then 02/0 (intermediate character I1) and 06/13 ( Continuing with the end character F) constitutes the data. The designated value of the terminal character F may be any value as long as it does not match other control codes, and is not limited to this example.

受信装置4では、3D番組に字幕を重畳する場合、表示映像が右目表示領域と左目表示領域との2つが用意されるのと同様に、字幕表示プレーンも右目表示領域用プレーンと左目表示領域用プレーンの2つを用意し、夫々のプレーンに視差が生じるように同一表示文字列データを描画する。この時字幕表示プレーンの奥行き情報は表示映像の奥行き設定を基準とした値とすればよい。すなわち、図69(a)におけるディスプレイ47上で右目用データと左目用データが同一の場所に表示される状態(視差0の位置、2D表示時の指定位置とも表現する)を基準とする。そして上記字幕データの奥行き表示位置設定値を指定する場合、映像変換制御部61では右目用映像と左目用映像共に重畳する文字列データは設定値の1/2のドット数だけ、字幕データが飛び出す方向に字幕表示位置を調整する。例えば、設定値が奇数値であった場合には、小数点以下の値は切り捨てて算出する。奥行きを表現する具体的な方法としては、右目用表示文字列データは水平方向左、左目用表示文字列データは水平方向右にずらす調整を行えばよい。これにより、図69(a)で示すように視線が交差することによって映像が画面から飛び出す感覚が得られる。例えば奥行き表示位置設定値が03/4、03/0となり40を示している場合、右目用映像に重畳する表示文字列データは右目用字幕表示プレーンの基準表示位置(2D表示する場合の表示位置であり、拡張制御符号SDPで指定されても良い)より20ドット左方向に描画し、左目用字幕表示プレーンの基準表示位置より20ドット右方向に描画する。以上の方法によって表示する文字列は前面に飛び出して見え、ユーザーは3D映像表示に合わせて字幕を視聴することが出来る。   In the receiving device 4, when subtitles are superimposed on a 3D program, the subtitle display plane is for the right eye display area plane and the left eye display area in the same manner as two display images are prepared: a right eye display area and a left eye display area. Two planes are prepared, and the same display character string data is drawn so that parallax occurs in each plane. At this time, the depth information of the caption display plane may be a value based on the depth setting of the display video. That is, the state in which the right-eye data and the left-eye data are displayed at the same place on the display 47 in FIG. 69A (also expressed as the position of parallax 0 and the designated position during 2D display) is used as a reference. When the depth display position setting value of the caption data is designated, the image conversion control unit 61 causes the caption data to pop out for the character string data to be superimposed on both the right-eye image and the left-eye image by the number of dots that is ½ of the setting value. Adjust the subtitle display position in the direction. For example, when the set value is an odd value, the value after the decimal point is rounded down. As a specific method for expressing the depth, the right-eye display character string data may be adjusted to be shifted to the left in the horizontal direction, and the left-eye display character string data may be adjusted to be shifted to the right in the horizontal direction. As a result, as shown in FIG. 69 (a), it is possible to obtain a sensation of the image jumping out of the screen when the line of sight intersects. For example, when the depth display position setting value is 03/4, 03/0, indicating 40, the display character string data to be superimposed on the right-eye video is the reference display position of the right-eye caption display plane (the display position for 2D display) And may be specified by the extended control code SDP), and is drawn 20 dots to the left, and is drawn 20 dots to the right of the reference display position of the caption display plane for the left eye. The character string displayed by the above method appears to jump out to the front, and the user can view subtitles in accordance with the 3D video display.

また、制御内容におけるパラメータP1による指定の別の例としては、所定の正数値で基準位置での表示となるように指定しても良い。例えば、P1が30とした場合を基準面(2D表示する場合の表示位置)での表示としてもよい。具体的には、30未満の値を指定した場合には指定値と所定の整数値である30との差に応じて右目用表示文字列データは水平方向右、左目用表示文字列データは水平方向左に調整を行う。30より大きな値を設定した場合には、指定値と所定の整数値である30との差に応じて右目用表示文字列データは水平方向左、左目用表示文字列データは水平方向右に調整を行う。このようにすることでも基準面から飛び出す表現だけでなく、基準面より奥へ引っ込む表現が可能になる。   Further, as another example of the designation by the parameter P1 in the control content, it may be designated to display at the reference position with a predetermined positive value. For example, the case where P1 is 30 may be displayed on the reference plane (display position in the case of 2D display). Specifically, when a value less than 30 is specified, the right-eye display character string data is horizontal right and the left-eye display character string data is horizontal according to the difference between the specified value and a predetermined integer value of 30. Adjust to the left of the direction. When a value larger than 30 is set, the right-eye display character string data is adjusted to the left in the horizontal direction and the left-eye display character string data is adjusted to the right in the horizontal direction according to the difference between the specified value and a predetermined integer value of 30. I do. In this way, not only an expression that jumps out from the reference plane but also an expression that retracts to the back from the reference plane becomes possible.

また、より臨場感を高めるために、奥行き表示位置設定に合わせて、文字構成ドット指定を行っても良い。すなわち字幕データを基準より前面に表示する場合には文字ドットの指定で通常の表示サイズよりも大きなサイズにして表示してもよい。これによりユーザーが字幕データの表示に際して臨場感を得ることが出来る。また、基準より後ろに表示する場合には、文字ドットの指定で通常の表示サイズよりも小さいサイズにして表示してもよい。   In order to further enhance the sense of reality, character composition dot designation may be performed in accordance with the depth display position setting. That is, when subtitle data is displayed in front of the reference, it may be displayed in a size larger than the normal display size by designating character dots. As a result, the user can get a sense of presence when displaying the caption data. Further, when displaying after the reference, it may be displayed in a size smaller than the normal display size by designating character dots.

なお、受信装置4が、3D映像の視差量を調整する機能を搭載している場合、ユーザー操作により入力される調整信号に応じて、映像表示、字幕表示共に表示位置を水平方向にドット単位で調整しても良い。 次に、上述のキャラクタ「SDD」とは異なる奥行き表示位置の別の指定方法について説明する。例えば、「奥行き表示位置指定」の制御機能を有する、キャラクタ「SDD2」を新たに設定する。「SDD2」による制御では、例えば、表示ディスプレイで実行可能な奥行きの最前面を基準とする奥行き方向の座標指定を行うこととする。制御内容中のCSI情報に続けて、P11・・P1iで、最前面基準の奥行き表示位置を指定する値を設定し、その後に中間文字I1および終端文字Fを続けてデータを構成する。設定値を例えば最大100まで設定可能とした場合に、P11・・P1iでは0から100の任意の値を設定すると、受信装置4では映像変換処理部32で設定可能な奥行き指定幅を奥行き表示位置指定値で指定された値/設定可能な最大値(100)で割合を求め、その割合に応じて右目用、左目用各表示文字列データの水平方向表示位置を調整して字幕表示を実施する。ユーザーからはすなわち設定値が0の場合、ディスプレイ47上では最も手前に飛び出すように見え、100を指定することで最も奥に引っ込んで見える。指定の基準は逆に最も奥を0とするようにしても同様の実施方法と効果が得られる。   Note that when the receiving device 4 has a function of adjusting the amount of parallax of 3D video, the display position for both video display and subtitle display is set in units of dots in the horizontal direction in accordance with an adjustment signal input by a user operation. You may adjust it. Next, another method for specifying a depth display position different from the above-described character “SDD” will be described. For example, a character “SDD2” having a control function of “designation of depth display position” is newly set. In the control by “SDD2”, for example, coordinate designation in the depth direction is performed with reference to the forefront of the depth that can be executed on the display. Following the CSI information in the control content, a value specifying the front-most reference depth display position is set in P11... P1i, and then the intermediate character I1 and the terminal character F are followed to form data. For example, when the setting value can be set to a maximum of 100, if an arbitrary value from 0 to 100 is set in P11... P1i, the depth designation position that can be set by the video conversion processing unit 32 in the receiving device 4 is set as the depth display position. The ratio is calculated by the value specified by the specified value / the maximum value (100) that can be set, and the display position of the right-eye and left-eye display character string data is adjusted in accordance with the ratio to display the caption. . From the user, that is, when the set value is 0, it appears to pop out to the foremost on the display 47, and by specifying 100, it appears to be retracted to the back. On the contrary, the same implementation method and effect can be obtained even if the specification standard is set to 0 at the back.

また、奥行き表示位置のさらに別の指定方法について説明する。「奥行き表示位置指定」の制御機能を有する、キャラクタ「SDD3」を新たに設定する。「SDD3」による制御では、字幕表示プレーンの基準とする奥行き表示位置(基準面の奥行き)からの相対で指定する設定値による指定を行う。制御内容中のCSI情報に続けて、P11・・P1iで基準面からの相対的な奥行き表示位置を指定する値を設定し、その後に中間文字I1および終端文字Fを続けてデータを構成する。設定値の指定方法は例えば上述した奥行きの最前面を基準とした場合と同様に割合を指定する。表示装置4では指定の割合に応じて右目用、左目用各表示文字列データの水平方向表示位置を調整することで字幕表示を行う。例えば、設定値が0の場合、図69(a)におけるディスプレイ47上で右目用データと左目用データが同一の場所に表示される状態(視差0の位置、2D表示時の指定位置とも表現する)を示す。また、設定値が100の場合、映像変換処理部32で設定可能な最大視差を設けることで最前面での表示とし、中間の数値の場合は視差0の位置と最大視差の位置を100分割した割合に応じた視差量を設けることを示す。   Further, another method for specifying the depth display position will be described. A character “SDD3” having a control function of “depth display position designation” is newly set. In the control by “SDD3”, designation is performed using a setting value that is designated relative to the depth display position (depth of the reference plane) as a reference of the caption display plane. Following the CSI information in the control content, a value specifying the relative depth display position from the reference plane is set by P11... P1i, and then the intermediate character I1 and the terminal character F are followed to constitute data. For example, the setting value is specified in the same manner as in the case where the forefront of the depth is used as a reference. The display device 4 performs subtitle display by adjusting the horizontal display position of each display character string data for right eye and left eye according to the specified ratio. For example, when the set value is 0, the right-eye data and the left-eye data are displayed at the same place on the display 47 in FIG. 69A (also expressed as a parallax 0 position and a designated position at 2D display). ). When the set value is 100, the maximum parallax that can be set by the video conversion processing unit 32 is provided to display in the foreground, and in the case of an intermediate numerical value, the position of parallax 0 and the position of the maximum parallax are divided into 100. It shows that the amount of parallax according to the ratio is provided.

また、奥行き表示位置のさらに別の指定方法について説明する。「奥行き表示位置指定」の制御機能を有する、キャラクタ「SDD4」を新たに設定する。「SDD4」による制御では、2視点の字幕データ夫々についての視差情報による指定として行う。すなわち、2視点映像の右目用画像に表示する字幕データ、左目用画像に表示する字幕データの夫々に対して、SDPで指定する表示位置からさらに水平方向に何画素ずらして字幕データ表示を行うかを指定する。制御内容中のCSI情報に続けて、P11・・P1iで右目用映像に表示する字幕データについての、SDPで指定する表示位置からの水平方向の移動量をドット数で指定する値を設定し、その後に中間文字I1を続ける。さらに、続けてP21・・P2jで左目用映像に載せる字幕データのSDPで指定する表示位置からの水平方向の移動量をドット数で指定する値を設定し、その後に中間文字I2および終端文字Fを続けてデータを構成する。表示装置4では指定値に応じて右目用表示文字列データは水平方向左、左目用表示文字列データは水平方向右に調整を行う。例えば右目用表示データの視差設定値が03/2、03/0となり20を示し、左目用表示データの視差設定値が03/2、03/0となり20を示している場合、右目用映像に重畳する表示文字列データは右目用字幕表示プレーンの基準表示位置(2D表示する場合の表示位置であり、拡張制御符号SDPで指定されても良い)より20ドット左方向に表示し、左目用字幕表示プレーンの基準表示位置より20ドット右方向に表示する。以上で示した方法によっても表示する文字列に奥行きを付加でき、ユーザーは3D映像表示に合わせて字幕を視聴することが出来る。   Further, another method for specifying the depth display position will be described. A character “SDD4” having a control function of “depth display position designation” is newly set. In the control by “SDD4”, the designation is performed by the parallax information for the two-viewpoint caption data. That is, for each of the caption data displayed in the right-eye image and the caption data displayed in the left-eye image of the 2-viewpoint video, how many pixels are further shifted in the horizontal direction from the display position specified by the SDP to display the caption data. Is specified. Following the CSI information in the control content, set a value that specifies the amount of movement in the horizontal direction from the display position specified in SDP for the caption data to be displayed on the right-eye video with P11. After that, the intermediate character I1 is continued. Further, P21... P2j set values for specifying the amount of movement in the horizontal direction from the display position specified by the SDP of the caption data to be placed on the left-eye video in P21,... To configure the data. In the display device 4, the display character string data for the right eye is adjusted to the left in the horizontal direction and the display character string data for the left eye is adjusted to the right in the horizontal direction according to the specified value. For example, when the parallax setting value of the display data for the right eye is 03/2, 03/0, indicating 20 and the parallax setting value of the display data for the left eye is 03/2, 03/0, indicating 20, the video for the right eye is displayed. The display character string data to be superimposed is displayed 20 dots to the left of the reference display position of the right-eye caption display plane (the display position for 2D display and may be specified by the extended control code SDP). Displayed 20 dots to the right of the reference display position on the display plane. Depth can be added to the character string to be displayed also by the method described above, and the user can view subtitles in accordance with the 3D video display.

なおこの時の制御内容はパラメータP1、P2により例えばSDPに依存しない夫々の表示位置を位置座標による絶対位置指定としても良い。そのようにすることで、受信装置4では視差0の位置から奥への表現も可能となる。その場合、制御符号の運用としてSDPとの併用を行わないとしても良い。また、制御内容をパラメータP1、P2による指定において、所定の正数値で視差0の位置での表示となるように設定しても良い。例えば、所定の整数値を30として、P1およびP2が30の場合に基準面(2D表示する場合の表示位置)での表示を指定するように構成してもよい。この場合、所定の整数値である30未満の値を指定した場合には、指定値に応じて右目用表示文字列データは水平方向右、左目用表示文字列データは水平方向左に調整を行う。所定の整数値である30より大きな値を設定した場合に指定値に応じて右目用表示文字列データは水平方向左、左目用表示文字列データは水平方向右に調整を行う。このようにすることでも基準面から奥への表現が可能になる。   Note that the control contents at this time may be specified by the parameters P1 and P2 as absolute position designations based on position coordinates, for example, the respective display positions not depending on the SDP. By doing so, the receiving device 4 can also express from the position of parallax 0 to the back. In that case, the use of the control code may not be performed together with the SDP. Further, the control content may be set to display at the position of parallax 0 with a predetermined positive value in the designation by the parameters P1 and P2. For example, when a predetermined integer value is 30 and P1 and P2 are 30, the display on the reference plane (display position in the case of 2D display) may be designated. In this case, when a value less than 30 which is a predetermined integer value is designated, the right-eye display character string data is adjusted to the right in the horizontal direction and the left-eye display character string data is adjusted to the left in the horizontal direction according to the designated value. . When a value larger than 30 which is a predetermined integer value is set, the display character string data for the right eye is adjusted to the left in the horizontal direction and the display character string data for the left eye is adjusted to the right in the horizontal direction according to the specified value. This also allows expression from the reference plane to the back.

また、この時の制御内容はパラメータP1、P2による2視点の指定順序を逆(パラメータP1で左目用字幕データに対する指定、パラメータP2で右目用字幕データに対する指定)としても良い。   Further, the control content at this time may be the reverse of the designation order of the two viewpoints by the parameters P1 and P2 (designation for the subtitle data for the left eye with the parameter P1, and designation for the subtitle data for the right eye with the parameter P2).

以上の複数の奥行き表示位置指定の制御符号のうちいずれか一つを選択して送信装置1から出力することで、対応可能な受信装置4では字幕の3D表示が実現可能である。また、複数の奥行き表示位置指定の制御符号を用いて送信装置1から出力してもよい。一度に複数の奥行き表示位置指定の制御符号を用いた場合には、例えば受信装置4が最後に受信した奥行き表示位置指定の制御符号により字幕の表示位置を決定してもよい。または、送信装置1から送信される複数の奥行き表示位置指定の制御符号のうち、受信装置4で対応可能な奥行き表示位置指定方法に対応する制御符号を検出して字幕の表示位置を決定してもよい。
以上で述べたように 字幕で使用する制御符号は図64、図65で説明したとおりであるが、図66には、送信装置1における、拡張制御符号の制限の一例を示す。奥行き表示位置指定の拡張制御符号SDDの制限は以下のとおりである。使用の可否は使用可能とし、その他の制限事項として、後述する表示画面の初期化動作以降、ビットマップの表示および表示動作を伴う文字、制御符号の出現前のみ指示可能とする運用としてもよい。このような制約を設けることで受信装置4では奥行き表示位置指定以外の表示位置指定や表示構成ドット指定などと同様の制御シーケンスを構築可能である。例えば、SDD2,SDD3,SDD4の制限も同様に設ければよい。
By selecting any one of the plurality of control codes for specifying the depth display position and outputting the selected control code, the 3D display of subtitles can be realized by the compatible receiving device 4. Moreover, you may output from the transmitter 1 using the control code of several depth display position designation | designated. When a plurality of depth display position designation control codes are used at a time, for example, the display position of the caption may be determined by the depth display position designation control code received last by the receiving device 4. Alternatively, among the plurality of depth display position designation control codes transmitted from the transmission apparatus 1, a control code corresponding to a depth display position designation method that can be handled by the reception apparatus 4 is detected to determine a caption display position. Also good.
As described above, the control codes used in the caption are as described with reference to FIGS. 64 and 65. FIG. 66 shows an example of the restriction of the extended control codes in the transmission apparatus 1. Restrictions on the extended control code SDD for designating the depth display position are as follows. Whether or not it can be used can be used, and as other restrictions, after the initialization operation of the display screen described later, it is possible to designate only before the appearance of characters and control codes with bitmap display and display operations. By providing such a restriction, the receiving apparatus 4 can construct a control sequence similar to display position designation other than depth display position designation, display configuration dot designation, and the like. For example, the restrictions on SDD2, SDD3, and SDD4 may be provided similarly.

以上説明した本実施例の制御符号を用いることにより、奥行き表示位置・視差情報を表示画面の初期化動作毎に位置指定が可能であるため、任意の文字数毎に変更することが可能である。例えば表示する字幕データ1行ごとに指定することも可能であるし、勿論、初期化動作は行の途中でも組み込むことが可能なため、表示する字幕データ1文字ごとでも位置指定可能である。受信装置4は、以上説明した制御符号を読み取り、制御符号の制御内容が有効な範囲の字幕データについて指定された奥行きを実現するための右目用・左目用映像夫々の表示位置を計算し字幕データを映像データに重ね合わせる。   By using the control codes of the present embodiment described above, the position of the depth display position / parallax information can be specified for each initialization operation of the display screen, and therefore can be changed for each arbitrary number of characters. For example, the subtitle data to be displayed can be specified for each line, and of course, the initialization operation can be incorporated even in the middle of the line, so that the position can be specified for each character of the subtitle data to be displayed. The receiving device 4 reads the control codes described above, calculates the display positions of the right-eye and left-eye videos for realizing the specified depth for the caption data in the range where the control content of the control code is valid, and caption data Is superimposed on the video data.

また、奥行き表示位置指定の制御符号で伝送する制御内容として、番組内で設定可能な奥行きの最前面の表示位置を表す奥行き情報を伝送するようにしても良い。例えば、映像制作時に,左右の視差量が最大20画素までずれる、ということが判明していれば、送信装置1では送信時にSDDの左右視差の設定値を常に20に設定する。そうすることで受信装置4では3D表示時にこの設定値20を使用して常に表示映像の最前面に字幕を表示して違和感の無い映像を表示することが可能である。例えば、受信装置4で3D表示効果の強弱を調整する機能を含む場合には、視差のデフォルト値として20という値を使用し、ユーザからの強弱の指定が行われた場合には映像データの視差量と同じく変動をさせればよい。   Further, as the control content to be transmitted by the control code for designating the depth display position, depth information indicating the foremost display position of the depth that can be set in the program may be transmitted. For example, if it is known that the left and right parallax amounts are shifted up to 20 pixels at the time of video production, the transmission apparatus 1 always sets the setting value of the left and right parallax of the SDD to 20 at the time of transmission. By doing so, it is possible for the receiving device 4 to always display subtitles on the foreground of the displayed video by using the set value 20 during 3D display and display a video with no sense of incongruity. For example, when the receiving device 4 includes a function for adjusting the strength of the 3D display effect, a default value of 20 is used as the parallax default value, and when the strength is specified by the user, the parallax of the video data Just change the amount.

また、以上の構成に基づけば、例えば3D番組表示に対応していない受信装置の場合は、この拡張制御情報を無視することで2D画面上に字幕データの表示が可能であり、旧来の機種が誤動作しないデータ構成としている。   Further, based on the above configuration, for example, in the case of a receiving device that does not support 3D program display, it is possible to display subtitle data on the 2D screen by ignoring this extended control information. The data structure does not cause malfunction.

3D番組において字幕文データで上記奥行き表示位置指定が行われていない場合、受信装置4は字幕データの表示を視差が無い状態で実施するか、映像変換処理部32で設定可能な最前面で表現するといった方法が実施可能である。   When the depth display position is not specified in the caption text data in the 3D program, the receiving device 4 displays the caption data in a state without parallax or expresses it in the foreground that can be set by the video conversion processing unit 32 It is possible to implement such a method.

なお本実施例では3D表示を行う制御符号を拡張制御符号の一部として記載したが、別の制御符号(C0、C1制御符号)に含めて実現しても良いし、キャラクタ名称は本実施例以外の表現でも良い。奥行き表示位置指定の制御符号をC0制御符号やC1制御符号に適用した場合、図64にて示した制御符号の範囲、図66にて示した運用制限における奥行き位置指定情報の記載場所も適宜変更される。   In this embodiment, the control code for performing 3D display is described as a part of the extended control code. However, the control code may be realized by being included in another control code (C0, C1 control code). Other expressions may be used. When the control code for designating the depth display position is applied to the C0 control code or the C1 control code, the range of the control code shown in FIG. 64 and the description location of the depth position designation information in the operation restriction shown in FIG. Is done.

<その他の送信動作の制限>
送信装置1における字幕データの送信動作について、例えば、奥行き表示位置指定情報は対象となる番組が3D映像を含む場合のみ有効な制御とするため、送信動作の制限として、奥行き表示位置指定はコンテント記述子などが示す番組特性が「対象イベント(番組)の映像は3D映像である」もしくは「対象イベント(番組)中に3D映像と2D映像が含まれる」場合のみ送信可能である、といった制限を設けてもよい。
<Other transmission restrictions>
Regarding the transmission operation of subtitle data in the transmission device 1, for example, the depth display position designation information is effective control only when the target program includes 3D video. Therefore, the depth display position designation is a content description as a limitation of the transmission operation. There is a restriction that transmission is possible only when the program characteristics indicated by the child are “the video of the target event (program) is a 3D video” or “the target event (program) includes 3D video and 2D video”. May be.

また、放送における字幕データについては、例えばフラッシング(点滅)やアンダーライン、スクロールなどの多彩な文字装飾などの表現方法が設定可能である。字幕データの3D表示において、ユーザーの3D番組視聴の疲労・負担を考慮してこれらの文字装飾の手法と奥行きを使用する表示の組み合わせに制限を設けても良い。例えば、字幕データの3D表示を行う際のフラッシングの制限事項として、フラッシング色数は、フラッシングしない文字及びビットマップデータの共通固定色の128 色とは別に、8単位符号文字列のフラッシング用に同時に合計24色(4階調フォントの中間色も含む)まで指定できるものとする。ビットマップデータのフラッシング用に同時に合計16色まで指定できるものとする。字幕では同時に合計24色(文字用24色)を共通固定色の128 色から任意に指定ができるとする。文字スーパーでは同時に合計40色(文字用24色+ビットマップデータ用16色)を共通固定色の128 色から任意に指定ができるとする。またフラッシングは正相のみとする。また縁取り指定との混在は禁止する。またスクロール指定との混在は禁止する。フラッシング色数は、フラッシングしない文字及びビットマップデータの共通固定色の128色とは別に、8単位符号文字列のフラッシング用に同時に合計24色(4階調フォントの中間色も含む)まで指定できるものとする。ビットマップデータのフラッシング用に同時に合計16色まで指定できるものとする。字幕では同時に合計24色(文字用24色)を、共通固定色の128色から任意に指定ができるとする。文字スーパーでは同時に合計40色(文字用24色+ビットマップデータ用16色)を、共通固定色の128色から任意に指定ができるとする。またフラッシングは正相のみとする。また縁取り指定との混在は禁止する。またスクロール指定との混在は禁止する。また奥行き表示位置指定との混在は禁止する。   For subtitle data in broadcasting, for example, a variety of expression methods such as flashing (blinking), underline, scrolling, etc. can be set. In the 3D display of caption data, in consideration of the fatigue and burden of viewing the 3D program by the user, a limitation may be placed on the combination of these character decoration methods and display using depth. For example, as a restriction of flushing when performing 3D display of subtitle data, the number of flushing colors is different from that for non-flushing characters and 128 common fixed colors for bitmap data. It is assumed that a total of 24 colors (including intermediate colors of 4 gradation fonts) can be designated. Assume that a total of 16 colors can be specified simultaneously for flushing bitmap data. In subtitles, a total of 24 colors (24 colors for text) can be arbitrarily specified from 128 common fixed colors. In the character superimposition, it is assumed that a total of 40 colors (24 colors for characters + 16 colors for bitmap data) can be arbitrarily specified from 128 common fixed colors. In addition, flushing is only positive phase. Also, mixing with the border specification is prohibited. Mixing with scroll specification is prohibited. The number of flushing colors can be specified up to a total of 24 colors (including intermediate colors of 4 gradation fonts) for flushing of 8-unit code character strings, apart from 128 common fixed colors of characters and bitmap data that are not flushed. And Assume that a total of 16 colors can be specified simultaneously for flushing bitmap data. In the subtitles, it is assumed that a total of 24 colors (24 colors for characters) can be arbitrarily specified from 128 common fixed colors. In the character superimposition, it is assumed that a total of 40 colors (24 colors for characters + 16 colors for bitmap data) can be arbitrarily specified from 128 common fixed colors. In addition, flushing is only positive phase. Also, mixing with the border specification is prohibited. Mixing with scroll specification is prohibited. Mixing with the depth display position designation is prohibited.

あるいは、字幕データの3D表示を行う際のスクロール指定(SCR)の運用での制限事項の例を以下に示す。   Or the example of the restriction | limiting matter in operation | use of the scroll designation | designated (SCR) at the time of performing 3D display of subtitle data is shown below.

同一本文内にSCRを複数回指示する事を禁止する。スクロールを行なう場合には、SDFにより1行分の表示領域を指定した異なるデータユニット(本文)として伝送する。スクロール指定時の受信機動作として、スクロールは、SDFおよびSDPで指定された矩形領域内で行われ、矩形領域外への描画は行わない。また表示領域の最初の行の右側に1文字分(指定されているサイズ)の仮想領域が存在するものとし、スクロール指定(SCR)が指定された時点で、動作位置は仮想書込領域に再設定する。またスクロール指定以前に表示領域に書かれていた文字は、スクロール指定以後消去する。また最初の文字から表示領域の右端より表示する。またスクロールの開始は、仮想書込領域に文字が書き込まれることにより始める。またロールアウトなしの場合は、最終文字を表示後、スクロールを停止する。またロールアウトありの場合は、画面上から文字がなくなるまでスクロールを継続する。またスクロール中に次の表示すべきデータを受信した場合は、スクロール終了まで待つ。またスクロールの指示開始からスクロール終了までに指定される字間値、行間値が、表示区画の最大値を超える場合、スクロール表示は受信機実装に依存する。また奥行き表示位置指定との混在は禁止する。   It is prohibited to specify SCR more than once in the same text. When scrolling, the data is transmitted as a different data unit (text) specifying the display area for one line by SDF. As a receiver operation when scrolling is specified, scrolling is performed within the rectangular area specified by SDF and SDP, and drawing outside the rectangular area is not performed. It is assumed that a virtual area of one character (specified size) exists on the right side of the first line of the display area, and when the scroll specification (SCR) is specified, the operation position is restored to the virtual writing area. Set. Characters written in the display area before the scroll designation are deleted after the scroll designation. The first character is displayed from the right edge of the display area. The scrolling starts when characters are written in the virtual writing area. If there is no rollout, scrolling is stopped after the last character is displayed. If there is a rollout, scrolling continues until there are no more characters on the screen. If the next data to be displayed is received during scrolling, the process waits until the scrolling is completed. In addition, when the character spacing value and line spacing value specified from the start of scrolling instruction to the end of scrolling exceed the maximum value of the display section, the scroll display depends on the receiver implementation. Mixing with the depth display position designation is prohibited.

同様に、文字装飾手法(極性反転、ラスタ色制御、囲み、アンダーライン、縁取り、影付き、太字、斜体、など)の指定についても、奥行き表示位置指定との混在は禁止する、などの制限を設けてもよい。   Similarly, restrictions such as prohibition of character display methods (polarity inversion, raster color control, box, underline, border, shadow, bold, italic, etc.) should not be mixed with depth display position specification. It may be provided.

<受信装置の動作例>
以下、送信装置1から送信された字幕データを含むコンテンツを、受信装置4が受信した際の動作例について説明する。
<Operation example of receiving device>
Hereinafter, an operation example when the reception device 4 receives the content including the caption data transmitted from the transmission device 1 will be described.

<字幕初期化動作>
初期化動作について、受信装置4は、受信した字幕管理データのデータグループが組Aから組Bへ切り替わった時、または組Bから組Aへ切り替わった時、更新時の字幕管理に対する初期化動作を行う。このとき、表示領域および表示位置は、所定の初期値になり、奥行き表示位置も制御符号で指定していたそれまでの指定値を解除して良い。字幕データの奥行き表示位置指定の当該初期値については、例えば図69(a)におけるディスプレイ47上で右目用データと左目用データが同一の場所に表示される状態(視差0の位置、2D表示時の指定位置とも表現する)とする。
<Subtitle initialization operation>
Regarding the initialization operation, the receiving device 4 performs the initialization operation for the caption management at the time of update when the data group of the received caption management data is switched from the set A to the set B, or from the set B to the set A. Do. At this time, the display area and the display position are set to predetermined initial values, and the depth display position may be canceled from the designated value that has been designated by the control code. With respect to the initial value of the depth display position designation of the caption data, for example, the state in which the right-eye data and the left-eye data are displayed at the same place on the display 47 in FIG. It is also expressed as a designated position.

初期化を実行するタイミングは例えば以下に示す時とする。   The timing for executing initialization is, for example, as shown below.

字幕文による初期化として、受信装置4は、提示処理中のデータグループ組、言語と同一の字幕文データ受信時に初期化動作を行う。すなわち字幕PESデータのデータグループヘッダに含まれるID値を検出して初期化動作を実行する。   As initialization by subtitle text, the receiving device 4 performs an initialization operation when receiving subtitle text data identical to the data group set and language being presented. That is, the ID value included in the data group header of the caption PES data is detected and the initialization operation is executed.

また、本文データユニットによる初期化として、受信装置4は、提示処理中のデータグループ組、言語と同一の字幕文データ受信時に、字幕文データに本文データユニットが含まれているとき、本文データユニットの受信機提示処理の直前に初期化動作を行う。すなわち、データユニット単位で初期化動作を実行する。   Further, as initialization by the text data unit, the receiving device 4 receives the text data unit included in the caption text data when the caption text data that is the same as the data group set and language being presented is received. The initialization operation is performed immediately before the receiver presentation process. That is, the initialization operation is executed in units of data.

また、文字制御符号による初期化として、受信装置4は、画面消去(CS)および書式選択(SWF)の受信機実行処理の直前に当該初期化動作を行う。この制御符号は任意の位置に挿入することが可能であるため、任意の文字単位で初期化動作を実行可能である。   In addition, as initialization by the character control code, the reception device 4 performs the initialization operation immediately before the receiver execution processing of screen erasure (CS) and format selection (SWF). Since this control code can be inserted at an arbitrary position, the initialization operation can be executed in an arbitrary character unit.

以上のことはすなわち、初期化のたびに奥行き表示位置指定を行うことで、任意のタイミングで字幕データの奥行き表示位置の変更が可能である。   That is, the depth display position of subtitle data can be changed at an arbitrary timing by designating the depth display position each time initialization is performed.

<受信装置の字幕データ受信制御例>
受信装置4での動作として例えば、字幕・文字スーパーの同時に表示できる数は、字幕1つと文字スーパー1つの計2つとしてもよい。また受信装置4は、字幕と文字スーパーの提示制御は、独立して制御するように構成する。また、受信装置4は原則として字幕と文字スーパーは、表示領域が重ならないように制御する。但し、もし表示が重ならざるを得ない場合は、文字スーパーを優先して字幕より手前に表示する。また字幕・文字スーパーそれぞれにおいて、ビットマップデータと本文、あるいはビットマップデータ同士が重なった場合は、後書き優先とする。またデータ放送番組における字幕・文字スーパーの表示サイズおよび位置は、全画面領域を基準として表示する。また受信装置4は、字幕管理データ受信の有無で、字幕データの送出の有無を判定する。字幕受信を視聴者に知らせるマークの表示や、字幕の表示、消去は、主に、該字幕管理データを基準として行う。CM間などでの該字幕管理データの送出中断を鑑み、3 分以上の字幕管理データ未受信でタイムアウト処理を行ってもよい。なお、字幕管理データについてEIT データなど他のデータと連携した表示制御を行ってもよい。
<Example of subtitle data reception control of receiver>
For example, the number of subtitles / superimpose characters that can be displayed simultaneously as the operation of the receiving device 4 may be one subtitle and one superimpose character. The receiving device 4 is configured to control the presentation control of the caption and the character supervision independently. In principle, the receiving device 4 controls the caption and the superimpose so that the display areas do not overlap. However, if the display must be overlapped, the character superimposition is given priority and displayed before the subtitle. In addition, in each subtitle and character superimposition, if the bitmap data and the body text or the bitmap data overlap each other, the postscript priority is given. Also, the display size and position of the caption / superimpose in the data broadcasting program are displayed with reference to the entire screen area. The receiving device 4 determines whether or not caption data is transmitted based on whether or not caption management data is received. The display of a mark notifying the viewer of the reception of subtitles, and the display and deletion of subtitles are mainly performed based on the subtitle management data. In consideration of suspension of transmission of the caption management data between CMs, timeout processing may be performed when no caption management data is received for 3 minutes or longer. Note that display control may be performed in conjunction with other data such as EIT data for caption management data.

字幕・文字スーパーの表示開始、終了時の受信装置4の動作は図67に示す。但し、開始とは「字幕文で指定された字幕表示の開始」、終了とは「字幕文の消去」のことを指す。受信装置4は、図56(a)で説明した字幕管理データ内のDMFに従って、図67に示すように、字幕文で指定された字幕表示の開始と、字幕文の消去を行う。字幕データが付与された3D番組を受信し、3Dで映像および字幕データを表示する場合にも受信装置4は当該DMFに従う。例えば、受信時自動表示であれば、システム制御部51は上述した奥行き表示位置指定に基づいた字幕データの表示を行う。受信時自動非表示であれば、開始時に字幕データを表示しない。受信時選択表示であれば、ユーザーの選択によって表示・消去を行う。   FIG. 67 shows the operation of the receiving device 4 at the start and end of subtitle / superimpose display. However, “start” means “start of subtitle display specified by subtitle text” and “end” means “deletion of subtitle text”. As shown in FIG. 67, the receiving device 4 starts the subtitle display specified by the subtitle text and deletes the subtitle text in accordance with the DMF in the subtitle management data described with reference to FIG. 56 (a). Even when a 3D program to which caption data is added is received and video and caption data are displayed in 3D, the receiving device 4 follows the DMF. For example, in the case of automatic display at the time of reception, the system control unit 51 displays subtitle data based on the above-described depth display position designation. If it is automatically hidden during reception, caption data is not displayed at the start. If it is a selection display at the time of reception, it is displayed / erased by the user's selection.

次に、受信装置4における字幕・文字スーパーの設定に関する動作としては、以下の動作を行ってもよい。例えば、受信装置4は、直前にユーザー操作入力を介して選択された言語の字幕および文字スーパーを表示する。例えば、番組視聴中に第2言語の字幕が、ユーザー操作入力を介して選択された場合、別の字幕付番組が開始された時に、第2言語を表示する。また受信機出荷時の初期設定では、第1言語を表示する。また日本語、英語などの言語コードの設定が可能な受信機は、設定された言語コードの字幕・文字スーパーを表示する。また受信機に設定されている言語あるいは言語コードの字幕・文字スーパーが送出されていない場合は、受信機は第1言語の字幕・文字スーパーを表示する。   Next, as the operation related to the setting of the caption / superimpose in the receiving device 4, the following operation may be performed. For example, the receiving device 4 displays the subtitle and the character super of the language selected immediately before through the user operation input. For example, when a subtitle in the second language is selected through user operation input while viewing a program, the second language is displayed when another program with subtitles is started. In the initial setting at the time of shipment of the receiver, the first language is displayed. A receiver capable of setting a language code such as Japanese or English displays a caption / superimpose of the set language code. When the subtitle / character super of the language or language code set in the receiver is not transmitted, the receiver displays the subtitle / superimpose of the first language.

受信装置4で上述した字幕データと3D表示用映像を含んだストリームを受信し、3Dで表示される映像データに重畳する際の制御手順を図68を用いて説明する。放送波を受信した場合、S6801ではチューナ23、デスクランブラ24を経て、多重分離部29で字幕データを分離して図25には図示していない揮発性メモリ上に記憶し、S6802へ進む。S6802ではメモリ上に記憶された字幕文データをCPU21のシステム制御部51が読み出し、CPU21の映像変換制御部61で字幕文データの解析を行い、制御符号の判別を行い、S6803へ進む。この際の字幕データの処理については上述した字幕データについての動作を行えばよい。S6803では3D映像コンテンツ中の奥行き表示位置指定情報の有無を判別し、該奥行き表示位置指定情報がある場合にはS6804へ進み、無い場合にはS6805へ進む。S6804では右目用表示文字列データと、左目用表示文字列データとを各字幕表示用プレーンに描画する。このとき、CPU21の映像変換制御部61による奥行き表示位置指定情報の解析結果に応じて、右目用表示文字列データと左目用表示文字列データの描画位置を決定する。描画後にS6806へ進む。S6805では奥行き表示位置の指定が無いため、映像変換制御部61では、予め図示しないメモリに格納しておいた、標準の奥行き(視差)情報から求められる描画位置を用いて、右目用文字列データと、左目用表示文字列データとを各字幕表示用プレーンに描画する。標準の奥行き(視差)情報は、所定の情報を予め定めておき、図示しないメモリに格納しておけばよい。この時、標準の奥行き情報が示す奥行き表示位置の例としては、例えば、映像変換処理部32で表示可能な最前面に表示する表示位置としてもよい。この場合、3D映像に対して字幕表示が常に手前の位置に融像されるので、違和感無く字幕を表示することが可能となる。描画後にS6806へ進む。S6806では、CPU21のシステム制御部51および映像変換制御部61は、S6805で作成した各表示領域プレーンと各映像表示プレーンとを重畳し、また必要に応じてOSD作成部で作成されたOSDデータも重畳するように、映像変換処理部32を制御する。重畳した映像データをディスプレイ47へ表示する、または映像出力41から出力して処理を終了する。以上の一連の処理を受信した字幕データごとに繰り返すことによって好適な字幕の3D表示を可能とする。例えば、受信装置4では以上の処理を放送信号受信中は継続して繰り返すようにすればよい。   A control procedure when the receiving device 4 receives the above-described stream including the caption data and the 3D display video and superimposes the stream on the video data displayed in 3D will be described with reference to FIG. If a broadcast wave is received, the subtitle data is separated by the demultiplexer 29 via the tuner 23 and descrambler 24 in S6801, stored in a volatile memory not shown in FIG. 25, and the process proceeds to S6802. In S6802, the subtitle sentence data stored in the memory is read by the system control unit 51 of the CPU 21, the subtitle sentence data is analyzed by the video conversion control unit 61 of the CPU 21, the control code is determined, and the process proceeds to S6803. Regarding the processing of the caption data at this time, the above-described operation for the caption data may be performed. In S6803, the presence / absence of depth display position designation information in the 3D video content is determined. If the depth display position designation information is present, the process proceeds to S6804, and if not, the process proceeds to S6805. In step S6804, the right-eye display character string data and the left-eye display character string data are drawn on each caption display plane. At this time, the drawing positions of the right-eye display character string data and the left-eye display character string data are determined according to the analysis result of the depth display position designation information by the video conversion control unit 61 of the CPU 21. After drawing, the process advances to step S6806. Since there is no designation of the depth display position in S6805, the video conversion control unit 61 uses the drawing position obtained from standard depth (parallax) information stored in advance in a memory (not shown) to use the right-eye character string data. And the left-eye display character string data are drawn on each subtitle display plane. As the standard depth (parallax) information, predetermined information may be determined in advance and stored in a memory (not shown). At this time, as an example of the depth display position indicated by the standard depth information, for example, a display position displayed on the forefront that can be displayed by the video conversion processing unit 32 may be used. In this case, since the subtitle display is always fused to the front position with respect to the 3D video, the subtitle can be displayed without a sense of incongruity. After drawing, the process advances to step S6806. In S6806, the system control unit 51 and the video conversion control unit 61 of the CPU 21 superimpose the display area planes created in S6805 and the video display planes, and the OSD data created by the OSD creation unit as necessary. The video conversion processing unit 32 is controlled so as to be superimposed. The superimposed video data is displayed on the display 47 or output from the video output 41, and the process is terminated. By repeating the above series of processes for each received subtitle data, suitable subtitles can be displayed in 3D. For example, the receiving device 4 may repeat the above process continuously while receiving a broadcast signal.

なお、S6805で示した標準の奥行き情報が示す奥行き表示位置は別の位置としてもよい。例えば視差0の位置(右目用表示文字列と左目用表示文字列との視差が無い状態)を標準奥行き表示位置と定義する。また、例えば、右目用表示データと左目用表示データの基準視差を表す標準視差情報の新しいパラメータを設定し、新しい記述子に該パラメータを格納してもよく、既存の記述子の一部に該パラメータを格納すしてもよい。これらのパラメータをPMTなどの番組情報に合成して送信装置1から送信し、受信装置4で受信し、受信したパラメータを用いて受信装置4で決定することも可能である。   Note that the depth display position indicated by the standard depth information shown in S6805 may be a different position. For example, the position of parallax 0 (the state where there is no parallax between the right-eye display character string and the left-eye display character string) is defined as the standard depth display position. Further, for example, a new parameter of standard parallax information indicating the reference parallax of the display data for the right eye and the display data for the left eye may be set, and the parameter may be stored in a new descriptor. Parameters may be stored. It is also possible to synthesize these parameters with program information such as PMT, transmit it from the transmission apparatus 1, receive it by the reception apparatus 4, and determine the reception apparatus 4 using the received parameters.

S6805からの処理の代わりに、字幕データに奥行き表示位置指定の制御符号が含まれていない場合には、字幕を表示をしないように制御しても良い。例えばS6805で映像変換制御部61が、映像データは映像表示プレーンに描画するが、表示文字列データは字幕表示用プレーンに描画しないようにすることで実現する。この場合、映像データとの奥行き表示位置に不整合がある状態の表示を回避することが可能となる。また、字幕データに奥行き表示位置指定の制御符号が含まれていない場合に、視差が無い位置で表示用データを字幕表示用プレーンに描画し、表示しても良い。この場合、映像データとの奥行き表示位置に不整合がある状態となる可能性があるものの、少なくとも字幕を非表示を回避することが可能となる。   Instead of the processing from S6805, when the subtitle data does not include the control code for designating the depth display position, the subtitle may be controlled not to be displayed. For example, in step S6805, the video conversion control unit 61 renders the video data on the video display plane, but does not draw the display character string data on the subtitle display plane. In this case, it is possible to avoid display in a state where the depth display position with the video data is inconsistent. When the control data for specifying the depth display position is not included in the caption data, the display data may be drawn and displayed on the caption display plane at a position without parallax. In this case, although there is a possibility that there is a mismatch in the depth display position with the video data, it is possible to avoid at least not displaying the subtitles.

また、上記制御例では字幕データと映像データの合成をCPU21の映像変換制御部61および映像変換処理部32で行う事例を示したが、CPU21のOSD作成部60で行っても同様に実施可能であり、図示していない異なる処理ブロック、制御部等を設けてこれらの処理を行っても良い。   In the above control example, the example in which caption data and video data are synthesized by the video conversion control unit 61 and the video conversion processing unit 32 of the CPU 21 is shown. There may be provided different processing blocks, a control unit, etc. (not shown) to perform these processes.

ネットワーク3を経由して受信装置4にコンテンツが入力される場合についても、ネットワークI/F25を介して字幕データを含むストリームデータを受信し、多重分離部29で上記放送受信時と同様に字幕データの分離処理を行い、上記放送受信時の制御例と同様の制御により3D表示に対応した字幕を視聴することが可能である。   Even when content is input to the receiving device 4 via the network 3, the stream data including the caption data is received via the network I / F 25, and the caption data is received by the demultiplexing unit 29 in the same manner as when the broadcast is received. It is possible to view the caption corresponding to 3D display by the same control as the control example at the time of receiving the broadcast.

以上で説明した制御により行った字幕情報の表示の一例を図69(a)及び図69(b)に示す。右目用映像と左目用映像の表示位置をずらすことで視差を発生させるという方法は既に説明したとおりである。ここで、図69(a)に右目用表示データと左目用表示データの表示位置と、ユーザーの脳による表示対象の融像位置の奥行きを示す簡易的なモデルの説明図である。ある第1の表示対象データについて、右目用表示領域上では右目用表示位置1に、左目用表示領域上では左目用表示位置1に表示した場合、ユーザーの脳では融像位置1に融像され、結果として表示対象のデータはディスプレイ47の表示面よりも奥の位置にあるように知覚される。一方、ある第2の表示対象データを右目用表示領域上では右目用表示位置2に、左目用表示領域上では左目用表示位置2に表示した場合、ユーザの脳では融像位置2の場所に融像され、結果として表示対象のデータはディスプレイ47の表示面よりも前面に飛び出すように知覚される。すなわち字幕データの表示についても、右目用表示文字列データを水平方向左に移動し、左目用表示文字列データを水平方向右に移動することで、融像位置がユーザーに近くなり、ユーザーの脳では、字幕データが画面から飛び出して見えることとなる。なお、左右方向の移動量は必ずしも同じである必要はない。従って字幕データの視差を映像データよりも前面に来るように表示位置を設定することによって表示時に違和感の無い映像がを表示することが可能である。すなわち、左目用映像と右目用映像とを含む立体映像データとともに表示する字幕データについて、映像データよりも全面に表示されるように水平方向の視差を設ける。こうして生成した図69(b)の左目用映像、右目用映像夫々を図37(a)や図39(a)に示すように交互に表示することにより、ディスプレイ47には表示映像の見え方の例のように映像が表示されており、ユーザはこれを例えばアクティブシャッター方式のフィルタを備えたメガネのような補助装置を用いるなどして、字幕を重ね合わせた立体映像として視聴できる。   An example of the display of the caption information performed by the control described above is shown in FIGS. 69 (a) and 69 (b). The method of generating parallax by shifting the display positions of the right-eye video and the left-eye video is as described above. Here, FIG. 69A is an explanatory diagram of a simple model showing the display positions of the display data for the right eye and the display data for the left eye and the depth of the fusion position to be displayed by the user's brain. When certain first display target data is displayed at the right-eye display position 1 on the right-eye display area and at the left-eye display position 1 on the left-eye display area, it is fused at the fusion position 1 in the user's brain. As a result, the display target data is perceived as being at a position behind the display surface of the display 47. On the other hand, when certain second display target data is displayed at the right-eye display position 2 on the right-eye display area and at the left-eye display position 2 on the left-eye display area, at the fusion position 2 in the user's brain. As a result, the data to be displayed is perceived as popping out from the display surface of the display 47. In other words, for the display of subtitle data, moving the display character string data for the right eye to the left in the horizontal direction and moving the display character string data for the left eye to the right in the horizontal direction brings the fusion position closer to the user, and the user's brain Then, the caption data appears to jump out of the screen. Note that the amount of movement in the left-right direction is not necessarily the same. Therefore, by setting the display position so that the parallax of the caption data is in front of the video data, it is possible to display a video with no sense of incompatibility during display. That is, for the subtitle data to be displayed together with the stereoscopic video data including the left-eye video and the right-eye video, a parallax in the horizontal direction is provided so as to be displayed on the entire surface of the video data. The left-eye video and the right-eye video generated in FIG. 69 (b) are alternately displayed as shown in FIGS. 37 (a) and 39 (a), so that the display 47 shows how the display video looks. A video is displayed as in the example, and the user can view it as a stereoscopic video with superimposed subtitles by using an auxiliary device such as glasses equipped with an active shutter filter, for example.

また、本実施例に示した奥行き表示位置指定情報を含む字幕データが3D映像を含まないコンテンツに含まれて伝送された場合の受信装置4動作について説明する。   In addition, the operation of the receiving device 4 when the caption data including the depth display position designation information shown in the present embodiment is included and transmitted in content not including 3D video will be described.

例えば受信装置4で番組情報解析部54が図50に示したコンテント記述子が示す番組特性の値を検出し、システム制御部51が対象イベント(番組)に3D映像が含まれない、と判定した場合には、たとえ字幕データの含む奥行き表示位置指定情報を検出しても字幕データの3D表示は行わないよう処理を行う。それにより誤って2D映像に3Dの字幕データを重畳し、ユーザにとって視認しづらい映像の表示を回避することが可能である。   For example, in the receiving device 4, the program information analysis unit 54 detects the value of the program characteristic indicated by the content descriptor shown in FIG. 50, and the system control unit 51 determines that the target event (program) does not include 3D video. In this case, even if the depth display position designation information included in the caption data is detected, processing is performed so that 3D display of the caption data is not performed. Thereby, it is possible to superimpose 3D caption data on the 2D video, and to avoid displaying a video that is difficult for the user to view.

<3D映像を2D表示する場合>
3D2視点別ES伝送方式の3Dコンテンツを受信し、視聴中または視聴前にユーザーが2D映像表示への切替指示(例えばリモコンの「2D」キー押下)を行った場合、前記切替指示の情報を受信したユーザー指示受信部52は、システム制御部51に対して2D映像への信号切替を指示する。この時、受信コンテンツに奥行き表示位置指定情報が含まれている場合でも、字幕表示を2Dの形式で行うようにする。
<When displaying 3D video in 2D>
When 3D content of 3D2 viewpoint-based ES transmission method is received and the user gives a switching instruction to display 2D video (for example, pressing the “2D” key on the remote control) during or before viewing, the switching instruction information is received. The user instruction reception unit 52 instructs the system control unit 51 to switch the signal to 2D video. At this time, even if the received content includes depth display position designation information, caption display is performed in 2D format.

3D映像で送信された映像を受信装置が受信し、2Dで視聴する場合(例えば図40(a)で示した場合)の字幕の奥行き位置設定についての処理シーケンスの一例を図70に示す。字幕データを含むストリームを受信した後、S6801、S6802と同様の処理によって、字幕データの解析を行った後、S7001ではCPU21の映像変換制御部61は奥行き表示位置指定情報を検出した場合にはそれに基づいて右目用表示文字列を右目表示領域用プレーンに描画し、左目用表示文字列を左目用表示領域用プレーンに描画して、S7002へ進む。S7002ではCPU21のシステム制御部51および映像変換制御部61はS404と同様に例えば左目用表示映像データと左目用字幕表示プレーン、およびOSD表示プレーンを重畳した表示用データを生成する。ここで、表示においては、生成した2視点分の表示用データのうち一方しか表示しないことで2D表示を実現する。この時表示するデータは、例えば左目用の映像と、左目用の映像の字幕データを利用すればよい。以上の表示処理の後、処理を終了する。以上の処理を字幕データを受信するごとに繰り返すことにより、好適に字幕を2D表示可能とする。また3D/2Dの表示の切替を、最終処理であるS7002の表示処理だけを切り替えれば実現可能なため高速に切替を実行可能である。   FIG. 70 shows an example of a processing sequence for setting the depth position of a caption when the receiving device receives video transmitted in 3D video and views it in 2D (for example, the case shown in FIG. 40A). After receiving the stream including the caption data, after analyzing the caption data by the same processing as S6801 and S6802, in S7001, when the video conversion control unit 61 of the CPU 21 detects the depth display position designation information, Based on this, the right-eye display character string is drawn on the right-eye display area plane, the left-eye display character string is drawn on the left-eye display area plane, and the process advances to step S7002. In S7002, the system control unit 51 and the video conversion control unit 61 of the CPU 21 generate display data in which, for example, the left-eye display video data, the left-eye caption display plane, and the OSD display plane are superimposed as in S404. Here, in display, 2D display is realized by displaying only one of the generated display data for two viewpoints. As the data displayed at this time, for example, left-eye video and left-eye video subtitle data may be used. After the above display process, the process ends. By repeating the above processing every time the caption data is received, the caption can be suitably displayed in 2D. Further, since switching of 3D / 2D display can be realized by switching only the display processing of S7002 as the final processing, switching can be executed at high speed.

なお、本例に限らず、S7001で映像変換制御部61が検出した奥行き表示位置指定情報を使用せずに、表示用字幕プレーンを1枚だけ生成し、右目用表示映像か左目用表示映像かの一方の表示映像に重畳する方法で実現しても良い。   In addition to this example, only one display subtitle plane is generated without using the depth display position designation information detected by the video conversion control unit 61 in S7001, and the right-eye display video or the left-eye display video is generated. It may be realized by a method of superimposing on one of the display images.

本実施例によれば、3Dコンテンツの2D出力/表示時には字幕データも2D表示を行うことにより、ユーザーにとって違和感のない番組視聴が可能となる。   According to this embodiment, at the time of 2D output / display of 3D content, 2D display is also performed on the caption data, so that the user can view the program without feeling uncomfortable.

また、本シーケンスで示した処理は図41のS404内で実施するか、同時に実施する。システム制御部51は映像を2Dで表示する処理に同期して上記制御を行うことによって、映像の3D/2D表示と字幕データの3D/2D表示のタイミングを合わせ、違和感のない番組視聴を可能とする。   Further, the processing shown in this sequence is performed in S404 of FIG. 41 or is performed simultaneously. The system control unit 51 performs the above-described control in synchronization with the process of displaying the video in 2D, so that the timing of the 3D / 2D display of the video and the 3D / 2D display of the caption data can be synchronized, and the program can be viewed without a sense of incongruity. To do.

図71はユーザーにより3Dコンテンツの3D/2D表示の切替えが指示された場合の字幕表示処理切替シーケンスの一例を示す。3Dコンテンツ受信時にユーザーからの3D/2D表示の切替指示が行われると処理を開始する。S7101では、切替指示が2D映像表示から3D映像表示への切替指示である場合にはS7102へ進み、切替指示が3D映像表示から2D映像表示への切替指示である場合にはS7103へ進む。S7102ではシステム制御部51は映像信号の表示方法を3D表示に切り替える処理に伴って字幕データの表示方法を3D表示へと切り替えて処理を終了する。この場合、図68に示す処理シーケンスによって字幕データの3D表示を実現する。S7103ではシステム制御部51は映像信号の表示方法を3D表示に切り替える処理に伴って字幕データの表示方法を2D表示へと切り替えて処理を終了する。この場合、図70に示す処理シーケンスによって字幕データの2D表示を実現する。   FIG. 71 shows an example of a subtitle display process switching sequence when switching of 3D / 2D display of 3D content is instructed by the user. When a 3D / 2D display switching instruction is given from the user when receiving 3D content, the process starts. In S7101, if the switching instruction is a switching instruction from 2D video display to 3D video display, the process proceeds to S7102, and if the switching instruction is a switching instruction from 3D video display to 2D video display, the process proceeds to S7103. In step S7102, the system control unit 51 switches the subtitle data display method to 3D display along with the process of switching the video signal display method to 3D display, and ends the processing. In this case, 3D display of caption data is realized by the processing sequence shown in FIG. In step S7103, the system control unit 51 switches the subtitle data display method to 2D display along with the process of switching the video signal display method to 3D display, and ends the processing. In this case, 2D display of caption data is realized by the processing sequence shown in FIG.

本実施例によれば、3Dコンテンツの映像を3D出力/表示する際には、字幕データも3D出力/表示を行い、3Dコンテンツの映像を2D出力/表示する際には、字幕データも2D出力/表示を行うこととなる。これにより、3Dコンテンツの出力/表示に応じた字幕データの3D/2D表示を実現し、ユーザーは違和感のない番組視聴が可能となる。   According to this embodiment, when 3D content video is 3D output / displayed, caption data is also 3D output / displayed, and when 3D content video is 2D output / displayed, caption data is also 2D output. / Will be displayed. As a result, 3D / 2D display of caption data according to the output / display of 3D content is realized, and the user can view the program without a sense of incongruity.

<2D映像を受信装置4で3D変換可能な場合の字幕表示>
送信装置1から、字幕データおよび2D映像データを含む放送信号が送信され、受信装置4で受信後に受信装置内で3D映像に変換して表示する場合について説明する。2D映像データの3Dへの変換については、変換回路を映像変換処理部32に含めるか、CPU21によるソフトウェア処理によって実行する。この時、受信した字幕データには奥行き表示位置指定情報は付加されていない。従って図68で示したS6805で行った処理と同様に、奥行き方向の最前面に字幕情報が表示されるように、視差情報を設定するように構成すればよい。このように構成することで、変換後の3D表示において、映像データと字幕データとの奥行き表示位置の不整合が発生することを防ぐことが可能となる。
<Subtitle display when 2D video can be 3D converted by the receiver 4>
A case will be described in which a broadcast signal including subtitle data and 2D video data is transmitted from the transmission device 1 and converted into 3D video for display in the reception device after reception by the reception device 4. Conversion of 2D video data into 3D is performed by including a conversion circuit in the video conversion processing unit 32 or by software processing by the CPU 21. At this time, depth display position designation information is not added to the received caption data. Therefore, similar to the processing performed in S6805 shown in FIG. 68, the parallax information may be set so that the caption information is displayed on the forefront in the depth direction. With this configuration, it is possible to prevent inconsistency in the depth display position between the video data and the caption data in the 3D display after conversion.

またこのとき、送信装置1では2D表示を前提としているため、字幕の制御情報には3D表示と併用に適していない制御符号が適用されている場合がある。そのため受信装置4では、2D映像の3D変換を行って字幕データを表示する場合には、字幕を3Dで表示する際に用いるとユーザーの視聴時の疲労が懸念される制御ような、3D表示に適していない制御符号の指示を実行せずに表示を行う。例えば、スクロール指定の制御符号によるスクロール処理を行わないようにしたり、フラッシング制御の制御符号によるフラッシング動作を行わないようにする。これにより、映像と字幕の3D視聴をより好適に実現することが可能である。   At this time, since the transmission apparatus 1 is premised on 2D display, a control code that is not suitable for combined use with 3D display may be applied to subtitle control information. Therefore, in the receiving device 4, when subtitle data is displayed by performing 3D conversion of 2D video, if the subtitle is used when displaying the subtitle in 3D, it is possible to perform 3D display such as control that may cause fatigue when viewing the user. Display without executing the instruction of the control code that is not suitable. For example, the scroll process with the control code for scroll designation is not performed, or the flushing operation with the control code for flushing control is not performed. Thereby, it is possible to more suitably realize 3D viewing of video and subtitles.

一方で、2D映像を3D表示する場合を考慮して、送信装置1で2D映像データに付随する字幕データに奥行き表示位置指定情報を含んで送信する場合、受信装置4では例えば図41に示したS401、S402と同様に当該の番組が3D番組であるかどうか判別し、2D番組であり、かつ2D映像を2D表示する時は、奥行き表示位置指定情報を参照せずに、字幕表示も2Dで行う。当該の番組が2D番組であり、かつ3Dに変換して表示するときは、奥行き表示位置指定情報を参照して、字幕表示を3Dで行う。   On the other hand, in consideration of the case where 2D video is displayed in 3D, when the transmission device 1 transmits the subtitle data accompanying the 2D video data including the depth display position designation information, the reception device 4 shows, for example, FIG. As in S401 and S402, it is determined whether or not the program is a 3D program. When the 2D program is displayed in 2D, 2D video is displayed in 2D without referring to the depth display position designation information. Do. When the program is a 2D program and is converted to 3D and displayed, caption display is performed in 3D with reference to the depth display position designation information.

<字幕データ送信動作の別の一例>
送信装置1から2視点同一ES伝送方式で3D映像を送信する場合において、字幕データの視差制御用データのコンテンツへの挿入を行う方法の別の一例を以下に説明する。
<Another example of subtitle data transmission operation>
Another example of the method for inserting the parallax data into the content of the parallax control data in the case where 3D video is transmitted from the transmission apparatus 1 by the two-viewpoint identical ES transmission method will be described below.

図72(a)は本実施例による、字幕データを含むPESデータの形式の一例を示している。data_identifierは一意に定められる字幕PESデータの識別番号である。例えば0x20といった固定値とする。subtitle_stream_idは当該PESパケットが字幕データであることを一意に指定するための識別番号である。これに続きセグメントデータが挿入される。例えば0x00などの固定値とする。subtitle_stream_idは番組のPMTから本字幕データを一意に指定するための識別番号である。これに続きセグメントデータが挿入される。end_of_PES_data_field_markerは字幕PESデータの終了を示す固定値である。例えば8ビットの情報で’111 111’といった情報列である。   FIG. 72A shows an example of the format of PES data including caption data according to the present embodiment. data_identifier is an identification number of caption PES data uniquely determined. For example, a fixed value such as 0x20 is set. subtitle_stream_id is an identification number for uniquely specifying that the PES packet is caption data. Following this, segment data is inserted. For example, a fixed value such as 0x00 is used. subtitle_stream_id is an identification number for uniquely specifying the caption data from the PMT of the program. Following this, segment data is inserted. end_of_PES_data_field_marker is a fixed value indicating the end of caption PES data. For example, it is an information string such as '111 111' with 8-bit information.

図72(b)は図72(a)で指定するセグメントデータの構造である。sync_byteは受信機でセグメントデータを識別するための一意に定められた値である。segment_typeで指定可能な定義値については後述する。page_idでは、字幕データの表示位置を選択するためのページ番号を指定する。segment_lengthは後に続くデータ長を示す。segment_data_fieldは各セグメントが含有する具体的データであり、どのような情報が含まれるかが規定される。   FIG. 72 (b) shows the structure of the segment data specified in FIG. 72 (a). sync_byte is a uniquely determined value for identifying the segment data at the receiver. Definition values that can be specified by segment_type will be described later. In page_id, the page number for selecting the display position of the caption data is designated. segment_length indicates the data length that follows. segment_data_field is specific data contained in each segment, and defines what information is included.

図72(c)には字幕に関係するセグメントの種類であるsegment_typeの定義を例示する。例えば字幕の文字列情報を包含するobject data segmentや、字幕を表示するページやリージョン、カラーマネジメントに関連するセグメントデータなどが定義されている。この例では字幕データの視差を設定するsegment_typeを新たに0x15(Disparity_signaling_segment)と定義している。   FIG. 72C illustrates the definition of segment_type, which is the type of segment related to captions. For example, an object data segment including subtitle character string information, a page or region for displaying subtitles, segment data related to color management, and the like are defined. In this example, segment_type for setting the parallax of caption data is newly defined as 0x15 (Disparity_signaling_segment).

図72(d)は左右視差情報セグメントdisparity_signaling_segmentのデータ構成の一例である。sync_byteはセグメントであることを識別するための一意に定められた値である。例えば8ビットの情報で’0000 1111’といった値にすれば良い。segment_typeは図72(c)に定めた0x15の値を指定し、セグメントの種類をdisparity_signaling_segmentであることを確定する。page_idはこのセグメントの情報が適用されるページ番号を定める。segment_lengthは直後に続くセグメントの情報長を示す。page_disparity_addressは該当するページの視差情報を、指定する。視差情報は、例えば左右画面の視差をサブピクセル単位で表現する。dss_version_numberはこのdisparity_signaling_segmentのバージョンを示す。受信装置ではこのバージョンによって以降のデータフォーマットを判定することが可能である。region_idは、ページよりさらに細かい表示位置の単位であるリージョンごとに視差を規定するために、該当するリージョンの識別番号を指定する。region_disparity_addressは該当するリージョンについて例えば左右画面での視差をサブピクセル単位で表現し指定する。これにより複数の字幕データがある場合にもそれぞれに異なる奥行き(視差)情報を付与して異なる奥行きに表示可能である。   FIG. 72 (d) shows an example of the data structure of the left / right disparity information segment disparity_signaling_segment. sync_byte is a uniquely determined value for identifying a segment. For example, 8-bit information may be set to a value “0000 1111”. For segment_type, the value of 0x15 defined in FIG. 72 (c) is designated, and the segment type is determined to be disparity_signaling_segment. page_id defines the page number to which the information of this segment is applied. segment_length indicates the information length of the immediately following segment. page_disparity_address specifies the disparity information of the corresponding page. For example, the parallax information represents the parallax of the left and right screens in units of subpixels. dss_version_number indicates the version of this disparity_signaling_segment. The receiving apparatus can determine the subsequent data format based on this version. The region_id specifies the identification number of the corresponding region in order to define the parallax for each region that is a unit of display position finer than the page. For region_disparity_address, for example, the parallax on the left and right screens is expressed and specified in units of subpixels. Thereby, even when there are a plurality of subtitle data, different depth (parallax) information can be given to each of them and the images can be displayed at different depths.

以上のデータ構成に基づけば、例えば3D番組表示に対応していない受信装置の場合は、このsegment_typeを持った情報を無視することとなり、2D画面上に通常の字幕データの表示が可能でありとなる。これにより、新たに図72(d)は左右視差情報セグメントを用いた字幕データを含むコンテンツを送信しても、旧来の機種が誤動作しないという利点がある。   Based on the above data structure, for example, in the case of a receiving apparatus that does not support 3D program display, information having this segment_type is ignored, and normal subtitle data can be displayed on the 2D screen. Become. Thereby, FIG. 72 (d) has an advantage that the old model does not malfunction even when content including subtitle data using the left-right parallax information segment is transmitted.

上述した左右視差情報セグメントを用いるデータ構成の制御データに対する受信装置の動作は、図68および図70、図71に示した動作例において、「奥行き表示位置指定情報」を「左右視差情報セグメント」に変更したものである。図68のS6805では、受信した3D映像コンテンツ中に左右視差情報セグメントが含まれていない場合には、予め定めた所定の左右視差情報セグメント情報をメモリに格納しておき、これを標準左右視差情報セグメント情報として用いて字幕の表示文字列を表示すればよい。その他の動作は図68および図70、図71と同様であるため説明を省略する。   The operation of the reception apparatus with respect to the control data having the data configuration using the left and right parallax information segments described above is changed from “depth display position designation information” to “left and right parallax information segments” in the operation examples illustrated in FIGS. It has been changed. In S6805 of FIG. 68, when the received 3D video content does not include the left-right disparity information segment, predetermined left-right disparity information segment information is stored in the memory, and this is converted into the standard left-right disparity information. A subtitle display character string may be displayed as segment information. Other operations are the same as those in FIGS. 68, 70, and 71, and thus the description thereof is omitted.

なお、図72(a)、図72(b)、図72(c)、図72(d)の構成例は、必ずしも各図で示したデータの並び、名称、データサイズ・タイプに限定される必要は無く、同様の情報が含まれていればよい。   72 (a), 72 (b), 72 (c), and 72 (d) are not necessarily limited to the data arrangement, name, and data size / type shown in each figure. There is no need to include similar information.

以上説明した右視差情報セグメントを用いれば、3D表示用の字幕データについての奥行きの設定が好適に実現可能である。   If the right parallax information segment described above is used, it is possible to suitably realize the depth setting for the caption data for 3D display.

<字幕データ送信動作のさらに別の一例>
送信装置1から2視点同一ES伝送方式で3D映像を送信する場合において、字幕データとその視差制御用データのコンテンツへの挿入を行う方法のさらに別の一例を以下に示す。
<Another example of subtitle data transmission operation>
Another example of a method for inserting caption data and its parallax control data into content in the case of transmitting 3D video from the transmission apparatus 1 using the two-viewpoint identical ES transmission method is shown below.

まず、字幕用データは例えばビデオデータのシーケンスヘッダに含まれるユーザデータ領域に挿入されることがある。図73(a)はシーケンスヘッダ内の拡張データとして含まれるユーザデータの構成例を示す。user_data_start_codeはこれ以降のデータがユーザデータであることを一意に識別可能な固定値であり、例えば “0x000001B2”である。user_data_type_codeは以降のデータに字幕情報などが含まれることを示す一意に識別可能な固定値であり、例えば”0x03”である。vbi_data_flagは字幕データなどを含むかどうかを示す。1であれば以降の字幕データの解析を行い、0であれば解析不要とする。cc_countは以降の字幕データのデータ量を示す。cc_priorityは画像作成時の優先度を例えば0(優先度最高)〜3(優先度最低)といった形で示す。field_numberは字幕を表示するフィールドを例えばOdd/Evenで選択する。cc_data_1およびcc_data_2は表示をする文字列および制御コマンドが含まれる。制御コマンドには文字色や背景色を指定するものや、ロールアップ(ページデータとして送られてきた字幕データを、あらかじめ設定した3 行程度の領域内に行単位に逐次追加表示する字幕サービス。改行時に行方向にロールアップする。)や点滅などの動きを指定するもの、視差情報などを含める。制御コマンドの例を図73(b)に示す。チャンネル1、チャンネル2のように、複数のチャンネルを示している理由は、一度に複数の字幕データを表示可能とするためである。夫々のチャンネルに同等の制御を意味する別の値の制御コマンドを割り振る。また、文字列と制御コマンドを混同しないよう、例えば文字列は0x20以降の値を使用し、制御コマンドは0x10〜0x1Fまでの値から開始するなどとすればよい。   First, caption data may be inserted into a user data area included in a sequence header of video data, for example. FIG. 73A shows a configuration example of user data included as extension data in the sequence header. user_data_start_code is a fixed value that can uniquely identify that the subsequent data is user data, and is “0x000001B2”, for example. user_data_type_code is a uniquely identifiable fixed value indicating that caption data and the like are included in the subsequent data, and is “0x03”, for example. vbi_data_flag indicates whether subtitle data or the like is included. If it is 1, the subsequent caption data is analyzed, and if it is 0, analysis is unnecessary. cc_count indicates the data amount of subsequent caption data. cc_priority indicates the priority at the time of image creation in the form of 0 (highest priority) to 3 (lowest priority), for example. For field_number, a field for displaying a caption is selected by, for example, Odd / Even. cc_data_1 and cc_data_2 include a character string to be displayed and a control command. Control commands specify text color and background color, or roll-up (subtitle service that additionally displays subtitle data sent as page data in units of lines in a preset area of about 3 lines. Sometimes rolls up in the row direction.) Include things that specify movement, such as blinking, and parallax information. An example of the control command is shown in FIG. The reason why a plurality of channels are indicated as channel 1 and channel 2 is to enable display of a plurality of caption data at a time. Assign a different value control command to each channel, which means equivalent control. In order not to confuse the character string with the control command, for example, the character string may use a value after 0x20, and the control command may start with a value from 0x10 to 0x1F.

このとき、字幕データの視差を示す視差情報について、例えばText Restartコマンドの直後に図73(c)の視差制御コマンドデータを配置することにより指定すればよい。視差量を制御コマンドの直後に配置し、例えば0x20〜0x7E(10進数にして32〜126)の値の範囲で指定可能とすればよい。当該指定値の意味は、中心となる0x4F(10進数にして79)からの増減量(-47〜+47)で視差を表現する。これにより合計で94ピクセルの視差の生成が可能である。例えば、正方向を右、負方向を左(もちろんその逆でも良い)と定義する。   At this time, the disparity information indicating the disparity of the caption data may be specified by arranging the disparity control command data in FIG. 73 (c) immediately after the Text Restart command, for example. The parallax amount may be arranged immediately after the control command, and may be specified in a range of values from 0x20 to 0x7E (32 to 126 in decimal number), for example. The meaning of the designated value expresses the parallax by the amount of increase / decrease (-47 to +47) from 0x4F (79 in decimal) which is the center. As a result, a total of 94 pixels of parallax can be generated. For example, the positive direction is defined as right and the negative direction is defined as left (or vice versa, of course).

このように送信装置で指定する値を定めることで、任意の受信装置で奥行き情報を一意に解釈することが可能である。   By determining the value specified by the transmission device in this way, it is possible to uniquely interpret the depth information by an arbitrary reception device.

例えばチャンネル1を使用して右目用の映像データに正方向10ピクセルの視差を設ける場合、”0x14, 0x2A, 0x23, 0x59”というデータの並びを、送信側から送信し、受信機側で解釈することで対応が可能となる。0x14,0x2Aによりチャンネル1の字幕情報が初期化され、次に0x23で右目用画像向け字幕データの視差情報が送信されることがわかる。次の0x59が実際の視差情報であり、0x4Fとの差分である10が視差情報となる。続けて同じ要領で左目用画像向け字幕データの視差情報を送受信し、字幕データ本体を送受信、といった処理を実施することで字幕データに左右の視差を設けて表示することが可能である。   For example, when channel 1 is used to provide 10-pixel positive parallax for video data for the right eye, the data sequence “0x14, 0x2A, 0x23, 0x59” is transmitted from the transmission side and interpreted on the receiver side. It becomes possible to respond. It can be seen that the caption information of channel 1 is initialized by 0x14 and 0x2A, and then the disparity information of the caption data for the right-eye image is transmitted by 0x23. The next 0x59 is the actual disparity information, and 10 which is the difference from 0x4F is the disparity information. Subsequently, the parallax information for the left-eye image is transmitted and received in the same manner, and the subtitle data main body is transmitted and received, so that the caption data can be displayed with left and right parallax.

図73(a)のユーザデータの中には、以上説明した字幕データ以降に字幕データ以外のデータが含まれても良い。next start_code()は例えば”0x000001”といった固定値であり、これを以てユーザデータが終了したと解釈すれば良い。   The user data in FIG. 73 (a) may include data other than the caption data after the caption data described above. Next start_code () is a fixed value such as “0x000001”, and can be interpreted as the end of user data.

受信装置で上述した視差制御コマンドデータを受信した場合の制御方法は図68や図70、図71で説明した動作例において、「奥行き表示位置指定情報」を図73(c)の「視差制御コマンド」に変更したものである。図68のS6805では、受信した3D映像コンテンツ中に視差制御コマンドデータが含まれていない場合には、予め定めた所定の視差制御コマンドデータをメモリに格納しておき、これを標準視差制御コマンド情報として用いて字幕の表示文字列を表示すればよい。その他の動作は図68および図70、図71と同様であるため説明を省略する。   The control method when the reception device receives the above-described parallax control command data is the same as the operation example described with reference to FIGS. 68, 70, and 71, with “depth display position designation information” shown in FIG. It has been changed to. In S6805 of FIG. 68, when the received 3D video content does not include parallax control command data, predetermined predetermined parallax control command data is stored in the memory, and this is stored in the standard parallax control command information. It is sufficient to display a display character string of subtitles. Other operations are the same as those in FIGS. 68, 70, and 71, and thus the description thereof is omitted.

<録画・再生時の処理例>
次に、以上説明した3D映像データと字幕データとを含むコンテンツの録画及び再生時の処理について説明する。
<Processing example during recording / playback>
Next, processing at the time of recording and playback of content including the 3D video data and caption data described above will be described.

<3D放送を字幕データ付でそのまま記録/CSIごと記録>
以上で説明した、字幕データを含む3Dコンテンツストリームを受信し、記録媒体に録画する際には、例えば、上述した奥行き表示位置指定情報を含めて字幕データPESをそのまま記録再生部27により記録媒体26に記録を行う。また、再生時には記録媒体26から読み出された字幕データを、図68および図70、図71に示した放送信号受信時の処理と同様にして、多重分離部29などが制御を行う。これにより、3D表示に対応した字幕を視聴することが可能である。図52に示したように制御用データが字幕データPESに包含されていれば、例えば、録画時に映像データや音声データを編集する(トランスコード処理など)場合であっても、上述した記録・再生処理の対応が可能である。
<Recording 3D broadcast with subtitle data as it is / Recording for each CSI>
When the 3D content stream including the caption data described above is received and recorded on the recording medium, for example, the caption data PES including the above-described depth display position designation information is directly recorded by the recording / reproducing unit 27 by the recording medium 26. To record. Also, the subtitle data read from the recording medium 26 at the time of reproduction is controlled by the demultiplexing unit 29 and the like in the same manner as the broadcast signal reception process shown in FIGS. 68, 70, and 71. Thereby, it is possible to view the caption corresponding to the 3D display. If the control data is included in the caption data PES as shown in FIG. 52, for example, even when video data or audio data is edited at the time of recording (eg, transcode processing), the above-described recording / reproduction is performed. Processing can be handled.

また、3D番組コンテンツを2D形式に変換して記録する場合、または記録再生装置が2Dの表示しか行えない場合には、上述した図65の奥行き表示位置指定情報、図72(d)の左右視差情報セグメント、図73(c)の視差制御コマンドなど、字幕データの3D表示についての奥行き表示位置や視差に関する情報を録画時に削除しても構わない。そのようにしてデータ量を削減することで録画媒体の記録容量を効果的に使用することが可能である。   When the 3D program content is converted into 2D format and recorded, or when the recording / playback apparatus can only perform 2D display, the depth display position designation information shown in FIG. 65 and the left-right parallax shown in FIG. Information related to the depth display position and parallax for 3D display of caption data, such as the information segment and the parallax control command in FIG. 73 (c), may be deleted during recording. By reducing the data amount in this way, it is possible to effectively use the recording capacity of the recording medium.

また、上述した記録時の処理例とは逆に、受信したストリームの映像データが2D映像であって、図65の奥行き表示位置指定情報、図72(d)の左右視差情報セグメント、図73(c)の視差制御コマンドなど、字幕データの3D表示についての奥行き表示位置や視差に関する情報を持っていない場合に、記録時に映像データを3D映像に変換して記録する場合には、受信装置4において、これらの字幕データの3D表示についての奥行き表示位置や視差に関する情報を、3D変換後の映像データや字幕データとともに記録しても良い。   Contrary to the processing example at the time of recording described above, the video data of the received stream is 2D video, the depth display position designation information in FIG. 65, the left / right parallax information segment in FIG. 72 (d), FIG. In the case of not having information about the depth display position and parallax for 3D display of caption data, such as the parallax control command of c), when converting video data into 3D video and recording at the time of recording, Information regarding depth display position and parallax for 3D display of these caption data may be recorded together with video data and caption data after 3D conversion.

<字幕データとテレビ独自のOSDを3D表示で重ねる場合>
以上で説明した字幕データの表示に対して、受信装置あるいは記録再生装置が独自のOSDを同時に画面上に表示する場合を考える。字幕データとOSDデータの書き出す面(プレーン)の概念図を図74(a)に示す。受信装置4では、この図で示すように字幕データよりもOSDデータが前面となるように表示面を構成する。さらに、3D表示画面を生成する場合に、OSDの奥行き表示位置を最前面に表示するように視差を制御する。こうすることで、字幕データの奥行き表示位置との関係で、OSD表示がユーザに違和感を生じさせることを防止することが可能である。例えば、字幕データが最前面に位置していたとしても、プレーンの重畳順によってOSDの表示データが字幕を上書きして画面を合成するため、違和感の無い表示となる。合成した後の表示画面の一例を図74(b)に示す。OSDデータが透過する性質を持っていた場合でも、同様に表示制御を行うことで、違和感の無い表示画面を生成することが可能である。
<When subtitle data and TV-specific OSD are superimposed in 3D display>
Consider the case where the receiving device or the recording / reproducing device simultaneously displays a unique OSD on the screen in contrast to the caption data display described above. FIG. 74 (a) shows a conceptual diagram of the plane (plane) for writing caption data and OSD data. In the receiving device 4, the display surface is configured so that the OSD data is in front of the caption data as shown in the figure. Further, when generating a 3D display screen, the parallax is controlled so that the depth display position of the OSD is displayed in the foreground. By doing so, it is possible to prevent the OSD display from causing the user to feel uncomfortable due to the relationship with the depth display position of the caption data. For example, even if the caption data is located in the foreground, the OSD display data overwrites the caption in the order in which the planes are overlaid to synthesize the screen, resulting in a display with no discomfort. An example of the display screen after the synthesis is shown in FIG. Even when the OSD data has a property of being transmitted, it is possible to generate a display screen without a sense of incongruity by performing display control in the same manner.

<HDMI出力制御例>
上述した実施例とは別の機器構成例として、図75に示すように受信装置4と表示装置63とが別体で、例えばシリアル伝送方式で接続されている構成について説明する。伝送バス62は、表示装置4と表示装置63とを接続し映像・音声データを伝送し、かつ規定された形式で送付可能なコマンドの伝送が可能である。伝送方式としては例えばHDMI(商標)による接続が挙げられる。表示装置63は伝送バス62によって伝送された映像・音声データを表示する装置であり、表示パネルやスピーカなどを持つ。本構成の場合、表示装置63で字幕データを出力・表示するには、映像データ上に字幕データを合成したデータを受信装置4で生成して表示装置63へ伝送すればよい。3D映像の視聴の際は、伝送方式で定められた3D映像データの伝送方法に従えば表示装置63にて3D表示が可能である。表示装置63においては図69(a)または図69(b)に示したような左目用画像および右目用画像を夫々表示すればよい。
<Example of HDMI output control>
As an example of a device configuration different from the above-described embodiment, a configuration in which the receiving device 4 and the display device 63 are separated as shown in FIG. 75 and connected by, for example, a serial transmission method will be described. The transmission bus 62 connects the display device 4 and the display device 63, transmits video / audio data, and can transmit commands that can be sent in a prescribed format. As a transmission method, for example, connection by HDMI (trademark) can be cited. The display device 63 is a device for displaying video / audio data transmitted by the transmission bus 62, and has a display panel, a speaker, and the like. In the case of this configuration, in order to output and display the caption data on the display device 63, data obtained by synthesizing caption data on the video data may be generated by the reception device 4 and transmitted to the display device 63. When viewing 3D video, 3D display is possible on the display device 63 according to the 3D video data transmission method defined by the transmission method. The display device 63 may display a left-eye image and a right-eye image as shown in FIG. 69 (a) or 69 (b), respectively.

受信装置4でOSDを重ね合わせる場合も、同様に、受信装置4でOSDを重ね合わせた画像を生成して表示装置63へ伝送し、表示装置63が左目用画像および右目用画像を夫々表示すればよい。   Similarly, when the OSD is superimposed on the receiving device 4, an image on which the OSD is superimposed on the receiving device 4 is generated and transmitted to the display device 63. The display device 63 displays the left-eye image and the right-eye image, respectively. That's fine.

一方、受信装置4で3D表示用画像を作成し、その上に表示装置63においてOSDを表示する場合、表示装置63で、受信装置4側で生成した3D表示用画像の最大の視差量が把握できなければ、最前面に表示を行うことができない。そのため、受信装置4から表示装置63に対して、伝送バス62を介して視差情報を伝送する。これにより、表示装置63で受信装置4側で生成した3D表示用画像の最大の視差量を把握することが可能である。具体的な視差情報の伝送方法としては、例えば、HDMI接続における機器制御信号であるCECによる伝送が挙げられる。HDMI Vendor Specific InfoFrame Packet ContentsのReserved領域などに新しく視差量を記述する箇所を設けることで対応が可能である。   On the other hand, when a 3D display image is created by the receiving device 4 and an OSD is displayed on the display device 63 on the 3D display image, the display device 63 grasps the maximum parallax amount of the 3D display image generated on the receiving device 4 side. If it is not possible, it cannot be displayed in the foreground. Therefore, the parallax information is transmitted from the receiving device 4 to the display device 63 via the transmission bus 62. Thereby, it is possible to grasp the maximum amount of parallax of the 3D display image generated on the receiving device 4 side in the display device 63. As a specific transmission method of parallax information, for example, transmission by CEC which is a device control signal in HDMI connection can be mentioned. This can be dealt with by providing a new location for describing the amount of parallax in the Reserved area of the HDMI Vendor Specific InfoFrame Packet Contents.

上述した図74(a)または図74(b)で示した例のように、OSDを最前面に表示すれば違和感の無い表示が可能となるため、例えば受信装置4から表示装置63へ視差の最大値をピクセル数などの視差情報を伝送することで、表示画像に対して表示装置63で最前面にOSDを表示することが可能である。視差情報を伝送するタイミングは、例えば受信装置4側で3D番組表示開始時に固定の最大値を一度伝送するだけでも良い。この場合は、伝送回数が少なく処理負荷が少ないというメリットがある。また、受信装置4でユーザーが最大視差量を設定できる方法がある場合には、変更される毎に伝送すればよい。   As shown in the example shown in FIG. 74 (a) or 74 (b) described above, when the OSD is displayed on the foreground, a display without discomfort is possible. By transmitting parallax information such as the number of pixels as the maximum value, the display device 63 can display the OSD on the forefront with respect to the display image. For example, the parallax information may be transmitted at a fixed maximum value once when the 3D program display is started on the receiving device 4 side. In this case, there is an advantage that the number of transmissions is small and the processing load is small. In addition, when there is a method in which the user can set the maximum amount of parallax with the receiving device 4, it may be transmitted every time it is changed.

図76(a)は受信装置4から表示装置63へ伝送する表示画像の一例である。例えば字幕データが表示画像よりも前面に表示された3D表示画像である。表示装置63でOSDを表示しない場合はこの画像がそのまま表示されることとなる。   FIG. 76A shows an example of a display image transmitted from the receiving device 4 to the display device 63. For example, it is a 3D display image in which caption data is displayed in front of the display image. When the OSD is not displayed on the display device 63, this image is displayed as it is.

これに対して図76(b)は、上述した伝送処理により、受信装置4から視差の最大値情報を送信された表示装置63においてOSDを表示した画像の一例である。視差の最大値情報を用いて、受信装置4から伝送された画像中のいずれの表示画像及び字幕データよりも前面となる位置にOSDを重ね合わせることで違和感の無い表示が可能となる。   On the other hand, FIG. 76B is an example of an image in which the OSD is displayed on the display device 63 that has received the parallax maximum value information from the reception device 4 by the transmission process described above. By using the parallax maximum value information, the OSD is superimposed at a position in front of any display image and caption data in the image transmitted from the receiving device 4, thereby making it possible to display without discomfort.

図76(a)(b)では字幕データを含んだ表示例を示したが、字幕データを受信装置4で表示しない場合でも、上記手順で受信装置4より視差情報を伝送することで表示装置63にてOSDを最前面に表示することが可能である。または受信装置4で字幕データとOSDを重畳したデータを伝送する場合でも、上記手順で受信装置4より視差情報を電することで表示装置63の作成したOSDを受信装置4の字幕データおよびOSDよりも前面で表示することが可能であり、違和感の無い表示が可能である。また本実施例では視差の最大値を伝送する例を説明したが、最小値を合わせて伝送したり、画面上を複数の領域に区分けして領域毎の最大値や最小値を伝送したりしても良い。また視差の値を伝送するタイミングも例えば1秒間隔など定期的な時間間隔で送付しても良い。これらの処理を行えば、表示装置63で違和感無くOSDを表示可能な奥行き方向の位置の幅を広げることが可能となる。   76 (a) and 76 (b) show display examples including subtitle data. Even when the subtitle data is not displayed on the reception device 4, the display device 63 transmits disparity information from the reception device 4 according to the above procedure. The OSD can be displayed on the forefront. Even when the reception device 4 transmits data in which caption data and OSD are superimposed, the OSD created by the display device 63 is transmitted from the caption data and the OSD of the reception device 4 by transmitting disparity information from the reception device 4 in the above procedure. Can also be displayed on the front side, and display without a sense of incongruity is possible. In this embodiment, the example of transmitting the maximum parallax value has been described. However, the minimum value is transmitted together, or the screen is divided into a plurality of areas, and the maximum value and the minimum value for each area are transmitted. May be. The timing for transmitting the parallax value may also be sent at regular time intervals such as 1 second intervals. By performing these processes, it is possible to widen the width of the position in the depth direction where the display device 63 can display the OSD without a sense of incongruity.

1 送信装置
2 中継装置
3 ネットワーク
4 受信装置
10 記録再生部
11 ソース発生部
12 エンコード部
13 スクランブル部
14 変調部
15 送信アンテナ部
16 管理情報
17 暗号化部
18 通信路符号化部
19 ネットワークI/F部
21 CPU
22 汎用バス
23 チューナ
24 デスクランブラ
25 ネットワークI/F
26 記録媒体
27 記録再生部
29 多重分離部
30 映像復号部
31 音声復号部
32 映像変換処理部
33 制御信号送受信部
34 タイマー
41 映像出力部
42 音声出力部
43 制御信号出力部
44 機器制御信号送信
45 ユーザー操作入力
46 高速デジタルインタフェース
47 ディスプレイ
48 スピーカ
51 システム制御部
52 ユーザー指示受信部
53 機器制御信号送信部
54 番組情報解析部
55 時間管理部
56 ネットワーク制御部
57 復号制御部
58 記録再生制御部
59 選局制御部
60 OSD作成部
61 映像変換制御部
62 シリアル伝送バス
63 表示装置
DESCRIPTION OF SYMBOLS 1 Transmission apparatus 2 Relay apparatus 3 Network 4 Reception apparatus 10 Recording / reproducing part 11 Source generation part 12 Encoding part 13 Scramble part 14 Modulation part 15 Transmission antenna part 16 Management information 17 Encryption part 18 Channel encoding part 19 Network I / F Part 21 CPU
22 General-purpose bus 23 Tuner 24 Descrambler 25 Network I / F
26 Recording medium 27 Recording / reproducing unit 29 Demultiplexing unit 30 Video decoding unit 31 Audio decoding unit 32 Video conversion processing unit 33 Control signal transmission / reception unit 34 Timer 41 Video output unit 42 Audio output unit 43 Control signal output unit 44 Device control signal transmission 45 User operation input 46 High-speed digital interface 47 Display 48 Speaker 51 System control unit 52 User instruction reception unit 53 Device control signal transmission unit 54 Program information analysis unit 55 Time management unit 56 Network control unit 57 Decoding control unit 58 Recording / playback control unit 59 Station control unit 60 OSD creation unit 61 Video conversion control unit 62 Serial transmission bus 63 Display device

Claims (3)

映像データと字幕データと前記字幕データについての奥行き表示位置情報または視差情報を含む3D映像コンテンツを受信する受信部と、
受信した前記映像データと前記字幕データとを3D表示または2D表示するための映像処理を行う映像処理部と、
ユーザからの操作入力信号を入力する操作入力部とを備え、
前記映像処理部による映像処理には、
受信した前記3D映像コンテンツの映像データを3D表示し、受信した前記字幕データを前記奥行き表示位置情報または前記視差情報を用いて3D表示するための第1の映像処理と、
前記操作入力部から、3D表示を2D表示に切り替え操作入力信号が入力された場合に、受信した前記3D映像コンテンツの映像データを2D表示し、受信した前記字幕データを前記奥行き表示位置情報または前記視差情報に基づかずに2D表示するための第2の映像処理とがあることを特徴とする受信装置。
A receiving unit for receiving 3D video content including video data, subtitle data, and depth display position information or parallax information about the subtitle data;
A video processing unit that performs video processing for 3D display or 2D display of the received video data and the caption data;
An operation input unit for inputting an operation input signal from a user,
For video processing by the video processing unit,
First video processing for displaying the received video data of the 3D video content in 3D, and displaying the received caption data in 3D using the depth display position information or the parallax information;
When an operation input signal is input from the operation input unit to switch 3D display to 2D display, the received video data of the 3D video content is displayed in 2D, and the received caption data is displayed as the depth display position information or the A receiving apparatus comprising: second video processing for 2D display without being based on parallax information.
映像データと字幕データと前記字幕データについての奥行き表示位置情報または視差情報を含む3D映像コンテンツを受信装置が受信するステップと、
受信した前記映像データと前記字幕データとを3D表示または2D表示するための映像処理を行う映像処理ステップと備え、
前記映像処理ステップにおける映像処理には、
受信した前記3D映像コンテンツの映像データを3D表示し、受信した前記字幕データを前記奥行き表示位置情報または前記視差情報を用いて3D表示するための第1の映像処理と、
前記操作入力部から、3D表示を2D表示に切り替え操作入力信号が入力された場合に、受信した前記3D映像コンテンツの映像データを2D表示し、受信した前記字幕データを前記奥行き表示位置情報または前記視差情報に基づかずに2D表示するための第2の映像処理とがあることを特徴とする受信方法。
A receiving device receiving 3D video content including video data, caption data, and depth display position information or parallax information for the caption data;
A video processing step for performing video processing for 3D display or 2D display of the received video data and the caption data;
In the video processing in the video processing step,
First video processing for displaying the received video data of the 3D video content in 3D, and displaying the received caption data in 3D using the depth display position information or the parallax information;
When an operation input signal is input from the operation input unit to switch 3D display to 2D display, the received video data of the 3D video content is displayed in 2D, and the received caption data is displayed as the depth display position information or the A receiving method comprising: a second video processing for 2D display without being based on parallax information.
送信装置が、映像データと前記字幕データと字幕データについての奥行き表示位置情報または視差情報を含む3D映像コンテンツを送信するステップと、
受信装置が、前記3D映像コンテンツを受信するステップと、
前記受信装置が、受信した前記映像データと前記字幕データとを3D表示または2D表示するための映像処理を行う映像処理ステップと備え、
前記映像処理ステップにおける映像処理には、
受信した前記3D映像コンテンツの映像データを3D表示し、受信した前記字幕データを前記奥行き表示位置情報または前記視差情報を用いて3D表示するための第1の映像処理と、
前記受信装置の操作入力部から、3D表示を2D表示に切り替え操作入力信号が入力された場合に、受信した前記3D映像コンテンツの映像データを2D表示し、受信した前記字幕データを前記奥行き表示位置情報または前記視差情報に基づかずに2D表示するための第2の映像処理とがあることを特徴とする送受信方法。
Transmitting a 3D video content including video data and depth display position information or parallax information about the caption data and the caption data;
A receiving device receiving the 3D video content;
The receiving device includes a video processing step for performing video processing for 3D display or 2D display of the received video data and the caption data;
In the video processing in the video processing step,
First video processing for displaying the received video data of the 3D video content in 3D, and displaying the received caption data in 3D using the depth display position information or the parallax information;
When the operation input signal is input from the operation input unit of the receiving device to switch the 3D display to the 2D display, the received video data of the 3D video content is displayed in 2D, and the received caption data is displayed in the depth display position. And a second video processing for 2D display without being based on information or the parallax information.
JP2011156262A 2011-07-15 2011-07-15 Receiving device, receiving method, and transmitting/receiving method Pending JP2013026644A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011156262A JP2013026644A (en) 2011-07-15 2011-07-15 Receiving device, receiving method, and transmitting/receiving method
US13/540,054 US20130169762A1 (en) 2011-07-15 2012-07-02 Receiving apparatus, receiving method and transmitting apparatus
CN2012102439635A CN102883172A (en) 2011-07-15 2012-07-13 Receiving device, receiving method and sending receiving method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011156262A JP2013026644A (en) 2011-07-15 2011-07-15 Receiving device, receiving method, and transmitting/receiving method

Publications (1)

Publication Number Publication Date
JP2013026644A true JP2013026644A (en) 2013-02-04

Family

ID=47784572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011156262A Pending JP2013026644A (en) 2011-07-15 2011-07-15 Receiving device, receiving method, and transmitting/receiving method

Country Status (1)

Country Link
JP (1) JP2013026644A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104639929A (en) * 2013-11-12 2015-05-20 精工爱普生株式会社 Display apparatus and method for controlling display apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009157198A1 (en) * 2008-06-26 2009-12-30 パナソニック株式会社 Recording medium, reproducing device, recording device, reproducing method, recording method, and program
WO2010032399A1 (en) * 2008-09-18 2010-03-25 パナソニック株式会社 Stereoscopic video reproduction device and stereoscopic video reproduction device
JP2010268432A (en) * 2009-04-15 2010-11-25 Sony Corp Data structure, recording medium, reproducing device, reproducing method, and program
JP2010273333A (en) * 2009-04-21 2010-12-02 Panasonic Corp Three-dimensional image combining apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009157198A1 (en) * 2008-06-26 2009-12-30 パナソニック株式会社 Recording medium, reproducing device, recording device, reproducing method, recording method, and program
WO2010032399A1 (en) * 2008-09-18 2010-03-25 パナソニック株式会社 Stereoscopic video reproduction device and stereoscopic video reproduction device
JP2010268432A (en) * 2009-04-15 2010-11-25 Sony Corp Data structure, recording medium, reproducing device, reproducing method, and program
JP2010273333A (en) * 2009-04-21 2010-12-02 Panasonic Corp Three-dimensional image combining apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104639929A (en) * 2013-11-12 2015-05-20 精工爱普生株式会社 Display apparatus and method for controlling display apparatus
US9756276B2 (en) 2013-11-12 2017-09-05 Seiko Epson Corporation Display apparatus and method for controlling display apparatus
CN104639929B (en) * 2013-11-12 2018-05-01 精工爱普生株式会社 The control method of display device and display device

Similar Documents

Publication Publication Date Title
US20130169762A1 (en) Receiving apparatus, receiving method and transmitting apparatus
JP2012039340A (en) Receiving apparatus and receiving method
JP2013090020A (en) Image output device and image output method
JP5481597B2 (en) Digital content receiving apparatus and receiving method
JP5952451B2 (en) Receiving apparatus and receiving method
WO2011151958A1 (en) Receiving device and output method
JP2013026643A (en) Receiving device, receiving method, and transmitting/receiving method
JP2012100181A (en) Image output device, image output method, receiver, and reception method
JP2013026644A (en) Receiving device, receiving method, and transmitting/receiving method
WO2011151960A1 (en) Reception device and output method
JP5952454B2 (en) Receiving apparatus and receiving method
JP5684415B2 (en) Digital broadcast signal receiving apparatus and digital broadcast signal receiving method
JP5559605B2 (en) Receiving apparatus and receiving method
JP5961717B2 (en) Receiving device, receiving method, and transmitting / receiving method
JP6117410B2 (en) Transmission / reception system and transmission / reception method
WO2011148554A1 (en) Receiver apparatus and output method
JP5947942B2 (en) Transmission / reception system and transmission / reception method
JP5952453B2 (en) Receiving apparatus and receiving method
JP5947866B2 (en) Receiving apparatus and receiving method
JP2013090019A (en) Image output device and image output method
JP2012015570A (en) Receiver, reception method, and transmission/reception method
JP2017143551A (en) Reception apparatus and receiving method
JP2017143552A (en) Reception apparatus and receiving method
JP2016187202A (en) Receiver and reception method
JP2011254277A (en) Reception device, reception method and transmission/reception method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140228

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140228

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150127