JP2012244200A - Content reproduction processor and content reproduction system - Google Patents

Content reproduction processor and content reproduction system Download PDF

Info

Publication number
JP2012244200A
JP2012244200A JP2011108926A JP2011108926A JP2012244200A JP 2012244200 A JP2012244200 A JP 2012244200A JP 2011108926 A JP2011108926 A JP 2011108926A JP 2011108926 A JP2011108926 A JP 2011108926A JP 2012244200 A JP2012244200 A JP 2012244200A
Authority
JP
Japan
Prior art keywords
content
breaking
information
bulletin
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011108926A
Other languages
Japanese (ja)
Inventor
Takashi Ogino
崇 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011108926A priority Critical patent/JP2012244200A/en
Publication of JP2012244200A publication Critical patent/JP2012244200A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of providing prompt report information to a user even during the reproduction of a content without including prompt report information such as disaster information.SOLUTION: A content reproduction processor 20 includes main content processing means 200, prompt report information processing means 300, and synthesis means 400. The means 200 acquires a reproduction target content 102 from a content source 100, reproduces the content 102, and outputs the content as a main content 104. The means 300 acquires prompt report supply data 132 including prompt report information which is not included in the content 102 from a prompt report information source 130, extracts the prompt report information from the prompt report supply data 132, and outputs the prompt report information as a prompt report content 138. The means 400 synthesizes the prompt report content 138 with the main content 104 and outputs synthesis contents 190 when the prompt report content 138 is input, and outputs the main content 104 when the prompt report content 138 is not input.

Description

本発明は、コンテンツ再生処理装置およびコンテンツ再生システムに関し、特に災害情報や速報ニュース等の速報情報を含まないコンテンツの再生中であっても速報情報をユーザーに提供するための技術に関する。   The present invention relates to a content reproduction processing apparatus and a content reproduction system, and more particularly to a technology for providing users with breaking information even during reproduction of content that does not include breaking information such as disaster information and breaking news.

従来からテレビジョン放送では、災害情報や速報ニュース等の速報情報が、放送の映像および/または音声に重畳される場合がある。例えば地上デジタルテレビジョン放送等では、放送局が、速報情報のTS(トランスポートストリーム)パケットを、放送の映像および/または音声のTSパケットとは別個に生成し、放送のTSパケットとともに多重化して送出する方式がある。より具体的には、速報情報は、文字スーパーのデータとして所定の方式で符号化され、TSパケットに分割され、放送のTSパケットとともに送出される。また、速報情報を、テロップとして放送映像に重畳することにより、放送映像のTSパケットとして送出する方式もある。   Conventionally, in television broadcasting, disaster information such as disaster information and breaking news may be superimposed on broadcast video and / or audio. For example, in terrestrial digital television broadcasting, a broadcasting station generates a TS (transport stream) packet of breaking information separately from a TS packet for broadcasting video and / or audio, and multiplexes it with a TS packet for broadcasting. There is a transmission method. More specifically, the bulletin information is encoded as character super data by a predetermined method, divided into TS packets, and transmitted together with a broadcast TS packet. In addition, there is a method in which breaking information is transmitted as a TS packet of broadcast video by superimposing it on the broadcast video as a telop.

ところで、近年、ネットワーク回線の普及や、ネットワーク機能を有するデジタル放送再生端末の普及によって、例えばインターネットを利用したVOD(ビデオオンデマンド)の動画配信サービスが数多く提供されている。このような動画配信サービスでは、TS形式のデータとして符号化されたコンテンツデータが配信サーバーに格納されている。TS形式のデータでは、映像および/または音声は所定の符号化方式で符号化された後にTSパケットに分割され、これらのTSパケットが再生順等に従って多重化されている。   Incidentally, in recent years, with the spread of network lines and the spread of digital broadcast playback terminals having network functions, for example, many VOD (video on demand) video distribution services using the Internet have been provided. In such a moving image distribution service, content data encoded as TS format data is stored in a distribution server. In the TS format data, video and / or audio is encoded by a predetermined encoding method and then divided into TS packets, and these TS packets are multiplexed according to the reproduction order or the like.

特開2009−290794号公報JP 2009-290794 A

上記のインターネットを利用したVODサービスでは、災害情報や速報ニュース等の速報情報を急遽挿入する運用が必ずしもなされていないのが現状である。   In the above-described VOD service using the Internet, the current situation is that operations for quickly inserting breaking information such as disaster information and breaking news are not necessarily performed.

VODサービスにおいて速報情報を挿入するための技術が、例えば特許文献1に紹介されている。この技術では、表示すべき文字情報が無い場合でも、例えばNULLデータ等で構成される字幕パケット(透明字幕パケット)を予めTSデータ内に多重化しておく。そして、急遽、新規の字幕データを挿入表示する場合、その新規字幕データのパケットを、上記の予め用意されていた透明字幕パケットに上書きする。この上書きされたTSデータを配信することによって、VODサービスでも速報情報が表示される。   For example, Patent Document 1 introduces a technique for inserting breaking information in the VOD service. In this technique, even when there is no character information to be displayed, a caption packet (transparent caption packet) composed of, for example, NULL data or the like is multiplexed in advance in TS data. Then, when suddenly inserting and displaying new caption data, the packet of the new caption data is overwritten on the previously prepared transparent caption packet. By distributing the overwritten TS data, the bulletin information is also displayed in the VOD service.

しかし、この技術によれば、透明字幕パケットの生成および上書きのための処理を、配信する全てのコンテンツに対して行う必要がある。このため、コンテンツ配信サーバーを増強しなければならない状況が生じうる。大規模なサーバーの利用または保有はVODサービス提供者にとって負担である。他方、VODサービス利用中に速報情報が提供されないのは、ユーザーにとって利便性が低い。   However, according to this technology, it is necessary to perform processing for generating and overwriting a transparent subtitle packet for all contents to be distributed. For this reason, the situation where the content distribution server must be increased may arise. The use or possession of large-scale servers is a burden for VOD service providers. On the other hand, the fact that the bulletin information is not provided while using the VOD service is not convenient for the user.

なお、VODサービスに限らず、コンテンツの再生中に速報情報が提供されない状況は種々存在する。   In addition, not only the VOD service but also various situations where the breaking information is not provided during the reproduction of the content exist.

本発明は、災害情報や速報ニュース等の速報情報を含まないコンテンツの再生中であっても速報情報をユーザーに提供可能なコンテンツ再生処理装置およびコンテンツ再生システムを得ることを目的とする。   An object of the present invention is to provide a content reproduction processing apparatus and a content reproduction system capable of providing a user with breaking information even during reproduction of content that does not include breaking information such as disaster information and breaking news.

本発明の一態様によれば、再生対象のコンテンツをコンテンツ源から取得し、取得した前記コンテンツを再生して主コンテンツとして出力する主コンテンツ処理手段と、前記再生対象コンテンツに含まれない速報情報を含んだ速報供給データを速報情報源から取得し、取得した前記速報供給データから前記速報情報を所定の抽出処理によって抽出し、抽出した前記速報情報を速報コンテンツとして出力する速報情報処理手段と、前記速報情報処理手段から前記速報コンテンツが入力された場合には前記速報コンテンツを前記主コンテンツに合成し、得られた合成コンテンツを出力する一方で、前記速報コンテンツが入力されていない場合には前記主コンテンツを出力する合成手段と、を含むコンテンツ再生処理装置が提供される。   According to one aspect of the present invention, main content processing means for acquiring content to be reproduced from a content source, reproducing the acquired content and outputting it as main content, and breaking information not included in the content to be reproduced Breaking information supply means for acquiring the included breaking information from a breaking information source, extracting the breaking information from the acquired breaking information supply data by a predetermined extraction process, and outputting the extracted breaking information as breaking content, and When the breaking information is input from the breaking information processing means, the breaking content is combined with the main content, and the obtained combined content is output. On the other hand, when the breaking content is not input, the main content is output. And a content reproduction processing apparatus including synthesis means for outputting the content.

上記の一態様によれば、コンテンツ再生処理装置は、速報情報を取得して速報コンテンツとして出力する速報情報処理手段と、速報コンテンツを再生中の主コンテンツに合成する合成手段とを有している。このため、速報情報を含まないコンテンツの再生中であっても速報情報をユーザーに提供することができる。   According to the above aspect, the content reproduction processing apparatus includes the breaking information processing unit that acquires breaking information and outputs the breaking information as the breaking content, and the combining unit that combines the breaking content with the main content being reproduced. . For this reason, even when the content not including the breaking information is being reproduced, the breaking information can be provided to the user.

本発明の目的、特徴、局面、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。   The objects, features, aspects and advantages of the present invention will become more apparent from the following detailed description and the accompanying drawings.

実施の形態1に係るコンテンツ再生システムを例示するブロック図である。1 is a block diagram illustrating a content reproduction system according to a first embodiment. 速報供給データの構成を例示する概念図である。It is a conceptual diagram which illustrates the structure of bulletin supply data. 速報供給データの他の構成を例示する概念図である。It is a conceptual diagram which illustrates the other structure of bulletin supply data. 表示領域分割合成を例示する模式図である。It is a schematic diagram which illustrates display area division | segmentation composition. 実施の形態3に係るコンテンツ再生処理装置を例示するブロック図である。10 is a block diagram illustrating a content reproduction processing apparatus according to a third embodiment. FIG. 実施の形態4に係るコンテンツ再生処理装置を例示するブロック図である。FIG. 10 is a block diagram illustrating a content reproduction processing apparatus according to a fourth embodiment.

<実施の形態1>
図1に実施の形態1に係るコンテンツ再生システム(以下、再生システムとも称する)10のブロック図を例示する。図1の例では再生システム10は、コンテンツ再生処理装置(以下、再生処理装置とも称する)20と、コンテンツ出力装置(以下、出力装置とも称する)30とを含んでいる。なお、図1では符号20について「コンテンツ再生処理装置」を「コンテンツ再生処理」と表記しており、同様の表記手法を他の要素および他の図面についても用いる場合がある。
<Embodiment 1>
FIG. 1 illustrates a block diagram of a content reproduction system (hereinafter also referred to as a reproduction system) 10 according to the first embodiment. In the example of FIG. 1, the reproduction system 10 includes a content reproduction processing device (hereinafter also referred to as a reproduction processing device) 20 and a content output device (hereinafter also referred to as an output device) 30. In FIG. 1, “content reproduction processing device” is denoted as “content reproduction processing” for reference numeral 20, and the same notation method may be used for other elements and other drawings.

図1には、説明のため、再生システム10で再生するコンテンツ(より詳細にはコンテンツのデータ)102の供給源であるコンテンツ源100と、災害情報や緊急ニュース等の速報情報を含んだデータ132の供給源である速報情報源130も図示している。なお、速報情報源130から供給される速報情報を含んだ上記データ132を、速報供給データ132とも称することにする。特にコンテンツ源100から配信されるコンテンツ102は、速報情報を含まないものとする。   For the sake of explanation, FIG. 1 shows a content source 100 that is a supply source of content (more specifically, content data) 102 to be played back by the playback system 10, and data 132 that includes breaking information such as disaster information and emergency news. Also shown is a bulletin information source 130 which is a source of information. The data 132 including the bulletin information supplied from the bulletin information source 130 is also referred to as the bulletin supply data 132. In particular, it is assumed that the content 102 distributed from the content source 100 does not include breaking information.

以下では、説明のため、次のような例を挙げる。但し、本発明はこの例に限定されるものではなく、後述の更なる例を含めて種々の実施の形態が想定され得る。   Below, the following examples are given for explanation. However, the present invention is not limited to this example, and various embodiments can be envisaged including further examples described later.

まず、コンテンツ再生システム10が、インターネット経由のVOD(ビデオオンデマンド)サービスを利用可能に構成されている場合を例示する。   First, a case where the content reproduction system 10 is configured to be able to use a VOD (video on demand) service via the Internet will be exemplified.

この例によれば、コンテンツ源100はVODサービス提供者のコンテンツ配信サーバーに対応し、当該コンテンツ源100はインターネット経由で再生システム10に接続される。   According to this example, the content source 100 corresponds to the content distribution server of the VOD service provider, and the content source 100 is connected to the playback system 10 via the Internet.

また、ここでは、速報情報は、VODサービス提供者がユーザー向けに提供するものとする。この例によれば、速報情報源130は、VODサービス提供者によって予め準備され速報情報が登録されるサーバー(以下、速報情報専用サーバーとも称する)に対応し、当該速報情報源130はインターネット経由で再生システム10に接続される。但し、速報供給データ132は配信コンテンツ102とは別の信号で伝達されるものとする。   Here, it is assumed that the bulletin information is provided for the user by the VOD service provider. According to this example, the bulletin information source 130 corresponds to a server (hereinafter also referred to as a bulletin information dedicated server) prepared in advance by a VOD service provider and registered with bulletin information, and the bulletin information source 130 is connected via the Internet. Connected to the playback system 10. However, it is assumed that the bulletin supply data 132 is transmitted by a signal different from the distribution content 102.

なお、速報情報専用サーバーがVODサービス提供者とは別の事業者によって準備される場合にも、以下の説明は当てはまる。すなわち、速報情報源130とコンテンツ源100とは別々の事業者によって準備されていても構わない。   Note that the following explanation also applies to the case where the dedicated server for breaking news information is prepared by a provider different from the VOD service provider. That is, the bulletin information source 130 and the content source 100 may be prepared by different operators.

なお、ここでの例によれば、コンテンツ源100と速報情報源130の両方が再生システム10の外部、従って再生処理装置20の外部に設けられることになる。   According to the example here, both the content source 100 and the breaking information source 130 are provided outside the reproduction system 10, and thus outside the reproduction processing device 20.

また、再生システム10がコンテンツ源100から取得する再生対象コンテンツ102が、視覚的コンテンツと聴覚的コンテンツの両方を含む場合を例示する。但し、コンテンツ102は視覚的コンテンツと聴覚的コンテンツのいずれか一方のみで構成されていてもよい。   Moreover, the case where the reproduction target content 102 acquired by the reproduction system 10 from the content source 100 includes both visual content and audio content is illustrated. However, the content 102 may be composed of only one of visual content and auditory content.

ここで、視覚的コンテンツとは再生システム10のユーザーが視覚によって感知可能な形式で提供されるコンテンツであり、また、聴覚的コンテンツとは再生システム10のユーザーが聴覚によって感知可能な形式で提供されるコンテンツである。視覚的コンテンツは例えば映像、画像、グラフィックの形式によって表現される。聴覚的コンテンツは音声(例えば人の声、音楽等)の形式によって表現される。聴覚的コンテンツは音声コンテンツと称してもよい。   Here, the visual content is content that is provided in a format that can be sensed visually by the user of the playback system 10, and the auditory content is provided in a format that can be sensed by the user of the playback system 10. Content. The visual content is expressed by, for example, a video, an image, or a graphic format. Auditory content is expressed in the form of audio (eg, human voice, music, etc.). Auditory content may be referred to as audio content.

なお、「映像」という用語は基本的に動画像に対して用い、「画像」という用語は基本的に静止画像に対して用い、「グラフィック」という用語は基本的に、再生システム10によって作成された動画像または静止画像に対して用いるものとする。但し、これらの用語は一般的に厳密に区別されているわけではなく、このため以下の説明においてもこれらの用語は適宜、解釈されるべきである。例えば、動画像と静止画像をまとめて画像と称する場合もある。また、映像と画像とグラフィックのうちの2つまたは3つが合成された(「混在した」、「組み合わされた」等と表現してもよい)視覚的コンテンツに対しては、映像と画像とグラフィックのいずれの用語も用いることが可能である。なお、映像、画像、グラフィック等は文字を含んでいても構わない。   The term “video” is basically used for moving images, the term “image” is basically used for still images, and the term “graphic” is basically created by the playback system 10. It is used for moving images or still images. However, these terms are not generally strictly distinguished, and therefore these terms should be appropriately interpreted in the following description. For example, a moving image and a still image may be collectively referred to as an image. In addition, for visual content in which two or three of video, image, and graphic are combined (may be expressed as “mixed”, “combined”, etc.), video, image, and graphic Any of the terms can be used. Note that video, images, graphics, and the like may include characters.

また以下の例では、速報供給データ132は、図2および図3の概念図に例示するように速報情報本体データ(以下、速報情報本体、速報情報等とも称する)134を含み、図3の概念図に例示するようにさらに付加的なデータ(以下、付加情報とも称する)136も含むことができるものとする。付加情報136として例えば、作成日時の情報や、制御情報が挙げられる(後に、さらに例示する)。なお、速報供給データ132は速報情報134および付加情報136以外の情報を含んでいても構わない。   In the following example, the bulletin supply data 132 includes bulletin information body data (hereinafter also referred to as a bulletin information body, bulletin information, etc.) 134 as illustrated in the conceptual diagrams of FIGS. 2 and 3. It is assumed that additional data (hereinafter also referred to as additional information) 136 can be included as illustrated in the figure. Examples of the additional information 136 include creation date / time information and control information (illustrated later). Note that the bulletin supply data 132 may include information other than the bulletin information 134 and the additional information 136.

また、速報情報本体134が視覚的コンテンツと聴覚的コンテンツの両方で提供される場合を例示する。但し、速報情報本体134は視覚的コンテンツと聴覚的コンテンツのいずれか一方のみで提供されてもよい。   Moreover, the case where the bulletin information main body 134 is provided as both visual content and audio content is illustrated. However, the bulletin information main body 134 may be provided with only one of visual content and audio content.

<コンテンツ再生システム10>
上記のように、図1に例示の再生システム10は、コンテンツ再生処理装置20と、コンテンツ出力装置30とを含んでいる。
<Content playback system 10>
As described above, the reproduction system 10 illustrated in FIG. 1 includes the content reproduction processing device 20 and the content output device 30.

コンテンツ再生処理装置20は、コンテンツ源100から再生対象のコンテンツ102を取得し、当該コンテンツ102を再生して主コンテンツ104としてコンテンツ出力装置30へ出力する。また、再生処理装置20は、速報情報源130から速報情報データ132を取得した場合には、当該速報情報データ132に対応する速報コンテンツ138を上記の再生された主コンテンツ104に合成し、合成したコンテンツ190をコンテンツ出力装置30へ出力する。   The content reproduction processing device 20 acquires the content 102 to be reproduced from the content source 100, reproduces the content 102, and outputs it as the main content 104 to the content output device 30. Further, when the reproduction processing device 20 acquires the breaking information data 132 from the breaking information source 130, the reproduction processing device 20 synthesizes the breaking information 138 corresponding to the breaking information data 132 with the reproduced main content 104 described above. The content 190 is output to the content output device 30.

再生処理装置20は、例えばハードウェアとソフトウェアの組み合わせによって実現可能である。例えば、再生対象コンテンツ102および速報供給データ132の取得は、インターネット接続のためのインターフェース(I/F)機器、インターネット通信を行うためのソフトウェアによって実現可能である。また、例えば、コンテンツ102の再生およびコンテンツの合成はソフトウェアによって実現可能である。なお、ソフトウェアによる処理の一部または全部をハードウェア(例えば処理内容を実行可能に構成された専用回路)によって実現することも可能である。   The reproduction processing device 20 can be realized by a combination of hardware and software, for example. For example, the acquisition of the content to be reproduced 102 and the breaking news supply data 132 can be realized by an interface (I / F) device for Internet connection and software for performing Internet communication. Further, for example, the reproduction of the content 102 and the composition of the content can be realized by software. Note that part or all of the processing by software can be realized by hardware (for example, a dedicated circuit configured to execute processing contents).

ソフトウェアによる処理は、例えば、マイクロプロセッサ(MPU、CPU、マイクロコンピュータとも称される)が所定のプログラムに記述された処理ステップ(換言すれば処理手順)を実行することによって、実現可能である。なお、マイクロプロセッサは例えばマルチプロセッサまたはマルチコアの構成を採用することも可能である。マイクロプロセッサが実行するプログラムは記憶装置に格納される。記憶装置は、当該プログラムを記憶する他に、各種データ等を記憶する。また、記憶装置は、プログラムを実行するための作業領域を提供する。記憶装置はROM、RAM、書き換え可能な不揮発性メモリ(EPROM等)、ハードディスク(HD)等の記憶手段で構成可能である。なお、複数の記憶手段が設けられる場合には、それらをまとめて記憶装置と称するものとする。   Processing by software can be realized, for example, by executing processing steps (in other words, processing procedures) described in a predetermined program by a microprocessor (also referred to as MPU, CPU, or microcomputer). Note that the microprocessor can adopt, for example, a multiprocessor or multicore configuration. A program executed by the microprocessor is stored in a storage device. The storage device stores various data in addition to storing the program. The storage device also provides a work area for executing the program. The storage device can be composed of storage means such as a ROM, a RAM, a rewritable nonvolatile memory (such as EPROM), and a hard disk (HD). When a plurality of storage means are provided, they are collectively referred to as a storage device.

コンテンツ出力装置30は、コンテンツ再生処理装置20から主コンテンツ104または合成コンテンツ190を受け取り、受け取ったコンテンツをユーザーが視覚および聴覚で感知可能な形式で以て出力する。図1の例では、コンテンツ出力装置30は、視覚的コンテンツの表示を行う視覚的出力手段32と、聴覚的コンテンツの音声出力を行う聴覚的出力手段34とを含んでいる。視覚的出力手段32は、例えば液晶表示装置、プラズマディスプレイ装置等の表示装置によって構成される。聴覚的出力手段34は、例えばスピーカー、ヘッドホン等の音声形成装置によって構成され、アンプ等の装置も適宜含んで構成される。   The content output device 30 receives the main content 104 or the composite content 190 from the content reproduction processing device 20, and outputs the received content in a format that can be sensed visually and audibly by the user. In the example of FIG. 1, the content output device 30 includes a visual output unit 32 that displays visual content and an audio output unit 34 that outputs audio of audio content. The visual output means 32 is configured by a display device such as a liquid crystal display device or a plasma display device. The auditory output means 34 is composed of a sound forming device such as a speaker or a headphone, and includes a device such as an amplifier as appropriate.

両出力手段32,34は1つの装置として構成されていてもよいし、別々の装置として構成されていてもよい。例えばいわゆるテレビジョン装置をコンテンツ出力装置30に利用可能であり、この場合は両出力手段32,34が1つの装置であるテレビジョン装置によって提供される。また、例えば、音声出力機能を有さないモニターディスプレイ装置を視覚的出力手段32に利用する場合には、聴覚的出力手段34は別の装置として準備される。   Both output means 32 and 34 may be configured as one device or may be configured as separate devices. For example, a so-called television device can be used for the content output device 30, and in this case, both output means 32 and 34 are provided by a television device which is one device. For example, when a monitor display device having no sound output function is used as the visual output means 32, the auditory output means 34 is prepared as a separate device.

ここで、コンテンツ再生処理装置20は、VODサービス用の専用端末装置として構成可能である。また、パーソナルコンピュータ(PC)によって、再生処理装置20を構成することも可能である。また、再生処理装置20はテレビジョン装置に内蔵されてもよい。また、再生処理装置20は録画装置に内蔵されてもよい(換言すれば、当該再生処理装置20に録画機能を内蔵してもよい)。   Here, the content reproduction processing device 20 can be configured as a dedicated terminal device for the VOD service. Further, the reproduction processing apparatus 20 can be configured by a personal computer (PC). Further, the reproduction processing device 20 may be built in the television device. Further, the playback processing device 20 may be built in the recording device (in other words, the recording processing function may be built in the playback processing device 20).

<コンテンツ再生処理装置20>
図1に例示のコンテンツ再生処理装置20は、主コンテンツ処理手段200と、速報情報処理手段300と、合成手段400と、操作手段(図示略)とを含んでいる。
<Content reproduction processing apparatus 20>
The content reproduction processing apparatus 20 illustrated in FIG. 1 includes main content processing means 200, breaking news information processing means 300, composition means 400, and operation means (not shown).

<主コンテンツ処理手段200>
主コンテンツ処理手段200は、再生対象のコンテンツ102をコンテンツ源100から取得し、取得したコンテンツ102に対して所定の再生処理を行い、再生処理後のコンテンツ104を出力する。図1の例では、主コンテンツ処理手段200は、コンテンツ取得手段202と、コンテンツ再生手段204とを含んでいる。
<Main content processing means 200>
The main content processing unit 200 acquires the content 102 to be played back from the content source 100, performs a predetermined playback process on the acquired content 102, and outputs the content 104 after the playback process. In the example of FIG. 1, the main content processing unit 200 includes a content acquisition unit 202 and a content reproduction unit 204.

コンテンツ取得手段202は、インターネット通信を行う手段であり、コンテンツ源100からインターネット経由で再生対象のコンテンツ102を受信する。ここでは、コンテンツ102が映像(換言すれば視覚的コンテンツ)と音声(換言すれば聴覚的コンテンツ)がTS(トランスポートストリーム)多重されたデータ形式でコンテンツ源100から送信される場合を例示する。但し、コンテンツ102の配信はTS形式に限定されるものではない。   The content acquisition unit 202 is a unit that performs Internet communication, and receives the content 102 to be played back from the content source 100 via the Internet. Here, a case where the content 102 is transmitted from the content source 100 in a data format in which video (in other words, visual content) and audio (in other words, auditory content) are TS (transport stream) multiplexed is illustrated. However, the distribution of the content 102 is not limited to the TS format.

コンテンツ再生手段204は、受信したコンテンツ102に対して所定の再生処理を行う手段である。ここでは、コンテンツ102がTS形式で送信されるのに対応して、コンテンツ再生手段204はTS分離手段206と、映像復号手段208と、音声復号手段210とを含んでいる。   The content reproduction unit 204 is a unit that performs a predetermined reproduction process on the received content 102. Here, corresponding to the transmission of the content 102 in the TS format, the content reproduction unit 204 includes a TS separation unit 206, a video decoding unit 208, and an audio decoding unit 210.

TS分離手段206は、TS形式の受信データから映像のTSパケットと音声のTSパケットを分離する。映像パケットは映像復号手段208によって復号され、復号されたデータは映像コンテンツ(以下、主映像コンテンツとも称する)106として出力される。音声パケットは音声復号手段210によって復号され、復号されたデータは音声コンテンツ(以下、主音声コンテンツとも称する)108として出力される。   The TS separation unit 206 separates the video TS packet and the audio TS packet from the received data in the TS format. The video packet is decoded by the video decoding unit 208, and the decoded data is output as video content (hereinafter also referred to as main video content) 106. The audio packet is decoded by the audio decoding unit 210, and the decoded data is output as audio content (hereinafter also referred to as main audio content) 108.

主映像コンテンツ104と主音声コンテンツ106は、主コンテンツ104として主コンテンツ処理手段200から出力され、合成手段400へ入力される。   The main video content 104 and the main audio content 106 are output from the main content processing unit 200 as the main content 104 and input to the synthesis unit 400.

<速報情報処理手段300>
速報情報処理手段300は、速報情報源130から速報供給データ132を取得し、取得した速報供給データ132から速報情報本体134を所定の抽出処理によって抽出し、抽出した速報情報本体134を速報コンテンツ138として出力する(図2および図3も参照)。図1の例では、速報情報処理手段300は、速報供給データ取得手段302と、速報情報抽出手段304とを含んでいる。
<Breaking Information Processing Unit 300>
The bulletin information processing unit 300 acquires the bulletin supply data 132 from the bulletin information source 130, extracts the bulletin information body 134 from the acquired bulletin supply data 132 by a predetermined extraction process, and extracts the extracted bulletin information body 134 as a bulletin content 138. (See also FIGS. 2 and 3). In the example of FIG. 1, the bulletin information processing unit 300 includes a bulletin supply data acquisition unit 302 and a bulletin information extraction unit 304.

速報供給データ取得手段302は、インターネット通信を行う手段であり、速報情報源130からインターネット経由で速報供給データ132を受信する。ここでは、速報供給データ132は速報情報源130から自動的に配信される場合を例示する。但しこの例に限定されるものではなく、例えば、速報情報抽出手段304が速報供給データ取得手段302を介して速報情報源130に定期的または不定期にアクセスし、速報供給データ132の存否を確認するようにしてもよい。   The bulletin supply data acquisition unit 302 is a unit that performs Internet communication, and receives the bulletin supply data 132 from the bulletin information source 130 via the Internet. Here, the case where the breaking news supply data 132 is automatically distributed from the breaking news information source 130 is illustrated. However, the present invention is not limited to this example. For example, the bulletin information extraction unit 304 accesses the bulletin information source 130 periodically or irregularly via the bulletin supply data acquisition unit 302 to check whether the bulletin supply data 132 exists. You may make it do.

なお、図1の例では、速報供給データ取得手段302がコンテンツ取得手段202とは別個に設けられている。しかし上記のように両手段202,302は機能的に共通するので、両手段202,302を同じハードウェア等で実現しても構わない。その場合、インターネット通信を担う単一の構成が、コンテンツ取得手段202として機能するとともに、速報供給データ取得手段302としても機能する。   In the example of FIG. 1, the bulletin supply data acquisition unit 302 is provided separately from the content acquisition unit 202. However, since both means 202 and 302 are functionally common as described above, both means 202 and 302 may be realized by the same hardware or the like. In that case, a single configuration responsible for Internet communication functions as the content acquisition unit 202 and also functions as the breaking news supply data acquisition unit 302.

速報供給データ132は、例えばXML(eXtensible Markup Language)のようなタグ言語によって構成される。但し、速報供給データ132は他のデータ形式で構成されても構わない。   The bulletin supply data 132 is configured by a tag language such as XML (eXtensible Markup Language). However, the bulletin supply data 132 may be configured in other data formats.

タグ言語によれば、見出し、発生時刻、更新時刻、ジャンル、情報の概要、映像、音声、出力方法等のタグが設けられ、各タグに、対応する情報が記述される。この例によれば、見出し、発生時刻、更新時刻、ジャンル、情報の概要、映像、音声のタグの情報が速報情報本体134に対応する。なお、見出し、発生時刻、更新時刻、ジャンルおよび情報概要のうちの一部または全部を付加情報136(図3参照)として扱うことも可能である。出力方法タグの情報は、例えば速報コンテンツ138の出力時間、繰り返し回数等の制御情報であり、付加情報136に対応する。   According to the tag language, tags such as a headline, occurrence time, update time, genre, information summary, video, audio, output method, and the like are provided, and corresponding information is described in each tag. According to this example, headline, occurrence time, update time, genre, information summary, video, and audio tag information correspond to the bulletin information main body 134. Note that some or all of the headline, occurrence time, update time, genre, and information summary can be handled as additional information 136 (see FIG. 3). The information of the output method tag is, for example, control information such as the output time of the breaking news content 138 and the number of repetitions, and corresponds to the additional information 136.

取得した速報供給データ132は、速報情報抽出手段304によって処理される。すなわち、速報情報抽出手段304は、速報供給データ132を解析することによって(より具体的には当該データ132のタグを識別することによって)速報情報本体134を抽出し、抽出した速報情報本体134を速報コンテンツ138として出力する。   The obtained breaking news supply data 132 is processed by the breaking news information extraction unit 304. That is, the bulletin information extraction unit 304 extracts the bulletin information body 134 by analyzing the bulletin supply data 132 (more specifically, by identifying the tag of the data 132), It is output as breaking news content 138.

ここでは速報コンテンツ138が視覚的コンテンツ140と聴覚的コンテンツ142で構成される場合を例示するが、速報コンテンツ138が視覚的コンテンツ140と聴覚的コンテンツ142のいずれか一方のみで構成される場合をありうる。なお、以下、視覚的コンテンツ140を速報視覚的コンテンツ140とも称し、聴覚的コンテンツ142を速報聴覚的コンテンツ142とも称する。   Here, the case where the breaking content 138 is composed of the visual content 140 and the auditory content 142 is illustrated, but the breaking content 138 may be composed of only one of the visual content 140 and the auditory content 142. sell. Hereinafter, visual content 140 is also referred to as breaking visual content 140, and auditory content 142 is also referred to as breaking auditory content 142.

速報情報抽出手段304は、具体的には、映像タグの情報(すなわち映像データ)を視覚的コンテンツ140として出力し、音声タグの情報(すなわち音声データ)を聴覚的コンテンツ142として出力する。また、見出し、発生時刻、更新時刻、ジャンルおよび情報概要のタグの情報が文字や画像で構成されている場合、速報情報抽出手段304はその文字および/または画像をグラフィックとして構築し、視覚的コンテンツ140として出力する。   Specifically, the bulletin information extraction unit 304 outputs video tag information (that is, video data) as visual content 140, and outputs audio tag information (that is, audio data) as auditory content 142. When the tag information of the headline, the occurrence time, the update time, the genre, and the information summary is composed of characters and images, the bulletin information extraction unit 304 constructs the characters and / or images as graphics, and the visual content 140 is output.

視覚的コンテンツ140と聴覚的コンテンツ142は、速報コンテンツ138として速報情報処理手段300から出力され、合成手段400へ入力される。   The visual content 140 and the auditory content 142 are output from the breaking information processing unit 300 as breaking information 138 and input to the synthesizing unit 400.

ここでは、上記のように、速報供給データ132から映像とグラフィックの両方が得られ、その両方が視覚的コンテンツ140として速報情報処理手段300から出力される場合を例示する。これに対し、映像とグラフィックの一方のみを出力するようにしても構わない。例えば映像による視覚的コンテンツ140を優先的に出力するという出力規則を予め設定しておき、当該出力規則に従って速報情報抽出手段304が処理を行えばよい。   Here, as described above, a case where both video and graphics are obtained from the bulletin supply data 132 and both are output as visual content 140 from the bulletin information processing means 300 is illustrated. On the other hand, only one of the video and the graphic may be output. For example, an output rule that preferentially outputs visual content 140 based on video may be set in advance, and the breaking information extraction unit 304 may perform processing according to the output rule.

また、速報情報抽出手段304による速報供給データ132の解析結果によっては、映像とグラフィックのうちの一方だけしか得られない場合がある。その場合は、映像とグラフィックを区別することなく、得られたものを速報視覚的コンテンツ140として出力すればよい。なお、映像とグラフィックのいずれも得られない場合、速報情報処理手段300から速報視覚的コンテンツ140は出力されない。   In addition, depending on the analysis result of the bulletin supply data 132 by the bulletin information extraction unit 304, only one of video and graphics may be obtained. In that case, what is necessary is just to output the obtained content as the breaking visual content 140 without distinguishing between video and graphics. If neither video nor graphic is obtained, the breaking visual information 140 is not output from the breaking information processing means 300.

ところで、速報供給データ132が付加情報136を含む場合(図3参照)、速報情報抽出手段304等は付加情報136の内容に応じた処理を行う。例えば、上記例のように付加情報136によって出力方法が指示されている場合、速報情報抽出手段304は、その出力方法に従って速報コンテンツ138を合成手段400へ出力する。なお、速報供給データ132において出力方法の指示が無い場合、速報情報抽出手段304は、予め規定された出力方法で速報コンテンツ138を出力する。   By the way, when the bulletin supply data 132 includes the additional information 136 (see FIG. 3), the bulletin information extraction unit 304 and the like perform processing according to the content of the additional information 136. For example, when the output method is instructed by the additional information 136 as in the above example, the bulletin information extraction unit 304 outputs the bulletin content 138 to the synthesis unit 400 according to the output method. When there is no instruction for the output method in the breaking news supply data 132, the breaking news information extraction unit 304 outputs the breaking news content 138 by a predetermined output method.

また、例えば付加情報136によって合成方法が指示されている場合(換言すれば、合成方法を示すタグが設けられている場合)、速報情報抽出手段304がその付加情報136を合成手段400へ転送し、合成手段400が、指示された合成方法に従って合成処理を行うようにすることが可能である。   Further, for example, when the additional information 136 indicates the combining method (in other words, when a tag indicating the combining method is provided), the breaking information extraction unit 304 transfers the additional information 136 to the combining unit 400. The synthesizing unit 400 can perform the synthesizing process according to the instructed synthesizing method.

<合成手段400>
合成手段400は、主コンテンツ処理手段200から出力される主コンテンツ104と、速報情報処理手段300から出力される速報コンテンツ138とを、所定の合成処理に従って、あるいは、上記例のように速報供給データ132の付加情報136で指示された合成処理に従って合成する。そして、合成手段400は、合成したコンテンツ190をコンテンツ出力装置30へ出力する。ここで、合成手段400は速報情報処理手段300から速報コンテンツ138が入力された場合に当該合成処理を行う。これに対し、速報コンテンツ138が入力されていない場合、合成手段400は主コンテンツ104をそのままコンテンツ出力装置30へ出力する。
<Combining means 400>
The synthesizing unit 400 combines the main content 104 output from the main content processing unit 200 and the breaking news content 138 output from the breaking information processing unit 300 according to a predetermined combining process or as in the above example. The information is combined in accordance with the combining process designated by the additional information 136 of 132. Then, the combining unit 400 outputs the combined content 190 to the content output device 30. Here, the synthesis unit 400 performs the synthesis process when the breaking information 138 is input from the breaking information processing unit 300. On the other hand, when the breaking news content 138 is not input, the synthesizing unit 400 outputs the main content 104 to the content output device 30 as it is.

図1の例では、合成手段400は、視覚的コンテンツ合成手段402と、聴覚的コンテンツ合成手段404とを含んでいる。   In the example of FIG. 1, the synthesis unit 400 includes a visual content synthesis unit 402 and an audio content synthesis unit 404.

視覚的コンテンツ合成手段402は、主コンテンツ処理手段200から出力される主映像コンテンツ106と、速報情報処理手段300から出力される速報視覚的コンテンツ140とを合成することによって、合成視覚的コンテンツ192を生成する。なお、視覚的コンテンツ合成手段402は、速報視覚的コンテンツ140の入力が無い場合、主映像コンテンツ106をそのまま出力する。   The visual content synthesizing unit 402 synthesizes the synthesized visual content 192 by synthesizing the main video content 106 output from the main content processing unit 200 and the breaking visual content 140 output from the breaking information processing unit 300. Generate. The visual content composition unit 402 outputs the main video content 106 as it is when the breaking visual content 140 is not input.

聴覚的コンテンツ合成手段404は、主コンテンツ処理手段200から出力される主音声コンテンツ108と、速報情報処理手段300から出力される速報聴覚的コンテンツ142とを合成することによって、合成聴覚的コンテンツ194を生成する。すなわち、合成視覚的コンテンツ192と合成聴覚的コンテンツ194によって合成コンテンツ190が構成される。なお、聴覚的コンテンツ合成手段404は、速報聴覚的コンテンツ142の入力が無い場合、主音声コンテンツ108をそのまま出力する。   The audio content synthesizing unit 404 synthesizes the synthesized audio content 194 by synthesizing the main audio content 108 output from the main content processing unit 200 and the breaking audio content 142 output from the breaking information processing unit 300. Generate. That is, the synthesized content 190 is composed of the synthesized visual content 192 and the synthesized auditory content 194. Note that the auditory content synthesizing unit 404 outputs the main audio content 108 as it is when the breaking audio content 142 is not input.

主映像コンテンツ106と速報視覚的コンテンツ140の合成手法として、両コンテンツ106,140を重畳する手法が例示される(オーバーレイ合成)。この場合、上側のレイヤーの透過率の設定によって、重畳具合を調整することが可能である。例えば速報視覚的コンテンツ140を上側レイヤーに設定した場合、上側の速報視覚的コンテンツ140の透過率が大きいほど下側の主映像コンテンツ106の表示が優先され、逆に上側の速報視覚的コンテンツ140の透過率が小さいほど当該速報視覚的コンテンツ140の表示が優先される。   As a method of combining the main video content 106 and the breaking visual content 140, a method of superimposing the two contents 106 and 140 is exemplified (overlay combining). In this case, the degree of superposition can be adjusted by setting the transmittance of the upper layer. For example, when the breaking visual content 140 is set as the upper layer, the display of the lower main video content 106 is given priority as the transmittance of the upper breaking visual content 140 increases, and conversely, the upper breaking visual content 140 The display of the breaking visual content 140 is prioritized as the transmittance is smaller.

また、主映像コンテンツ106と速報視覚的コンテンツ140の合成手法として、両コンテンツ106,140の表示領域を分割する手法が例示される(表示領域分割合成)。この合成手法による表示画面の一例を図4の模式図に示す。   Further, as a method for synthesizing the main video content 106 and the breaking visual content 140, a method for dividing the display areas of both contents 106 and 140 is exemplified (display area division synthesis). An example of the display screen by this synthesis method is shown in the schematic diagram of FIG.

また、速報視覚的コンテンツ140が映像とグラフィックの両方を含む場合、予め設定された選択規則やユーザーの切り替え指示等に従って映像とグラフィックのいずれかを選択し、選択されたコンテンツを主映像コンテンツ106に合成してもよい(選択合成)。   In addition, when the breaking visual content 140 includes both video and graphics, either video or graphics is selected according to a preset selection rule, a user switching instruction, or the like, and the selected content is set as the main video content 106. It may be synthesized (selective synthesis).

なお、主映像コンテンツ106と速報視覚的コンテンツ140は、他の手法によって合成しても構わないし、種々の手法の組み合わせによって合成しても構わない。   Note that the main video content 106 and the breaking visual content 140 may be synthesized by other methods, or may be synthesized by a combination of various methods.

主音声コンテンツ108と速報聴覚的コンテンツ142の合成手法として、両コンテンツ108,142を重畳する手法が例示される(ミキシング合成)。この場合、ミキシング比率の設定によって、重畳具合を調整することが可能である。主音声コンテンツ108の比率が大きいほど当該コンテンツ108が感知されやすくなり、逆に速報聴覚的コンテンツ142の比率が大きいほど当該コンテンツ142が感知されやすくなる。   As a method of synthesizing the main audio content 108 and the breaking audio content 142, a method of superimposing both contents 108 and 142 is exemplified (mixing synthesis). In this case, the degree of superimposition can be adjusted by setting the mixing ratio. The larger the ratio of the main audio content 108, the easier the perception of the content 108, and conversely, the greater the ratio of the breaking audio content 142, the easier the perception of the content 142.

また、主音声コンテンツ108と速報聴覚的コンテンツ142の合成手法として、主音声コンテンツ108の途中に速報聴覚的コンテンツ142を割り込ませることによって、両コンテンツ108,142を時分割で重畳する手法が例示される(割り込み合成)。   Further, as a method of synthesizing the main audio content 108 and the breaking audio content 142, a method of superimposing both contents 108 and 142 in a time division manner by interrupting the breaking audio content 142 in the middle of the main audio content 108 is exemplified. (Interrupt synthesis).

また、聴覚的出力手段34が複数のチャンネルを有する場合、主音声コンテンツ108と速報聴覚的コンテンツ142を別々のチャンネルに割り当てることによって両コンテンツ108,142を重畳する手法が例示される(チャンネル分割合成)。なお、複数のチャンネルは、例えば左スピーカー用および右スピーカー用であってもよいし、あるいは、例えば主音声コンテンツ108に割り当てられたスピーカー用および速報聴覚的コンテンツ142に割り当てられたスピーカー用であってもよい。   Further, when the audio output means 34 has a plurality of channels, a method of superimposing both contents 108 and 142 by assigning the main audio content 108 and the breaking audio content 142 to different channels is exemplified (channel division synthesis). ). The plurality of channels may be for the left speaker and the right speaker, for example, or may be for the speaker assigned to the main audio content 108 and the speaker assigned to the breaking audio content 142, for example. Also good.

なお、主音声コンテンツ108と速報聴覚的コンテンツ142は、他の手法によって合成しても構わないし、種々の手法の組み合わせによって合成しても構わない。   Note that the main audio content 108 and the breaking auditory content 142 may be synthesized by other methods, or may be synthesized by a combination of various methods.

<操作手段>
操作手段(図示略)は、コンテンツ再生処理装置20とユーザーとを繋ぐマン・マシン・インターフェースである。操作手段を介して入力されたユーザー指示は再生処理装置20での各種処理に供される。例えば、ユーザーが操作手段を操作して再生対象のコンテンツ102を指定することにより、その指示は主コンテンツ処理手段200へ伝達されコンテンツ102のダウンロード処理に供される。操作手段は、リモートコントローラ、装置筐体に設けられる操作パネル、キーボード、マウス等によって実現可能である。なお、操作手段は再生処理装置20とコンテンツ出力装置30で共用しても構わない。
<Operation means>
The operation means (not shown) is a man-machine interface that connects the content reproduction processing apparatus 20 and the user. User instructions input via the operation means are used for various processes in the playback processing apparatus 20. For example, when the user operates the operation means to specify the content 102 to be reproduced, the instruction is transmitted to the main content processing means 200 and used for the content 102 download processing. The operation means can be realized by a remote controller, an operation panel provided on the apparatus housing, a keyboard, a mouse, or the like. The operation means may be shared by the reproduction processing device 20 and the content output device 30.

<効果>
上記例によれば、速報情報処理手段300および合成手段400が設けられているので、速報情報を含まないコンテンツ102の再生中であっても速報情報をユーザーに提供することができる。これにより利便性が向上する。
<Effect>
According to the above example, since the breaking information processing means 300 and the synthesizing means 400 are provided, the breaking information can be provided to the user even during the reproduction of the content 102 that does not include the breaking information. This improves convenience.

<実施の形態1の変形例1>
上記では、コンテンツ源100が、インターネット経由で接続された、VODサービス提供者のコンテンツ配信サーバーである場合を例示した。これに対し、コンテンツ源100はLAN(Local Area Network)に接続されたコンテンツ配信サーバーであっても構わないし、コンテンツ源100から取得する再生対象コンテンツ102はVODサービスのためのコンテンツでなくても構わない。
<Modification 1 of Embodiment 1>
In the above, the case where the content source 100 is the content distribution server of the VOD service provider connected via the Internet has been illustrated. On the other hand, the content source 100 may be a content distribution server connected to a LAN (Local Area Network), and the reproduction target content 102 acquired from the content source 100 may not be content for the VOD service. Absent.

さらに、コンテンツ源100はブルーレイディスク(商標)等の蓄積メディアであってもよい。また、再生対象コンテンツ102はテレビジョン放送を蓄積メディア(光ディスク、ハードディスク等)に録画したコンテンツであってもよい。   Further, the content source 100 may be a storage medium such as a Blu-ray Disc (trademark). Further, the reproduction target content 102 may be a content obtained by recording a television broadcast on a storage medium (such as an optical disk or a hard disk).

つまり、再生対象コンテンツ102は、その再生中に発生する速報情報をリアルタイムに含み得なければ、供給源、供給目的等に依存しない。   That is, the reproduction target content 102 does not depend on the supply source, the supply purpose, or the like unless it can include the breaking information generated during the reproduction in real time.

なお、コンテンツ源100が各種の蓄積メディアである場合、例えば、コンテンツ取得手段202を蓄積メディアの読み取り機能を有した装置として構成可能である。あるいは、再生処理装置20の外部に設けられた機器で蓄積メディアを再生する場合、コンテンツ取得手段202は当該外部再生機器と再生処理装置20とのインターフェースとして構成される。   When the content source 100 is various storage media, for example, the content acquisition unit 202 can be configured as an apparatus having a storage media reading function. Alternatively, when the storage medium is played back by a device provided outside the playback processing device 20, the content acquisition unit 202 is configured as an interface between the external playback device and the playback processing device 20.

<実施の形態1の変形例2>
上記では速報コンテンツ138が視覚的コンテンツ140と聴覚的コンテンツ142の少なくとも一方を含む場合を例示した。これに対し、速報コンテンツ138が視覚的コンテンツ140を含まない規格を採用することも可能であり、そのような規格の場合は視覚的コンテンツ合成手段402を省略してもよい。この場合、主映像コンテンツ106がそのまま出力される。逆に、速報コンテンツ138が聴覚的コンテンツ142を含まない規格の場合、聴覚的コンテンツ合成手段404を省略してもよい。この場合、主音声コンテンツ108がそのまま出力される。
<Modification 2 of Embodiment 1>
In the above, the case where the breaking news content 138 includes at least one of the visual content 140 and the auditory content 142 is illustrated. On the other hand, it is possible to adopt a standard in which the bulletin content 138 does not include the visual content 140, and in such a standard, the visual content synthesis unit 402 may be omitted. In this case, the main video content 106 is output as it is. Conversely, if the breaking news content 138 is a standard that does not include the audio content 142, the audio content synthesis means 404 may be omitted. In this case, the main audio content 108 is output as it is.

<実施の形態1の変形例3>
上記では再生対象コンテンツ102が視覚的コンテンツと聴覚的コンテンツの両方を含む場合を例示した。これに対し、主コンテンツ処理手段200を、視覚的コンテンツを含まないコンテンツ102専用に変形することも可能である。逆に、主コンテンツ処理手段200を、聴覚的コンテンツを含まないコンテンツ102専用に変形することも可能である。但し、これらの例の場合でも、速報情報処理手段300、合成手段400およびコンテンツ出力装置30の構成は、上記変形例2に応じて構成される。
<Modification 3 of Embodiment 1>
In the above, the case where the reproduction target content 102 includes both visual content and audio content is illustrated. On the other hand, the main content processing means 200 can be modified exclusively for the content 102 that does not include visual content. Conversely, the main content processing means 200 can be modified exclusively for the content 102 that does not include auditory content. However, even in these examples, the configuration of the bulletin information processing unit 300, the synthesizing unit 400, and the content output device 30 is configured according to the second modification.

なお、例えば、主コンテンツ104が映像コンテンツ106のみで構成され、速報コンテンツ138が聴覚的コンテンツ142のみで構成される場合であっても、両コンテンツ104,138が合成されることによって合成コンテンツ190が生成される。すなわち、この例の場合、合成コンテンツ190は、主映像コンテンツ106で構成された合成視覚的コンテンツ192と、速報聴覚的コンテンツ142で構成された合成聴覚的コンテンツ194とを含む。   Note that, for example, even if the main content 104 is composed only of the video content 106 and the breaking news content 138 is composed only of the auditory content 142, the composite content 190 is obtained by combining both the content 104 and 138. Generated. That is, in this example, the synthesized content 190 includes a synthesized visual content 192 composed of the main video content 106 and a synthesized auditory content 194 composed of the breaking audio content 142.

<実施の形態2>
実施の形態1では、速報情報源130がそれ専用のサーバー(速報情報専用サーバー)である場合を例示した。これに対し、速報情報源130として、インターネット上に公開された1つまたは複数のウェブサイトを利用することも可能である。この場合、例えば、速報情報抽出手段304は、速報供給データ取得手段302を介して公開ウェブサイトに定期的または不定期にアクセスし、速報供給データ132の存否を確認し、新しい速報供給データ132が在ればそれを取得する。ウェブサイトとのインターネット通信は例えばHTTP(HyperText Transfer Protocol)によって行うことが可能であり、あるいは他のプロトコルを利用しても構わない。
<Embodiment 2>
In the first embodiment, the case where the breaking information source 130 is a dedicated server (breaking information dedicated server) is exemplified. On the other hand, it is also possible to use one or a plurality of websites published on the Internet as the bulletin information source 130. In this case, for example, the bulletin information extraction unit 304 accesses the public website regularly or irregularly via the bulletin supply data acquisition unit 302, confirms the presence or absence of the bulletin supply data 132, and the new bulletin supply data 132 is Get it if you are. Internet communication with the website can be performed by, for example, HTTP (HyperText Transfer Protocol), or other protocols may be used.

また、速報情報源130として利用する1つまたは複数のウェブサイトは予め選定しておく例が挙げられる。この場合、選定したウェブサイトのインターネット上の所在は例えばコンテンツ再生処理装置20内の不揮発性メモリ(図示略)に保存され、アクセス時に利用される。   In addition, an example in which one or a plurality of websites used as the bulletin information source 130 is selected in advance can be given. In this case, the location of the selected website on the Internet is stored in, for example, a non-volatile memory (not shown) in the content reproduction processing device 20 and used at the time of access.

あるいは、ウェブ検索API(Application Program Interface)等の手法によって得られた検索結果に含まれている1つまたは複数のウェブサイトを、速報情報源130として利用する例が挙げられる。なお、ウェブ検索APIによれば文字列(キーワード)だけでなく動画像や静止画像も検索可能である。   Alternatively, an example in which one or a plurality of websites included in a search result obtained by a technique such as a web search API (Application Program Interface) is used as the breaking information source 130 can be given. According to the web search API, not only a character string (keyword) but also a moving image and a still image can be searched.

上記のように速報供給データ132の形式として、例えばXMLのようなタグ言語が例示される。特に速報情報に関連する地域(例えば、事件等が発生した地名、速報情報の発信国、等)が記述されるタグを設け、当該地域情報タグを速報供給データ132の解析に利用してもよい。すなわち、当該地域情報タグは、インターネット上から収集される全世界的な速報情報の中から、ユーザーに好適な情報を抽出するのに役立つ。   As described above, the format of the bulletin supply data 132 is exemplified by a tag language such as XML. In particular, a tag describing the area related to the breaking information (for example, the name of the place where the incident occurred, the country where the breaking information is transmitted, etc.) may be provided, and the area information tag may be used for analyzing the breaking news supply data 132. . That is, the regional information tag is useful for extracting information suitable for the user from the worldwide breaking information collected from the Internet.

上記例によれば、実施の形態1と同様に、速報情報を含まないコンテンツ102の再生中であっても速報情報をユーザーに提供することができ、利便性が向上する。上記例は、特に速報情報専用サーバーが準備されない環境に好適である。   According to the above example, as in the first embodiment, the bulletin information can be provided to the user even during the reproduction of the content 102 that does not include the bulletin information, and convenience is improved. The above example is particularly suitable for an environment where a dedicated server for breaking information is not prepared.

なお、実施の形態1,2を組み合わせてコンテンツ再生処理装置を構成することも可能である。   It is also possible to configure a content reproduction processing apparatus by combining the first and second embodiments.

<実施の形態3>
実施の形態1,2では速報情報源130がインターネット上のサーバーまたはウェブサイトである場合を例示した。これに対し、実施の形態3では速報情報源130が放送事業者であり、当該放送事業者から速報情報を取得する場合を例示する。例えば、再生対象コンテンツ102に所定の放送事業者を予め関連付けておくことにより、当該放送事業者を速報情報源130として利用可能である。
<Embodiment 3>
In the first and second embodiments, the case where the breaking information source 130 is a server or a website on the Internet is exemplified. On the other hand, in the third embodiment, the case where the breaking information source 130 is a broadcasting company and the breaking information is acquired from the broadcasting company is exemplified. For example, by associating a predetermined broadcaster with the reproduction target content 102 in advance, the broadcaster can be used as the breaking information source 130.

より具体的には、コンテンツ源100のコンテンツ102を、再生制御メタファイルを使って再生する例が挙げられる。再生制御メタファイルによれば、例えばコンテンツ102の配信事業者、制作事業者、権利主体等(以下、コンテンツ事業者と総称する)を特定するための情報(以下、コンテンツ事業者情報とも称する)用のタグを設けることが可能であり、そのタグにコンテンツ事業者情報を記述すればよい。これにより、再生対象コンテンツ102と所定のコンテンツ事業者とを関連付けることが可能である。さらに、コンテンツ事業者情報と、所定の放送事業者(例えば、地上デジタルテレビジョン放送の事業者、CATV事業者等)を特定するための情報(以下、放送事業者情報とも称する)とを、予め関連付けておくことにより、コンテンツ事業者情報を介して再生対象コンテンツ102と所定の放送事業者とを間接的に関連付けることが可能である。なお、コンテンツ事業者と放送事業者との関連付けの情報は、VODサービス提供者が提供してもよいし、他の事業者が提供してもよい。   More specifically, there is an example in which the content 102 of the content source 100 is reproduced using a reproduction control metafile. According to the reproduction control metafile, for example, for information (hereinafter also referred to as content provider information) for specifying a content provider, a production provider, a right subject, etc. (hereinafter collectively referred to as a content provider). This tag can be provided, and content provider information may be described in the tag. As a result, it is possible to associate the reproduction target content 102 with a predetermined content provider. Further, content provider information and information (hereinafter also referred to as broadcaster information) for specifying a predetermined broadcaster (for example, a digital terrestrial television broadcaster, a CATV operator, etc.) By associating, it is possible to indirectly associate the reproduction target content 102 with a predetermined broadcaster via the content provider information. Note that the information regarding the association between the content provider and the broadcaster may be provided by the VOD service provider or another provider.

あるいは、再生制御メタファイルに上記放送事業者情報を記述するためのタグを設けて、再生対象コンテンツ102と所定の放送事業者とを直接的に関連付けてもよい。   Alternatively, a tag for describing the broadcaster information may be provided in the reproduction control metafile, and the reproduction target content 102 and a predetermined broadcaster may be directly associated with each other.

なお、再生対象コンテンツ102と、速報情報源130として利用する放送事業者との関連付けは、再生制御メタファイル以外の手法を採用しても構わない。   It should be noted that a method other than the reproduction control metafile may be employed for associating the reproduction target content 102 with the broadcaster used as the breaking news information source 130.

図5に実施の形態3に係るコンテンツ再生処理装置20Bのブロック図を例示する。当該再生処理装置20Bは上記再生処理装置20(図1参照)において速報情報処理手段300を速報情報処理手段300Bに変更した構成を有している。再生処理装置20Bのその他の部分は基本的に上記再生処理装置20と同様に構成され、上記再生処理装置20と同様に動作する。なお、再生処理装置20Bは上記再生処理装置20に代えてコンテンツ再生システム10(図1参照)に適用可能である。   FIG. 5 illustrates a block diagram of a content reproduction processing apparatus 20B according to the third embodiment. The reproduction processing apparatus 20B has a configuration in which the breaking information processing means 300 is changed to breaking information processing means 300B in the reproduction processing apparatus 20 (see FIG. 1). The other parts of the playback processing device 20B are basically configured in the same manner as the playback processing device 20 and operate in the same manner as the playback processing device 20. Note that the reproduction processing device 20B can be applied to the content reproduction system 10 (see FIG. 1) in place of the reproduction processing device 20.

実施の形態3に係る速報情報処理手段300Bは、速報供給データ取得手段302Bと、速報情報抽出手段304Bとを含んでいる。   The bulletin information processing unit 300B according to the third embodiment includes a bulletin supply data acquisition unit 302B and a bulletin information extraction unit 304B.

速報供給データ取得手段302Bは、放送事業者から速報供給データ132を取得するための手段であり、例えば地上デジタルテレビジョンの放送波(換言すれば放送信号)を受信するためのフロントエンドモジュールに対応する。なお、例えば速報情報源130がCATV事業者である場合、速報供給データ取得手段302BはCATVの放送信号に合わせて構成される。   The bulletin supply data acquisition unit 302B is a unit for acquiring the bulletin supply data 132 from the broadcaster and corresponds to, for example, a front-end module for receiving a broadcast wave (in other words, a broadcast signal) of terrestrial digital television. To do. For example, when the breaking news information source 130 is a CATV provider, the breaking news supply data acquisition unit 302B is configured in accordance with a CATV broadcast signal.

速報情報抽出手段304Bは、再生対象コンテンツ102に関連付けられた放送事業者を特定するとともに、特定された放送事業者による放送を、速報供給データ取得手段302Bを介して取得し、取得した放送から速報情報を抽出する。つまり、受信放送を速報供給データ132として利用する。   The bulletin information extraction unit 304B identifies the broadcaster associated with the playback target content 102, acquires the broadcast by the identified broadcaster via the bulletin supply data acquisition unit 302B, and obtains the bulletin from the acquired broadcast. Extract information. That is, the received broadcast is used as the breaking news supply data 132.

速報情報抽出手段304Bは、図5の例では、放送事業者特定手段310と、放送TS分離手段312と、映像処理手段314と、音声処理手段316と、文字スーパー処理手段318とを含んでいる。   In the example of FIG. 5, the bulletin information extraction unit 304B includes a broadcaster identification unit 310, a broadcast TS separation unit 312, a video processing unit 314, an audio processing unit 316, and a character super processing unit 318. .

放送事業者特定手段310は、例えば、主コンテンツ処理手段200から(実施の形態1の例によればコンテンツ取得手段202またはコンテンツ再生手段204から)上記コンテンツ事業者情報110を取得し、取得したコンテンツ事業者情報110から、再生対象コンテンツ102に関連付けられた所定の放送事業者を特定する。   The broadcast provider specifying unit 310 acquires the content provider information 110 from the main content processing unit 200 (from the content acquisition unit 202 or the content reproduction unit 204 according to the example of Embodiment 1), for example, and acquires the acquired content. A predetermined broadcaster associated with the reproduction target content 102 is specified from the provider information 110.

なお、コンテンツ事業者と放送事業者との関連付けの情報は、再生処理装置20B内に予めダウンロードしておいてもよいし、あるいは、放送事業者特定手段310が、必要時にその都度、コンテンツ取得手段202を介して取得するようにしてもよい。   Note that the information on the association between the content provider and the broadcaster may be downloaded in advance into the reproduction processing apparatus 20B, or the broadcaster specifying means 310 may obtain the content acquisition means whenever necessary. You may make it acquire via 202.

あるいは、放送事業者特定手段310が主コンテンツ処理手段200から上記放送事業者情報112自体を取得するように構成することも可能である。   Alternatively, the broadcast provider specifying unit 310 may be configured to acquire the broadcast provider information 112 itself from the main content processing unit 200.

再生対象コンテンツ102に関連付けられた放送事業者が特定されると、放送事業者特定手段310は、速報供給データ取得手段302Bによる受信チャンネルを、特定された放送事業者に選局する。これにより、速報供給データ取得手段302Bは、特定された放送事業者の放送を受信可能になる。受信した放送信号は復調、エラー訂正等の処理が施されて、放送TS分離手段312へ伝達される。   When the broadcaster associated with the content to be reproduced 102 is specified, the broadcaster specifying unit 310 selects the channel received by the breaking news supply data acquiring unit 302B as the specified broadcaster. Thereby, the bulletin supply data acquisition unit 302B can receive the broadcast of the specified broadcaster. The received broadcast signal is subjected to processing such as demodulation and error correction, and is transmitted to the broadcast TS separation means 312.

放送TS分離手段312は、TS形式の放送信号から映像のTSパケットと音声のTSパケットを分離する。ここでは放送信号が文字スーパー用のパケットも含むものとし、文字スーパー用のTSパケットも放送TS分離手段312において分離される。   Broadcast TS separation means 312 separates video TS packets and audio TS packets from TS-format broadcast signals. Here, it is assumed that the broadcast signal includes a packet for text super, and the TS packet for text super is also separated by the broadcast TS separation means 312.

映像処理手段314は、分離された映像パケットを復号し、復号した映像中から速報情報を抽出し、抽出した速報情報を速報視覚的コンテンツ140として合成手段400へ出力する。   The video processing unit 314 decodes the separated video packet, extracts the breaking information from the decoded video, and outputs the extracted breaking information as the breaking visual content 140 to the synthesizing unit 400.

音声処理手段316は、分離された音声パケットを復号し、復号した音声中から速報情報を抽出し、抽出した速報情報を速報聴覚的コンテンツ142として合成手段400へ出力する。   The audio processing unit 316 decodes the separated audio packet, extracts the breaking information from the decoded sound, and outputs the extracted breaking information as the breaking audio content 142 to the synthesizing unit 400.

文字スーパー処理手段318は、分離された文字スーパーパケットを復号し、復号したデータ中から速報情報を抽出し、抽出した速報情報を速報視覚的コンテンツ140として合成手段400へ出力する。   The character super processing unit 318 decodes the separated character super packet, extracts the breaking information from the decoded data, and outputs the extracted breaking information as the breaking visual content 140 to the synthesizing unit 400.

なお、速報情報は映像、音声および文字スーパーの全てから得られる場合もあるし、これらのうちの一部だけから速報情報が得られる場合もある。また、これらのうちのいずれからも速報情報が得られない場合もある(例えば、速報情報が元々含まれていない場合)。   Note that the breaking information may be obtained from all of video, audio, and text supervision, or the breaking information may be obtained from only some of them. In some cases, the breaking information cannot be obtained from any of these (for example, the breaking information is not originally included).

以下では、まず文字スーパー処理手段318での処理を、より具体的に例示する。受信した文字スーパーのデータは、表示すべき文字列のデータの他に、付加情報(例えば、表示位置、表示タイミング、内蔵音の再生等についての指示情報)を含んでいる場合がある。この場合、文字スーパー処理手段318は、受信データのデータ構造(予め規定されている)を解析することによって表示文字列のデータを抽出し、抽出した文字列をグラフィックとして構築し、生成したグラフィックを速報視覚的コンテンツ140として出力する。   In the following, the processing in the character super processing means 318 will be illustrated more specifically. The received character super data may contain additional information (for example, instruction information about display position, display timing, reproduction of built-in sound, etc.) in addition to character string data to be displayed. In this case, the character super processing means 318 extracts display character string data by analyzing the data structure (predefined) of the received data, constructs the extracted character string as a graphic, and generates the generated graphic. Output as breaking visual content 140.

この際、例えば、受信した文字列が速報情報に特徴的な文字列(「速報」、「地震」、「災害」、「津波」等)を含んでいるか否かを文字検索によって判別し、そのような特徴的な文字列を含んでいる部分を速報情報として抽出してもよい。   At this time, for example, it is determined by character search whether the received character string includes character strings ("breaking news", "earthquake", "disaster", "tsunami", etc.) characteristic of the breaking news information, A part including such a characteristic character string may be extracted as breaking information.

また、付加情報に表示タイミングの指示情報が含まれている場合、文字スーパー処理手段318はその表示タイミング指示に合わせて速報視覚的コンテンツ140を出力する。   If the additional information includes display timing instruction information, the character super processing means 318 outputs the breaking visual content 140 in accordance with the display timing instruction.

次に、映像処理手段314での処理を、より具体的に例示する。特に受信映像に速報情報がテロップとして重畳されている場合、そのようなテロップの存在を解析することによって速報情報の抽出が可能である。例えば光学文字認識等の解析手法によれば、映像中の文字列を抽出可能である。映像処理手段314は、抽出した文字列をグラフィックとして構築し、生成したグラフィックを速報視覚的コンテンツ140として出力する。   Next, the processing in the video processing unit 314 will be illustrated more specifically. In particular, when breaking information is superimposed as a telop on the received video, it is possible to extract the breaking information by analyzing the presence of such a telop. For example, according to an analysis method such as optical character recognition, a character string in an image can be extracted. The video processing unit 314 constructs the extracted character string as a graphic, and outputs the generated graphic as the breaking visual content 140.

この際、例えば、抽出した文字列が速報情報に特徴的な文字列(「速報」、「地震」、「災害」、「津波」等)を含んでいるか否かを文字検索によって判別し、そのような特徴的な文字列を含んでいる部分を速報情報として抽出してもよい。   At this time, for example, it is determined by character search whether or not the extracted character string includes a character string characteristic in the breaking information (“breaking”, “earthquake”, “disaster”, “tsunami”, etc.) A part including such a characteristic character string may be extracted as breaking information.

また、速報情報のテロップは例えば画面上側に表示されることが多いので、その部分に表示される文字列を速報情報として抽出してもよい。   In addition, since the telop of breaking information is often displayed on the upper side of the screen, for example, a character string displayed in that portion may be extracted as breaking information.

次に、音声処理手段316での処理を、より具体的に例示する。特に受信音声に速報情報が含まれている場合、音声出力の冒頭に速報情報に特徴的な音声(チャイム音、アラーム音等)を含み、しかもそのよう特徴的な音声は定型化されていることが多い。このため、そのような特徴的な定型音声を受信音声中から検出することによって速報情報の抽出が可能である。特徴的な定型音声の検出は、例えば、当該定型音声のデータをコンテンツ再生処理装置20Bに予め与えておき、当該定型音声データと受信音声データとを比較する解析手法によって、行うことが可能である。   Next, the process in the audio processing unit 316 will be illustrated more specifically. In particular, when breaking information is included in the received voice, the beginning of the sound output includes a sound (chime sound, alarm sound, etc.) that is characteristic of the breaking information, and such characteristic sound is stylized. There are many. For this reason, it is possible to extract the bulletin information by detecting such a characteristic routine voice from the received voice. The characteristic fixed sound can be detected by, for example, an analysis method in which the fixed sound data is given to the content reproduction processing apparatus 20B in advance and the fixed sound data and the received sound data are compared. .

音声処理手段316は、例えば特徴的な定型音声の検出位置から所定の時間長さ分の音声を速報情報として抽出し、抽出した速報情報を速報聴覚コンテンツ142として出力する。   The audio processing unit 316 extracts, for example, a predetermined amount of time of sound from the detection position of the characteristic fixed sound as breaking information, and outputs the extracted breaking information as the breaking auditory content 142.

なお、当該3つの処理手段314,316,318のうちの2つまたは3つが互いの処理結果等を参照することによって、受信放送における速報情報の挿入部分をより確実に特定することができる。   Note that two or three of the three processing units 314, 316, and 318 refer to each other's processing results and the like, so that it is possible to more reliably specify the portion where the breaking information is inserted in the received broadcast.

上記例によれば、実施の形態1と同様に、速報情報を含まないコンテンツ102の再生中であっても速報情報をユーザーに提供することができ、利便性が向上する。特に地上デジタルテレビジョン放送の例によれば、文字スーパー、テロップおよび音声という多彩な情報源を利用して速報情報の抽出処理を行うことが可能であるので、速報情報をより確実に提供することができる。   According to the above example, as in the first embodiment, the bulletin information can be provided to the user even during the reproduction of the content 102 that does not include the bulletin information, and convenience is improved. In particular, according to the example of digital terrestrial television broadcasting, it is possible to extract the breaking information using a variety of information sources such as text super, telop and voice, so that the breaking information can be provided more reliably. Can do.

なお、実施の形態1〜3を種々に組み合わせてコンテンツ再生処理装置を構成することも可能である。   It should be noted that the content reproduction processing apparatus can be configured by variously combining the first to third embodiments.

<実施の形態3の変形例1>
上記では、再生対象コンテンツ102をインターネット経由で取得する場合を例示した。これに対し、LANに接続されたコンテンツ配信サーバーから再生対象コンテンツ102を取得する場合、UPnP(Universal Plug and Play)等のプロトコルを使ってコンテンツ配信サーバーから、再生中のコンテンツに関連する放送事業者情報112をメタファイル等の形式によって取得する変形例が挙げられる。
<Modification 1 of Embodiment 3>
In the above, the case where the reproduction target content 102 is acquired via the Internet has been exemplified. On the other hand, when the playback target content 102 is acquired from a content distribution server connected to the LAN, a broadcaster related to the content being played back from the content distribution server using a protocol such as UPnP (Universal Plug and Play). A modification in which the information 112 is acquired in the form of a metafile or the like is given.

また、HDMI(High-Definition Multimedia Interface)等によって接続された外部機器から再生対象コンテンツ102を取得する場合、CEC(Consumer Electronics Control)等のコマンドによって、再生中のコンテンツに関連する放送事業者情報112を取得する変形例が挙げられる。   In addition, when the playback target content 102 is acquired from an external device connected by HDMI (High-Definition Multimedia Interface) or the like, broadcaster information 112 related to the content being played back by a command such as CEC (Consumer Electronics Control) or the like. The modification which acquires is mentioned.

また、テレビジョン放送等を録画したコンテンツを再生対象コンテンツ102とする場合、録画手段が録画の際に、その放送事業者についての放送事業者情報112を、録画コンテンツとともにあるいは録画コンテンツとは別に記録しておく変形例が挙げられる。   In addition, when the content recorded from a television broadcast or the like is set as the content to be played back 102, when the recording unit performs recording, the broadcaster information 112 about the broadcaster is recorded together with the recorded content or separately from the recorded content. A modification example is given.

<実施の形態4>
図6に実施の形態4に係るコンテンツ再生処理装置20Cのブロック図を例示する。当該再生処理装置20Cは上記再生処理装置20(図1参照)に音声追加手段600を追加した構成を有している。なお、再生処理装置20Cは上記再生処理装置20に代えてコンテンツ再生システム10(図1参照)に適用可能である。
<Embodiment 4>
FIG. 6 illustrates a block diagram of a content reproduction processing apparatus 20C according to the fourth embodiment. The reproduction processing apparatus 20C has a configuration in which an audio adding means 600 is added to the reproduction processing apparatus 20 (see FIG. 1). The reproduction processing device 20C can be applied to the content reproduction system 10 (see FIG. 1) instead of the reproduction processing device 20.

音声追加手段600は、再生処理装置20Cが速報情報を出力していることをユーザーに通知するための音声コンテンツ(換言すれば聴覚的コンテンツ)を生成する手段である。より具体的には、音声再生手段600は、速報情報処理手段300による速報コンテンツ138の出力を通知する情報(速報コンテンツ出力通知情報とも称する)150を速報情報処理手段300から取得し、取得した速報コンテンツ出力通知情報150に基づいて追加音声コンテンツ170を合成手段400へ出力する。   The audio adding unit 600 is a unit that generates audio content (in other words, auditory content) for notifying the user that the reproduction processing device 20C is outputting breaking information. More specifically, the audio reproduction means 600 acquires information (also referred to as “breaking content output notification information”) 150 for notifying the output of the breaking content 138 by the breaking information processing means 300 from the breaking information processing means 300, and the obtained breaking information Based on the content output notification information 150, the additional audio content 170 is output to the synthesis unit 400.

音声追加手段600は、図6の例では、音声合成手段602と、内蔵音声供給手段604とを含んでいる。なお、これら2つの手段602,604のうちの一方を省略することも可能である。   In the example of FIG. 6, the voice adding unit 600 includes a voice synthesis unit 602 and a built-in voice supply unit 604. One of these two means 602 and 604 can be omitted.

音声合成手段602は、速報情報処理手段300から出力される速報コンテンツ138に含まれる文字列を音声コンテンツに変換する。より具体的には、音声合成手段602は、速報情報抽出手段304が速報視覚的コンテンツ140を生成する際に得られた、速報情報に関する文字列のデータを、当該速報情報抽出手段304から取得し、取得した文字列を例えばテキスト読み上げ技術等を利用して合成音声のデータに変換する。   The voice synthesizing unit 602 converts a character string included in the breaking news content 138 output from the breaking news information processing unit 300 into voice content. More specifically, the voice synthesizing unit 602 obtains, from the breaking information extracting unit 304, character string data related to breaking information obtained when the breaking information extracting unit 304 generates the breaking visual content 140. The acquired character string is converted into synthesized speech data using, for example, a text-to-speech technique.

この場合、速報視覚的コンテンツ140に含まれる文字列が速報情報抽出手段304から入力されることは、速報情報処理手段300が速報コンテンツ138を出力することの通知として利用可能である。かかる点に鑑みると、速報コンテンツ出力通知情報150は上記文字列データによって構成可能である。   In this case, the input of the character string included in the breaking news visual content 140 from the breaking information extraction unit 304 can be used as a notification that the breaking information processing unit 300 outputs the breaking content 138. In view of this point, the bulletin content output notification information 150 can be configured by the character string data.

また、音声合成手段602は、光学文字認識等の文字抽出技術をさらに利用することによって、速報情報抽出手段304から速報視覚的コンテンツ140として出力されるグラフィックまたはその元となった画像から、速報情報に関する文字列、すなわち音声化する文字列を抽出することも可能である。この場合、速報コンテンツ出力通知情報150は上記グラフィックまたはその元画像によって構成可能である。   Further, the speech synthesizing unit 602 further uses the character extraction technology such as optical character recognition to thereby obtain the breaking information from the graphic output from the breaking information extracting unit 304 as the breaking visual content 140 or the image based on the graphic. It is also possible to extract a character string relating to, i.e., a character string to be voiced. In this case, the bulletin content output notification information 150 can be configured by the graphic or its original image.

音声合成手段602によって生成された合成音声による音声コンテンツ172は聴覚的コンテンツ合成手段404へ入力される。   The audio content 172 based on the synthesized speech generated by the speech synthesis unit 602 is input to the auditory content synthesis unit 404.

内蔵音声供給手段604は、速報情報処理手段300から速報コンテンツ138が出力されるのに合わせて、予め内蔵された(例えば不図示の不揮発性メモリに予め格納された)音声コンテンツ174を出力する。音声コンテンツ174は例えばチャイム音、アラーム音、人の声によるアナウンス等である。内蔵音声コンテンツは所定の処理が施された後に出力される場合もある。   The built-in audio supply unit 604 outputs the audio content 174 built in advance (for example, stored in a nonvolatile memory (not shown)) in advance as the breaking information 138 is output from the breaking information processing unit 300. The audio content 174 is, for example, a chime sound, an alarm sound, a human voice announcement, or the like. The built-in audio content may be output after a predetermined process is performed.

内蔵音声供給手段604は、速報情報処理手段300による速報コンテンツ138の出力タイミングを、速報コンテンツ出力通知情報150の入力タイミングによって取得可能である。かかる点に鑑みると、内蔵音声供給手段604が利用する速報コンテンツ出力通知情報150はどのような情報で構成されていてもよい。このため、音声合成手段602が利用する速報コンテンツ出力通知情報150をそのまま内蔵音声供給手段604も利用可能である。すなわち、両手段602,604で同じ速報コンテンツ出力通知情報150を利用可能である。   The built-in audio supply unit 604 can acquire the output timing of the breaking content 138 by the breaking information processing unit 300 based on the input timing of the breaking content output notification information 150. In view of this point, the bulletin content output notification information 150 used by the built-in audio supply unit 604 may be composed of any information. For this reason, the built-in voice supply means 604 can be used as it is, with the bulletin content output notification information 150 used by the voice synthesis means 602 as it is. That is, the same bulletin content output notification information 150 can be used by both means 602 and 604.

内蔵音声供給手段604から出力された内蔵音声による音声コンテンツ174は、聴覚的コンテンツ合成手段404へ入力される。   The audio content 174 by the built-in sound output from the built-in sound supply unit 604 is input to the auditory content synthesis unit 404.

聴覚的コンテンツ合成手段404は、入力された聴覚的コンテンツ、すなわち主音声コンテンツ108と、速報聴覚的コンテンツ142と、合成音声による音声コンテンツ172と、内蔵音声による音声コンテンツ174とを合成し、得られた合成聴覚的コンテンツ194を出力する。   The audio content synthesizing unit 404 synthesizes the input audio content, that is, the main audio content 108, the breaking audio content 142, the audio content 172 by the synthesized audio, and the audio content 174 by the built-in audio. The synthesized audio content 194 is output.

上記例によれば、実施の形態1と同様に、速報情報を含まないコンテンツ102の再生中であっても速報情報をユーザーに提供することができ、利便性が向上する。特に音声追加手段600によって音声出力が追加されるので、速報情報を出力中であることをユーザーに通知することができる。例えば料理中である等の理由で画面を注視できない状況に好適であり、この点においても利便性が向上する。   According to the above example, as in the first embodiment, the bulletin information can be provided to the user even during the reproduction of the content 102 that does not include the bulletin information, and convenience is improved. In particular, since an audio output is added by the audio adding means 600, it is possible to notify the user that the breaking information is being output. For example, it is suitable for situations where the screen cannot be watched for reasons such as cooking, and this also improves convenience.

なお、実施の形態1〜4を種々に組み合わせてコンテンツ再生処理装置を構成することも可能である。   It should be noted that the content reproduction processing apparatus can be configured by variously combining the first to fourth embodiments.

本発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得るものと解される。   Although the present invention has been described in detail, the above description is illustrative in all aspects, and the present invention is not limited thereto. It is understood that countless variations that are not illustrated can be envisaged without departing from the scope of the present invention.

10 コンテンツ再生システム、20,20B,20C コンテンツ再生処理装置、30 コンテンツ出力装置、100 コンテンツ源、102 再生対象コンテンツ、104 主コンテンツ、110 コンテンツ事業者情報、112 放送事業者情報、130 速報情報源、132 速報供給データ、134 速報情報(速報情報本体)、138 速報コンテンツ、150 速報コンテンツ出力通知情報、170 追加音声コンテンツ、172 合成音声による音声コンテンツ、174 内蔵音声による音声コンテンツ、190 合成コンテンツ、200 主コンテンツ処理手段、300,300B 速報情報処理手段、302,302B 速報供給データ取得手段、304,304B 速報情報抽出手段、310 放送事業者特定手段、314 映像処理手段、316 音声処理手段、318 文字スーパー処理手段、400 合成手段、600 音声追加手段、602 音声合成手段、604 内蔵音声供給手段。   10 content playback system, 20, 20B, 20C content playback processing device, 30 content output device, 100 content source, 102 playback target content, 104 main content, 110 content provider information, 112 broadcast provider information, 130 breaking news source, 132 Bulletin Supply Data, 134 Bulletin Information (Bulk Bulletin Information Body), 138 Bulletin Content, 150 Bulletin Content Output Notification Information, 170 Additional Audio Content, 172 Audio Content with Synthetic Audio, 174 Audio Content with Built-in Audio, 190 Synthetic Content, 200 Content processing means, 300, 300B breaking information processing means, 302, 302B breaking news supply data obtaining means, 304, 304B breaking information extraction means, 310 broadcast provider identification means, 314 video processing Means, 316 voice processing means, 318 character super processing means, 400 synthesis means, 600 voice addition means, 602 voice synthesis means, 604 built-in voice supply means.

Claims (7)

再生対象のコンテンツをコンテンツ源から取得し、取得した前記コンテンツを再生して主コンテンツとして出力する主コンテンツ処理手段と、
前記再生対象コンテンツに含まれない速報情報を含んだ速報供給データを速報情報源から取得し、取得した前記速報供給データから前記速報情報を所定の抽出処理によって抽出し、抽出した前記速報情報を速報コンテンツとして出力する速報情報処理手段と、
前記速報情報処理手段から前記速報コンテンツが入力された場合には前記速報コンテンツを前記主コンテンツに合成し、得られた合成コンテンツを出力する一方で、前記速報コンテンツが入力されていない場合には前記主コンテンツを出力する合成手段と
を備えるコンテンツ再生処理装置。
Main content processing means for acquiring content to be played back from a content source, playing back the acquired content and outputting it as main content;
Breaking supply data including breaking information not included in the content to be reproduced is acquired from a breaking information source, the breaking information is extracted from the acquired breaking supply data by a predetermined extraction process, and the extracted breaking information is flashed Breaking information processing means to output as content,
When the breaking information is input from the breaking information processing means, the breaking content is combined with the main content, and the resultant combined content is output, while when the breaking content is not input, A content reproduction processing apparatus comprising: synthesis means for outputting main content.
請求項1に記載のコンテンツ再生処理装置であって、
前記速報情報源は、インターネット上に公開された1つまたは複数のウェブサイトであり、
前記速報情報処理手段は、前記1つまたは複数のウェブサイトから前記速報供給データを取得する、
コンテンツ再生処理装置。
The content reproduction processing apparatus according to claim 1,
The breaking information source is one or more websites published on the Internet;
The bulletin information processing means acquires the bulletin supply data from the one or more websites.
Content reproduction processing device.
請求項1または請求項2に記載のコンテンツ再生処理装置であって、
前記主コンテンツ処理手段が取得する前記再生対象コンテンツには、前記速報情報源として利用可能な所定の放送事業者が予め関連付けられており、
前記速報情報処理手段は、前記所定の放送事業者による放送を前記速報供給データとして利用する、
コンテンツ再生処理装置。
The content reproduction processing apparatus according to claim 1 or 2, wherein
The reproduction target content acquired by the main content processing means is associated in advance with a predetermined broadcaster that can be used as the breaking news information source,
The bulletin information processing means uses the broadcast by the predetermined broadcaster as the bulletin supply data,
Content reproduction processing device.
請求項3に記載のコンテンツ再生処理装置であって、
前記所定の放送事業者が送信する前記放送は、文字スーパー用のパケットを含み、
前記速報情報処理手段は、前記文字スーパー用パケットから前記速報情報を抽出する、
コンテンツ再生処理装置。
The content reproduction processing device according to claim 3,
The broadcast transmitted by the predetermined broadcaster includes a character super packet,
The breaking information processing means extracts the breaking information from the character super packet.
Content reproduction processing device.
請求項3または請求項4に記載のコンテンツ再生処理装置であって、
前記所定の放送事業者が送信する前記放送は、テロップが重畳された映像を含み、
前記速報情報処理手段は、前記テロップの文字列を前記速報情報として抽出する、
コンテンツ再生処理装置。
The content reproduction processing apparatus according to claim 3 or 4, wherein
The broadcast transmitted by the predetermined broadcaster includes a video on which a telop is superimposed,
The breaking information processing means extracts the character string of the telop as the breaking information,
Content reproduction processing device.
請求項1ないし請求項5のうちのいずれか1項に記載のコンテンツ再生処理装置であって、
前記速報コンテンツに含まれる文字列を音声コンテンツに変換して出力する音声合成手段と、前記速報情報処理手段から前記速報コンテンツが出力されるのに合わせて、予め内蔵された音声コンテンツを出力する内蔵音声供給手段と、のうちの少なくとも一方の手段を含む音声追加手段をさらに備え、
前記合成手段は、前記音声追加手段から出力される前記音声コンテンツと、前記主コンテンツと、前記速報コンテンツとを合成する、
コンテンツ再生処理装置。
The content reproduction processing apparatus according to any one of claims 1 to 5, wherein
A voice synthesis unit that converts a character string included in the breaking news content into audio content and outputs the voice content, and a built-in voice content that is output in advance as the breaking information is output from the breaking information processing unit. A voice adding unit including at least one of the voice supply unit and the voice supply unit;
The synthesizing unit synthesizes the audio content output from the audio adding unit, the main content, and the breaking content.
Content reproduction processing device.
請求項1ないし請求項6のうちのいずれか1項に記載のコンテンツ再生処理装置と、
前記コンテンツ再生処理装置から出力される前記主コンテンツおよび前記合成コンテンツを、当該システムのユーザーが視覚と聴覚のうちの少なくとも一方で感知可能な形式で以て出力するコンテンツ出力装置と
を備えるコンテンツ再生システム。
A content reproduction processing device according to any one of claims 1 to 6,
A content reproduction system comprising: a content output device that outputs the main content and the composite content output from the content reproduction processing device in a format that can be sensed by at least one of visual and auditory senses. .
JP2011108926A 2011-05-16 2011-05-16 Content reproduction processor and content reproduction system Pending JP2012244200A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011108926A JP2012244200A (en) 2011-05-16 2011-05-16 Content reproduction processor and content reproduction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011108926A JP2012244200A (en) 2011-05-16 2011-05-16 Content reproduction processor and content reproduction system

Publications (1)

Publication Number Publication Date
JP2012244200A true JP2012244200A (en) 2012-12-10

Family

ID=47465485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011108926A Pending JP2012244200A (en) 2011-05-16 2011-05-16 Content reproduction processor and content reproduction system

Country Status (1)

Country Link
JP (1) JP2012244200A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015171003A (en) * 2014-03-07 2015-09-28 三菱電機株式会社 Digital broadcast-receiving device, emergency control apparatus, and emergency warning device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0951514A (en) * 1995-08-04 1997-02-18 Hitachi Ltd Multimedia system
JP2004312507A (en) * 2003-04-09 2004-11-04 Matsushita Electric Ind Co Ltd Information receiver
JP2006154976A (en) * 2004-11-25 2006-06-15 Sharp Corp Animation frame analyzer
WO2006077969A1 (en) * 2005-01-20 2006-07-27 Matsushita Electric Industrial Co., Ltd. Content reception terminal
JP2006295799A (en) * 2005-04-14 2006-10-26 Sharp Corp Device and system for content reproduction
JP2007295439A (en) * 2006-04-27 2007-11-08 Sharp Corp News flash superimposing apparatus
JP2009253414A (en) * 2008-04-02 2009-10-29 Nec Corp Content delivery system, repeater, terminal device, content delivery method, program and recording medium
JP2010252050A (en) * 2009-04-15 2010-11-04 Sharp Corp Video processor, video display device, and video processing method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0951514A (en) * 1995-08-04 1997-02-18 Hitachi Ltd Multimedia system
JP2004312507A (en) * 2003-04-09 2004-11-04 Matsushita Electric Ind Co Ltd Information receiver
JP2006154976A (en) * 2004-11-25 2006-06-15 Sharp Corp Animation frame analyzer
WO2006077969A1 (en) * 2005-01-20 2006-07-27 Matsushita Electric Industrial Co., Ltd. Content reception terminal
JP2006295799A (en) * 2005-04-14 2006-10-26 Sharp Corp Device and system for content reproduction
JP2007295439A (en) * 2006-04-27 2007-11-08 Sharp Corp News flash superimposing apparatus
JP2009253414A (en) * 2008-04-02 2009-10-29 Nec Corp Content delivery system, repeater, terminal device, content delivery method, program and recording medium
JP2010252050A (en) * 2009-04-15 2010-11-04 Sharp Corp Video processor, video display device, and video processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015171003A (en) * 2014-03-07 2015-09-28 三菱電機株式会社 Digital broadcast-receiving device, emergency control apparatus, and emergency warning device

Similar Documents

Publication Publication Date Title
US8229748B2 (en) Methods and apparatus to present a video program to a visually impaired person
EP3100459B1 (en) Methods and apparatus to synchronize second screen content with audio/video programming using closed captioning data
US8732783B2 (en) Apparatus and method for providing additional information using extension subtitles file
US11227620B2 (en) Information processing apparatus and information processing method
JP6399726B1 (en) Text content generation device, transmission device, reception device, and program
JP5345224B2 (en) Digital broadcast receiver
JP7062117B2 (en) Receiver and program
EP2582147A1 (en) Digital broadcast recording and reproducing appartus and digital broadcast recording and reproducing method
JP2017034681A (en) Supply device, supply method, reception device, reception method, program, and broadcasting system
US20200053412A1 (en) Transmission device, transmission method, reception device, and reception method
JP2009077166A (en) Information processor and information display method
JP2012244200A (en) Content reproduction processor and content reproduction system
JP5551186B2 (en) Broadcast receiving apparatus and program information audio output method in broadcast receiving apparatus
JP4755717B2 (en) Broadcast receiving terminal device
JP2015037264A (en) Reception device, transmission device, and program
JP5010102B2 (en) Broadcast reception system
JP2007074374A (en) Distribution system and method of distribution
JP2006197353A (en) Broadcast reception terminal
JP2016116032A (en) Receiving device, broadcasting system, receiving method, and program
JP2010028547A (en) Information processing apparatus and method
JP2016028471A (en) Receiving device
EP2884754A1 (en) Electronic device, method and program
JP2008092024A (en) Video playback device and video playback method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150714