JP2010199711A - Apparatus and method for processing content - Google Patents

Apparatus and method for processing content Download PDF

Info

Publication number
JP2010199711A
JP2010199711A JP2009039435A JP2009039435A JP2010199711A JP 2010199711 A JP2010199711 A JP 2010199711A JP 2009039435 A JP2009039435 A JP 2009039435A JP 2009039435 A JP2009039435 A JP 2009039435A JP 2010199711 A JP2010199711 A JP 2010199711A
Authority
JP
Japan
Prior art keywords
character
characters
subtitle
information
kana
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009039435A
Other languages
Japanese (ja)
Inventor
Norihiko Kimura
範彦 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009039435A priority Critical patent/JP2010199711A/en
Publication of JP2010199711A publication Critical patent/JP2010199711A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To effectively utilize information relating to characters which are superimposed on images and displayed. <P>SOLUTION: A header removal part 41 removes the header of a PES packet configuring a subtitle stream and generates ES data. A subtitle management decoder 43 and a subtitle sentence decoder 44 perform decomposition into data units which are unit data configuring data supplied from the header removal part 41. A data unit decoder 45 decodes each data unit and generates information relating to subtitles such as various control information. A phonetic transcription discrimination part 46 discriminates whether each of characters included in the subtitle is a phonetic transcription, and adds information indicating whether each of the characters included in the subtitle is a phonetic transcription to the information stored in a subtitle information storage buffer 47. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、コンテンツ処理装置および方法に関し、特に、画像に重畳されて表示される文字に関する情報をより有効に活用することができるようにするコンテンツ処理装置および方法に関する。   The present invention relates to a content processing apparatus and method, and more particularly, to a content processing apparatus and method that can make more effective use of information related to characters displayed superimposed on an image.

近年、デジタル放送においては、字幕情報がテキスト情報として放送局から送出され、受信機側で表示することが可能となっている。   In recent years, in digital broadcasting, caption information is sent out from a broadcasting station as text information and can be displayed on the receiver side.

また、カラオケ装置において、平仮名、片仮名、英語などで歌詞を表示する技術も提案されている(例えば、特許文献1参照)。   Also, a technique for displaying lyrics in Hiragana, Katakana, English, etc. in a karaoke apparatus has been proposed (see, for example, Patent Document 1).

さらに、ビデオ信号から字幕部分を取り除き、ビデオ圧縮符号化を行う際に不利となる高域周波数成分を減少させることで、符号化効率を上げ、より高画質な画像データの記録が可能となるようにすることも提案されている(例えば、特許文献2参照)。   Furthermore, by removing the subtitles from the video signal and reducing the high frequency components that are disadvantageous when performing video compression coding, it is possible to increase coding efficiency and record higher quality image data. It has also been proposed (see, for example, Patent Document 2).

これにより、字幕に関しても、映像、音声とは独立して記録することで受信機による運用性を高め、再生時に字幕の表示を行うか否かを、ユーザが任意に選択できるようになっている。   As a result, subtitles can be recorded independently of video and audio to improve operability by the receiver, and the user can arbitrarily select whether or not to display subtitles during playback. .

特開平4―13288号公報JP-A-4-13288 特開2002―300525号公報Japanese Patent Laid-Open No. 2002-300525

例えば、規格などにおいて字幕には特別に「振り仮名」を付するべきとするような規定はないが、一般的にかなりの頻度で読み仮名が付与されている。   For example, there is no provision in the standard or the like that a special name “shake-kana” should be added to subtitles, but generally a reading kana is given with a considerable frequency.

このような振り仮名は、十分な読解力がある人にとっては、かえってわずらわしいものでもある。   Such a pseudonym is also annoying for those who have sufficient reading skills.

しかしながら、従来の技術では、振り仮名を表示しない選択をすることができなかった。また、字幕の文字を、例えば、コンテンツのメタデータとして用いる場合などは、振り
仮名の文字が特定できないため、適切にメタデータを生成できないという問題があった。
However, in the prior art, it was not possible to select not to display the kana. In addition, when subtitle characters are used as content metadata, for example, there is a problem that metadata cannot be generated appropriately because the characters of the kana cannot be specified.

本発明はこのような状況に鑑みてなされたものであり、画像に重畳されて表示される文字に関する情報をより有効に活用することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to more effectively utilize information relating to characters displayed superimposed on an image.

本発明の一側面は、コンテンツの画像に重畳されて表示される文字からなる字幕のデータを抽出する字幕データ抽出手段と、前記抽出した字幕のデータに基づいて、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報を取得する文字情報取得手段と、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に振り仮名の文字が含まれているか否かを判定する振り仮名判定手段と、前記字幕に振り仮名の文字が含まれていると判定された場合、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に含まれる文字のうち、振り仮名の文字を特定する情報を生成する振り仮名情報生成手段とを備えるコンテンツ処理装置である。   One aspect of the present invention is a subtitle data extracting means for extracting subtitle data composed of characters displayed superimposed on an image of content, a character included in the subtitle based on the extracted subtitle data, and Character information acquisition means for acquiring information representing the size of each character, characters included in the subtitle, and information representing the size of each character, the subtitle includes the character of the kana Based on information indicating the characters included in the subtitles and the sizes of the characters, respectively, when it is determined that the subtitles include characters of the hiragana characters. The content processing apparatus includes a kana information generating unit configured to generate information for specifying a kana character among characters included in the subtitle.

前記振り仮名判定手段は、前記字幕が横書きまたは縦書きのいずれであるかを表すフォーマットを特定し、前記字幕のフォーマットが横書きである場合、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に含まれる文字の高さが2種類以上存在するか否かを判定することで、前記字幕に振り仮名の文字が含まれるか否かを判定するようにすることができる。   The hiragana determining means specifies a format indicating whether the subtitle is horizontal writing or vertical writing, and when the subtitle format is horizontal writing, the characters included in the subtitle, and the sizes of the respective characters By determining whether there are two or more types of character heights included in the subtitle based on the information representing the subtitle, it is determined whether or not the subtitle includes a kana character. be able to.

前記振り仮名情報生成手段は、前記字幕に含まれる文字のうち、前記文字のサイズを表す情報に基づいて特定される高さの値が最も小さい文字を、振り仮名の候補文字として検出し、前記字幕に含まれる文字のうち、前記候補文字と同じ高さの値の文字を前記振り仮名の文字として特定するようにすることができる。   The phonetic kana information generating means detects a character having the smallest height value specified based on information indicating the size of the character among the characters included in the subtitle as a candidate character of the kana, Of the characters included in the subtitle, the character having the same height as the candidate character can be specified as the character of the kana.

前記振り仮名情報生成手段は、前記字幕が横書きまたは縦書きのいずれであるかを表すフォーマットを特定し、前記字幕のフォーマットが縦書きである場合、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に含まれる文字の幅が2種類以上存在するか否かを判定することで、前記字幕に振り仮名の文字が含まれるか否かを判定するようにすることができる。   The fake kana information generating means specifies a format indicating whether the subtitle is horizontal writing or vertical writing, and when the subtitle format is vertical writing, the characters included in the subtitle, and those characters respectively Based on the information indicating the size of the subtitle, it is determined whether or not there are two or more types of character widths included in the subtitle, thereby determining whether or not the subtitle includes a kana character can do.

前記振り仮名情報生成手段は、前記字幕に含まれる文字のうち、前記文字のサイズを表す情報に基づいて特定される幅の値が最も小さい文字を、振り仮名の候補文字として検出し、前記字幕に含まれる文字のうち、前記候補文字と同じ幅の値の文字を前記振り仮名の文字として特定するようにすることができる。   The hiragana information generating means detects a character having the smallest width value specified based on information representing the size of the character among the characters included in the subtitle as a candidate character for the hiragana, and Among the characters included in the character, a character having the same width as that of the candidate character can be specified as the character of the furigana.

予め設定された情報に基づいて、前記振り仮名情報生成手段により特定された前記振り仮名の文字を、画面表示するか否かを制御する画面表示制御手段をさらに備えるようにすることができる。   A screen display control unit for controlling whether or not to display the characters of the phonetic name specified by the phonetic information generating unit based on preset information may be further provided.

前記字幕のデータ、および前記振り仮名情報生成手段により特定された前記振り仮名の文字に基づいて、前記コンテンツのメタデータを生成するメタデータ生成手段をさらに備えるようにすることができる。   The apparatus may further comprise metadata generation means for generating metadata of the content based on the caption data and the characters of the phonetic name specified by the phonetic information generation means.

本発明の一側面は、コンテンツの画像に重畳されて表示される文字からなる字幕のデータに基づいて、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報を取得し、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に振り仮名の文字が含まれているか否かを判定し、前記字幕に振り仮名の文字が含まれていると判定された場合、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に含まれる文字のうち、振り仮名の文字を特定する情報を生成するステップを含むコンテンツ処理方法である。   One aspect of the present invention acquires characters included in the subtitle and information indicating the size of each character based on subtitle data including characters displayed superimposed on the content image, and the subtitle And whether or not the subtitles include the characters of the kana characters based on the information indicating the characters included in the subtitles and the sizes of the characters, and the subtitles include the characters of the kana characters If determined, content including a step of generating information identifying characters of the kana among the characters included in the subtitles based on the characters included in the subtitles and information indicating the sizes of the respective characters It is a processing method.

本発明の一側面においては、コンテンツの画像に重畳されて表示される文字からなる字幕のデータに基づいて、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報が取得され、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に振り仮名の文字が含まれているか否かが判定され、前記字幕に振り仮名の文字が含まれていると判定された場合、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に含まれる文字のうち、振り仮名の文字が特定される。   In one aspect of the present invention, based on subtitle data composed of characters displayed superimposed on the content image, the characters included in the subtitles and information indicating the sizes of the characters are acquired, Based on the characters included in the subtitles and information indicating the size of each of the characters, it is determined whether or not the subtitles include characters of the kana characters, and the subtitles include the characters of the kana characters Is determined, based on the characters included in the subtitles and information indicating the sizes of those characters, the characters of the phonetic name among the characters included in the subtitles are identified.

本発明によれば、画像に重畳されて表示される文字に関する情報をより有効に活用することができる。   ADVANTAGE OF THE INVENTION According to this invention, the information regarding the character displayed superimposed on an image can be utilized more effectively.

本発明の一実施の形態に係るコンテンツ処理装置の例を示す図である。It is a figure which shows the example of the content processing apparatus which concerns on one embodiment of this invention. 図1のコンテンツ処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the content processing apparatus of FIG. 図2の字幕デコーダブロックの詳細な構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a detailed configuration example of a caption decoder block in FIG. 2. 字幕の例を説明する図である。It is a figure explaining the example of a subtitle. 図4に示される字幕に対応するPESパケットに含まれる情報の例を示す図である。It is a figure which shows the example of the information contained in the PES packet corresponding to the caption shown in FIG. 振り仮名特定処理の例を説明するフローチャートである。It is a flowchart explaining the example of a phonetic name specification process. 振り仮名候補抽出処理の例を説明するフローチャートである。It is a flowchart explaining the example of a phonetic kana candidate extraction process. 字幕の別の例を説明する図である。It is a figure explaining another example of a subtitle. 図8に示される字幕に対応するPESパケットに含まれる情報の例を示す図である。It is a figure which shows the example of the information contained in the PES packet corresponding to the caption shown in FIG. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施の形態に係るコンテンツ処理装置の例を示す図である。同図に示されるコンテンツ処理装置1は、例えば、HDD(Hard Disk Drive)レコーダとして構成され、テレビジョン受像機などとして構成されるディスプレイ2に接続されている。   FIG. 1 is a diagram illustrating an example of a content processing apparatus according to an embodiment of the present invention. A content processing apparatus 1 shown in FIG. 1 is configured as an HDD (Hard Disk Drive) recorder, for example, and is connected to a display 2 configured as a television receiver or the like.

図2は、図1のコンテンツ処理装置1の構成例を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration example of the content processing apparatus 1 of FIG.

コンテンツ処理装置1は、例えば、ユーザによって設定された録画の予約に従ってテレビジョン放送の番組を録画するようになされている。   The content processing apparatus 1 is configured to record a television broadcast program according to a recording reservation set by a user, for example.

コンテンツ処理装置1は、図示せぬアンテナで受信されたデジタル放送波を受信するデジタル放送受信回路21を備えている。デジタル放送受信回路から出力されるデータは、DEMUX22に供給され、DEMUX22により、ビデオストリーム、オーディオストリーム、および字幕ストリームに分離される。   The content processing apparatus 1 includes a digital broadcast receiving circuit 21 that receives a digital broadcast wave received by an antenna (not shown). Data output from the digital broadcast receiving circuit is supplied to the DEMUX 22 and separated into a video stream, an audio stream, and a subtitle stream by the DEMUX 22.

DEMUX22から出力されるビデオストリームのデータは、ビデオデコーダ23に供給され、例えば、MPEG方式で圧縮符号化されたデータが復号され、画像データが生成される。ビデオデコーダ23から出力される画像データは、一旦、映像格納バッファ24に格納され、所定のタイミングで、表示プレーンのデータとして出力されていく。   The data of the video stream output from the DEMUX 22 is supplied to the video decoder 23, and for example, the data compressed and encoded by the MPEG method is decoded to generate image data. The image data output from the video decoder 23 is temporarily stored in the video storage buffer 24 and output as display plane data at a predetermined timing.

なお、映像格納バッファ24から出力される表示プレーンは、後述するように合成部61により字幕の表示データと合成されてディスプレイ2に出力される。これにより、コンテンツの画像には、必要に応じて字幕の文字が重畳されて表示されるのである。   The display plane output from the video storage buffer 24 is combined with subtitle display data by the combining unit 61 and output to the display 2 as described later. As a result, subtitle characters are superimposed and displayed on the content image as necessary.

DEMUX22から出力されるオーディオストリームのデータは、オーディオデコーダ26に供給され、例えば、MPEG方式で圧縮符号化されたデータが復号され、音声データが生成される。オーディオデコーダ26から出力される音声データは、一旦、音声情報格納バッファ27に格納され、所定のタイミングで、図示せぬ音声再生装置に出力されていく。なお、音声再生装置は、例えば、ディスプレイ2などに設けられている。   The audio stream data output from the DEMUX 22 is supplied to the audio decoder 26, and for example, the data compressed and encoded by the MPEG method is decoded to generate audio data. The audio data output from the audio decoder 26 is temporarily stored in the audio information storage buffer 27 and output to an audio reproduction device (not shown) at a predetermined timing. Note that the audio reproduction device is provided in the display 2 or the like, for example.

DEMUX22から出力される字幕ストリームのデータは、字幕デコーダブロック40に供給される。   The subtitle stream data output from the DEMUX 22 is supplied to the subtitle decoder block 40.

図3は、図2の字幕デコーダブロック40の詳細な構成例を示すブロック図である。   FIG. 3 is a block diagram showing a detailed configuration example of the caption decoder block 40 of FIG.

同図に示されるように、字幕ストリームを構成するPES(Packetized Elementary Stream)パケットは、ヘッダ除去部41に供給される。ヘッダ除去部41は、PESパケットのヘッダを除去し、ES(Elementary Stream)データを生成する。   As shown in the figure, a PES (Packetized Elementary Stream) packet forming the subtitle stream is supplied to the header removing unit 41. The header removing unit 41 removes the header of the PES packet and generates ES (Elementary Stream) data.

ヘッダ除去部41は、ESデータを字幕管理データと字幕文データとに分離し、字幕管理データを字幕管理デコーダ43に出力し、字幕文データを字幕文デコーダ44に出力するようになされている。   The header removing unit 41 separates ES data into subtitle management data and subtitle sentence data, outputs subtitle management data to the subtitle management decoder 43, and outputs subtitle sentence data to the subtitle sentence decoder 44.

字幕管理デコーダ43は、ヘッダ除去部41から供給された字幕管理データを、字幕管理データを構成する単位データであるデータユニットに分解する。字幕文デコーダ44は、ヘッダ除去部41から供給された字幕文データを、字幕文データを構成する単位データであるデータユニットに分解する。   The caption management decoder 43 decomposes the caption management data supplied from the header removing unit 41 into data units that are unit data constituting the caption management data. The caption sentence decoder 44 decomposes the caption sentence data supplied from the header removing unit 41 into data units that are unit data constituting the caption sentence data.

データユニットデコーダ45は、字幕管理デコーダ43と字幕文デコーダ44から供給されるデータユニットのそれぞれを復号するようになされている。例えば、ARIB(Association of Radio Industries and Businesses)の規格に適合するデータユニットは、8単位符号の符号化方式により符号化されている。データユニットデコーダ45は、8単位符号化されたデータユニットを復号し、各種の制御情報等の字幕に関する情報を生成するようになされている。   The data unit decoder 45 is configured to decode each of the data units supplied from the caption management decoder 43 and the caption sentence decoder 44. For example, a data unit conforming to the ARIB (Association of Radio Industries and Businesses) standard is encoded by an 8-unit code encoding method. The data unit decoder 45 decodes the data unit encoded by 8 units and generates information related to subtitles such as various control information.

データユニットデコーダ45から出力される字幕に関する情報は、字幕情報格納バッファ47に格納される。これにより、字幕情報格納バッファ47には、字幕の各文字のビットマップ情報、各文字の表示位置の情報、各文字のサイズの情報、その他の属性情報が格納されることになる。   Information related to the caption output from the data unit decoder 45 is stored in the caption information storage buffer 47. Thus, the caption information storage buffer 47 stores bitmap information of each character of the caption, information on the display position of each character, information on the size of each character, and other attribute information.

振り仮名判別部46は、字幕情報格納バッファ47に格納されている情報に基づいて、字幕に含まれる文字のそれぞれが振り仮名であるか否かを判別するようになされている。そして、振り仮名判別部46は、字幕に含まれる文字のそれぞれが振り仮名かどうかを表す情報を、字幕情報格納バッファ47に格納されている情報に追加するようになされている。   Based on the information stored in the caption information storage buffer 47, the kana-kana determination unit 46 determines whether each character included in the subtitle is a kana. The kana-kana determination unit 46 adds information indicating whether each character included in the subtitle is a kana to the information stored in the subtitle information storage buffer 47.

設定情報格納バッファ48には、振り仮名に関にして予め設定された情報が格納されている。設定情報格納バッファ48には、例えば、振り仮名を表示するか否かを表す情報が格納されている。なお、振り仮名を表示するか否かを表す情報は、例えば、予めユーザにより設定されているものとする。   In the setting information storage buffer 48, information set in advance relating to the pseudonym is stored. In the setting information storage buffer 48, for example, information indicating whether or not to display a pseudonym is stored. Note that the information indicating whether or not to display the kana is assumed to be set in advance by the user, for example.

表示制御部49は、設定情報格納バッファ48に格納されている情報に基づいて、字幕に含まれる文字のうち、振り仮名の文字を取捨選択して出力するようになされている。例えば、設定情報格納バッファ48に格納されている情報が、振り仮名を表示することを表す情報である場合、表示制御部49は、字幕情報格納バッファ47に格納されている情報に基づいて、字幕に含まれる文字の全てを画面に表示させる表示データを生成して出力する。この表示データが、図2の合成部61により、映像格納バッファ24から出力される表示プレーンに合成されることで、ディスプレイ2の画面においてコンテンツの画像に振り仮名付きの字幕が表示されることになる。   Based on the information stored in the setting information storage buffer 48, the display control unit 49 selects and outputs the characters of the kana characters among the characters included in the subtitles. For example, when the information stored in the setting information storage buffer 48 is information indicating that the kana is displayed, the display control unit 49 uses the subtitle information based on the information stored in the subtitle information storage buffer 47. Generates and outputs display data that displays all the characters included in. This display data is combined with the display plane output from the video storage buffer 24 by the combining unit 61 in FIG. 2, so that a subtitle with a pseudonym is displayed on the content image on the screen of the display 2. Become.

また、例えば、設定情報格納バッファ48に格納されている情報が、振り仮名を表示しないことを表す情報である場合、表示制御部49は、字幕情報格納バッファ47に格納されている情報に基づいて、字幕に含まれる振り仮名以外の文字を画面に表示させる表示データを生成して出力する。この表示データが、図2の合成部61により、映像格納バッファ24から出力される表示プレーンに合成されることで、ディスプレイ2の画面においてコンテンツの画像に振り仮名なしの字幕が表示されることになる。   Further, for example, when the information stored in the setting information storage buffer 48 is information indicating that the kana is not displayed, the display control unit 49 is based on the information stored in the caption information storage buffer 47. , Generating and outputting display data for displaying on the screen characters other than the hiragana characters included in the subtitles. The display data is combined with the display plane output from the video storage buffer 24 by the combining unit 61 in FIG. 2, so that the subtitles without the pseudonym are displayed on the content image on the screen of the display 2. Become.

メタ情報制御部50は、字幕情報格納バッファ47に格納されている情報をメタデータとして用いるための情報に変換し、メタ情報格納バッファ51に格納するようになされている。例えば、メタ情報制御部50は、字幕に含まれる文字の情報をテキスト情報に変換するとともに、各文字が振り仮名であるか否かを表す情報と対応付けてメタ情報格納バッファ51に格納する。   The meta information control unit 50 converts the information stored in the caption information storage buffer 47 into information for use as metadata and stores the information in the meta information storage buffer 51. For example, the meta information control unit 50 converts character information included in the caption into text information, and stores it in the meta information storage buffer 51 in association with information indicating whether each character is a kana.

例えば、字幕デコーダブロック40に供給される1つのPESパケットにより表示される字幕が、図4に示されるものであったとする。図4の例では、「今日は寒い」という文字列と、「今日」に付される振り仮名、および「寒」に付される振り仮名が示されている。なお、図中において、各文字を囲む四角形の枠のそれぞれは、文字のサイズを分かり易くするためのものであり、実際の字幕は、「今日は寒い」という文字列、およびその振り仮名のみが表示されるものとなる。   For example, it is assumed that the caption displayed by one PES packet supplied to the caption decoder block 40 is as shown in FIG. In the example of FIG. 4, a character string “Today is cold”, a pseudonym attached to “Today”, and a pseudonym attached to “Cold” are shown. In the figure, each square frame surrounding each character is for easy understanding of the size of the character, and the actual subtitle is only the character string “It is cold today” and its kana. It will be displayed.

図4の例は、横書きで表示される場合の字幕の例であって、「今日は寒い」という文字列が1行で表示されている。   The example of FIG. 4 is an example of subtitles when displayed in horizontal writing, and the character string “Today is cold” is displayed in one line.

図4に示される字幕に対応するPESパケットには、少なくとも図5に示されるような情報が含まれている。同図に示されるように、PESパケットに含まれる字幕に関する情報は、字幕の各文字を特定する情報、各文字のサイズ、および各文字の表示位置により構成されている。   The PES packet corresponding to the caption shown in FIG. 4 includes at least information as shown in FIG. As shown in the figure, the information regarding the subtitles included in the PES packet is configured by information for specifying each character of the subtitle, the size of each character, and the display position of each character.

図5の例では、字幕の各文字を特定する情報(図中では「文字」と記載)として、「き」、「ょ」、「う」、「今」、「日」、・・・が記述されている。同図に示されるように、PESパケットに含まれる字幕に関する情報は、振り仮名(いまの場合、「き」、「ょ」、「う」など)の文字に続いて、その振り仮名が付される漢字など(いまの場合、「今」、「日」など)の文字が記述されている。すなわち、振り仮名を付すべき漢字の「今」、および「日」の前に、その振り仮名「き」、「ょ」、「う」が記述されている。その後、振り仮名を付す必要のない平仮名「は」が記述されている。そして、振り仮名を付すべき漢字の「寒」の前に、その振り仮名「さ」、「む」が記述され、その後、振り仮名を付す必要のない平仮名「い」が記述されている。   In the example of FIG. 5, “ki”, “yo”, “u”, “now”, “day”,... is described. As shown in the figure, the information related to the subtitles included in the PES packet is the name of the kana (in this case, “ki”, “yo”, “u”, etc.) followed by the kana. Kanji characters (in this case, “now”, “day”, etc.) are described. That is, the kana characters “ki”, “yo”, and “u” are described before “now” and “day” of the kanji to which the kana characters are to be attached. After that, hiragana “ha”, which does not need to be assigned a kana, is described. Then, the kana characters “sa” and “mu” are described before the “kanji” kanji characters to which the kana characters are to be added, and then the hiragana characters “i” that are not required to have the kana characters are described.

なお、入力された1つのPESパケットが、ヘッダ除去部41乃至データユニットデコーダ45の処理を経ることで、字幕情報格納バッファ47に、図5に示されるような情報が格納されることになる。   Note that the information as shown in FIG. 5 is stored in the caption information storage buffer 47 when one input PES packet is processed by the header removing unit 41 to the data unit decoder 45.

図5の例では、各文字のサイズの情報(図中では「サイズ」と記載)として、「18×18」、「9×18」、「36×36」と記述されている。例えば、字幕の文字「今」、「日」、「は」、・・・のサイズは「36×36」とされており、振り仮名の文字「き」のサイズは「18×18」であり、振り仮名の文字「ょ」のサイズは「9×18」とされている。ここで、文字のサイズは、乗算記号の左辺が文字の幅(画面水平方向の表示範囲)を表し、右辺が文字の高さ(画面垂直方向の表示範囲)を表すものとする。例えば、サイズが「9×18」の文字は、画面水平方向に9画素、画面垂直方向に18画素の矩形として構成される表示範囲内に表示される。なお、ここでは、サイズの単位を1画素として説明したが、例えば、所定の複数の画素がサイズの単位とされるようにしてもよい。   In the example of FIG. 5, “18 × 18”, “9 × 18”, and “36 × 36” are described as information on the size of each character (described as “size” in the drawing). For example, the size of the subtitle characters “now”, “day”, “ha”,... Is “36 × 36”, and the size of the character “ki” in the kana is “18 × 18”. The size of the letter “yo” in the swing name is “9 × 18”. Here, regarding the character size, the left side of the multiplication symbol represents the character width (display range in the horizontal direction of the screen), and the right side represents the height of the character (display range in the vertical direction of the screen). For example, a character having a size of “9 × 18” is displayed within a display range configured as a rectangle of 9 pixels in the horizontal direction of the screen and 18 pixels in the vertical direction of the screen. Although the size unit has been described as one pixel here, for example, a predetermined plurality of pixels may be used as the size unit.

図5の例の場合、字幕の文字のサイズは、幅、高さともに「36」とされている。一方、振り仮名の文字のサイズは、高さは全て「18」とされているが、幅は「9」のものと「18」のものがある。例えば、図4に示されるように、振り仮名の文字「ょ」は、いわゆる捩れた音の拗音を表す文字であるから、直音を表す文字より小さく表記する必要があるため、それぞれの振り仮名の文字の幅が異なっているのである。また、図4の例には示されていないが、いわゆるつまった音の促音を表す文字(例えば、「っ」の文字)も同様に幅が小さいサイズの文字とされる。   In the example of FIG. 5, the size of the subtitle character is “36” for both width and height. On the other hand, as for the size of the characters of the hiragana characters, the height is all “18”, but the width is “9” and “18”. For example, as shown in FIG. 4, the letter “yo” of the kana character is a character that represents a so-called stuttering of the twisted sound, and therefore needs to be expressed smaller than the character that represents the straight sound. The widths of the characters are different. Although not shown in the example of FIG. 4, a character (for example, a character of “tsu”) representing a so-called urgent sound is also a character having a small width.

このように、振り仮名の文字のサイズには、通常、直音を表す文字のサイズと、拗音、促音などを表す文字のサイズとが含まれる。しかし、拗音、促音などを表す文字のサイズは、直音を表す文字より幅が小さいものとされるものの、直音を表す文字と高さが異なるものではない。   As described above, the size of the characters of the hiragana character usually includes the size of the character that represents a direct sound and the size of the character that represents a stuttering sound or a prompt sound. However, although the size of a character representing a stuttering sound, a prompt sound, or the like is smaller than that of a character representing a direct sound, it is not different in height from a character representing a direct sound.

従って、字幕に含まれる文字のうち、振り仮名の文字の高さを特定して、字幕に含まれる文字の中で特定された高さの文字サイズの文字を検出することにより、振り仮名の文字を特定することが可能となる。   Therefore, by identifying the height of the character of the hiragana character among the characters included in the subtitle and detecting the character size of the specified height among the characters included in the subtitle, the character of the hiragana character Can be specified.

ここでは、字幕が横書きの場合の例について説明したが、字幕が縦書きの場合、振り仮名の文字の幅を特定して、字幕に含まれる文字の中で特定された幅の文字サイズの文字を検出することにより、振り仮名の文字を特定することが可能となる。   Here, an example in which the subtitle is written horizontally has been described, but when the subtitle is written vertically, the character width of the kana character is specified and the character size of the character width specified in the subtitles is specified. By detecting this, it becomes possible to specify the characters of the kana.

図3の振り仮名判別部46は、例えば、図5に示されるような情報に基づいて、振り仮名の文字の高さまたは幅を特定するのである。そして、振り仮名判別部46は、図5に示されるような情報に基づいて、字幕に含まれる文字の中で特定された高さまたは幅の文字サイズの文字を検出することにより、振り仮名の文字を特定するのである。   For example, the hiragana discrimination unit 46 shown in FIG. 3 specifies the height or width of the characters of the hiragana based on the information as shown in FIG. Then, based on the information as shown in FIG. 5, the hiragana discrimination unit 46 detects the character of the hiragana by detecting the character with the specified height or width among the characters included in the caption. The character is specified.

また、図5の例では、各文字の表示位置の情報(図中では「位置」と記載)として、「(100,100)」、「(118,100)」、「(127,100)」、「(100,136)」、・・・と記述されている。ここで、文字の表示位置の情報は、座標位置として表されるものとし、x座標が画面水平方向の表示位置を表し、y座標が画面垂直方向の表示位置を表すものとする。なお、表示位置の座標は、文字のサイズに対応する矩形の枠の左下端の点の位置を表すものとする。   In the example of FIG. 5, “(100, 100)”, “(118, 100)”, “(127, 100)” is displayed as information on the display position of each character (indicated as “position” in the figure). , “(100, 136)”,. Here, the information on the display position of the character is expressed as a coordinate position, the x coordinate represents the display position in the horizontal direction of the screen, and the y coordinate represents the display position in the vertical direction of the screen. Note that the coordinates of the display position represent the position of the lower left point of the rectangular frame corresponding to the character size.

図4の例において、字幕に含まれる文字は横書きの文字とされているので、図5に示される「今」、「日」などの文字の表示位置のy座標の値は「136」であり一定とされている。すなわち、画面の水平方向の仮想的直線(y=136)に沿って「今日は寒い」という字幕の文字が表示されることが分かる。   In the example of FIG. 4, since the characters included in the subtitles are horizontally written characters, the y-coordinate value of the display position of characters such as “now” and “date” shown in FIG. 5 is “136”. It is assumed to be constant. That is, it can be seen that the subtitle characters “It is cold today” are displayed along a virtual straight line (y = 136) in the horizontal direction of the screen.

また、図4の例において、字幕に含まれる文字は横書きの文字とされているので、振り仮名の文字である「き」、「ょ」、「う」などは、「今」、「日」などの文字の上に表示すべきものとされる。このため、図5に示される振り仮名の文字の表示位置のy座標の値は「100」であり一定とされている。すなわち、画面の水平方向の仮想的直線(y=136)に沿って「今日は寒い」という字幕の文字が表示されるとともに、それらの文字列と平行な画面垂直方向上側の仮想的直線(y=100)に沿って「きょう」、「さむ」という振り仮名の文字列が表示されることが分かる。   In the example of FIG. 4, the characters included in the subtitles are horizontal writing characters, so the characters “ki”, “yo”, “u”, etc., are “now”, “day”. It should be displayed on the characters such as. For this reason, the value of the y coordinate of the display position of the character of the kana shown in FIG. That is, a subtitle character “Today is cold” is displayed along a horizontal virtual line (y = 136) of the screen, and a virtual straight line (y = 100), the character strings of the kana characters “Kyo” and “Sam” are displayed.

次に、図6のフローチャートを参照して、図3の振り仮名判別部46による振り仮名特定処理について説明する。   Next, with reference to the flowchart of FIG. 6, the kana name identification process by the kana determination unit 46 of FIG. 3 will be described.

ステップS21において、振り仮名判別部46は、字幕情報格納バッファ47に格納されている字幕に関する情報を読み出して取得する。このとき、1つのPESパケットがヘッダ除去部41乃至データユニットデコーダ45の処理を経ることで得られた、例えば、図5を参照して説明した情報が取得されることになる。   In step S <b> 21, the hiragana discrimination unit 46 reads out and acquires information related to the caption stored in the caption information storage buffer 47. At this time, for example, the information described with reference to FIG. 5 obtained by processing one PES packet through the header removal unit 41 to the data unit decoder 45 is acquired.

ステップS22において、振り仮名判別部46は、ステップS21の処理で取得された字幕に関する情報を、振り仮名特定処理の処理対象とするか否かを判定する。例えば、字幕に振り仮名の文字が含まれていない場合、そもそも振り仮名を特定する必要がないので、振り仮名の文字が含まれていない字幕に関する情報は、ステップS21において、処理対象としないものと判定される。   In step S22, the kana-kana determination unit 46 determines whether or not the information related to the subtitles acquired in the process of step S21 is the processing target of the kana-kana specifying process. For example, if the subtitles do not include the kana characters, it is not necessary to specify the kana characters in the first place, so that information regarding the subtitles that do not include the kana characters is not to be processed in step S21. Determined.

具体的には、振り仮名判別部46が、ステップS21の処理で取得された字幕に関する情報の文字のサイズの情報をチェックし、字幕が横書きである場合、文字の高さが2種類以上存在するか否かを判定する。例えば、ステップS21の処理で図5に示されるような情報が取得された場合、文字の高さは、「18」または「36」の2通りであるから、ステップS22の処理では、当該情報を振り仮名特定処理の処理対象とすると判定することになる。   Specifically, the hiragana discrimination unit 46 checks the character size information of the information related to the subtitle acquired in the process of step S21. If the subtitle is written horizontally, there are two or more types of character heights. It is determined whether or not. For example, when the information shown in FIG. 5 is acquired in the process of step S21, the height of the character is “18” or “36”. Therefore, in the process of step S22, the information is It is determined that it is a processing target of the phonetic identification process.

ここでは、字幕が横書きの場合の例について説明したが、字幕が縦書きの場合、ステップS22では、振り仮名の文字の幅が2種類以上存在するか否かが判定されるようにすればよい。   Here, an example in which the subtitle is written horizontally has been described. However, if the subtitle is written vertically, it may be determined in step S22 whether or not there are two or more types of widths of the characters of the kana. .

なお、字幕が横書きであるか縦書きであるかの特定は、例えば、図5に示されていない情報であって、PESパケットに含まれる字幕のフォーマットを表す情報などに基づいて特定される。   Whether the subtitle is written horizontally or vertically is specified based on, for example, information not shown in FIG. 5 and information indicating the format of the subtitle included in the PES packet.

あるいはまた、図5に示される各文字の表示位置の情報に基づいて、字幕が横書きであるか縦書きであるかの特定がなされるようにしてもよい。例えば、図5の場合、複数の文字の表示位置のy座標の値が一致している。このため、画面の水平方向の仮想的直線(y=136)に沿って「今日は寒い」という字幕の文字が表示されることが分かる。同様に、画面の水平方向の仮想的直線(y=100)に沿って「きょう」、「さむ」という振り仮名の文字が表示されることが分かる。   Alternatively, whether the subtitle is written horizontally or vertically may be specified based on the information on the display position of each character shown in FIG. For example, in the case of FIG. 5, the y-coordinate values of the display positions of a plurality of characters are the same. For this reason, it can be seen that the subtitle characters “It is cold today” are displayed along a virtual straight line (y = 136) in the horizontal direction of the screen. Similarly, it can be seen that characters of the kana names “Kyo” and “Sam” are displayed along a virtual straight line (y = 100) in the horizontal direction of the screen.

このように、画面の水平方向の仮想的直線に沿って文字が表示される場合、その字幕は横書きであると特定することが可能である。一方、画面の垂直方向の仮想的直線に沿って文字が表示される場合、その字幕は縦書きであると特定することが可能である。   Thus, when characters are displayed along a virtual straight line in the horizontal direction of the screen, it is possible to specify that the caption is in horizontal writing. On the other hand, when a character is displayed along a virtual straight line in the vertical direction of the screen, it is possible to specify that the caption is vertically written.

さらに、上述した方式以外の方式により、字幕が横書きであるか縦書きであるかの特定がなされるようにしても構わない。   Furthermore, it may be specified whether the subtitle is horizontal writing or vertical writing by a method other than the method described above.

ステップS23において、振り仮名判別部46は、図7のフローチャートを参照して後述する振り仮名候補抽出処理を実行する。これにより、ステップS21で取得された情報に対応する字幕に含まれる文字の中から振り仮名の文字と推定される文字が1つ、振り仮名候補として抽出される。   In step S23, the kana-kana determination unit 46 executes a kana-kana candidate extraction process described later with reference to the flowchart of FIG. As a result, one character that is presumed to be the name of the kana character is extracted as a kana character candidate from the characters included in the subtitles corresponding to the information acquired in step S21.

ステップS24において、振り仮名判別部46は、字幕のフォーマットを判定する。ここでは、ステップS21で取得された情報に対応する字幕が縦書きであるか、横書きであるかが判定される。   In step S <b> 24, the hiragana discrimination unit 46 determines the subtitle format. Here, it is determined whether the subtitle corresponding to the information acquired in step S21 is vertical writing or horizontal writing.

ステップS24において、字幕が横書きであると判定された場合、処理は、ステップS25に進む。一方、ステップS24において、字幕が縦書きであると判定された場合、処理は、ステップS26に進む。   If it is determined in step S24 that the subtitle is horizontal writing, the process proceeds to step S25. On the other hand, if it is determined in step S24 that the subtitle is vertically written, the process proceeds to step S26.

ステップS25において、振り仮名判別部46は、ステップS21で取得された情報に対応する字幕の文字の中で、ステップS23の処理で抽出された振り仮名候補の文字と同じ高さの文字を抽出し、振り仮名の文字と特定する。これにより、横書きの字幕の中で振り仮名の文字が特定されることになる。   In step S25, the hiragana discrimination unit 46 extracts characters having the same height as the characters of the candidate for kana extracted in the process of step S23 from the subtitle characters corresponding to the information acquired in step S21. , Specify the characters of the phonetic kana. As a result, the characters of the kana in the horizontally written subtitle are specified.

ステップS26において、振り仮名判別部46は、ステップS21で取得された情報に対応する字幕の文字の中で、ステップS23の処理で抽出された振り仮名候補の文字と同じ幅の文字を抽出し、振り仮名の文字と特定する。これにより、縦書きの字幕の中で振り仮名の文字が特定されることになる。   In step S26, the hiragana discrimination unit 46 extracts characters having the same width as the characters of the hiragana candidate extracted in the process of step S23 from the subtitle characters corresponding to the information acquired in step S21. Identified as a phonetic character. As a result, the characters of the kana in the vertically written subtitles are specified.

なお、ステップS22において、ステップS21の処理で取得された字幕に関する情報を、振り仮名特定処理の処理対象としないと判定された場合、ステップS23乃至ステップS26の処理は、スキップされる。   If it is determined in step S22 that the information related to the caption obtained in the process of step S21 is not to be processed in the assigned name identification process, the processes in steps S23 to S26 are skipped.

次に、図7のフローチャートを参照して、図6のステップS23の振り仮名候補抽出処理の詳細な例について説明する。   Next, with reference to the flowchart of FIG. 7, a detailed example of the candidate name extraction process in step S23 of FIG. 6 will be described.

ステップS41において、振り仮名判別部46は、字幕のフォーマットを判定する。ここでは、ステップS21で取得された情報に対応する字幕が縦書きであるか、横書きであるかが判定される。   In step S41, the phonetic kana discrimination unit 46 determines the subtitle format. Here, it is determined whether the subtitle corresponding to the information acquired in step S21 is vertical writing or horizontal writing.

ステップS41において、字幕が横書きであると判定された場合、処理は、ステップS42に進む。   If it is determined in step S41 that the subtitle is horizontal writing, the process proceeds to step S42.

ステップS42において、振り仮名判別部46は、ステップS21で取得された情報の中の文字のサイズの情報をチェックする。そして、振り仮名判別部46は、ステップS21で取得された情報の中の最初の文字の高さを取得する。   In step S <b> 42, the kana-kana determination unit 46 checks the character size information in the information acquired in step S <b> 21. Then, the hiragana discrimination unit 46 acquires the height of the first character in the information acquired in step S21.

ステップS43において、振り仮名判別部46は、その最初の文字を振り仮名候補の文字とする。   In step S43, the kana-kana determination unit 46 sets the first character as a kana-kana candidate character.

ステップS44において、振り仮名判別部46は、次の文字があるか否かを判定し、次の文字があると判定された場合、処理は、ステップS45に進む。   In step S44, the kana-kana determination unit 46 determines whether there is a next character. If it is determined that there is a next character, the process proceeds to step S45.

ステップS45において、振り仮名判別部46は、ステップS21で取得された情報の中の文字のサイズの情報をチェックし、次の文字の高さを取得する。   In step S45, the phonetic kana discrimination unit 46 checks the character size information in the information acquired in step S21, and acquires the height of the next character.

ステップS46において、振り仮名判別部46は、ステップS45の処理で取得された文字の高さと、振り仮名候補の文字の高さとを比較する。いまの場合、ステップS45の処理で取得された文字の高さと、ステップS42の処理で取得された文字の高さとが比較される。そして、ステップS45の処理で取得された文字の高さの値が振り仮名候補の文字の高さの値より小さいか否かが判定される。   In step S46, the kana-kana determination unit 46 compares the height of the character acquired in the process of step S45 with the height of the kana-kana candidate character. In this case, the height of the character acquired in step S45 is compared with the height of the character acquired in step S42. Then, it is determined whether or not the character height value acquired in the process of step S45 is smaller than the character height value of the candidate for kana.

ステップS46において、ステップS45の処理で取得された文字の高さの値が振り仮名候補の文字の高さの値より小さいと判定された場合、処理は、ステップS43に戻り、振り仮名候補の文字が更新される。いまの場合、最初の文字に替わって次の文字が振り仮名候補の文字とされることになる。   If it is determined in step S46 that the character height value obtained in step S45 is smaller than the character height value of the candidate name, the process returns to step S43, and the character name of the candidate name Is updated. In this case, instead of the first character, the next character is a candidate for the kana character.

また、ステップS46において、ステップS45の処理で取得された文字の高さの値が振り仮名候補の文字の高さの値より小さくないと判定された場合、処理は、ステップS44に戻り、さらに次の文字があるか否かが判定される。   If it is determined in step S46 that the character height value obtained in step S45 is not smaller than the character height value of the candidate for kana, the process returns to step S44, and further Whether or not there is a character is determined.

このように、ステップS44で次の文字がないと判定されるまで、ステップS43乃至ステップS46の処理が繰り返し実行される。   As described above, the processes in steps S43 to S46 are repeatedly executed until it is determined in step S44 that there is no next character.

一方、ステップS41において、字幕が縦書きであると判定された場合、処理は、ステップS47に進む。   On the other hand, when it is determined in step S41 that the caption is vertically written, the process proceeds to step S47.

ステップS47において、振り仮名判別部46は、ステップS21で取得された情報の中の文字のサイズの情報をチェックする。そして、振り仮名判別部46は、ステップS21で取得された情報の中の最初の文字の幅を取得する。   In step S47, the hiragana discrimination unit 46 checks information on the character size in the information acquired in step S21. Then, the hiragana discrimination unit 46 acquires the width of the first character in the information acquired in step S21.

ステップS48において、振り仮名判別部46は、その最初の文字を振り仮名候補の文字とする。   In step S48, the kana-kana determination unit 46 sets the first character as a kana-kana candidate character.

ステップS49において、振り仮名判別部46は、次の文字があるか否かを判定し、次の文字があると判定された場合、処理は、ステップS50に進む。   In step S49, the hiragana discrimination unit 46 determines whether there is a next character. If it is determined that there is a next character, the process proceeds to step S50.

ステップS50において、振り仮名判別部46は、ステップS21で取得された情報の中の文字のサイズの情報をチェックし、次の文字の幅を取得する。   In step S50, the phonetic kana discrimination unit 46 checks the character size information in the information acquired in step S21, and acquires the width of the next character.

ステップS51において、振り仮名判別部46は、ステップS50の処理で取得された文字の幅と、振り仮名候補の文字の幅とを比較する。いまの場合、ステップS50の処理で取得された文字の幅と、ステップS47の処理で取得された文字の幅とが比較される。そして、ステップS50の処理で取得された文字の幅の値が振り仮名候補の文字の幅の値より小さいか否かが判定される。   In step S51, the phonetic kana discrimination unit 46 compares the character width acquired in the process of step S50 with the character width of the candidate for kana. In this case, the character width acquired in step S50 is compared with the character width acquired in step S47. Then, it is determined whether or not the character width value acquired in step S50 is smaller than the character width value of the candidate for kana.

ステップS51において、ステップS50の処理で取得された文字の幅の値が振り仮名候補の文字の幅の値より小さいと判定された場合、処理は、ステップS48に戻り、振り仮名候補の文字が更新される。いまの場合、最初の文字に替わって次の文字が振り仮名候補の文字とされることになる。   If it is determined in step S51 that the character width value obtained in step S50 is smaller than the character width value of the candidate name, the process returns to step S48, and the character of the candidate name is updated. Is done. In this case, instead of the first character, the next character is a candidate for the kana character.

また、ステップS51において、ステップS50の処理で取得された文字の幅の値が振り仮名候補の文字の幅の値より小さくないと判定された場合、処理は、ステップS49に戻り、さらに次の文字があるか否かが判定される。   If it is determined in step S51 that the character width value acquired in step S50 is not smaller than the character width value of the candidate for kana, the process returns to step S49, and further the next character It is determined whether or not there is.

このように、ステップS49で次の文字がないと判定されるまで、ステップS48乃至ステップS51の処理が繰り返し実行される。   As described above, the processes in steps S48 to S51 are repeatedly executed until it is determined in step S49 that there is no next character.

ステップS44の処理、またはステップS49の処理で、文字がないと判定された場合、振り仮名候補抽出処理は終了する。これにより、振り仮名候補の文字が1つ抽出されたことになり、図6のステップS24に処理が進むことになる。   If it is determined in step S44 or step S49 that there is no character, the phonetic kana candidate extraction process ends. As a result, one character of the candidate name is extracted, and the process proceeds to step S24 in FIG.

このようにして、振り仮名特定処理が実行される。   In this way, the phonetic pseudonym identification process is executed.

図8と図9を参照して、振り仮名特定処理についてさらに詳細に説明する。   With reference to FIG. 8 and FIG. 9, the kana name specifying process will be described in more detail.

図8は、字幕デコーダブロック40に供給される1つのPESパケットにより表示される字幕の例を示す図である。なお、ここでは、横書きの字幕を例として説明することにする。   FIG. 8 is a diagram illustrating an example of subtitles displayed by one PES packet supplied to the subtitle decoder block 40. Here, a horizontal subtitle will be described as an example.

図8の例では、「今日は寒い いや暑い」という文字列と、「今日」に付される振り仮名、「寒」に付される振り仮名、および「暑」に付される振り仮名が示されている。なお、図中において、各文字を囲む四角形の枠のそれぞれは、文字のサイズを分かり易くするためのものであり、実際の字幕は、「今日は寒い いや暑い」という文字列、およびその振り仮名のみが表示されるものとなる。   In the example of FIG. 8, a character string “Today is cold or hot”, a pseudonym attached to “Today”, a pseudonym attached to “Cold”, and a pseudonym attached to “Hot” are shown. Has been. In the figure, each square frame surrounding each character is for easy understanding of the size of the character. The actual subtitle is the character string “Today is cold or hot” and its kana. Only will be displayed.

また、この例では、「今日は寒い」という文字列が1行で表示され、「いや暑い」という文字列が別の1行で表示されている。すなわち、図8に示される字幕は、2行で表示されるものである。   In this example, the character string “Today is cold” is displayed in one line, and the character string “No hot” is displayed in another line. That is, the caption shown in FIG. 8 is displayed in two lines.

図8には、参考として「今」の文字の表示位置の座標と、その振り仮名「き」の文字の表示位置の座標が表示されている。この例では、「今」の表示位置の座標が(100,136)とされ、「き」の表示位置の座標が(100,100)とされている。また、同様に、参考として「暑」と同じ行の「い」の文字の座標と、「暑」の振り仮名「あ」の文字の表示位置の座標が表示されている。この例では、「い」の表示位置の座標が(172,190)とされ、「あ」の表示位置の座標が(244,154)とされている。これらの座標は参考であり、実際の字幕においては表示されない。   In FIG. 8, the coordinates of the display position of the character “now” and the coordinates of the display position of the character “KI” are displayed for reference. In this example, the coordinates of the “now” display position are (100, 136), and the coordinates of the “ki” display position are (100, 100). Similarly, for reference, the coordinates of the character “I” on the same line as “Hot” and the coordinates of the display position of the character “A” assigned to “Hot” are displayed. In this example, the coordinates of the display position of “I” are (172, 190), and the coordinates of the display position of “A” are (244, 154). These coordinates are for reference only and are not displayed in actual subtitles.

図8に示される字幕に対応するPESパケットには、図9に示されるような情報が含まれているものとする。同図に示されるように、PESパケットに含まれる字幕に関する情報は、図5を参照して上述した場合と同様に、字幕の各文字を特定する情報、各文字のサイズ、および各文字の表示位置により構成されている。図9の例では、「今日は寒い いや暑い」という文字列の文字のサイズは、全て「36×36」とされ、振り仮名の文字のサイズは、「18×18」または「18×9」とされている。   It is assumed that the PES packet corresponding to the caption shown in FIG. 8 includes information as shown in FIG. As shown in the figure, the information related to the subtitles included in the PES packet is the same as the case described above with reference to FIG. 5, the information specifying each character of the subtitle, the size of each character, and the display of each character. It is configured by position. In the example of FIG. 9, the character size of the character string “Today is cold or hot” is all “36 × 36”, and the character size of the kana is “18 × 18” or “18 × 9”. It is said that.

いま、図6のステップS21において、図9に示されるような情報が取得されたものとする。   Now, it is assumed that information as shown in FIG. 9 has been acquired in step S21 of FIG.

図8の字幕は横書きだから、ステップS22では、文字の高さが2種類以上存在するか否かが判定され、振り仮名特定処理の処理対象とされる。なお、図8に示される字幕は、画面の水平方向の仮想的直線(y=100、y=136、y=154、y=190)に沿って文字が表示されるものなので、この字幕は横書きであると特定することが可能である。   Since the subtitles in FIG. 8 are written horizontally, it is determined in step S22 whether or not there are two or more types of character heights, and is set as a processing target of the assigned name identification process. Note that the subtitles shown in FIG. 8 display characters along a horizontal virtual line (y = 100, y = 136, y = 154, y = 190) on the screen. Can be specified.

また、図7のステップS41においても、字幕が横書きであると判定され、ステップS42において、図9に示される情報の最初の文字の高さが取得される。いまの場合、最初
の文字は「き」であり、その高さは18である。
Also, in step S41 in FIG. 7, it is determined that the subtitle is horizontal writing, and in step S42, the height of the first character of the information shown in FIG. 9 is acquired. In this case, the first character is “ki” and its height is 18.

ステップS43では、その最初の文字「き」が振り仮名候補の文字とされる。   In step S43, the first character “KI” is set as a candidate for the kana character.

ステップS44では、次の文字があるか否かが判定され、「ょ」の文字があるから次の文字があると判定され、処理は、ステップS45に進む。   In step S44, it is determined whether or not there is a next character. Since there is a character “ょ”, it is determined that there is a next character, and the process proceeds to step S45.

ステップS45では、「ょ」の文字の高さ「18」が取得される。   In step S45, the height “18” of the character “yo” is acquired.

ステップS46では、文字「ょ」の高さと、振り仮名候補の文字「き」の高さとが比較される。いまの場合、文字の高さが同じなので、ステップS45の処理で取得された文字の高さの値が振り仮名候補の文字の高さの値より小さくないと判定される。   In step S46, the height of the character “「 ”is compared with the height of the character“ KI ”as the candidate for kana. In this case, since the character height is the same, it is determined that the character height value acquired in the process of step S45 is not smaller than the character height value of the candidate for kana.

その後、処理は、ステップS44に戻り、それぞれ「う」、「今」、「日」、・・・「暑」、「い」の文字の高さがチェックされていく。しかし、それぞれの文字の高さは「18」または「36」なので、ステップS46では、都度、ステップS45の処理で取得された文字の高さの値が振り仮名候補の文字の高さの値より小さくないと判定される。   Thereafter, the process returns to step S44, and the heights of the letters “U”, “Now”, “Day”,... “Hot”, “I” are checked. However, since the height of each character is “18” or “36”, in step S46, the height value of the character obtained in the processing of step S45 is calculated from the height value of the character of the candidate for kana each time. It is determined that it is not small.

この例では、ステップS46で振り仮名候補の文字の高さの値より小さいと判定されないので、ステップS43で振り仮名候補の文字が更新されないが、実際には、振り仮名候補の文字が更新されることもある。   In this example, since it is not determined in step S46 that the character height of the candidate name is smaller than the height value, the character of the candidate name is not updated in step S43, but the character of the candidate name is actually updated. Sometimes.

すなわち、図9の例では、最初の文字が振り仮名の文字なので、振り仮名候補を更新する必要はないが、最初の文字が振り仮名の文字でない場合、ステップS46の判定結果に基づいて振り仮名候補の文字を更新する必要がある。   That is, in the example of FIG. 9, since the first character is the character of the kana, there is no need to update the kana character candidate, but when the first character is not the kana character, the kana is based on the determination result of step S46. The candidate character needs to be updated.

図7の処理が終了した時点で、振り仮名候補の文字は「き」であり、振り仮名候補の文字の高さは「18」である。   When the process of FIG. 7 is completed, the character of the candidate name is “ki”, and the height of the character of the candidate name is “18”.

そして、図7の処理が終了した後、図6のステップS24において、字幕が横書きであると判定され、ステップS25の処理に進むことになる。ステップS25では、図9の文字の中で、振り仮名候補の文字と同じ高さの文字が抽出されて、振り仮名の文字と特定される。いまの場合、上述したように、振り仮名候補の文字の高さは「18」なので、高さが「18」である文字「き」、「ょ」、「う」、「あ」、「つ」が抽出されることになる。すなわち、図9に示される文字のうち、ハッチングで示される文字のそれぞれが振り仮名の文字として特定されることになるのである。なお、図中ではハッチングで表されている字幕に含まれる文字のそれぞれが振り仮名かどうかを表す情報は、例えば、フラグとして追加されるようにしてもよい。   Then, after the processing in FIG. 7 is completed, it is determined in step S24 in FIG. 6 that the caption is in horizontal writing, and the process proceeds to step S25. In step S25, a character having the same height as the character of the candidate name is extracted from the characters in FIG. 9 and specified as the character of the name. In this case, as described above, since the height of the character of the candidate for kana is “18”, the characters “ki”, “yo”, “u”, “a”, “tsu” whose height is “18” are used. "Will be extracted. That is, among the characters shown in FIG. 9, each of the characters indicated by hatching is specified as the character of the kana. In the figure, information indicating whether or not each character included in a caption represented by hatching is a pseudonym may be added as a flag, for example.

このように振り仮名の文字が特定され、字幕に含まれる文字のそれぞれが振り仮名かどうかを表す情報が、字幕情報格納バッファ47に格納されている情報に追加されることになる。すなわち、図6と図7のフローチャートを参照して上述した処理を経た後、字幕情報格納バッファ47に格納されている情報においては、例えば、図9に示されるように、「き」、「ょ」、「う」、「あ」、「つ」の文字がそれぞれ振り仮名の文字であると特定できるようになされている。   In this way, the characters of the kana are specified, and information indicating whether each of the characters included in the subtitle is a kana is added to the information stored in the subtitle information storage buffer 47. That is, in the information stored in the caption information storage buffer 47 after the processing described above with reference to the flowcharts of FIGS. 6 and 7, for example, as shown in FIG. "," U "," a ", and" tsu "can be identified as the characters of the kana.

これにより、上述したように、設定情報格納バッファ48に格納されている情報に基づいて、字幕に含まれる文字のうち、振り仮名の文字を取捨選択して出力することが可能になるのである。また、字幕に含まれる文字の情報をテキスト情報に変換するとともに、各文字が振り仮名であるか否かを表す情報と対応付けてメタ情報格納バッファ51に格納することも可能となる。   As a result, as described above, based on the information stored in the setting information storage buffer 48, it is possible to select and output the kana characters among the characters included in the subtitles. Also, it is possible to convert the information of characters included in the caption into text information and store it in the meta information storage buffer 51 in association with information indicating whether each character is a kana.

従来、例えば、カラオケ装置において、平仮名、片仮名、英語などで歌詞を表示することは行われていた。さらに、ビデオ信号から字幕部分を取り除き、ビデオ圧縮符号化を行う際に不利となる高域周波数成分を減少させることで、符号化効率を上げ、より高画質な画像データの記録が可能となるようにすることも行なわれている。   Conventionally, for example, in a karaoke apparatus, displaying lyrics in hiragana, katakana, English, and the like has been performed. Furthermore, by removing the subtitles from the video signal and reducing the high frequency components that are disadvantageous when performing video compression coding, it is possible to increase coding efficiency and record higher quality image data. It has also been done.

しかしながら、十分な読解力がある人にとって、振り仮名が付されていると、かえってわずらわしいと感じられることがあるが、一般的に、字幕にはかなりの頻度で振り仮名が付されている。   However, for a person with sufficient reading ability, it may seem that the name is awkward if a kana is attached, but generally a subtitle is affixed to the subtitles considerably.

また、字幕の文字を、例えば、コンテンツのメタデータとして用いる場合などは、振り仮名の文字が特定できないと、適切にメタデータを生成できないという問題があった。   Further, when subtitle characters are used, for example, as content metadata, there is a problem in that metadata cannot be generated properly unless the characters of the kana are specified.

従来の技術では、字幕の中の振り仮名の文字だけを表示しないようにすることができなかったし、字幕の中の振り仮名の文字を特定することもできなかった。   In the conventional technology, it is not possible to prevent only the characters of the hiragana characters in the subtitles from being displayed, and it is not possible to specify the characters of the hiragana characters in the subtitles.

これに対して本発明では、振り仮名の文字を特定することが可能であるため、字幕の中の振り仮名の文字だけを表示しないようにすることができ、また、適切にメタデータを生成することもできる。   On the other hand, in the present invention, it is possible to specify the characters of the hiragana, so that only the characters of the hiragana in the subtitle can be prevented from being displayed, and the metadata is appropriately generated. You can also.

なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図10に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware, or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer 700 as shown in FIG. 10 is installed from a network or a recording medium.

図10において、CPU(Central Processing Unit)701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部708からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。   In FIG. 10, a CPU (Central Processing Unit) 701 executes various processes according to a program stored in a ROM (Read Only Memory) 702 or a program loaded from a storage unit 708 to a RAM (Random Access Memory) 703. To do. The RAM 703 also appropriately stores data necessary for the CPU 701 to execute various processes.

CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース705も接続されている。   The CPU 701, ROM 702, and RAM 703 are connected to each other via a bus 704. An input / output interface 705 is also connected to the bus 704.

入出力インタフェース705には、キーボード、マウスなどよりなる入力部706、LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部707、ハードディスクなどより構成される記憶部708、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部709が接続されている。通信部709は、インターネットを含むネットワークを介しての通信処理を行う。   The input / output interface 705 includes an input unit 706 including a keyboard and a mouse, a display including an LCD (Liquid Crystal Display), an output unit 707 including a speaker, a storage unit 708 including a hard disk, a modem, a LAN, and the like. A communication unit 709 including a network interface card such as a card is connected. The communication unit 709 performs communication processing via a network including the Internet.

入出力インタフェース705にはまた、必要に応じてドライブ710が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部708にインストールされる。   A drive 710 is also connected to the input / output interface 705 as necessary, and a removable medium 711 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is loaded. It is installed in the storage unit 708 as necessary.

上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア711などからなる記録媒体からインストールされる。   When the above-described series of processing is executed by software, a program constituting the software is installed from a network such as the Internet or a recording medium such as a removable medium 711.

なお、この記録媒体は、図10に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア711により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部708に含まれるハードディスクなどで構成されるものも含む。   The recording medium shown in FIG. 10 is a magnetic disk (including a floppy disk (registered trademark)) on which a program is recorded, which is distributed to distribute the program to the user separately from the apparatus main body, Removable media consisting of optical discs (including compact disc-read only memory (CD-ROM), DVD (digital versatile disc)), magneto-optical discs (including MD (mini-disc) (registered trademark)), or semiconductor memory It includes not only those configured by 711 but also those configured by a ROM 702 storing a program, a hard disk included in the storage unit 708, and the like that are distributed to the user in a state of being incorporated in the apparatus main body in advance.

なお、本明細書において上述した一連の処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Note that the series of processes described above in this specification includes processes that are performed in parallel or individually even if they are not necessarily processed in time series, as well as processes that are performed in time series in the order described. Is also included.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

1 コンテンツ処理装置, 2 ディスプレイ, 22 DEMUX, 23 ビデオデコーダ, 24 映像格納バッファ, 26 オーディオデコーダ, 27 音声情報格納バッファ, 40 字幕デコーダブロック, 41 ヘッダ除去部, 42 データグループデコーダ, 43 字幕管理デコーダ, 44 字幕文デコーダ 45 データユニットデコーダ, 46 振り仮名判別部, 47 字幕情報格納バッファ, 48 設定情報格納バッファ, 49 表示制御部, 50 メタ情報制御部, 51 メタ情報格納バッファ, 61 合成部   1 content processing device, 2 display, 22 DEMUX, 23 video decoder, 24 video storage buffer, 26 audio decoder, 27 audio information storage buffer, 40 subtitle decoder block, 41 header removal unit, 42 data group decoder, 43 subtitle management decoder, 44 Subtitle sentence decoder 45 Data unit decoder 46 Fake kana discrimination unit 47 Subtitle information storage buffer 48 Setting information storage buffer 49 Display control unit 50 Meta information control unit 51 Meta information storage buffer 61 Composition unit

Claims (8)

コンテンツの画像に重畳されて表示される文字からなる字幕のデータを抽出する字幕データ抽出手段と、
前記抽出した字幕のデータに基づいて、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報を取得する文字情報取得手段と、
前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に振り仮名の文字が含まれているか否かを判定する振り仮名判定手段と、
前記字幕に振り仮名の文字が含まれていると判定された場合、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に含まれる文字のうち、振り仮名の文字を特定する情報を生成する振り仮名情報生成手段と
を備えるコンテンツ処理装置。
Subtitle data extraction means for extracting subtitle data consisting of characters displayed superimposed on the content image;
Character information acquisition means for acquiring information representing the characters included in the subtitles and the sizes of the characters based on the extracted subtitle data;
Based on the characters included in the subtitles and information indicating the size of each of those characters, a hiragana determination unit that determines whether or not the subtitles include characters of the kana characters,
When it is determined that the subtitle includes characters of the hiragana, the hiragana of the characters included in the subtitle based on the characters included in the subtitle and the information indicating the size of each of the characters A content processing apparatus comprising: a pseudonym information generating unit that generates information for specifying the character.
前記振り仮名判定手段は、前記字幕が横書きまたは縦書きのいずれであるかを表すフォーマットを特定し、
前記字幕のフォーマットが横書きである場合、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に含まれる文字の高さが2種類以上存在するか否かを判定することで、前記字幕に振り仮名の文字が含まれるか否かを判定する
請求項1に記載のコンテンツ処理装置。
The fake kana determination unit specifies a format indicating whether the subtitle is horizontal writing or vertical writing,
When the subtitle format is horizontal writing, whether or not there are two or more types of character heights included in the subtitles based on the characters included in the subtitles and information indicating the sizes of the respective characters. The content processing apparatus according to claim 1, wherein the content processing apparatus determines whether or not the subtitle includes a kana character.
前記振り仮名情報生成手段は、
前記字幕に含まれる文字のうち、前記文字のサイズを表す情報に基づいて特定される高さの値が最も小さい文字を、振り仮名の候補文字として検出し、
前記字幕に含まれる文字のうち、前記候補文字と同じ高さの値の文字を前記振り仮名の文字として特定する
請求項2に記載のコンテンツ処理装置。
The fake kana information generating means
Among the characters included in the subtitles, the character having the smallest height value specified based on the information indicating the size of the character is detected as a candidate character for the kana,
The content processing apparatus according to claim 2, wherein among the characters included in the subtitle, a character having a value that is the same height as the candidate character is specified as the character of the kana.
前記振り仮名情報生成手段は、前記字幕が横書きまたは縦書きのいずれであるかを表すフォーマットを特定し、
前記字幕のフォーマットが縦書きである場合、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に含まれる文字の幅が2種類以上存在するか否かを判定することで、前記字幕に振り仮名の文字が含まれるか否かを判定する
請求項1に記載のコンテンツ処理装置。
The furigana information generating means specifies a format indicating whether the subtitle is horizontal writing or vertical writing,
If the format of the subtitle is vertical writing, whether or not there are two or more types of character widths included in the subtitle based on the information included in the subtitles and the information indicating the size of each character. The content processing apparatus according to claim 1, wherein the content processing apparatus determines whether or not the subtitle includes a kana character.
前記振り仮名情報生成手段は、
前記字幕に含まれる文字のうち、前記文字のサイズを表す情報に基づいて特定される幅の値が最も小さい文字を、振り仮名の候補文字として検出し、
前記字幕に含まれる文字のうち、前記候補文字と同じ幅の値の文字を前記振り仮名の文字として特定する
請求項4に記載のコンテンツ処理装置。
The fake kana information generating means
Among the characters included in the subtitles, the character having the smallest width value specified based on the information indicating the size of the character is detected as a candidate character for the kana,
The content processing apparatus according to claim 4, wherein, among the characters included in the subtitle, a character having a value having the same width as the candidate character is specified as the character of the furigana.
予め設定された情報に基づいて、前記振り仮名情報生成手段により特定された前記振り仮名の文字を、画面表示するか否かを制御する画面表示制御手段
をさらに備える請求項1に記載のコンテンツ処理装置。
The content processing according to claim 1, further comprising: a screen display control unit that controls whether or not to display a screen of the characters of the phonetic name specified by the phonetic information generation unit based on preset information. apparatus.
前記字幕のデータ、および前記振り仮名情報生成手段により特定された前記振り仮名の文字に基づいて、前記コンテンツのメタデータを生成するメタデータ生成手段
をさらに備える請求項1に記載のコンテンツ処理装置。
The content processing apparatus according to claim 1, further comprising: metadata generation means for generating metadata of the content based on the caption data and the characters of the phonetic name specified by the phonetic information generation means.
コンテンツの画像に重畳されて表示される文字からなる字幕のデータに基づいて、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報を取得し、
前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に振り仮名の文字が含まれているか否かを判定し、
前記字幕に振り仮名の文字が含まれていると判定された場合、前記字幕に含まれる文字、およびそれらの文字それぞれのサイズを表す情報に基づいて、前記字幕に含まれる文字のうち、振り仮名の文字を特定する情報を生成する
ステップを含むコンテンツ処理方法。
Based on the caption data consisting of the characters displayed superimposed on the content image, the characters included in the caption, and information representing the size of each of those characters is obtained,
Based on the characters included in the subtitles and information indicating the size of each of those characters, it is determined whether the subtitles include characters of the kana,
If it is determined that the subtitle includes characters of the hiragana, the hiragana of the characters included in the subtitle based on the characters included in the subtitle and the information indicating the size of each of the characters The content processing method including the step which produces | generates the information which pinpoints the character of.
JP2009039435A 2009-02-23 2009-02-23 Apparatus and method for processing content Pending JP2010199711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009039435A JP2010199711A (en) 2009-02-23 2009-02-23 Apparatus and method for processing content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009039435A JP2010199711A (en) 2009-02-23 2009-02-23 Apparatus and method for processing content

Publications (1)

Publication Number Publication Date
JP2010199711A true JP2010199711A (en) 2010-09-09

Family

ID=42824013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009039435A Pending JP2010199711A (en) 2009-02-23 2009-02-23 Apparatus and method for processing content

Country Status (1)

Country Link
JP (1) JP2010199711A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2506565A2 (en) 2011-03-30 2012-10-03 Sony Corporation Display controller, display method, and computer program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050215A (en) * 2004-08-04 2006-02-16 Matsushita Electric Ind Co Ltd Video image display apparatus
JP2007142568A (en) * 2005-11-15 2007-06-07 Toshiba Corp Portable caption specification changing apparatus for digital broadcast and changing method thereof
JP2007259121A (en) * 2006-03-23 2007-10-04 Daikin Ind Ltd Closed caption data processing method, closed caption data processing program and closed caption data processor
WO2009022703A1 (en) * 2007-08-14 2009-02-19 Nippon Hoso Kyokai Video distribution device and video distribution program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050215A (en) * 2004-08-04 2006-02-16 Matsushita Electric Ind Co Ltd Video image display apparatus
JP2007142568A (en) * 2005-11-15 2007-06-07 Toshiba Corp Portable caption specification changing apparatus for digital broadcast and changing method thereof
JP2007259121A (en) * 2006-03-23 2007-10-04 Daikin Ind Ltd Closed caption data processing method, closed caption data processing program and closed caption data processor
WO2009022703A1 (en) * 2007-08-14 2009-02-19 Nippon Hoso Kyokai Video distribution device and video distribution program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2506565A2 (en) 2011-03-30 2012-10-03 Sony Corporation Display controller, display method, and computer program
US8866851B2 (en) 2011-03-30 2014-10-21 Sony Corporation Displaying a sequence of images and associated character information

Similar Documents

Publication Publication Date Title
EP1614108B1 (en) Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses of recording and reproducing
US20050185930A1 (en) Storage medium for storing text-based subtitle data including style information, and reproducing apparatus and method for reproducing text-based subtitle data including style information
JP5423425B2 (en) Image processing device
JP2009076970A (en) Summary content generation device and computer program
KR20070029523A (en) Method and apparatus for making thumbnails out of digital image
KR100604831B1 (en) Audio and video player synchronizing ancillary word and image to audio and method thereof
US20180234713A1 (en) Display apparatus for playing substitutional advertisement and control method thereof
KR20160059162A (en) Broadcast receiving apparatus and control method thereof
JP5857449B2 (en) Image processing apparatus and recording apparatus
JP2009130899A (en) Image playback apparatus
JPH11284948A (en) Thumbnail generating method and thumbnail display method
TW201008269A (en) Reproducing device, reproducing method, program, and data structure
US20130073934A1 (en) Image display apparatus, image display method, and computer readable medium
JP2011139221A (en) Broadcast receiving apparatus, and broadcast receiving method
JP2010199711A (en) Apparatus and method for processing content
JPH10294896A (en) Method and device for processing digital information with superimposed characters
JP2008134825A (en) Information processor, information processing method and program
JP2008053991A (en) Digital broadcast receiver
JP5354145B2 (en) Video display device and video display method
JP2010081149A (en) Information-recording and reproducing device
JP5060509B2 (en) Information processing apparatus and caption text data conversion method
JP2010283568A (en) Subtitle information analysis apparatus, and subtitle information analysis method
JP2008269460A (en) Moving image scene type determination device and method
CN116708908A (en) HEVC coding and playing method and equipment containing closed captions
JP2010148048A (en) Device and method for recompression of moving image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130418