JP2002344805A - Method for controlling subtitles display for open caption - Google Patents

Method for controlling subtitles display for open caption

Info

Publication number
JP2002344805A
JP2002344805A JP2001148426A JP2001148426A JP2002344805A JP 2002344805 A JP2002344805 A JP 2002344805A JP 2001148426 A JP2001148426 A JP 2001148426A JP 2001148426 A JP2001148426 A JP 2001148426A JP 2002344805 A JP2002344805 A JP 2002344805A
Authority
JP
Japan
Prior art keywords
subtitle
display
caption
unit
open caption
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001148426A
Other languages
Japanese (ja)
Other versions
JP4496358B2 (en
Inventor
Eiji Sawamura
英治 沢村
Takao Monma
隆雄 門馬
Terumasa Ebara
暉将 江原
Katsuhiko Shirai
克彦 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telecommunications Advancement Organization
Japan Broadcasting Corp
NHK Engineering System Inc
Original Assignee
Nippon Hoso Kyokai NHK
Telecommunications Advancement Organization
NHK Engineering Services Inc
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Telecommunications Advancement Organization, NHK Engineering Services Inc, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2001148426A priority Critical patent/JP4496358B2/en
Publication of JP2002344805A publication Critical patent/JP2002344805A/en
Application granted granted Critical
Publication of JP4496358B2 publication Critical patent/JP4496358B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To automatically control the display position and the display contents of display schedule subtitles so as not to cause superimposition when an open caption exists at the display schedule position of the display schedule subtitles which are produced in an automatic subtitles program production system. SOLUTION: An open caption judging part 39 detects the open caption comprised in a video signal to be inputted from a D-VTR 23 through the use of the feature of the open caption which is displayed in a video by superimposition. A character recognizing part 41 converts the open caption detected by the open caption judging part 39 into a text. A screen change judging part 43 detects the changeover point of a screen concerning the video signal to be inputted from the D-VTR 23. A subtitles display position control part 45 performs control to permit the display position of the display schedule subtitles from an integrating device 17 and the display contents not to be superimposed on the open caption.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自動字幕番組制作
システムにおいて制作された表示予定字幕の表示位置や
タイミングなどをオープンキャプションに対して自動的
に制御する方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for automatically controlling the display position and timing of a subtitle to be displayed produced in an automatic subtitle program production system with respect to an open caption.

【0002】[0002]

【従来の技術】現代は高度情報化社会と一般に言われて
いるが、聴覚障害者は健常者と比較して情報の入手が困
難な状況下におかれている。即ち、例えば、情報メディ
アとして広く普及しているTV放送番組を例示すると、
TV放送番組に対する字幕番組の割合は、欧米では33
〜70%に達しているのに対し、我が国ではわずか10
%程度ときわめて低くおかれているのが現状である。
2. Description of the Related Art Today, it is generally referred to as an advanced information society, but hearing impaired persons are in a situation where it is difficult to obtain information as compared with healthy persons. That is, for example, if a TV broadcast program widely used as an information medium is exemplified,
The ratio of subtitle programs to TV broadcast programs is 33
Up to 70%, compared to just 10% in Japan.
At present, it is extremely low at about%.

【0003】このように、我が国で全TV放送番組に対
する字幕番組の割合が欧米と比較して低くおかれている
要因としては、主として字幕番組制作技術の未整備を挙
げることができる。具体的には、日本語特有の問題もあ
り、字幕番組制作工程の殆どが手作業によっており、多
大な労力・時間・費用を要するためである。
As described above, the reason why the ratio of subtitle programs to all TV broadcast programs in Japan is lower than that in Europe and the United States is mainly due to the lack of technology for producing subtitle programs. Specifically, there is also a problem unique to Japanese, and most of the subtitle program production processes are manually performed, requiring a great deal of labor, time, and cost.

【0004】そこで、本発明者らは、字幕番組制作技術
の整備を妨げている原因究明を企図して、現行の字幕番
組制作の実態調査を行った。図10の左側には、現在一
般に行われている字幕番組制作フローを示してある。図
10の右側には、改良された現行字幕制作フローを示し
てある。
[0004] The inventors of the present invention have conducted a survey on the current state of subtitle program production in an attempt to find out the cause of hindrance to the development of subtitle program production technology. The left side of FIG. 10 shows a subtitle program production flow that is currently generally performed. On the right side of FIG. 10, an improved current subtitle production flow is shown.

【0005】図10の左側において、ステップS101
では、字幕番組制作者が、タイムコードを映像にスーパ
ーした番組データと、タイムコードを音声チャンネルに
記録した番組テープと、番組台本との3つの字幕原稿作
成素材を放送局から受け取る。なお、図中において「タ
イムコード」を「TC」と略記する場合があることを付
言しておく。
[0005] On the left side of FIG.
Then, a subtitle program maker receives three subtitle manuscript creation materials from a broadcasting station: program data in which a time code is superimposed on a video, a program tape in which the time code is recorded on an audio channel, and a program script. Note that in the drawings, “time code” may be abbreviated as “TC”.

【0006】ステップS103では、放送関係経験者等
の専門家が、ステップS101で受け取った字幕原稿作
成素材を基に、(1)番組アナウンスの要約書き起こ
し、(2)別途規定された字幕提示の基準となる原稿作
成要領に従う字幕提示イメージ化、(3)その開始・終
了タイムコード記入、の各作業を順次行い、字幕原稿を
作成する。
In step S103, an expert, such as a person who has experience in broadcasting, transcribes (1) a summary of a program announcement on the basis of the subtitle manuscript preparation material received in step S101, and (2) presents a separately specified subtitle presentation. The subtitle presentation image is created in accordance with the standard manuscript creation procedure, and (3) the start and end time codes are entered in order to create a subtitle manuscript.

【0007】ステップS105では、入力オペレータ
が、ステップS103で作成された字幕原稿をもとに電
子化字幕データを作成する。ステップS107では、ス
テップS105で作成された電子化字幕データを、担当
の字幕制作費任者、原稿作成者、及び入力オペレータの
三者立ち会いのもとで試写・修正を行い、完成字幕とす
る。
In step S105, the input operator creates digitized caption data based on the caption document created in step S103. In step S107, the digitized subtitle data created in step S105 is previewed and corrected in the presence of the person in charge of the subtitle production cost manager, the manuscript creator, and the input operator, to obtain completed subtitles.

【0008】ところで、最近では、番組アナウンスの要
約書き起こしと字幕の電子化双方に通じたキャプション
オペレータと呼ばれる人材を養成することで、図10の
右側に示す改良された現行字幕制作フローも一部実施さ
れている。
By the way, recently, by training a human resource called a caption operator who has both been able to summarize and transcribe program announcements and digitize subtitles, part of the improved current subtitle production flow shown on the right side of FIG. It has been implemented.

【0009】即ち、ステップS111では、字幕番組制
作者が、タイムコードを音声チャンネルに記録した番組
テープと、番組台本との2つの字幕原稿作成素材を放送
局から受け取る。
That is, in step S111, a subtitle program creator receives two subtitle manuscript creation materials, a program tape having a time code recorded on an audio channel and a program script, from a broadcasting station.

【0010】ステップS113では、キャプションオペ
レータが、タイムコードを音声チャンネルに記録した番
組テープを再生する。このとき、セリフの開始点でマウ
スのボタンをクリックすることでその点の音声チャンネ
ルから始点タイムコードを取り出して記録する。さら
に、セリフを聴取して要約電子データとして入力する。
同様に、字幕原稿作成要領に基づく区切り箇所に対応す
るセリフ点で再びマウスのボタンをクリックすることで
その点の音声チャンネルから終点タイムコードを取り出
して記録する。これらの操作を番組終了まで繰り返し
て、番組全体の字幕を電子化する。
In step S113, the caption operator reproduces the program tape having the time code recorded on the audio channel. At this time, by clicking a mouse button at the start point of the dialog, the start time code is extracted from the audio channel at that point and recorded. Furthermore, the user listens to the dialogue and inputs it as summary electronic data.
Similarly, when the mouse button is clicked again at the serif point corresponding to the break point based on the subtitle manuscript creation procedure, the end point time code is extracted from the audio channel at that point and recorded. These operations are repeated until the end of the program, and the subtitles of the entire program are digitized.

【0011】ステップS117では、ステップS105
で作成された電子化字幕データを、担当の字幕制作費任
者、及びキャプションオペレータの二者立ち会いのもと
で試写・修正を行い、完成字幕とする。
In step S117, step S105
The subtitle data created in step (1) is previewed and modified in the presence of the caption production charge manager in charge and the caption operator to obtain the completed subtitles.

【0012】後者の改良された現行字幕制作フローで
は、キャプションオペレータが、タイムコードを音声チ
ャンネルに記録した番組テープのみを使用して、セリフ
の要約と電子データ化を行うとともに、提示単位に分割
した字幕の始点/終点にそれぞれ対応するセリフのタイ
ミングでマウスボタンをクリックすることにより、音声
チャンネルの各タイムコードを取り出して記録するもの
であり、かなり省力化された効果的な字幕制作フローと
いえる。
In the latter improved current subtitle production flow, the caption operator summarizes the dialogue and converts it into electronic data using only the program tape in which the time code is recorded on the audio channel, and divides the dialog into presentation units. By clicking the mouse button at the timing of the dialog corresponding to the start point / end point of the subtitle, each time code of the audio channel is taken out and recorded, which can be said to be an effective subtitle production flow with considerably reduced labor.

【0013】ここで、上述した現行字幕制作フローにお
ける一連の処理の流れの中で特に多大な工数を要するの
は、ステップS103ないしはS105またはステップ
S113の、(1)番組アナウンスの要約書き起こし、
(2)字幕提示イメージ化、(3)その開始・終了タイ
ムコード記入、の各作業工程である。これらの作業工程
は熟練者の知識・経験に負うところが大きい。
In the above-mentioned series of processing in the current subtitle production flow, a particularly large number of man-hours are required because, in step S103 or S105 or step S113, (1) summary transcription of the program announcement,
(2) Subtitle presentation imaging, and (3) start / end time code entry. These work processes largely depend on the knowledge and experience of skilled workers.

【0014】ところが、現在放送中の字幕番組の中で、
予めアナウンス原稿が作成され、その原稿が殆ど修正さ
れることなく実際の放送字幕となっていると推測される
番組がいくつかある。例えば、「生きもの地球紀行」と
いう字幕付き情報番組を実際に調べて見ると、アナウン
ス音声と字幕内容は殆ど共通であり、共通の原塙をアナ
ウンス用と字幕用の双方に利用しているものと推測でき
る。
[0014] However, among the currently broadcast subtitle programs,
There are some programs in which an announcement manuscript is created in advance, and the manuscript is supposed to be an actual broadcast subtitle with little modification. For example, when actually examining an information program with subtitles called "Travels of the Earth", the announcement sound and subtitle content are almost the same, and the common Hara Hanawa is used for both announcement and subtitle. I can guess.

【0015】そこで、本発明者らは、ほぼ共通の電子化
原稿をアナウンス用と字幕用の双方に利用する形態を想
定して、字幕番組の制作を自動化できる自動字幕番組制
作システムを開発し先に出願した(例えば特開2000
−270623号公報)。
Therefore, the present inventors have developed an automatic subtitle program production system capable of automating the production of subtitle programs, assuming a form in which a substantially common digitized manuscript is used for both announcements and subtitles. (For example, Japanese Patent Application Laid-Open
-270623).

【0016】[0016]

【発明が解決しようとする課題】しかし、テレビ映像に
スーパー表示される文字、いわゆるオープンキャプショ
ンが表示されているときに、映像上に表示しようとする
字幕放送の字幕がオープンキャプションと重なる場合に
は、双方とも非常に見難くなる。
However, when a character displayed superimposed on a television image, that is, a so-called open caption is displayed, a subtitle of a subtitle broadcast to be displayed on the image overlaps with the open caption. , Both are very hard to see.

【0017】そのため、映像のオープンキャプションを
調べて、それと重複しない表示位置やタイミングを字幕
用原稿の段階で指定するとか、試写・修正段階で表示位
置やタイミングを重複しないよう修正するなどして、オ
ープンキャプションに対し字幕が重ならないようにする
作業が必要になる。これらの作業は全て専門知識を有す
る人が手作業により、多くの時間を使って行われてい
た。
Therefore, the open caption of the video is checked, and a display position and timing that do not overlap with the open caption are specified at the stage of the subtitle manuscript, or the display position and timing are corrected so as not to overlap at the preview / correction stage. Work must be done to ensure that subtitles do not overlap for open captions. All of these tasks were performed manually by a person with specialized knowledge, and took a lot of time.

【0018】本発明は、このような実情に鑑みてなされ
たものであり、ほぼ共通の電子化原稿をアナウンス用と
字幕用の双方に利用する形態を想定して字幕番組を制作
する自動字幕番組制作システムにおいて制作した表示予
定字幕の表示予定位置に、オープンキャプションが存在
するときに、重複しないように表示予定字幕の表示位置
やタイミングを自動的に制御できるオープンキャプショ
ンに対する字幕表示制御方法を提供することを目的とし
ている。
The present invention has been made in view of such circumstances, and has been developed in consideration of a form in which a substantially common digitized manuscript is used for both announcements and subtitles. Provided is a subtitle display control method for an open caption that can automatically control a display position and a timing of a display subtitle to be displayed so as not to be duplicated when an open caption is present at a display position of a display subtitle produced by a production system. It is intended to be.

【0019】[0019]

【課題を解決するための手段】上記目的を達成するため
に、請求項1に記載のオープンキャプションに対する字
幕表示制御方法は、テレビ映像にスーパー表示されるオ
ープンキャプションの有無を検知し、自動字幕番組制作
システムにおいて制作された表示予定字幕の表示予定位
置に前記オープンキャプションが存在するとき、前記表
示予定字幕の表示位置を同じフレームにおいて前記オー
プンキャプションと重ならない所定位置に決定する、ま
たは、前記表示予定字幕の表示位置を前記オープンキャ
プションが存在しないフレームにおける所定位置に決定
することを特徴とする。
According to one aspect of the present invention, there is provided a subtitle display control method for an open caption according to the first aspect of the present invention. When the open caption exists at the display position of the display subtitle produced by the production system, the display position of the display subtitle is determined to be a predetermined position that does not overlap with the open caption in the same frame, or The display position of the subtitle is determined at a predetermined position in a frame where the open caption does not exist.

【0020】この方法によれば、ほぼ共通の電子化原稿
をアナウンス用と字幕用の双方に利用する形態を想定し
て字幕番組を制作する自動字幕番組制作システムにおけ
る字幕制作の一環として、テレビ映像にスーパー表示さ
れるオープンキャプションの有無を検知し、表示予定の
字幕が検知したオープンキャプションと重ならないよう
にその字幕の表示位置や表示タイミングをオープンキャ
プションに応じて自動的に制御できる。
According to this method, as a part of subtitle production in an automatic subtitle program production system for producing a subtitle program on the assumption that a substantially common digitized manuscript is used for both an announcement and a subtitle, The presence / absence of an open caption that is super-displayed is automatically detected, and the display position and the display timing of the subtitle can be automatically controlled in accordance with the open caption so that the subtitle to be displayed does not overlap with the detected open caption.

【0021】請求項2に記載のオープンキャプションに
対する字幕表示制御方法は、テレビ映像にスーパー表示
されるオープンキャプションの有無及びそのオープンキ
ャプションの内容を検知し、自動字幕番組制作システム
において制作された表示予定字幕の表示予定位置に前記
オープンキャプションが存在するとき、前記オープンキ
ャプションの内容と前記表示予定字幕の内容との近似度
を調査し、調査した近似度の程度に応じて、前記表示予
定字幕の表示/非表示ないしは修正/非修正を決定する
ことを特徴とする。
According to a second aspect of the present invention, there is provided a subtitle display control method for an open caption, wherein the presence / absence of an open caption superimposed on a television image and the content of the open caption are detected, and a display schedule produced by an automatic subtitle program production system is detected. When the open caption is present at the display position of the subtitle, the similarity between the content of the open caption and the content of the subtitle to be displayed is investigated, and the display of the subtitle to be displayed is performed according to the degree of approximation that has been investigated. / Non-display or correction / non-correction.

【0022】この方法によれば、オープンキャプション
をテキストとしても自動検知し、表示予定の字幕内容と
比較して、字幕の表示/非表示、字幕内容の修正/非修
正なども自動的に判別し実行することができる。
According to this method, the open caption is automatically detected as text, and the display / non-display of the subtitle, the correction / non-correction of the subtitle content, and the like are automatically determined by comparing with the subtitle content to be displayed. Can be performed.

【0023】請求項3に記載のオープンキャプションに
対する字幕表示制御方法は、請求項1又は請求項2に記
載のオープンキャプションに対する字幕表示制御方法に
おいて、前記テレビ映像のシーン変更点を検出し、検出
したシーン変更点と字幕終了タイミングとを比較し、比
較結果に基づき字幕終了タイミングを変更することを特
徴とする。
According to a third aspect of the present invention, there is provided the subtitle display control method for an open caption according to the first or second aspect, wherein the scene change point of the television image is detected and detected. It is characterized in that the scene change point is compared with the subtitle end timing, and the subtitle end timing is changed based on the comparison result.

【0024】この方法によれば、例えば、カットのタイ
ミングを避けるように字幕の開始終了のタイミングを制
御することができ、映像・音声と字幕が一致しないよう
な不適切な字幕表示を無くすことができる。
According to this method, for example, it is possible to control the start / end timing of the subtitle so as to avoid the cut timing, and to eliminate inappropriate subtitle display such that the video / audio does not match the subtitle. it can.

【0025】[0025]

【発明の実施の形態】以下、本発明の実施の形態につい
て、添付図面を参照して詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0026】図1は、本発明に係るオープンキャプショ
ンに対する字幕表示制御方法を実施する自動字幕番組制
作システムの機能ブロック構成図である。図2は、自動
字幕番組制作システムにおける字幕制作フローを、改良
された現行字幕制作フローと対比して示した説明図であ
る。図3は、単位字幕文を表示単位字幕文毎に分割する
際に適用される分割ルールの説明に供する図である。図
4ないしは図5は、アナウンス音声に対する字幕送出タ
イミングの同期検出技術に係る説明に供する図である。
図6は、本発明の実施の形態1に係るオープンキャプシ
ョンに対する字幕表示制御方法を説明するフローチャー
トである。図7は、実施の形態1による字幕の表示位置
及び開始・終了のタイミングの変更例を示す図である。
図8は、本発明の実施の形態2に係るオープンキャプシ
ョンに対する字幕表示制御方法を説明するフローチャー
トである。図9は、実施の形態2による字幕表示の適性
化処理例を示す図である。
FIG. 1 is a functional block diagram of an automatic subtitle program production system that implements a subtitle display control method for open captions according to the present invention. FIG. 2 is an explanatory diagram showing a subtitle production flow in the automatic subtitle program production system in comparison with an improved current subtitle production flow. FIG. 3 is a diagram for explaining a division rule applied when dividing a unit subtitle sentence for each display unit subtitle sentence. FIGS. 4 and 5 are diagrams for explaining the technique for detecting the synchronization of the caption transmission timing for the announcement sound.
FIG. 6 is a flowchart illustrating a subtitle display control method for open captions according to Embodiment 1 of the present invention. FIG. 7 is a diagram showing an example of changing the display position of captions and the start / end timing according to the first embodiment.
FIG. 8 is a flowchart illustrating a subtitle display control method for open captions according to Embodiment 2 of the present invention. FIG. 9 is a diagram showing an example of a subtitle display suitability processing according to the second embodiment.

【0027】図1に示すように、自動字幕番組制作シス
テム11は、電子化原稿記録媒体13と、同期検出装置
15と、統合化装置17と、形態素解析部19と、分割
ルール記憶部21と、番組素材VTR例えばディジタル
・ビデオ・テープ・レコーダ(以下、「D−VTR」と
言う)23と、オープンキャプション判定部39と、文
字認識部41と、画面変更判定部43と、字幕表示位置
制御部45とを含んで構成されている。このうち、オー
プンキャプション判定部39と文字認識部41と画面変
更判定部43と字幕表示位置制御部45とが本実施の形
態に係る字幕表示制御を行う機能部分である。
As shown in FIG. 1, the automatic subtitle program production system 11 includes an electronic document recording medium 13, a synchronization detection device 15, an integration device 17, a morphological analysis unit 19, a division rule storage unit 21, , A program material VTR such as a digital video tape recorder (hereinafter, referred to as “D-VTR”) 23, an open caption judging unit 39, a character recognizing unit 41, a screen change judging unit 43, subtitle display position control And a part 45. Among these, the open caption determining unit 39, the character recognizing unit 41, the screen change determining unit 43, and the subtitle display position control unit 45 are functional units that perform subtitle display control according to the present embodiment.

【0028】ここでは、まず、図1〜図5を用いて自動
字幕番組制作システムにおける字幕制作の概要を説明す
る。その後で、本実施の形態に係る字幕表示制御を、実
施の形態1及び実施の形態2として説明する。
First, an outline of caption production in the automatic caption program production system will be described with reference to FIGS. After that, the subtitle display control according to the present embodiment will be described as the first and second embodiments.

【0029】既述したように、現在放送中の字幕番組の
中で、予めアナウンス原塙が作成され、その原稿が殆ど
修正されることなく実際の放送字幕となっていると推測
される番組がいくつかある。例えば、「生きもの地球紀
行」という字幕付き情報番組を実際に調べて見ると、ア
ナウンス音声と字幕内容はほぼ共通であり、ほぼ共通の
原稿をアナウンス用と字幕用の両方に利用していると推
測できる。
As described above, among the subtitle programs currently being broadcast, the announcement Hara Hanawa is created in advance, and the program whose original is presumed to be the actual broadcast subtitles with little modification is provided. There are several. For example, when actually examining an information program with subtitles called "Travel of the Earth", the announcement sound and subtitle content are almost the same, and it is estimated that almost the same manuscript is used for both the announcement and subtitle it can.

【0030】本発明者らが提案する自動字幕番組制作シ
ステムは、アナウンス用と字幕用の両方に共通の原稿が
電子化されている番組におけるその電子化原稿に、本発
明者らが提案するアナウンス音声と字幕文テキストの同
期検出技術、及び日本語の特徴解析手法を用いたテキス
ト分割技術等を適用することにより、D−VTR23か
ら再生されたアナウンスの進行と同期して、表示単位字
幕文の作成、及びその始点/終点の各々に対応するタイ
ミング情報の付与を自動化し、これをもって、字幕番組
の制作を人手を介することなく自動化できるようにした
ものである。
The automatic subtitle program production system proposed by the present inventors is to provide an announcement proposed by the present inventors in an electronic manuscript of a program in which a common manuscript for both announcement and subtitle is digitized. By applying a synchronous detection technology of audio and subtitle text and a text segmentation technology using a Japanese feature analysis method, the display unit subtitle text is synchronized with the progress of the announcement reproduced from the D-VTR 23. Creation and provision of timing information corresponding to each of the start point / end point thereof are automated, so that the production of a subtitle program can be automated without human intervention.

【0031】ここで、具体的な字幕制作の説明に先立っ
て、その説明で使用する用語の定義付けを行う。即ち、
表示対象となる字幕の全体集合を「字幕文テキスト」と
言う。字幕文テキストのうち、句読点で区切られた文章
単位の部分集合を「単位字幕文」と言う。ディスプレイ
の表示画面上における表示単位字幕の全体集合を「表示
単位字幕群」と言う。表示単位字幕群のうち、任意の一
行の字幕を「表示単位字幕文」と言う。表示単位字幕文
のうちの任意の文字を表現するとき、それを「字幕文
字」と言うことにする。
Here, prior to a specific description of caption production, terms used in the description are defined. That is,
The entire set of subtitles to be displayed is called “subtitle sentence text”. In the caption text, a subset of text units delimited by punctuation is called a “unit caption text”. The entire set of display unit subtitles on the display screen of the display is called a “display unit subtitle group”. An arbitrary one-line subtitle in the display unit subtitle group is called a “display unit subtitle sentence”. When expressing an arbitrary character in the display unit subtitle text, it is referred to as “subtitle character”.

【0032】図1において、電子化原稿記録媒体13
は、例えばハードディスク記憶装置やフロッピー(登録
商標)ディスク装置等より構成され、表示対象となる字
幕の全体集合を表す字幕文テキストを記憶している。な
お、ここでは、ほぼ共通の電子化原稿をアナウンス用と
字幕用の双方に利用する形態を想定しているので、電子
化原稿記録媒体13に記憶される字幕文テキストの内容
は、表示対象字幕とするばかりでなく、D−VTR23
のアナウンス音声とも一致しているものとする。
In FIG. 1, the digitized original recording medium 13
Is composed of, for example, a hard disk storage device, a floppy (registered trademark) disk device, or the like, and stores a caption sentence text representing an entire set of captions to be displayed. In this case, since it is assumed that almost common digitized original is used for both announcement and subtitle, the contents of the subtitle sentence text stored in the digitized original recording medium 13 are the display target subtitles. Not only D-VTR23
It is assumed that the announcement voice also matches.

【0033】同期検出装置15は、表示単位字幕文と、
それを読み上げたアナウンス音声との間における時間同
期を補助する機能等を有している。具体的には、安当性
検証機能と検証結果返答機能とタイミング情報検出機能
とを有している。安当性検証機能とは、同期検出装置1
5は、統合化装置17で確定された表示単位字幕配列が
送られてくる毎に、その表示単位字幕配列の妥当性を検
証する機能である。検証結果返答機能とは、妥当性検証
機能を発揮することで得られた検証結果が不当であると
き、その検証結果を統合化装置17宛に返答する機能で
ある。タイミング情報検出機能とは、妥当性検証機能を
発揮することで得られた検証結果が妥当であるとき、D
−VTR23から取り込んだその表示単位字幕配列に対
応するアナウンス音声及びそのタイムコードを参照し
て、該当する表示単位字幕文毎のタイミング情報、即ち
始点/終点タイムコードを検出し、検出した各始点/終
点タイムコードを統合化装置17宛に送出する機能であ
る。
The synchronization detecting device 15 includes a display unit subtitle sentence,
It has a function of assisting time synchronization with the announcement voice read out. Specifically, it has a safety verification function, a verification result response function, and a timing information detection function. The safety verification function is a synchronization detection device 1
5 is a function for verifying the validity of the display unit subtitle array every time the display unit subtitle array determined by the integration device 17 is sent. The verification result reply function is a function of replying the verification result to the integrated device 17 when the verification result obtained by performing the validity verification function is invalid. The timing information detection function means that when the verification result obtained by performing the validity verification function is valid,
-With reference to the announcement sound and the time code corresponding to the display unit subtitle array fetched from the VTR 23, the timing information for each corresponding display unit subtitle sentence, that is, the start point / end point time code is detected, and the detected start point / end point time code is detected. This is a function of sending the end point time code to the integrating device 17.

【0034】形態素解析部19は、漢字かな交じり文で
表記されている単位字幕文を対象として、形態素毎に分
割する分割機能と、その分割機能によって分割された各
形態素毎に、表現形、品詞、読み、標準表現などの付加
情報を付与する付加情報付与機能と、各形態素を文節や
節単位にグループ化し、いくつかの情報素列を得る情報
素列取得機能とを有している。これにより、単位字幕文
は、表面素列、記号素列(品詞列)、標準素列、及び情
報素列として表現される。
The morphological analysis unit 19 divides the unit subtitle sentence described in the kanji kana mixed sentence into morphemes and divides the morpheme by the morpheme into an expression form and a part of speech. It has an additional information adding function of adding additional information such as reading, standard expression, and the like, and an information element sequence obtaining function of grouping morphemes into units of clauses or clauses and obtaining some information element strings. Thereby, the unit caption sentence is expressed as a surface element sequence, a symbol element sequence (part of speech), a standard element sequence, and an information element sequence.

【0035】分割ルール記憶部21は、図3に示すよう
に、単位字幕文を対象とした改行・改頁箇所の最適化を
行う際に参照される分割ルールを記憶している。D−V
TR23は、番組素材が収録されている番組素材VTR
テープから、映像、音声、及びそれらのタイムコードを
再生出力する機能を有している。
As shown in FIG. 3, the division rule storage unit 21 stores division rules which are referred to when optimizing a line feed / page break position for a unit caption sentence. DV
TR23 is a program material VTR in which the program material is recorded.
It has a function of reproducing and outputting video, audio, and their time codes from a tape.

【0036】統合化装置17は、単位字幕文抽出部33
と、表示単位字幕化部35と、タイミング情報付与部3
7とを有している。単位字幕文抽出部33は、電子化原
稿記録媒体13から読み出した字幕文テキストの中か
ら、例えば40〜50字幕文字程度を目安とした単位字
幕文を順次抽出する。具体的には、単位字幕文抽出部3
3は、少なくとも表示単位字幕文よりも多い文字数を呈
する表示対象となる単位字幕文を、必要に応じその区切
り可能箇所情報等を活用して表示時間順に順次抽出する
機能を有している。なお、区切り可能箇所情報として
は、形態素解析部19で得られた文節データ付き形態素
解析データ及び分割ルール記憶部21に記憶されている
分割ルール(改行・改頁データ)を例示することができ
る。
The integrating device 17 includes a unit subtitle sentence extracting unit 33
, Display unit subtitle conversion unit 35, timing information addition unit 3
7 are provided. The unit subtitle sentence extraction unit 33 sequentially extracts unit subtitle sentences from, for example, about 40 to 50 subtitle characters from the subtitle sentence text read from the digitized original recording medium 13. Specifically, the unit subtitle sentence extraction unit 3
Reference numeral 3 has a function of sequentially extracting unit subtitle sentences to be displayed which have at least a larger number of characters than the display unit subtitle sentences in the order of display time by utilizing the delimitable portion information and the like as necessary. Note that examples of the delimitable portion information include morphological analysis data with phrase data obtained by the morphological analysis unit 19 and division rules (line feed / page break data) stored in the division rule storage unit 21.

【0037】表示単位字幕化部35は、単位字幕文抽出
部33で抽出された単位字幕文を、所望の表示形式に従
う表示単位字幕文に変換する。具体的には、表示単位字
幕化部35は、単位字幕文抽出部33で抽出された単位
字幕文、その単位字幕文に付加されている区切り可能箇
所情報、及び同期検出装置15からの情報等に基づい
て、単位字幕文抽出部33で抽出された単位字幕文を、
所望の表示形式に従う少なくとも1以上の表示単位字幕
文に変換する機能を有している。
The display unit subtitle unit 35 converts the unit subtitle sentences extracted by the unit subtitle sentence extraction unit 33 into display unit subtitle sentences according to a desired display format. Specifically, the display unit subtitle conversion unit 35 includes the unit subtitle sentence extracted by the unit subtitle sentence extraction unit 33, delimitable portion information added to the unit subtitle sentence, information from the synchronization detection device 15, and the like. The unit subtitle sentence extracted by the unit subtitle sentence extraction unit 33 based on
It has a function of converting into at least one or more display unit subtitle sentences according to a desired display format.

【0038】タイミング情報付与部37は、表示単位字
幕化部35で変換された表示単位字幕文に対し、同期検
出装置15から送出されてきた表示単位字幕文毎のタイ
ミング情報である始点/終点の各タイムコードを付与す
ることを行う。具体的には、タイミング情報付与部37
は、表示単位字幕化部35で変換された表示単位字幕文
に対し、同期検出装置15から送出されてきた表示単位
字幕文毎のタイミング情報である始点/終点の各タイム
コードを付与するタイミング情報付与機能を有してい
る。
The timing information adding unit 37 converts the display unit subtitle text converted by the display unit subtitle conversion unit 35 into a start point / end point, which is timing information for each display unit subtitle sent from the synchronization detection device 15. Each time code is assigned. Specifically, the timing information adding unit 37
Is timing information for giving each start / end point time code, which is timing information for each display unit subtitle sent from the synchronization detection device 15, to the display unit subtitle sentence converted by the display unit subtitle generator 35. It has an application function.

【0039】次に、自動字幕番組制作システム11にお
ける字幕制作動作について、図2の右側に示す字幕制作
フローに従って、図2の左側に示す改良された現行字幕
制作フローと対比しつつ説明する。
Next, the subtitle production operation in the automatic subtitle program production system 11 will be described according to the subtitle production flow shown on the right side of FIG. 2 and compared with the improved current subtitle production flow shown on the left side of FIG.

【0040】まず、図2の左側に示す改良された現行字
幕制作フローについて再度説明する。ステップS111
において、字幕番組制作者は、音声チャンネルにタイム
コードを記録した番組テープと、番組台本との2つの字
幕原稿作成素材を放送局から受け取る。なお、図中にお
いて「タイムコード」を「TC」と略記する場合がある
ことを付言しておく。
First, the improved current subtitle production flow shown on the left side of FIG. 2 will be described again. Step S111
In, the subtitle program creator receives two subtitle manuscript creation materials, a program tape on which a time code is recorded in an audio channel and a program script, from a broadcasting station. Note that in the drawings, “time code” may be abbreviated as “TC”.

【0041】ステップS113において、キャプション
オペレータは、VTRの別の音声チャンネル(セリフを
LchとするとRch)にタイムコードを記録した番組
テープを再生し、セリフの開始点でマウスのボタンをク
リックすることでその点の音声チャンネルから始点タイ
ムコードを取り出して記録する。さらに、セリフを聴取
して要約電子データとして入力するとともに、字幕原稿
作成要領に基づいて行う区切り箇所に対応するセリフ点
で再びマウスのボタンをクリックすることでその点の音
声チャンネルから終点タイムコードを取り出して記録す
る。これらの操作を番組終了まで繰り返し、番組全体の
字幕を電子化する。
In step S113, the caption operator plays the program tape on which the time code is recorded on another audio channel of the VTR (Rch when the line is Lch), and clicks a mouse button at the start point of the line. The start time code is extracted from the audio channel at that point and recorded. In addition to listening to the dialogue and inputting it as summary electronic data, by clicking the mouse button again at the dialogue point corresponding to the break point based on the subtitle manuscript creation procedure, the end point time code from the audio channel at that point is Remove and record. These operations are repeated until the end of the program, and the subtitles of the entire program are digitized.

【0042】ステップS117において、ステップS1
05で作成された電子化字幕データを、担当の字幕制作
責任者、及びキャプションオペレータの二者立ち会いの
もとで試写・修正を行い、完成字幕とする。
In step S117, step S1
The digitized subtitle data created in step 05 is previewed and modified in the presence of the caption production manager in charge and the caption operator to obtain completed subtitles.

【0043】このように、改良された現行字幕制作フロ
ーでは、キャプションオペレータは、タイムコードをV
TRの別の音声チャンネルに記録した番組テープのみを
使用して、セリフの要約と電子データ化を行うととも
に、表示単位に分割した字幕の始点/終点にそれぞれ対
応するセリフのタイミングでマウスボタンをクリックす
ることにより、音声チャンネルの各タイムコードを取り
出して記録するものであり、かなり省力化された効果的
な字幕制作を実現している。
As described above, in the improved current subtitle production flow, the caption operator sets the time code to V
Using only the program tape recorded on another audio channel of TR, the dialogue is summarized and converted into electronic data, and the mouse button is clicked at the timing of the dialogue corresponding to the start / end points of the subtitle divided into display units By doing so, each time code of the audio channel is taken out and recorded, thereby realizing a considerably labor-saving and effective subtitle production.

【0044】ところが、本発明らによる字幕制作方法に
よれば、図2の右側に示す字幕制作フローから理解でき
るように、さらなる省力化が図られている。ここでの処
理は、図2の左側に示すステップS113の要約原稿・
電子データ作成処理に相当するものである。
However, according to the subtitle production method according to the present invention, further labor saving is achieved as can be understood from the subtitle production flow shown on the right side of FIG. The processing here is the same as the summary manuscript of step S113 shown on the left side of FIG.
This corresponds to electronic data creation processing.

【0045】即ち、ステップS1では、単位字幕文抽出
部33は、電子化原稿記録媒体13から読み出した字幕
文テキストの中から、40〜50文字程度を目安とし
て、少なくとも表示単位字幕文よりも多い文字数を呈す
る単位字幕文を、その区切り可能箇所情報等を活用して
順次抽出する。なお、制作する字幕は、通常一行当たり
15文字を限度として、二行の表示単位字幕群を順次入
れ換えていく字幕表示形式が採用されるので、文頭から
40〜50字幕文字程度で、句点や読点を目安にして単
位字幕文を抽出する(これは15文字の処理量をも考慮
している。)。
That is, in step S1, the unit subtitle sentence extraction unit 33 has at least more than the display unit subtitle sentences from the subtitle sentence text read out from the digitized original recording medium 13, using about 40 to 50 characters as a guide. The unit subtitle sentences exhibiting the number of characters are sequentially extracted by utilizing the delimitable portion information and the like. Note that the captions to be produced are usually in the form of subtitles in which two lines of display unit subtitles are sequentially replaced, with a limit of 15 characters per line. Is used as a guide to extract a unit subtitle sentence (this also takes into account the processing amount of 15 characters).

【0046】ステップS2ないしはS5では、表示単位
字幕化部35は、単位字幕文抽出部33で抽出された単
位字幕文、及び単位字幕文に付加された区切り可能箇所
情報等に基づいて、単位字幕文抽出部33で抽出された
単位字幕文を、所望の表示形式に従う少なくとも1以上
の表示単位字幕文に変換する。
In steps S2 to S5, the display unit subtitle conversion unit 35 determines the unit subtitle based on the unit subtitle sentence extracted by the unit subtitle sentence extraction unit 33 and the delimitable location information added to the unit subtitle sentence. The unit subtitle sentence extracted by the sentence extraction unit 33 is converted into at least one or more display unit subtitle sentences according to a desired display format.

【0047】具体的には、単位字幕文抽出部33で抽出
された単位字幕文を、上述した字幕表示形式に従い、例
えば、一行当たり13字幕文字で、二行の表示単位字幕
群となる表示単位字幕配列案を作成する(ステップS
2)。他方、単位字幕文抽出部33で抽出された単位字
幕文を対象とした形態素解析を行い、形態素解析データ
を得る(ステップS3)。この形態素解析データには文
節を表すデータも付属している。そして、上記のように
作成した表示単位字幕配列案に対し、形態素解析データ
を参照して、表示単位字幕配列案の改行・改頁点を最適
化し(ステップS4)、最初の単位字幕文に関する表示
単位字幕配列を確定する(ステップS5)。これによ
り、実情に即して高精度に最適化された表示単位字幕化
を実現することができる。
More specifically, the unit subtitle sentence extracted by the unit subtitle sentence extraction unit 33 is converted into a display unit that is a two-line display unit subtitle group with, for example, 13 subtitle characters per line according to the above-described subtitle display format. Create a caption arrangement plan (step S
2). On the other hand, morphological analysis is performed on the unit caption sentence extracted by the unit caption sentence extraction unit 33 to obtain morphological analysis data (step S3). The morphological analysis data also includes data representing a phrase. Then, the line break / page break point of the display unit subtitle arrangement plan is optimized with reference to the morphological analysis data for the display unit subtitle arrangement plan created as described above (step S4), and the display relating to the first unit subtitle sentence is performed. The unit subtitle arrangement is determined (step S5). As a result, it is possible to realize display unit subtitles optimized with high precision in accordance with the actual situation.

【0048】なお、ステップS4において表示単位字幕
配列案を最適化するあたっては、別途用意した分割ルー
ル(改行・改頁データ)も併せて適用する。具体的に
は、図3に示すように、分割ルール(改行・改頁デー
タ)で定義される改行・改頁推奨箇所は、第1に句点の
後ろ、第2に読点の後ろ、第3に文節と文節の間、第4
に形態素品詞の間、を含んでおり、分割ルール(改行・
改頁データ)を適用するにあたっては、上述した記述順
の先頭から優先的に適用する。このようにすれば、さら
に実情に即して高精度に最適化された表示単位字幕化を
実現することができる。
In optimizing the display unit subtitle arrangement plan in step S4, a separately prepared division rule (line feed / page break data) is also applied. Specifically, as shown in FIG. 3, the recommended line feed / page break defined by the division rule (line feed / page break data) is first after a period, second after a reading point, and thirdly. Between clauses, fourth
Contains between morpheme parts of speech,
When applying (page break data), the application is preferentially applied from the head of the description order described above. By doing so, it is possible to realize display unit subtitles optimized with high precision in accordance with the actual situation.

【0049】特に、第4の形態素品詞の間を分割ルール
(改行・改頁データ)として適用するにあたっては、図
3の図表には、自然感のある改行・改頁を行った際にお
ける、直前の形態素品詞とその頻度例が示されている
が、図3の図表のうち頻度の高い形態素品詞の直後で改
行・改頁を行うようにすればよい。このようにすれば、
より一層実情に即して高精度に最適化された表示単位字
幕化を実現することができる。
In particular, when the fourth morpheme part-of-speech is applied as a division rule (line feed / page break data), the chart shown in FIG. The example of the morpheme part-of-speech and its frequency are shown, but line breaks and page breaks may be performed immediately after the frequent morpheme part-of-speech in the chart of FIG. If you do this,
It is possible to realize display unit subtitles optimized with high precision in accordance with the actual situation.

【0050】ステップS6ないしはS7では、タイミン
グ情報付与部37は、表示単位字幕化部35で変換され
た表示単位字幕文に対し、同期検出装置15から送出さ
れてきた表示単位字幕文毎のタイミング情報である始点
/終点の各タイムコードを付与する。
In step S 6 or S 7, the timing information adding unit 37 compares the timing information for each display unit subtitle sent from the synchronization detection device 15 with the display unit subtitle sentence converted by the display unit subtitle unit 35. The start / end time codes are given.

【0051】具体的には、統合化装置17は、ステップ
S5で確定した表示単位字幕文を同期検出装置15に与
える。一方、同期検出装置15は、ステップS6でD−
VTR23からアナウンス音声及びそのタイムコードを
取り込むと、ステップS5で確定した表示単位字幕配
列、即ち表示単位字幕文に対応するアナウンス音声中に
例えば2秒以上の所定時間を超える非スピーチ区間、即
ちポーズの存在有無を調査する(ステップS7)。この
調査の結果、アナウンス音声中にポーズ有りを検出した
ときには、該当する表示単位字幕文は不当であるとみな
して、ステップS5の表示単位字幕配列確定処理に戻
り、このポーズ以前に対応する単位字幕文の中から、表
示単位字幕配列を再変換する。
Specifically, the integrating device 17 gives the display unit subtitle sentence determined in step S5 to the synchronization detecting device 15. On the other hand, in step S6, the synchronization detection device 15
When the announcement sound and its time code are fetched from the VTR 23, the display unit subtitle array determined in step S5, that is, a non-speech section exceeding a predetermined time of, for example, 2 seconds or more in the announcement sound corresponding to the display unit subtitle sentence, that is, the pause The presence or absence is checked (step S7). As a result of this investigation, when the presence of a pause is detected in the announcement sound, the corresponding display unit subtitle sentence is regarded as invalid, and the process returns to the display unit subtitle arrangement determination process in step S5, and the unit subtitle corresponding to before this pause is detected. The display unit subtitle array is reconverted from the sentence.

【0052】他方、同期検出装置15は、上記調査の結
果、所定時間を超えるポーズ無しを検出したときには、
該当する表示単位字幕文は妥当であるとみなして、その
始点/終点タイムコードを検出し(ステップS7)、検
出した各始点/終点タイムコードを該当する表示単位字
幕文に付与して(ステップS8)、最初の単位字幕文に
関する表示単位字幕文の作成処理を終了する。
On the other hand, when the synchronization detecting device 15 detects that there is no pause exceeding a predetermined time as a result of the above-described investigation,
The corresponding display unit subtitle sentence is regarded as valid, and its start / end time code is detected (step S7), and the detected start / end time codes are added to the corresponding display unit subtitle sentence (step S8). ), The process of creating the display unit subtitle sentence relating to the first unit subtitle sentence ends.

【0053】ここで、ステップS7において表示単位字
幕文に対応するアナウンス音声中のポーズの有無を調査
する趣旨は、次の通りである。即ち、表示単位字幕文中
に所定時間を超えるポーズが存在するということは、こ
の表示単位字幕文は、時間的に離れており、また、少な
くとも複数の相異なる場面に対応する字幕文を含んで構
成されているおそれがあり、これらの字幕文を一つの表
示単位字幕文とみなしたのでは好ましくないおそれがあ
るからである。これにより、ステップS5で一旦確定さ
れた表示単位字幕文の妥当性を、対応するアナウンス音
声の観点から再検証可能となる結果として、好ましい表
示単位字幕文の変換確定に多大な貢献を果たすことがで
きる。
Here, the purpose of investigating the presence or absence of a pause in the announcement sound corresponding to the display unit subtitle sentence in step S7 is as follows. That is, the presence of a pause exceeding a predetermined time in the display unit subtitle sentences means that the display unit subtitle sentences are temporally separated and include at least subtitle sentences corresponding to a plurality of different scenes. This is because such caption sentences may not be preferable if these caption sentences are regarded as one display unit caption sentence. As a result, the validity of the display unit caption sentence once determined in step S5 can be re-verified from the viewpoint of the corresponding announcement sound. it can.

【0054】なお、ステップS7における表示単位字幕
文に付与する始点/終点タイムコードの同期検出は、本
発明者らが研究開発したアナウンス音声を対象とした音
声認識処理を含むアナウンス音声と字幕文テキスト間の
同期検出技術を適用することで高精度に実現可能であ
る。以下、その概要を図4、図5を用いて説明する。
The synchronous detection of the start point / end point time code added to the display unit subtitle sentence in step S7 is performed by announcement sound and subtitle sentence text including a speech recognition process for an announcement sound developed and researched by the present inventors. It can be realized with high accuracy by applying the synchronization detection technology between the two. The outline will be described below with reference to FIGS.

【0055】即ち、字幕送出タイミング検出の流れは、
図4に示すように、まず、かな漢字交じり文で表記され
ている字幕文テキストを、音声合成などで用いられてい
る読み付け技術を用いて発音記号列に変換する。この変
換には、「日本語読み付けシステム」を用いる。
That is, the flow of subtitle transmission timing detection is as follows.
As shown in FIG. 4, first, a caption sentence text described in a kana-kanji mixed sentence is converted into a phonetic symbol string using a reading technique used in speech synthesis or the like. The "Japanese reading system" is used for this conversion.

【0056】次に、予め学習しておいた音響モデル(H
MM:隠れマルコフモデル)を参照し、「音声モデル合
成システム」によりこれらの発音記号列をワード列ペア
モデルと呼ぶ音声モデル(HMM)に変換する。そし
て、「最尤照合システム」を用いてワード列ペアモデル
にアナウンス音声を通して比較照合を行うことにより、
字幕送出タイミングの同期検出を行う。字幕送出タイミ
ング検出の用途に用いるアルゴリズム(ワード列ペアモ
デル)は、キーワードスポッティングの手法を採用して
いる。キーワードスポッティングの手法として、フォワ
ード・バックワードアルゴリズムにより単語の事後確率
を求め、その単語尤度のローカルピークを検出する方法
が提案されている。
Next, the acoustic model (H
MM: Hidden Markov Model), and converts these phonetic symbol strings into a speech model (HMM) called a word string pair model by a “speech model synthesis system”. Then, by performing comparison and matching through the announcement sound to the word string pair model using the "maximum likelihood matching system",
The subtitle transmission timing is synchronously detected. The algorithm (word string pair model) used for the purpose of detecting caption transmission timing employs a keyword spotting technique. As a keyword spotting technique, a method has been proposed in which a posterior probability of a word is obtained by a forward / backward algorithm, and a local peak of the word likelihood is detected.

【0057】ワード列ペアモデルは、図5に示すよう
に、これを応用して字幕と音声を同期させたい点、即ち
同期点の前後でワード列1(Keywords1)とワード列2
(Keywords2)とを連結したモデルになっており、ワー
ド列の中点(B)で尤度を観測してそのローカルピーク
を検出し、ワード列2の発話開始時間を高精度に求める
ことを目的としている。ワード列は、音素HMMの連結
により構成され、ガーベジ(Garbage)部分は全音素H
MMの並列な枝として構成されている。
As shown in FIG. 5, the word string pair model is applied to a point where it is desired to synchronize subtitles and audio, that is, a word string 1 (Keywords1) and a word string 2 before and after the synchronization point.
(Keywords2). The purpose is to observe the likelihood at the middle point (B) of the word sequence, detect its local peak, and obtain the utterance start time of word sequence 2 with high accuracy. And The word string is formed by concatenation of phoneme HMMs, and the garbage (Garbage) part is composed of all phonemes H.
It is configured as a parallel branch of the MM.

【0058】また、アナウンサが原塙を読む場合、内容
が理解しやすいように息継ぎの位置を任意に定めること
から、ワード列1,2間にポーズ(Pause)を挿入して
いる。なお、ポーズ時間の検出に関しては、D−VTR
23から音声とそのタイムコードが供給され、例えばそ
の音声レベルが指定レベル以下で連続する開始、終了タ
イムコードとして、周知の技術で容易に達成できる。そ
して、第一頁目に関する字幕作成が終了すると、続いて
第一頁目の次からの字幕文を抽出して第二頁目の字幕化
に進み、同様の処理により当該番組の全字幕化を行う。
When the announcer reads Hara Hanawa, a pause (Pause) is inserted between word strings 1 and 2 because the position of breathing is arbitrarily determined so that the contents can be easily understood. In addition, regarding the detection of the pause time, the D-VTR
A sound and its time code are supplied from the control unit 23, and the start and end time codes whose sound level is continuous below a designated level can be easily achieved by a known technique. Then, when the creation of the subtitles for the first page is completed, the subtitle sentences from the next page on the first page are extracted, and the process proceeds to the subtitle conversion for the second page. Do.

【0059】さて、本実施の形態に係るオープンキャプ
ションに対する字幕表示制御方法では、以下の構成によ
り、オープンキャプションの特徴を利用してその表示位
置やタイミングを検知し、それと重複しないように字幕
の表示位置やタイミングを自動的に制御すること(実施
の形態1)と、さらにオープンキャプションをテキスト
としても検知し、表示予定の字幕と比較して字幕の表示
/非表示、字幕内容の修正/非修正なども自動的に行う
こと(実施の形態2)が行えれるようになっている。
In the subtitle display control method for open captions according to the present embodiment, the following configuration is used to detect the display position and timing using the characteristics of open captions and display the subtitles so as not to overlap with them. Automatically controlling the position and timing (Embodiment 1), further detecting the open caption as text, and comparing it with the subtitle to be displayed, displaying / non-displaying the subtitle, and correcting / uncorrecting the subtitle content Can be automatically performed (Embodiment 2).

【0060】図1において、オープンキャプション判定
部39は、映像にスーパー表示されるオープンキャプシ
ョンの特徴を利用して、D−VTR23から入力する映
像信号に含まれるオープンキャプションを検出する。即
ち、オープンキャプションは、背景映像と比較すると通
常次のような相違がある。(1)スーパーする画面位置
が限られている、(2)RGBの振幅レベルが大きい
(例えば85%以上である)、(3)通常数秒以上静止
している、(4)色は通常明るい白色である(これは表
示領域での占有率を定める要素である)、(5)スーパ
ー表示される文字の大きさはほぼ一定である(規定の寸
法で一文字はほぼ正方形である)、(6)スーパー表示
される文字は通常横または縦方向に複数連なっている
(複数行の場合もある)、(7)特定のスーパー文字に
ついてはパターンマッチング法の適用が可能である。
In FIG. 1, an open caption judging section 39 detects an open caption included in a video signal input from the D-VTR 23 by utilizing a characteristic of an open caption superimposed on a video. That is, the open caption usually has the following differences as compared with the background video. (1) The position of the screen to be superimposed is limited. (2) The amplitude level of RGB is large (for example, 85% or more). (3) It is usually still for several seconds or more. (4) The color is usually bright white. (This is an element that determines the occupancy in the display area), (5) the size of the super-displayed character is almost constant (one character is approximately square with a specified size), (6) Usually, a plurality of super-displayed characters are continuous in a horizontal or vertical direction (there may be a plurality of lines). (7) For a specific super-character, a pattern matching method can be applied.

【0061】したがって、この相違をうまく活用するこ
とによって、一定の条件下ではオープンキャプションの
表示タイミングやその内容を自動検出することが可能で
ある。これらの相違点のうち、(1)〜(4)をうまく
組み合わせることで、かなりのケースでタイミング検出
ができ、場合によっては(5)〜(7)の適用でさらに
確度が高くできる。
Therefore, by making good use of this difference, it is possible to automatically detect the display timing of the open caption and its contents under certain conditions. Of these differences, by properly combining (1) to (4), the timing can be detected in a considerable number of cases, and in some cases, the accuracy can be further improved by applying (5) to (7).

【0062】文字認識部41は、オープンキャプション
判定部39で検出できたオープンキャプションをテキス
ト化する。画面変更判定部43は、D−VTR23から
入力する映像信号における画面の切り替わり点を検出す
る。具体的には、画面変更判定部43では、パン操作、
チルト操作、ズームイン操作、ズームアウト操作、ワイ
プ操作、ディゾルブ操作等がなされた画面の指定操作の
開始と終了を検出している。
The character recognition unit 41 converts the open caption detected by the open caption determination unit 39 into text. The screen change determination unit 43 detects a screen switching point in a video signal input from the D-VTR 23. Specifically, the screen change determination unit 43 performs a pan operation,
The start and end of a screen designation operation on which a tilt operation, a zoom-in operation, a zoom-out operation, a wipe operation, a dissolve operation, or the like has been performed are detected.

【0063】字幕表示位置制御部45では、統合化装置
17からの字幕(表示予定字幕)が、表示位置決定部4
7と表示タイミング決定部49と表示/非表示・修正/
非修正決定部51とに入力している。また、表示位置決
定部47と表示タイミング決定部49と表示/非表示・
修正/非修正決定部51とにオープンキャプション判定
部39の判定結果が入力している。一方、表示/非表示
・修正/非修正決定部51には、文字認識部41で認識
されたオープンキャプションのテキストが入力してい
る。
In the subtitle display position control unit 45, the subtitle (scheduled display subtitle) from the integrating device 17 is displayed by the display position determination unit 4.
7 and display timing determination unit 49 and display / non-display / correction /
It is input to the non-correction determining unit 51. The display position determination unit 47, the display timing determination unit 49, and the display / non-display /
The determination result of the open caption determination unit 39 is input to the correction / non-correction determination unit 51. On the other hand, the text of the open caption recognized by the character recognition unit 41 is input to the display / non-display / correction / non-correction determination unit 51.

【0064】そして、表示位置決定部47と表示タイミ
ング決定部49と表示/非表示・修正/非修正決定部5
1とは、それぞれ、画面変更判定部43から指定された
画面期間内において所定の動作を行うようになってい
る。表示字幕データ出力部53は、表示位置決定部47
と表示タイミング決定部49と表示/非表示・修正/非
修正決定部51とでそれぞれ決定された表示字幕データ
をハードディスクやフロッピーディスクなどの記憶装置
へ蓄積する。
The display position determining unit 47, the display timing determining unit 49, and the display / non-display / correction / non-correction determining unit 5
1 is such that a predetermined operation is performed within the screen period specified by the screen change determination unit 43, respectively. The display subtitle data output unit 53 includes a display position determination unit 47.
The display subtitle data determined by the display timing determination unit 49 and the display / non-display / correction / non-correction determination unit 51 are stored in a storage device such as a hard disk or a floppy disk.

【0065】表示位置決定部47では、表示予定字幕の
表示位置がオープンキャプションが検出された画面の所
定領域と重なる場合に、表示予定字幕の表示位置の移動
により、表示予定字幕の表示位置を同じフレーム内で重
ならない位置、場合によってはオープンキャプションが
存在しない他のフレームでの位置を決定し、その決定し
た位置データを付けた表示予定字幕を表示字幕データ出
力部53に渡すことを行う。
When the display position of the subtitle to be displayed overlaps a predetermined area of the screen where the open caption is detected, the display position of the subtitle to be displayed is moved to the same position by moving the display position of the subtitle to be displayed. A position that does not overlap in the frame, and in some cases, a position in another frame where no open caption exists, is determined, and a display subtitle to which the determined position data is attached is passed to the display subtitle data output unit 53.

【0066】表示タイミング決定部49では、表示予定
字幕の表示位置がオープンキャプションが検出された画
面の所定領域と重なる場合に、表示予定字幕の表示開始
・終了タイミングの変更により同じフレーム内で重なら
ない位置を決定し、表示予定字幕の表示位置をその決定
した位置データを付けた表示予定字幕を表示字幕データ
出力部53に渡すことを行う。
In the display timing determining section 49, when the display position of the subtitle to be displayed overlaps a predetermined area of the screen where the open caption is detected, the display start / end timing of the subtitle to be displayed does not overlap in the same frame due to a change in the display timing. The position is determined, and the display position of the display scheduled subtitle is provided to the display subtitle data output unit 53 with the display planned subtitle attached with the determined position data.

【0067】表示/非表示・修正/非修正決定部51で
は、表示予定字幕の表示位置がオープンキャプションが
検出された画面の所定領域と重なる場合に、オープンキ
ャプションの内容と表示予定字幕の内容とを比較し、当
該字幕を表示するか否か、当該字幕を修正するか否かを
決定し、その決定内容を実行し、実行結果による字幕デ
ータを表示字幕データ出力部53に渡すことを行う。
In the display / non-display / correction / non-correction determination section 51, when the display position of the subtitle to be displayed overlaps a predetermined area of the screen where the open caption is detected, the contents of the open caption and the subtitle to be displayed are displayed. Are compared, it is determined whether or not to display the subtitle, and whether or not to correct the subtitle, the determined content is executed, and the subtitle data based on the execution result is passed to the display subtitle data output unit 53.

【0068】以下、文字認識部41を用いないで表示位
置やタイミング制御を行う場合(実施の形態1)と、文
字認識部41を用いて表示制御などを行う場合(実施の
形態2)とに分けて説明する。
Hereinafter, a case where the display position and timing are controlled without using the character recognition unit 41 (Embodiment 1), and a case where display control and the like are performed using the character recognition unit 41 (Embodiment 2). I will explain separately.

【0069】(実施の形態1)文字認識部41を用いな
いで表示位置やタイミング制御を行う場合には、オープ
ンキャプションの検出結果を利用して、これから送出し
ようとする表示単位の字幕信号を、どの位置に、どのよ
うな開始・終了タイミングで送出するかを制御する。制
御方法として、(1)字幕の位置のみ、(2)開始・終
了タイミングのみ、(3)位置と開始・終了タイミング
の双方、の3方法があり、オープンキャプションと表示
する字幕との関係に応じて適用する。
(Embodiment 1) When the display position and the timing are controlled without using the character recognizing unit 41, the caption signal of the display unit to be transmitted from now on is determined by using the detection result of the open caption. It controls at what position and at what start / end timing. There are three control methods: (1) only the subtitle position, (2) only the start / end timing, and (3) both the position and the start / end timing, depending on the relationship between the open caption and the subtitle to be displayed. Apply.

【0070】(1)字幕の位置のみの制御では、オープ
ンキャプションと異なる位置に字幕を移動する。これ
は、表示する字幕の開始・終了タイミングを変えたくな
い場合に行われる。移動する位置は、既に検出済みのオ
ープンキャプションの位置と大きさから決定する。通
常、オープンキャプションの位置は決められており、そ
の場合には、重ならない一定の位置とすることができ
る。
(1) In the control of only the subtitle position, the subtitle is moved to a position different from the open caption. This is performed when it is not desired to change the start / end timing of the subtitle to be displayed. The moving position is determined from the position and size of the already detected open caption. Normally, the position of the open caption is fixed, and in that case, it can be a fixed position that does not overlap.

【0071】(2)開始・終了タイミングのみの制御で
は、オープンキャプションと異なる開始・終了タイミン
グで字幕を表示する。これは、表示する字幕の位置を変
えたくない場合に行われる。字幕の表示開始・終了タイ
ミングは、既に検出済みのオープンキャプションの開始
・終了タイミングと異なるように決定する。
(2) In the control of only the start / end timing, the caption is displayed at the start / end timing different from the open caption. This is performed when it is not desired to change the position of the subtitle to be displayed. The subtitle display start / end timing is determined to be different from the start / end timing of the already detected open caption.

【0072】(3)字幕の表示位置と開始・終了タイミ
ングの双方の制御では、オープンキャプションと異なる
位置及び開始・終了タイミングで字幕を表示する。これ
は、より適切に字幕を表示したい場合に行われる。字幕
の表示位置及び開始・終了タイミングは、既に検出済み
のオープンキャプションの表示位置及び開始・終了タイ
ミングと異なるように決定する。
(3) In controlling both the subtitle display position and the start / end timing, the subtitle is displayed at a position and start / end timing different from those of the open caption. This is performed when it is desired to display subtitles more appropriately. The display position and start / end timing of the caption are determined so as to be different from the display position and start / end timing of the already detected open caption.

【0073】一般的には、図6に示す手順で字幕の表示
位置制御を行うことができる。図6において、ステップ
S61では、オープンキャプション判定部39におい
て、画面上の所定領域にオープンキャプションが存在す
るか否かの判定がなされる。この判定の要件は前述した
が、少なくとも振幅レベルと静止時間が所定値以上ある
ことが要件とされる。
Generally, subtitle display position control can be performed according to the procedure shown in FIG. 6, in step S61, the open caption determination unit 39 determines whether an open caption exists in a predetermined area on the screen. As described above, the requirement for this determination is that at least the amplitude level and the stationary time have a predetermined value or more.

【0074】その結果、オープンキャプションが存在す
ると判定された場合には(ステップS62)、表示位置
決定部47及び表示タイミング決定部49では、その検
出されたオープンキャプションの存在位置、大きさ、開
始・終了タイミングを調査し、存在位置が表示予定字幕
の表示位置と重なるか否かを判定する(ステップS6
3)。
As a result, when it is determined that there is an open caption (step S62), the display position determining unit 47 and the display timing determining unit 49 determine the position, size, start / start of the detected open caption. By examining the end timing, it is determined whether or not the existing position overlaps the display position of the subtitle to be displayed (step S6).
3).

【0075】次いでオープンキャプションの存在位置と
表示予定字幕の表示位置とが重なる場合には、重なる時
間が設定値T(秒)以下であるかどうかを判断する(ス
テップS64)。なお、設定値Tは、例えば2秒であ
る。
Next, when the position where the open caption exists and the display position of the subtitle to be displayed overlap, it is determined whether or not the overlapping time is equal to or less than a set value T (second) (step S64). The set value T is, for example, 2 seconds.

【0076】そして、重なる時間が設定値T(秒)以上
である場合には、表示位置決定部47が例えば同じフレ
ーム内で重ならない他の位置を検索し、見つかるとその
位置を表示位置に決定する(ステップS65)。これに
より、オープンキャプションと異なる位置に字幕の表示
位置が決定される。決定結果は表示字幕データ出力部5
3に渡される。
If the overlapping time is equal to or longer than the set value T (seconds), the display position determining section 47 searches for another non-overlapping position in the same frame, and if found, determines that position as the display position. (Step S65). Thereby, the display position of the subtitle is determined at a position different from the open caption. The decision result is the display subtitle data output unit 5
Passed to 3.

【0077】一方、重なる時間が設定値T(秒)以下で
ある場合には、表示タイミング決定部49が例えばオー
プンキャプションが存在しない他の直近フレームを検索
し、表示タイミングを決定する(ステップS66)。こ
れにより、字幕の表示開始・終了タイミングが、既に検
出済みのオープンキャプションの開始・終了タイミング
と異なるように決定される。決定結果は表示字幕データ
出力部53に渡される。
On the other hand, if the overlapping time is equal to or less than the set value T (seconds), the display timing determining section 49 searches for another nearest frame without an open caption, for example, and determines the display timing (step S66). . Thereby, the display start / end timing of the caption is determined to be different from the start / end timing of the already detected open caption. The determination result is passed to the display subtitle data output unit 53.

【0078】このようにして表示位置やタイミングが決
定された表示予定字幕が、表示字幕データ出力部53に
より、記憶装置に蓄積される(ステップS67)。な
お、字幕の表示予定位置にオープンキャプションが存在
しない場合(ステップS62)や存在しても重ならない
場合(ステップS63)には、その旨が付された表示予
定字幕が、表示字幕データ出力部53により、記憶装置
に蓄積される(ステップS67)。
The display-captioned subtitles whose display position and timing have been determined in this way are stored in the storage device by the display subtitle data output unit 53 (step S67). If the open caption does not exist at the display position of the caption (step S62) or does not overlap even if it exists (step S63), the display caption to that effect is added to the display caption data output unit 53. Is stored in the storage device (step S67).

【0079】次に図7を用いて、図6に示す手順で実施
される字幕の表示位置及び開始・終了タイミングの変更
処理例を説明する。
Next, with reference to FIG. 7, a description will be given of an example of processing for changing the subtitle display position and the start / end timing performed in the procedure shown in FIG.

【0080】図7において、オープンキャプションOP
1、OP2と字幕J1,J2,J3が図に示すタイミン
グで表示されると、字幕J2,J3の表示位置では重な
りが生ずる。字幕J2の重なりが例えば2秒以下であれ
ば、変更字幕J2のように開始・終了タイミングを遅ら
せる。また、字幕J3の重なりが例えば2秒以上であれ
ば、変更字幕J3のように表示位置を変更する。このよ
うにして、オープンキャプションとの重なりが回避され
る。
In FIG. 7, open caption OP
1, OP2 and subtitles J1, J2, J3 are displayed at the timing shown in the figure, and the display positions of subtitles J2, J3 overlap. If the overlap of the subtitles J2 is, for example, 2 seconds or less, the start / end timing is delayed as in the case of the changed subtitles J2. If the overlap of the subtitles J3 is, for example, 2 seconds or more, the display position is changed like the changed subtitles J3. In this way, overlap with open captions is avoided.

【0081】なお、変更後の開始・終了タイミングが、
カット変わりやシーンチェンジなどにより、映像・音声
に対して不自然となる場合がある。また重要な映像部分
との重なりなどにより映像に対して不自然となる場合が
ある。それらに対する処理は、実施の形態2で説明す
る。
The start / end timing after the change is
Video and audio may become unnatural due to cut changes and scene changes. In addition, an image may become unnatural due to overlap with an important image portion. The processing for them will be described in a second embodiment.

【0082】(実施の形態2)文字認識部41を用いて
表示制御を行う場合は、オープンキャプション検出と字
幕の表示制御に加えて、(1)オープンキャプションの
テキスト化、(2)映像のカット検出、などの結果を利
用することにより、字幕表示を的確に制御できるように
なる。前述したのと若干重複するが、再述する。
(Embodiment 2) When display control is performed using the character recognition unit 41, in addition to detection of open caption and display control of subtitles, (1) text conversion of open caption, (2) video cut By using the result of the detection, etc., the subtitle display can be controlled accurately. Although slightly overlapping with the above, it will be described again.

【0083】(1)オープンキャプションのテキスト
化:オープンキャプションが検出できると、そのオープ
ンキャプションの内容をテキスト化することが可能であ
る。検出されたオープンキャプションは一種の図形デー
タであるが、文字図形をテキスト化する高性能な文字図
形認識ソフトが市販されており、この技術が適用可能で
ある。
(1) Placing Open Caption in Text: When an open caption is detected, it is possible to convert the content of the open caption into text. The detected open caption is a kind of graphic data, but high-performance character / graphic recognition software for converting a character / graphic into text is commercially available, and this technology is applicable.

【0084】テキスト化により、オープンキャプション
の内容が把握できると、オープンキャプションのタイミ
ングに近接した近隣字幕の表示の要否、近隣字幕の一部
字幕内容の削除、削減に伴うタイミングの修正など、よ
り充実した字幕適性化が可能となる。例えば、オープン
キャプションと一致した内容の字幕は表示不要であるの
で削減する。また、オープンキャプションで表示されて
いる内容部分を該当字幕内容から削減するなどが行え
る。
When the contents of the open caption can be grasped by converting the text, the necessity of displaying the neighboring caption close to the timing of the open caption, deletion of some of the neighboring captions, correction of the timing accompanying the reduction, and the like can be obtained. Enhance subtitle aptitude becomes possible. For example, subtitles whose contents match the open caption need not be displayed and are therefore reduced. In addition, it is possible to reduce the content displayed in the open caption from the corresponding subtitle content.

【0085】(2)映像情報の検出による字幕表示タイ
ミングの制御:字幕表示のタイミングに関し、考慮すべ
き映像の情報としては、カット、ワイプ、ディゾルブ、
パン、チルト、ズームなどがある。特にカット、ワイ
プ、ディゾルブは、映像内容の時間・空間的な隔たりを
表現する手法として多用されている。この隔たりを無視
した字幕表示は不適切である場合が多い。したがって、
このようなことを避ける制御が必要である。例えば、カ
ットのタイミングを避ける字幕の開始・終了タイミング
の制御などがある。
(2) Control of Subtitle Display Timing by Detecting Video Information: With respect to the timing of subtitle display, information on video to be considered includes cut, wipe, dissolve,
There are pan, tilt, and zoom. In particular, cuts, wipes, and dissolves are frequently used as methods for expressing temporal and spatial separation of video contents. Subtitle display that ignores this gap is often inappropriate. Therefore,
It is necessary to control to avoid such a situation. For example, there is control of start / end timing of subtitles to avoid cut timing.

【0086】次に、図8を用いて、文字認識部41を用
いた場合の表示制御動作(オープンキャプションの内容
に応じた表示制御の適性化例)を説明する。
Next, with reference to FIG. 8, a description will be given of a display control operation when the character recognizing unit 41 is used (an example of appropriate display control according to the contents of the open caption).

【0087】まず「(1)オープンキャプションのテキ
スト化」に関する処理を説明する。なお、図6と同一処
理となるステップには同一符号を付してある。ここで
は、異なる部分を説明する。
First, the processing related to “(1) Converting open caption to text” will be described. Steps that perform the same processing as in FIG. 6 are denoted by the same reference numerals. Here, different parts will be described.

【0088】図8において、オープンキャプションの存
在位置と表示予定字幕の表示位置とが重なる場合には
(ステップS63)、文字認識部41が起動され、オー
プンキャプションの内容が識別される(ステップS8
4)。次いで、表示/非表示・修正/非修正決定部51
において、オープンキャプションの内容と表示予定字幕
の内容とを比較し、近似度を調査する。近似度は、2段
階に渡って判断される(ステップS85,86)。
In FIG. 8, when the position where the open caption exists and the display position of the subtitle to be displayed overlap (step S63), the character recognition unit 41 is activated, and the contents of the open caption are identified (step S8).
4). Next, a display / non-display / correction / non-correction determination unit 51
, The content of the open caption is compared with the content of the subtitle to be displayed, and the degree of similarity is investigated. The degree of approximation is determined in two stages (steps S85 and S86).

【0089】ステップS85では、近似度が閾値1より
も大きいか否かが判断される。閾値1は、例えば近似度
0.9である。近似度が高い場合には、当該字幕は表示
しないと決定する(ステップS87)。また、ステップ
S86では、近似度が閾値2よりも大きいか否かが判断
される。閾値2は、例えば近似度0.5である。類似部
分があるときは、その類似部分を削除ないしは修正する
決定を行う(ステップS88)。
In step S85, it is determined whether or not the degree of approximation is greater than threshold value 1. The threshold value 1 is, for example, an approximation degree 0.9. If the degree of approximation is high, it is determined that the caption is not displayed (step S87). In step S86, it is determined whether or not the degree of approximation is greater than threshold value 2. The threshold value 2 is, for example, an approximation degree 0.5. If there is a similar part, a decision to delete or correct the similar part is made (step S88).

【0090】そして、近似度が低い場合には、図6で説
明したように、重なり時間が設定値T以下であるか否か
が判断され(ステップS64)、判断結果に応じて表示位
置とタイミングが制御される(ステップS65,6
6)。このようにして表示/非表示・修正/非修正の決
定がなされた表示予定字幕が、表示字幕データ出力部5
3により、記憶装置に蓄積される(ステップS89)。
If the degree of approximation is low, as described with reference to FIG. 6, it is determined whether or not the overlap time is equal to or less than the set value T (step S64). Is controlled (steps S65 and S6).
6). The subtitle to be displayed, for which display / non-display / correction / non-correction is determined in this way, is output to the display subtitle data output unit 5.
3 and stored in the storage device (step S89).

【0091】次に、ステップS90〜S92は、
「(2)映像情報の検出による字幕表示タイミングの制
御」に関する処理を示している。なお、実施の形態1
(図6)においても、この「映像情報の検出による字幕
表示タイミングの制御」が行えることはいうまでもな
い。
Next, steps S90-S92
The processing related to “(2) Control of subtitle display timing by detecting video information” is shown. Embodiment 1
In FIG. 6 as well, it goes without saying that this “control of subtitle display timing by detecting video information” can be performed.

【0092】変更後の開始・終了タイミングが、カット
変わりやシーンチェンジなどにより、映像・音声に対し
て不自然となる場合、また重要な映像部分との重なりな
どにより映像に対して不自然となる場合があるので、映
像のカット点を検出すると(ステップS90)、字幕終
了タイミングと比較し(ステップS91)、不自然にな
らないように字幕の開始・終了タイミングを変更する
(ステップS92)。このようにして開始・終了タイミ
ングの変更決定がなされた表示予定字幕が、表示字幕デ
ータ出力部53により、記憶装置に蓄積される(ステッ
プS89)。
When the start / end timing after the change becomes unnatural for video / audio due to cut change, scene change, etc., or becomes unnatural for video due to overlap with important video parts, etc. In some cases, when a cut point of the video is detected (step S90), the cutoff timing is compared with the caption end timing (step S91), and the start / end timing of the caption is changed so as not to be unnatural (step S92). The display-captioned subtitles for which the start and end timings are determined to be changed are stored in the storage device by the display subtitle data output unit 53 (step S89).

【0093】次に図9を用いて、図8に示す手順で実施
される字幕表示の適性化処理例を説明する。図9におい
て、オープンキャプションOP1、OP2と字幕J1,
J2,J3,J4が図に示すタイミングで表示される
と、字幕J2,J3の表示位置では重なりが生ずる。ま
た、字幕J4は、映像のカット点(図中、黒三角で示す
点)に跨る。
Next, with reference to FIG. 9, a description will be given of an example of a subtitle display suitability processing performed by the procedure shown in FIG. In FIG. 9, open captions OP1, OP2 and subtitles J1,
When J2, J3, and J4 are displayed at the timing shown in the figure, overlapping occurs at the display positions of captions J2 and J3. The caption J4 straddles the cut point of the video (the point indicated by the black triangle in the figure).

【0094】そのため、字幕J4については、その開始
・終了タイミングと映像の前記カット点とを比較し、終
了タイミングを前記カット点以前となるように、開始・
終了タイミングを変更する。このようにして、映像・音
声との関係での不自然な表示が回避される。
Therefore, the start / end timing of the caption J4 is compared with the cut point of the video, and the start / end timing is set to be before the cut point.
Change the end timing. In this way, unnatural display in relation to video / audio is avoided.

【0095】また、字幕J2,J3の重なりは、オープ
ンキャプションOP1、OP2の内容との比較で処理す
る。即ち、字幕J3とオープンキャプションOP2の内
容が非常に近似している場合は、図に示すように、字幕
J3の表示を取り止める。一方、近似していない場合
は、前述したように字幕J3の表示位置を変更する。
The overlap between the captions J2 and J3 is processed by comparing the captions with the contents of the open captions OP1 and OP2. That is, when the contents of the subtitle J3 and the open caption OP2 are very similar, the display of the subtitle J3 is stopped as shown in the figure. On the other hand, if not approximate, the display position of the caption J3 is changed as described above.

【0096】字幕J2とオープンキャプションOP1の
例では、字幕J2の内容「森首相は昨日訪米し、ブッシ
ュ大統領と会談した。」と、オープンキャプションOP
1の内容「ブッシュ大統領と会談」とを比較して、新し
い内容「森首相は昨日訪米した。」及び開始・終了タイ
ミングを変更した変更字幕J2’として表示する。この
ようにして、オープンキャプションとの重なりが適切に
回避される。
In the example of subtitle J2 and open caption OP1, the contents of subtitle J2 are as follows: "Mori Mori visited the United States yesterday and met with President Bush."
Compared to the contents of No. 1, "Talks with President Bush," the new contents, "Mori visited the United States yesterday." And the modified subtitle J2 'with the start / end timing changed. In this way, overlap with the open caption is properly avoided.

【0097】なお、受信側でオープンキャプションを検
出できる場合は、さらに多様な回避対策が可能である。
字幕受信者が字幕を重視し、特に字幕に注視してテレビ
を見ているとすると、字幕は常に同じ位置に表示されて
いるのが望ましい。字幕表示位置がその都度変わると見
難いからである。また、字幕として該当内容が表示され
ている場合は、オープンキャプションは見えなくてもよ
いとも考えられる。
[0097] If an open caption can be detected on the receiving side, further various avoidance measures can be taken.
If the subtitle receiver attaches importance to the subtitles and watches the television while paying particular attention to the subtitles, it is desirable that the subtitles are always displayed at the same position. This is because it is difficult to see if the subtitle display position changes each time. Also, when the corresponding content is displayed as subtitles, the open caption may not be visible.

【0098】そのため、字幕は常に定まった位置に表示
することとし、表示する字幕の内容にオープンキャプシ
ョンの内容が全て、もしくは殆どが含まれる場合は、オ
ープンキャプションを消去もしくはレベルを充分低減
し、その他の場合は、オープンキャプションを所定位置
の字幕表示に影響しない場所に移動して表示する処置を
採ることとする。
For this reason, the subtitles are always displayed in a fixed position. If the contents of the subtitles to be displayed include all or most of the contents of the open captions, the open captions are deleted or the level is sufficiently reduced. In the case of, a measure is taken to move and display the open caption to a predetermined position that does not affect the caption display.

【0099】これらの手法として例えば、消去は検出さ
れたオープンキャプション信号を再生し、映像信号から
同レベルで減算する。レベル低減は、所定の比率で減算
することで実現できる。また、オープンキャプションの
移動は、前記の方法で消去し他の位置で映像に合成する
方法による。これらの手法は、充分実現可能な技術範囲
である。
For example, in these methods, for erasure, the detected open caption signal is reproduced and the same level is subtracted from the video signal. The level reduction can be realized by subtracting at a predetermined ratio. In addition, the movement of the open caption is based on the method of erasing with the above-described method and synthesizing the image at another position. These techniques are within the technical scope that can be sufficiently realized.

【0100】[0100]

【発明の効果】以上詳細に説明したように、本発明によ
れば、オープンキャプションの特徴を利用してその表示
位置やタイミングなどを自動的に検知し、それと重複し
ないように表示予定字幕の表示位置やタイミングを自動
的に制御するようしたので、人手によっていた作業を自
動化することができる。また、オープンキャプションの
表示位置やタイミングのみならず、そのキャプションを
テキストとしても自動的に検知し、表示予定の字幕内容
と比較して、字幕の表示/非表示、字幕内容の修正/非
修正なども自動的に判別し実行させることができるの
で、字幕制作の効率化が図れるようになる。したがっ
て、今後適用分野や番組数などの拡大が見込まれる字幕
放送において、このような自動化は字幕番組制作上に大
きな効果が期待される。
As described in detail above, according to the present invention, the display position and timing are automatically detected using the characteristics of open captions, and the subtitles to be displayed are displayed so as not to be duplicated therewith. Since the position and the timing are automatically controlled, the work manually performed can be automated. Also, not only the display position and timing of the open caption, but also the caption is automatically detected as text, and compared with the subtitle content to be displayed, subtitle display / non-display, subtitle content correction / non-correction, etc. Can be automatically determined and executed, so that the efficiency of subtitle production can be improved. Therefore, in closed caption broadcasting in which application fields and the number of programs are expected to expand in the future, such automation is expected to have a great effect on closed caption program production.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るオープンキャプションに対する字
幕表示制御方法を実施する自動字幕番組制作システムの
機能ブロック構成図である。
FIG. 1 is a functional block configuration diagram of an automatic subtitle program production system that implements a subtitle display control method for open captions according to the present invention.

【図2】自動字幕番組制作システムにおける字幕制作フ
ローを、改良された現行字幕制作フローと対比して示し
た説明図である。
FIG. 2 is an explanatory diagram showing a subtitle production flow in the automatic subtitle program production system in comparison with an improved current subtitle production flow.

【図3】単位字幕文を表示単位字幕文毎に分割する際に
適用される分割ルールの説明に供する図である。
FIG. 3 is a diagram provided for describing a division rule applied when dividing a unit subtitle sentence for each display unit subtitle sentence.

【図4】アナウンス音声に対する字幕送出タイミングの
同期検出技術に係る説明に供する図である。
FIG. 4 is a diagram provided for describing a technique for detecting a synchronization of subtitle transmission timing with respect to an announcement sound.

【図5】アナウンス音声に対する字幕送出タイミングの
同期検出技術に係る説明に供する図である。
FIG. 5 is a diagram provided for describing a technique for detecting the synchronization of caption transmission timing with respect to an announcement sound.

【図6】本発明の実施の形態1に係るオープンキャプシ
ョンに対する字幕表示制御方法を説明するフローチャー
トである。
FIG. 6 is a flowchart illustrating a subtitle display control method for open captions according to Embodiment 1 of the present invention.

【図7】実施の形態1による字幕の表示位置及び開始・
終了のタイミングの変更例を示す図である。
FIG. 7 shows a display position and start of a subtitle according to the first embodiment.
It is a figure showing the example of change of the end timing.

【図8】本発明の実施の形態2に係るオープンキャプシ
ョンに対する字幕表示制御方法を説明するフローチャー
トである。
FIG. 8 is a flowchart illustrating a subtitle display control method for open captions according to Embodiment 2 of the present invention.

【図9】実施の形態2による字幕表示の適性化処理例を
示す図である。
FIG. 9 is a diagram showing an example of a subtitle display suitability processing according to the second embodiment.

【図10】現行字幕制作フロー、及び改良された現行字
幕制作フローを対比して示した説明図である。
FIG. 10 is an explanatory diagram showing a comparison between a current subtitle production flow and an improved current subtitle production flow.

【符号の説明】[Explanation of symbols]

11 自動字幕番組制作システム 13 電子化原稿記録媒体 15 同期検出装置 17 統合化装置 19 形態素解析部 21 分割ルール記憶部 23 ディジタル・ビデオ・テープ・レコーダ(D−V
TR) 33 単位字幕文抽出部 35 表示単位字幕化部 37 タイミング情報付与部 39 オープンキャプション判定部 41 文字認識部 43 画面変更判定部 45 字幕表示位置制御部 47 表示位置決定部 49 表示タイミング決定部 51 表示/非表示・修正/非修正決定部 53 表示字幕データ出力部
Reference Signs List 11 automatic caption program production system 13 digitized original recording medium 15 synchronization detection device 17 integration device 19 morphological analysis unit 21 division rule storage unit 23 digital video tape recorder (D-V
TR) 33 unit subtitle sentence extraction unit 35 display unit subtitle conversion unit 37 timing information addition unit 39 open caption determination unit 41 character recognition unit 43 screen change determination unit 45 subtitle display position control unit 47 display position determination unit 49 display timing determination unit 51 Display / non-display / correction / non-correction determination unit 53 Display subtitle data output unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 沢村 英治 東京都港区芝2−31−19 通信・放送機構 内 (72)発明者 門馬 隆雄 東京都港区芝2−31−19 通信・放送機構 内 (72)発明者 江原 暉将 東京都港区芝2−31−19 通信・放送機構 内 (72)発明者 白井 克彦 東京都港区芝2−31−19 通信・放送機構 内 Fターム(参考) 5C023 AA18 BA01 BA11 BA16 CA01 CA04 CA05 EA03 5C063 AA01 AC01 AC05 CA40 DA03 DB09 EA03 EB01  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Eiji Sawamura, Inventor 2-31-19 Shiba, Minato-ku, Tokyo Inside (72) Inventor Takao Kadoma 2-31-19 Shiba, Minato-ku, Tokyo Communication and Broadcasting Organization (72) Inventor Terumasa Ehara 2-31-19 Shiba, Minato-ku, Tokyo Communication and Broadcasting Corporation (72) Inventor Katsuhiko Shirai 2-31-19 Shiba, Minato-ku, Tokyo Communication and Broadcasting Corporation F-term (reference 5C023 AA18 BA01 BA11 BA16 CA01 CA04 CA05 EA03 5C063 AA01 AC01 AC05 CA40 DA03 DB09 EA03 EB01

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 テレビ映像にスーパー表示されるオープ
ンキャプションの有無を検知し、自動字幕番組制作シス
テムにおいて制作された表示予定字幕の表示予定位置に
前記オープンキャプションが存在するとき、前記表示予
定字幕の表示位置を同じフレームにおいて前記オープン
キャプションと重ならない所定位置に決定する、また
は、前記表示予定字幕の表示位置を前記オープンキャプ
ションが存在しないフレームにおける所定位置に決定す
ることを特徴とするオープンキャプションに対する字幕
表示制御方法。
The present invention detects presence / absence of an open caption super-displayed on a television image, and when the open caption is present at a display position of a display-scheduled subtitle produced by an automatic subtitle program production system, the display-scheduled subtitle is displayed. Determining a display position at a predetermined position that does not overlap with the open caption in the same frame, or determining a display position of the subtitle to be displayed at a predetermined position in a frame where the open caption does not exist; Display control method.
【請求項2】 テレビ映像にスーパー表示されるオープ
ンキャプションの有無及びそのオープンキャプションの
内容を検知し、自動字幕番組制作システムにおいて制作
された表示予定字幕の表示予定位置に前記オープンキャ
プションが存在するとき、前記オープンキャプションの
内容と前記表示予定字幕の内容との近似度を調査し、調
査した近似度の程度に応じて、前記表示予定字幕の表示
/非表示ないしは修正/非修正を決定することを特徴と
するオープンキャプションに対する字幕表示制御方法。
2. The system detects the presence or absence of an open caption super-displayed on a television image and the content of the open caption, and detects the presence of the open caption at a display position of a display subtitle produced by an automatic subtitle program production system. Examining the degree of similarity between the contents of the open caption and the contents of the subtitles to be displayed, and determining display / non-display or modification / non-correction of the subtitles to be displayed according to the degree of approximation examined. A subtitle display control method for open captions.
【請求項3】 請求項1又は請求項2に記載のオープン
キャプションに対する字幕表示制御方法において、前記
テレビ映像のシーン変更点を検出し、検出したシーン変
更点と字幕終了タイミングとを比較し、比較結果に基づ
き字幕終了タイミングを変更することを特徴とするオー
プンキャプションに対する字幕表示制御方法。
3. The subtitle display control method for an open caption according to claim 1, wherein a scene change point of the television image is detected, and the detected scene change point is compared with a subtitle end timing. A subtitle display control method for an open caption, wherein a subtitle end timing is changed based on a result.
JP2001148426A 2001-05-17 2001-05-17 Subtitle display control method for open captions Expired - Fee Related JP4496358B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001148426A JP4496358B2 (en) 2001-05-17 2001-05-17 Subtitle display control method for open captions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001148426A JP4496358B2 (en) 2001-05-17 2001-05-17 Subtitle display control method for open captions

Publications (2)

Publication Number Publication Date
JP2002344805A true JP2002344805A (en) 2002-11-29
JP4496358B2 JP4496358B2 (en) 2010-07-07

Family

ID=18993740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001148426A Expired - Fee Related JP4496358B2 (en) 2001-05-17 2001-05-17 Subtitle display control method for open captions

Country Status (1)

Country Link
JP (1) JP4496358B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004097811A1 (en) * 2003-04-30 2004-11-11 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of subtitle data and methods and apparatuses of recording and reproducing
JP2007300270A (en) * 2006-04-28 2007-11-15 Canon Inc Digital broadcast receiving device and its control method
JP2008039841A (en) * 2006-08-01 2008-02-21 Canon Inc Image reproducing device and image reproducing method
US7751685B2 (en) 2003-07-02 2010-07-06 Lg Electronics, Inc. Recording medium having data structure including graphic data and recording and reproducing methods and apparatuses
US7760989B2 (en) 2003-07-01 2010-07-20 Lg Electronics Inc. Recording medium having data structure including graphic data and recording and reproducing methods and apparatuses
US7769275B2 (en) 2002-10-04 2010-08-03 Lg Electronics, Inc. Recording medium having a data structure for managing reproduction of graphic data and recording and reproducing methods and apparatuses
US7778522B2 (en) 2003-12-23 2010-08-17 Lg Electronics, Inc. Recording medium having a data structure for managing graphic information and recording and reproducing methods and apparatuses
JP2010226520A (en) * 2009-03-24 2010-10-07 Sharp Corp Content display control apparatus, content display control method, program, and recording medium
JP2011215255A (en) * 2010-03-31 2011-10-27 Brother Industries Ltd Karaoke device and program
US8146118B2 (en) 2000-06-09 2012-03-27 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of menu data and recording and reproducing apparatuses and methods

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8146118B2 (en) 2000-06-09 2012-03-27 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of menu data and recording and reproducing apparatuses and methods
US7769275B2 (en) 2002-10-04 2010-08-03 Lg Electronics, Inc. Recording medium having a data structure for managing reproduction of graphic data and recording and reproducing methods and apparatuses
WO2004097811A1 (en) * 2003-04-30 2004-11-11 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of subtitle data and methods and apparatuses of recording and reproducing
CN100454393C (en) * 2003-04-30 2009-01-21 Lg电子株式会社 Recording medium having a data structure for managing reproduction of subtitle data and methods and apparatuses of recording and reproducing
US7760989B2 (en) 2003-07-01 2010-07-20 Lg Electronics Inc. Recording medium having data structure including graphic data and recording and reproducing methods and apparatuses
US7751685B2 (en) 2003-07-02 2010-07-06 Lg Electronics, Inc. Recording medium having data structure including graphic data and recording and reproducing methods and apparatuses
US7778522B2 (en) 2003-12-23 2010-08-17 Lg Electronics, Inc. Recording medium having a data structure for managing graphic information and recording and reproducing methods and apparatuses
JP2007300270A (en) * 2006-04-28 2007-11-15 Canon Inc Digital broadcast receiving device and its control method
JP2008039841A (en) * 2006-08-01 2008-02-21 Canon Inc Image reproducing device and image reproducing method
JP2010226520A (en) * 2009-03-24 2010-10-07 Sharp Corp Content display control apparatus, content display control method, program, and recording medium
JP2011215255A (en) * 2010-03-31 2011-10-27 Brother Industries Ltd Karaoke device and program

Also Published As

Publication number Publication date
JP4496358B2 (en) 2010-07-07

Similar Documents

Publication Publication Date Title
US6490553B2 (en) Apparatus and method for controlling rate of playback of audio data
US5734923A (en) Apparatus for interactively editing and outputting sign language information using graphical user interface
US20070011012A1 (en) Method, system, and apparatus for facilitating captioning of multi-media content
JP4127668B2 (en) Information processing apparatus, information processing method, and program
US20060136226A1 (en) System and method for creating artificial TV news programs
US20200126559A1 (en) Creating multi-media from transcript-aligned media recordings
JPH11162107A (en) System for editing digital video information and audio information
CN110781328A (en) Video generation method, system, device and storage medium based on voice recognition
CN110740275B (en) Nonlinear editing system
JP2009157460A (en) Information presentation device and method
JP3873926B2 (en) Subtitle insertion method, subtitle insertion system and subtitle insertion program
JP2019148681A (en) Text correction device, text correction method and text correction program
CN101410790A (en) Text display, text display method, and program
CN110781649A (en) Subtitle editing method and device, computer storage medium and electronic equipment
JP2012181358A (en) Text display time determination device, text display system, method, and program
JP4140745B2 (en) How to add timing information to subtitles
JP2002344805A (en) Method for controlling subtitles display for open caption
CN110781346A (en) News production method, system, device and storage medium based on virtual image
CN114268829A (en) Video processing method and device, electronic equipment and computer readable storage medium
JP4210723B2 (en) Automatic caption program production system
EP0597798A1 (en) Method and system for utilizing audible search patterns within a multimedia presentation
JP4140744B2 (en) How to automatically split caption text
JP2002342311A (en) Method for automatically generating display unit caption sentence for caption program production
JP3969570B2 (en) Sequential automatic caption production processing system
JP4342529B2 (en) Authoring support device, authoring support method and program, and authoring information sharing system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040513

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040517

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 4

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

LAPS Cancellation because of no payment of annual fees