JP2006222568A - Narration support device, and document editing method and program thereof - Google Patents

Narration support device, and document editing method and program thereof Download PDF

Info

Publication number
JP2006222568A
JP2006222568A JP2005032170A JP2005032170A JP2006222568A JP 2006222568 A JP2006222568 A JP 2006222568A JP 2005032170 A JP2005032170 A JP 2005032170A JP 2005032170 A JP2005032170 A JP 2005032170A JP 2006222568 A JP2006222568 A JP 2006222568A
Authority
JP
Japan
Prior art keywords
narration
voice
file
sentence
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005032170A
Other languages
Japanese (ja)
Other versions
JP4459077B2 (en
Inventor
Tamotsu Takada
保 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005032170A priority Critical patent/JP4459077B2/en
Publication of JP2006222568A publication Critical patent/JP2006222568A/en
Application granted granted Critical
Publication of JP4459077B2 publication Critical patent/JP4459077B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a narration support device capable of adjusting in detail and confirming reading timing. <P>SOLUTION: In the narration support device 9, a voice processing program 12 performs correction editing for adjusting reading timing of a voice waveform of a voice file 32 wherein a reading voice of a narration document displayed on a display 5 is recorded according to a command entered from a control input section 4 and a voice/character processing program 13 copies the display position of a mark M indicating the reading timing displayed in a narration document from the voice file 32 corrected and edited by a voice recognizing function and information on reading time length to a document file 31 of the narration document giving guide display of the reading timing. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、テレビ放送のナレーション原稿の読み上げに用いるナレーション支援装置、その原稿編集方法およびプログラムに関する。   The present invention relates to a narration support apparatus used for reading a narration document for television broadcasting, and a document editing method and program thereof.

テレビ放送のニュース番組等では、アナウンサが原稿を読み上げるが、許容時間に合わせて原稿を読み上げなければならない。読み上げ速度を合わせる準備としてアナウンサは原稿下読みを行うが、本番の時間合わせは、アナウンサの熟練度に依存する。そこで、原稿文字数と時間を計算して読み上げ速度を調整し、速度に合わせたタイミングで原稿文字を画面に表示する音楽カラオケに類似した原稿読み上げ装置(以下、ナレーション支援装置と称する。)がある(例えば、特許文献1。)。   In a television broadcast news program or the like, an announcer reads out a manuscript, but the manuscript must be read out in accordance with an allowable time. In preparation for adjusting the reading speed, the announcer scans the original, but the actual time adjustment depends on the skill level of the announcer. Therefore, there is an original reading device (hereinafter referred to as a narration support device) similar to a music karaoke that calculates the number of original characters and time, adjusts the reading speed, and displays the original characters on the screen at a timing in accordance with the speed (hereinafter referred to as a narration support device). For example, Patent Document 1).

しかし、この方法は、原稿全体の読み上げ時間を所定時間内に収めるのには十分であるが、テレビ画面に表示される番組提供者を画面の動きと同期して読み上げたり、風景や、報道番組での映像説明、ナレーションを行う様な細部タイミングを調整して読み上げる場合には適さない問題が有った。また、読み上げタイミング等の状態を確認するリハーサル機能、および修正機能がなかった。
特開平7−67034号公報 (第3頁、第2図)
However, this method is sufficient to keep the reading time of the entire manuscript within a predetermined time, but the program provider displayed on the TV screen is read out in synchronism with the movement of the screen, landscapes, news programs, etc. There was a problem that was not suitable for adjusting the timing of details such as video explanations and narrations. Also, there was no rehearsal function to check the state of reading-out timing, etc., and a correction function.
JP 7-67034 A (page 3, FIG. 2)

従来の原稿読み上げ装置は、テレビ画面に表示される番組提供者を画面と同期して読み上げたり、風景や、報道番組での映像説明やナレーションを行う様な細部タイミングを調整して読み上げるには適さない問題があった。   Conventional document readers are suitable for reading program providers displayed on a TV screen in synchronization with the screen, or adjusting detailed timing such as explaining the scenes or explaining video narration in news programs. There was no problem.

本発明は上記問題を解決するためになされたもので、読み上げタイミングの細部調整と共に、確認が可能なナレーション支援装置、その原稿編集方法およびプログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and an object of the present invention is to provide a narration support apparatus, a document editing method, and a program thereof that can be confirmed along with detailed adjustment of reading timing.

上記目的を達成するために、本発明のナレーション支援装置は、テレビ放送で読み上げられるナレーション原稿を表示するナレーション支援装置において、ナレーション原稿の情報が書き込まれた原稿ファイルと、前記ナレーション原稿を読み上げた音声が録音された音声ファイルとを記憶するデータベースと、前記原稿ファイルと、前記音声ファイルの編集を行うコマンドを入力する為の制御入力手段と、アナウンサが前記ナレーション原稿を読み上げる音声を前記録音される音声のデジタル音声信号に変換する音声入力部と、前記コマンドにより前記記憶された音声ファイルを音声にして再生出力する音声出力部と、前記ナレーション原稿、またはおよび前記音声ファイルの音声波形を前記ナレーション原稿の読み上げタイミングを参照するためのタイムスケールと共に画面表示するディスプレイと、タイマと、前記入力される前記コマンドにより前記読み上げられるナレーション原稿を読み上げる音節、または文節の単位毎の文にすると共に、前記各文、および前記各文の読み上げタイミングを示すマークを前記タイムスケールに合わせて画面表示する編集を行い前記データベースに記憶する処理を行う文章処理プログラムと、前記コマンドにより前記データベースから前記音声ファイルを読み出し、および前記ディスプレイに画面表示される音声波形を調整することにより前記各文の読み上げタイミング、および前記読み上げられる前記各文の時間長を編集して前記データベースに記憶する処理を行う音声処理プログラムとを備える制御処理部とを具備することを特徴とする。   In order to achieve the above object, a narration support device according to the present invention is a narration support device for displaying a narration document read out by a television broadcast, and a document file in which information of the narration document is written, and a voice read out from the narration document A database for storing a recorded audio file, a control input means for inputting a command for editing the audio file, and an audio for an announcer to read the narration original. An audio input unit that converts the audio file stored in response to the command into an audio output unit that reproduces and outputs the audio file, and the voice waveform of the narration document or the voice file of the narration document Refer to reading timing A display that displays a screen together with a time scale, a timer, a syllable that reads out the narration document read out by the input command, or a sentence for each unit of the sentence, and each sentence and each sentence A text processing program for performing a process of editing the mark indicating the read-out timing on the screen in accordance with the time scale and storing the mark in the database, reading the voice file from the database by the command, and displaying the screen on the display A control processing unit comprising: a speech processing program for performing processing of editing the reading timing of each sentence and adjusting the time length of each sentence to be read and adjusting the waveform to be stored in the database It is characterized by .

また、本発明のナレーション支援装置の原稿編集方法は、テレビ放送で読み上げられるナレーション原稿を表示するナレーション支援装置の原稿編集方法において、前記ナレーション支援装置は、ナレーション原稿の情報が書き込まれた原稿ファイルと、前記ナレーション原稿を読み上げた音声が録音された音声ファイルとを記憶するデータベースと、前記原稿ファイルまたはおよび前記音声ファイルの編集を行うコマンドを入力する為の制御入力手段と、アナウンサが前記ナレーション原稿を読み上げる音声を前記録音される音声のデジタル音声信号に変換する音声入力部と、前記コマンドにより前記記憶された音声ファイルを音声に再生出力する音声出力部と、前記ナレーション原稿、またはおよび前記音声ファイルの音声波形を前記ナレーション原稿の読み上げタイミングを参照するためのタイムスケールとともに画面表示するディスプレイと、制御処理部とを備え、前記制御処理部は、前記入力される前記コマンドにより前記読み上げられるナレーション原稿を読み上げる音節、または文節の単位毎の文にすると共に、ナレーション開始からの各文およびそれぞれの読み上げタイミングをマークとともに画面表示する前記ナレーション原稿に編集して前記データベースに記憶し、前記音声ファイルの編集を行うコマンドが入力された場合、内蔵するタイマを参照することにより前記データベースから前記音声ファイルを読み出し、前記ディスプレイに前記音声ファイルの音声波形を表示し前記音声ファイルに書き込まれた前記各文の読み上げタイミング、および前記読み上げられる前記各文の時間長を編集して前記データベースに記憶し、前記音声波形を調整して編集された各文の前記読み上げタイミングにより前記画面表示されるナレーション原稿の読み上げタイミングの表示を調整する処理を行うことを特徴とする。   The narration support apparatus of the present invention also provides a narration support apparatus for editing a narration support apparatus for displaying a narration document read out by a television broadcast, wherein the narration support apparatus includes a document file in which information of the narration document is written. A database for storing a voice file in which the voice of the narration manuscript is recorded; a control input means for inputting the manuscript file or a command for editing the voice file; and an announcer A voice input unit that converts a voice to be read into a digital voice signal of the recorded voice, a voice output unit that plays back and outputs the stored voice file according to the command, and the narration document or the voice file The sound waveform is A display that displays a screen together with a time scale for referring to the reading timing of the reading of the original document, and a control processing unit, wherein the control processing unit reads a syllable or phrase that reads out the narrated original read out by the input command. A command for editing the voice file is input, edited into the narration manuscript displayed on the screen with each mark from the start of the narration and each reading timing and displayed on the screen. The voice file is read from the database by referring to a built-in timer, the voice waveform of the voice file is displayed on the display, and the reading timing of each sentence written to the voice file is read. Processing to adjust the display of the reading timing of the narration document displayed on the screen according to the reading timing of each sentence edited by editing the time length of each sentence and storing it in the database It is characterized by performing.

さらに、本発明のナレーション支援装置のプログラムは、ナレーション原稿の情報が書き込まれた原稿ファイルと、前記ナレーション原稿を読み上げた音声が録音された音声ファイルとを記憶するデータベースと、前記原稿ファイルと、前記音声ファイルの編集を行う為の制御入力手段からのコマンドに基づき、前記ナレーション原稿を読み上げる音節、または文節の単位毎の文にすると共に、ナレーション開始からの各文およびそれぞれの読み上げタイミングをマークとともに画面表示する前記ナレーション原稿に編集して前記データベースに記憶し、前記音声ファイルの編集を行うコマンドが入力された場合、前記データベースから前記音声ファイルを読み出し、前記ディスプレイに前記音声ファイルの音声波形を表示し、前記表示される音声波形を調整して前記音声ファイルに書き込まれた前記各文の読み上げタイミング、および前記各文が読み上げられる時間長をタイマを参照することにより編集して前記データベースに記憶し、前記音声波形を調整して編集された各文の前記読み上げタイミングにより前記画面表示されるナレーション原稿の読み上げタイミングの表示を調整する処理を行うことを特徴とするナレーション支援装置のプログラム。   Further, the program of the narration support device of the present invention includes a database that stores a document file in which information of a narration document is written, a sound file in which a sound that reads out the narration document is recorded, the document file, Based on the command from the control input means for editing the audio file, the narration manuscript is read as a syllable or a sentence for each unit of the narration, and each sentence from the start of the narration and each reading timing are displayed together with a mark. When the command for editing the voice file is input, the voice file is read from the database, and the voice waveform of the voice file is displayed on the display. The above is displayed The voice waveform is adjusted and the reading timing of each sentence written in the voice file and the time length for reading each sentence are edited by referring to a timer and stored in the database, and the voice waveform is adjusted. A program for a narration support apparatus that performs a process of adjusting the display of the reading timing of the narration document displayed on the screen according to the reading timing of each sentence edited in this way.

本発明によれば、ナレーション原稿が下読みされた音声を録音編集することによりナレーション原稿の読み上げガイドのタイミングの細部調整と共に、確認が可能なナレーション支援装置を提供することができる。   According to the present invention, it is possible to provide a narration support device capable of confirming, together with detailed adjustment of the timing of a reading guide for a narration document, by recording and editing the sound of the narration document being read down.

以下、図面を参照して本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施例に係るナレーション支援装置の機能構成を示すブロック図である。
図1においてナレーション支援装置9は、それぞれの間が内部バス等で接続された制御処理部(以下、CPUと称する。)1、タイマ2、データベース3、キーボード、マウス等からなる制御入力部4、ディスプレイ5、音声入力部6、音声出力部7と、通信IF(インタフェース)8とを備えている。なお、ナレーション支援装置9は、上記の機能構成を備えるもので有れば、パーソナルコンピュータやワークステーションの様な情報端末であっても良い。
FIG. 1 is a block diagram showing a functional configuration of a narration support apparatus according to an embodiment of the present invention.
In FIG. 1, a narration support device 9 includes a control processing unit (hereinafter referred to as CPU) 1, a timer 2, a database 3, a control input unit 4 including a keyboard, a mouse, and the like connected to each other by an internal bus or the like. A display 5, an audio input unit 6, an audio output unit 7, and a communication IF (interface) 8 are provided. The narration support device 9 may be an information terminal such as a personal computer or a workstation as long as it has the above-described functional configuration.

CPU1は、データベース3に記憶された原稿ファイル31、音声ファイル32を処理する文章処理プログラム11、および音声処理プログラム12、ディスプレイ5に表示される原稿文、タイミングのマークと音声ファイル32の音声波形との間の同期を制御する音声・文字処理プログラム13と、ワークメモリ14を備えている。   The CPU 1 reads the document file 31 stored in the database 3, the sentence processing program 11 for processing the audio file 32, the voice processing program 12, the document sentence displayed on the display 5, the timing mark, and the audio waveform of the audio file 32. Are provided with a voice / character processing program 13 for controlling the synchronization between and a work memory 14.

タイマ2は、後述する原稿の読み上げタイミングや音声波形の立ち上がりについて、原稿ファイル31と音声ファイル32とが同期して動作するための基準時計として動作する。   The timer 2 operates as a reference clock for the original file 31 and the audio file 32 to operate in synchronism with respect to the reading timing of the original and the rising of the audio waveform, which will be described later.

データベース3は、アナウンサが読み上げる原稿ファイル31と、アナウンサが原稿を読み上げた音声を記録した音声ファイル32を記憶する。   The database 3 stores a manuscript file 31 read by the announcer and a sound file 32 that records the sound of the announcer reading the manuscript.

制御入力部4は、オペレータによりナレーション原稿の文章入力と、文字表示位置、音声ファイルの処理編集等のコマンドが入力される。そして、そのデータ、コマンドは、内部バスを介して内部バスに出力され、更にCPU1で所定の処理が行われる。CPU1は、文章処理プログラム11で編集作成した文章を原稿ファイル31にしてデータベース3に書き込み保存する。   The control input unit 4 receives commands such as text input of a narration document, character display position, and processing editing of an audio file by an operator. Then, the data and commands are output to the internal bus via the internal bus, and further, the CPU 1 performs predetermined processing. The CPU 1 writes and saves the text edited and created by the text processing program 11 in the database 3 as a manuscript file 31.

ディスプレイ5は、アナウンサが読み上げるナレーション原稿と、アナウンサが読み上げた原稿を録音した音声ファイル32の音声波形を表示する。ナレーション原稿と音声ファイルは、それぞれの画面に表示され、それらの画面にはナレーション原稿の読み始めからナレーションの各文を読み上げるタイミングが、言い換えれば、経過時間、または読み上げ開始までの残り時間が分かるガイドのタイムスケールが表示される。また、ナレーション原稿と音声波形は同じ画面上に表示されるものであっても良いが以下では、それぞれの画面で表示される場合を例に、ナレーション支援装置の動作説明をする。   The display 5 displays the narration original read by the announcer and the audio waveform of the audio file 32 that records the original read by the announcer. The narration manuscript and audio file are displayed on each screen, and on these screens, the timing to read each narration sentence from the beginning of reading the narration manuscript, in other words, the elapsed time or the remaining time until the start of reading The time scale is displayed. Although the narration document and the audio waveform may be displayed on the same screen, the operation of the narration support apparatus will be described below by taking the case of displaying on each screen as an example.

音声入力部6は、マイク61から入力された音声をA/D変換したデジタル音声信号を内部バスに出力する。CPU1は、音声処理プログラム12により内部バスからデジタル音声信号を入力して音声ファイル32を生成してデータベース3へ書き込み記憶する。   The audio input unit 6 outputs a digital audio signal obtained by A / D converting the audio input from the microphone 61 to the internal bus. The CPU 1 inputs a digital audio signal from the internal bus by the audio processing program 12, generates an audio file 32, writes and stores it in the database 3.

音声出力部7は、制御入力部4からのコマンドによりCPU1の音声処理プログラム12が読み上げた音声ファイル32をD/A変換、および音声に復元してスピーカ71から出力する。   The voice output unit 7 restores the voice file 32 read out by the voice processing program 12 of the CPU 1 to D / A conversion and voice in response to a command from the control input unit 4 and outputs the voice file 32 from the speaker 71.

通信IF8は、放送される映像画面と同期して原稿の文字表示を変える為のスタート(キュー)信号が入力される。   The communication IF 8 receives a start (queue) signal for changing the character display of the document in synchronization with the broadcast video screen.

図2は、アナウンサが読み上げるナレーション原稿を表示したディスプレイ5の画表示面例である。
図2において、画面は、文章処理プログラム11と音声処理プログラム12とによって編集された原稿文b1〜bnと、その読み上げ開始のタイミング(以下、読み上げタイミング(t1〜t3)と省略する。)がマークMによりタイムスケールCに並んで表示され、また画面左には、録音や、再生、編集を行うためのコマンドを入力する画面ボタンBが表示されている。この画面ボタンBは、制御入力部4のマウスや、キーボードによってポインティングやクリックなどにより操作される。
FIG. 2 is an example of an image display surface of the display 5 on which a narration document read by the announcer is displayed.
In FIG. 2, the screen is marked with manuscript sentences b1 to bn edited by the text processing program 11 and the voice processing program 12, and the reading start timing (hereinafter abbreviated as reading timing (t1 to t3)). A screen button B for inputting commands for recording, reproduction, and editing is displayed on the left side of the screen. The screen button B is operated by pointing or clicking with the mouse or keyboard of the control input unit 4.

原稿文b1、b2、b3は、それぞれ「この番組は、明日を目指すxyzと、」、「OOカンパニーと、」、「ご覧のスポンサーがお送りします」とがそれぞれ、読み上げタイミング(t1、t2、t3)で読み上げられる。そして読み上げ速度(読み上げタイミング)に応じて、時々刻々文字色が、例えば、まだ読み上げていないことを示す「青」から読み上げ済みを示す「オレンジ」に変わるようになっている。   The manuscript sentences b1, b2, and b3 respectively read “This program is xyz aimed at tomorrow,” “OO company,” and “The sponsors you see are sent” respectively. Read out at t3). Depending on the reading speed (reading timing), the character color is changed from “blue” indicating that it has not been read out to “orange” indicating that it has been read out.

タイムスケールCは、表示されている原稿文の読み上げ開始までの時間をアナウンサに画面で予告する時間目盛であり、図2では、バーcbの色がナレーション開始時刻から時間の経過と共に、例えば、右から左へ未読み上げの「青」から読み上げ済みの「オレンジ」に変わる。このバーに合わせて原稿文を読み上げるタイミングの順序が「△1」〜「△3」のマークMで表示され、例えば、「△1」位置の下に原稿文b1の「この番組は、明日を目指すxyzと、」が配置されている。   The time scale C is a time scale for notifying the announcer of the time until the start of reading of the displayed document text on the screen. In FIG. 2, the color of the bar cb is, for example, rightward as time elapses from the narration start time. From left to right, it changes from “blue” unread to “orange” to read. The order of the timing of reading out the original text in accordance with this bar is indicated by marks M from “Δ1” to “Δ3”. For example, under the “Δ1” position, “This program shows tomorrow. The target xyz is arranged.

これらの文字色およびバーcbの変化は、CPU2の文章処理プログラムがタイマ2を参照することによって実行される。   These changes in the character color and the bar cb are executed when the sentence processing program of the CPU 2 refers to the timer 2.

なお、図2における表示画面には、読み上げ開始からの経過時間が数字、時計の針等の時計部CL、および読み上げ開始タイミングになると点灯するキューランプQがディスプレイ5に表示されるものでも良い。   Note that the display screen in FIG. 2 may be such that the elapsed time from the start of reading is a number, a clock part CL such as a clock hand, and a cue lamp Q that is lit when the reading start timing comes.

アナウンサは、これらの原稿文b1〜bnをディスプレイ5の表示を見ながら読み上げるが、その際に、“録音”のコマンドとして制御入力部4のマウスにより画面ボタンの「REC」が押されるか、または、キーボードから「REC」が入力されると、その読み上げ音声は、音声ファイル32となってデータベース3に書き込み記憶される。   The announcer reads these manuscript sentences b1 to bn while looking at the display 5, and at that time, the “REC” of the screen button is pressed by the mouse of the control input unit 4 as a “record” command, or When “REC” is input from the keyboard, the reading voice is written and stored in the database 3 as an audio file 32.

音声処理プログラム12は、録音された音声ファイル32を読み出して、発声タイミング等を編集して修正することが出来る。また、音声・文字処理プログラム13は、音声認識機能により、音声ファイル32の音声波形の発声開始タイミングと、ナレーション原稿に表示される読み上げ開始のタイミングのマークMを一致させて同期する処理を行う。   The voice processing program 12 can read out the recorded voice file 32 and edit and correct the utterance timing. In addition, the voice / character processing program 13 performs a process of synchronizing the voice waveform utterance start timing of the voice file 32 with the mark M of the reading start timing displayed on the narration document by using the voice recognition function.

図3は、音声ファイル32が音声処理プログラム12によって編集された時のディスプレイ5に表示される音声波形の例である。
図3において、波形編集画面は、音声波形w1〜w3が表示され、音声波形w1〜w3は、それぞれ、原稿文b1〜b3に対応している。音声波形は発声時の振動波形であって文単位の音節毎の群となった形状をなしている。この音声波形の上に、タイムスケールTSが表示されている。このタイムスケールTSは、図2のタイムスケールCと同期しているが、音声波形のタイミング調整を微細に調整できるようタイムスケールCに比べて小些細な時間目盛りが記入されている。
FIG. 3 is an example of a sound waveform displayed on the display 5 when the sound file 32 is edited by the sound processing program 12.
In FIG. 3, the waveform editing screen displays voice waveforms w1 to w3, and the voice waveforms w1 to w3 correspond to the original sentences b1 to b3, respectively. The speech waveform is a vibration waveform at the time of utterance and has a shape of a group for each syllable in sentence units. A time scale TS is displayed on the voice waveform. Although this time scale TS is synchronized with the time scale C in FIG. 2, a time scale that is slightly smaller than the time scale C is written so that the timing adjustment of the audio waveform can be finely adjusted.

また、波形編集画面には画面上に編集ボタンEが備えられ、後述の音声波形の発声タイミングや発生時間の長さの編集に使用される。   Further, the waveform editing screen is provided with an editing button E on the screen, which is used for editing the utterance timing and generation time length of the later-described speech waveform.

音声処理プログラム12は、例えば、音声波形w1とw2の間の空き時間を延ばしたり縮める、言い換えれば、発音開始タイミングを移動するタイミング設定機能と、音声が発声される時間を長くしたり短くするタイムコンパンダ機能とを備えている。   For example, the voice processing program 12 extends or shortens the free time between the voice waveforms w1 and w2, in other words, a timing setting function for moving the sound generation start timing, and a time for lengthening or shortening the time when the voice is uttered. It has a compander function.

従来の録音機では、録音時間長と再生時間長が異なると、その速度に比例して、音声周波数の高低にあたる音声ピッチが変化した。しかし、タイムコンパンダ機能は、再生時間長と録音時間長、言い換えれば再生速度と録音速度とを比較して、発生時間が記事各なる場合には音声情報を間引くか、または長くなる場合には挿入する符号化音声補正技術を用いることにより音声ピッチを変えることなく発声時間を延長、または短縮して、読み上げ時間を変えるのと同じ効果を作り出すことが出来る。   In the conventional recorder, when the recording time length and the playback time length are different, the sound pitch corresponding to the sound frequency changes in proportion to the speed. However, the time compander function compares the playback time length and the recording time length, in other words, the playback speed and the recording speed, and if the occurrence time is each article, the audio information is thinned out or inserted when it becomes longer By using the encoded speech correction technique, the same effect as changing the reading time can be created by extending or shortening the utterance time without changing the speech pitch.

従って、本発明の実施例によるナレーション支援装置9は、アナウンサが一度読み上げた原稿を録音して、その音声ファイルを編集することにより、読み上げタイミングと読み上げ時間長を修正したのと同じ結果の手本となる音声ファイルを作成することができる。そして、その修正されたファイルを、原稿読み上げ音声として利用することもできる。   Therefore, the narration support apparatus 9 according to the embodiment of the present invention records the original read once by the announcer and edits the audio file, thereby correcting the reading timing and the reading time length. Can be created. Then, the corrected file can be used as a document reading voice.

また、音声、文字処理プログラム13は、音声ファイル32に設定された音声波形の開始タイミングを音声認識機能により検出し、ナレーション原稿の読み上げタイミングを示すマークMを修正した原稿ファイル31に修正することも可能としている。   Further, the voice / character processing program 13 detects the start timing of the voice waveform set in the voice file 32 by the voice recognition function, and corrects the mark M indicating the read-out timing of the narration document to the corrected document file 31. It is possible.

図4は、本発明の実施例におけるナレーション支援装置9の動作手順を説明するフローチャートである。
以下、図1〜図4を参照して、ナレーション支援装置9の各構成の処理、および動作手順を説明する。
FIG. 4 is a flowchart for explaining the operation procedure of the narration support device 9 in the embodiment of the present invention.
Hereinafter, with reference to FIGS. 1-4, the process of each structure of the narration assistance apparatus 9 and an operation | movement procedure are demonstrated.

図1において、オペレータ(原稿作成者)は、制御入力部4から文章を入力して作成したナレーションの原稿下書きを原稿ファイル31として、例えば、“広告1−L”と名付けてデータベース3に書き込む(図4のステップs1)。   In FIG. 1, an operator (manuscript creator) writes a draft of a narration draft created by inputting a text from the control input unit 4 as a manuscript file 31, for example, named “Advertisement 1-L” in the database 3 ( Step s1) in FIG.

この原稿は、読み上げの文節毎に区切られた原稿文b1〜bnが記述されている。各原稿文b1〜bnの読み上げタイミングが予め原稿作成者により予め設定されてもよいが、ここでは、アナウンサが読み上げた原稿を録音して作成した音声ファイルを編集して、音声、タイミング設定を行うことにより原稿作成を行う場合を例に、原稿作成手順を説明する。   In this manuscript, manuscript sentences b1 to bn are described which are divided for each sentence to be read out. The reading timing of each of the manuscript sentences b1 to bn may be set in advance by the manuscript creator, but here, the sound file created by recording the manuscript read by the announcer is edited to set the sound and timing. The procedure for creating a document will be described by taking the case of creating a document as an example.

アナウンサは、制御入力部4を操作して、“広告1”の名前の原稿ファイル31をデータベース3から読み出してディスプレイ5に表示する(ステップs2)。   The announcer operates the control input unit 4 to read the document file 31 named “advertisement 1” from the database 3 and display it on the display 5 (step s2).

図5は、修正前の“広告1−L”の原稿ファイル31がディスプレイ5に表示された時の画面表示例である。
図5において、原稿文b1、b2の上部のタイムスケールCのバーcbには、文章処理プログラム11によって設定された読み上げの順番と読み上げタイミングとを示す「△1」〜「△3」までの番号が表示される。アナウンサは、映像画面の開始と共に、画面の開始「REC」コマンドを制御入力部4から入力し(ステップs3)て、原稿下読みの録音を開始する。そして、録音開始後、原稿を読み上げた音声がマイク61から音声入力部6へ入力される(ステップs4)。
FIG. 5 is a screen display example when the original file 31 of “advertisement 1-L” before correction is displayed on the display 5.
In FIG. 5, the bar cb of the time scale C above the original sentences b1 and b2 is a number from “Δ1” to “Δ3” indicating the reading order and the reading timing set by the sentence processing program 11. Is displayed. At the same time as the start of the video screen, the announcer inputs a screen start “REC” command from the control input unit 4 (step s 3), and starts recording the document draft. After the start of recording, the voice read out from the original is input from the microphone 61 to the voice input unit 6 (step s4).

音声入力部6は、マイク61から入力される音声をデジタル音声化して内部バスに出力し(ステップs5)、CPU1の音声処理プログラム12は、デジタル音声を逐次データベース3の音声ファイル32へ書き込む(ステップs6)。そして文章の最後までよみ終えた時、録音終了コマンド、例えば「END」を制御入力部4から入力する(ステップs7)と録音が終了し、その音声ファイル32は、例えば、“広告1−V”の名前が付与されてデータベース3に書き込まれて記憶保存される(ステップs8)。   The voice input unit 6 converts the voice input from the microphone 61 into digital voice and outputs it to the internal bus (step s5), and the voice processing program 12 of the CPU 1 sequentially writes the digital voice into the voice file 32 of the database 3 (step s5). s6). When the end of the sentence has been read, when a recording end command, for example, “END” is input from the control input unit 4 (step s7), the recording is ended, and the audio file 32 is, for example, “advertisement 1-V”. Is given and written in the database 3 and stored (step s8).

続いて、アナウンサから、読み上げ結果を試聴するために再生コマンドの、例えば、「PLY」を制御入力部4から入力されると(ステップs9)、CPU1は、“広告1−V”の音声ファイル32をデータベース3から読み出して音声出力部7に入力し、音声出力部7が再生した音声がスピーカ71から出力される(ステップs10)。   Subsequently, when a playback command, for example, “PLY”, for example, is input from the control input unit 4 in order to audition the reading result from the announcer (step s9), the CPU 1 reads the audio file 32 of “advertisement 1-V”. Is read from the database 3 and input to the audio output unit 7, and the audio reproduced by the audio output unit 7 is output from the speaker 71 (step s10).

そこでアナウンサが試聴の結果、原稿文b1と原稿文b2の間の間隔を長くし、また、原稿文b2の「明日を目指すxyz」の読み上げ時間長を長くする読み上げ修正が必要と判断したとする(ステップs11がYes)。   As a result of the trial announcement, the announcer determines that it is necessary to correct the reading to increase the interval between the original sentence b1 and the original sentence b2 and to increase the reading time length of “xyz aiming for tomorrow” of the original sentence b2. (Step s11 is Yes).

アナウンサにより、タイミングを修正する編集の為に音声ファイル32の修正編集コマンド「EDT」を制御入力部4から入力されると(ステップs12)ディスプレイ5には、広告1−V”の名前の音声ファイル32の音声波形が表示される(ステップs13)。   When the announcer inputs a correction edit command “EDT” of the audio file 32 from the control input unit 4 for editing to correct the timing (step s12), an audio file with the name of the advertisement 1-V ″ is displayed on the display 5. 32 voice waveforms are displayed (step s13).

図6は、修正前の“広告1−V”の音声ファイル32の音声波形をディスプレイ5に表示した時の画面である。
図6において、録音開始タイミングが「△0」のマークで示され、その後、各原稿文b1〜b3を読み上げた音声波形w1〜w3が表示されている。音声処理プログラム12は、例えば、音声波形の包絡線を観測してその立ち上がりタイミングを検出して検出信号を内部バスに出力する。
FIG. 6 is a screen when the audio waveform of the audio file 32 of the “advertisement 1-V” before correction is displayed on the display 5.
In FIG. 6, the recording start timing is indicated by a mark “Δ0”, and thereafter, the audio waveforms w1 to w3 are displayed in which the original sentences b1 to b3 are read out. For example, the speech processing program 12 observes the envelope of the speech waveform, detects its rise timing, and outputs a detection signal to the internal bus.

音声・文書処理プログラム13は、この検出信号を受信すると、最初の音声波形の立ち上がり部分に、タイマ2を参照して読み上げタイミング(t1)時刻を読み取る。そして、この包絡線の立ち上がりタイミングは、原稿文の読み上げ開始タイミングと対応しているので、“広告1−L”の原稿ファイル31と照合して原稿文b1の読み上げ開始タイミングの「△1」のマークMをタイムスケールTSと、図5のバーcbの読み上げタイミング(t1)の位置に割り当てる。   When the voice / document processing program 13 receives this detection signal, it reads the reading timing (t1) time with reference to the timer 2 at the rising portion of the first voice waveform. Since the rising timing of the envelope corresponds to the reading start timing of the original text, the reading start timing of “Δ1” of the original text b1 is compared with the original file 31 of the “advertisement 1-L”. The mark M is assigned to the position of the time scale TS and the reading timing (t1) of the bar cb in FIG.

そして、他の原稿文に付いても同様の処理が行われ、図6の画面には、「△1」から「△3」のマークと各音声波形w1〜w3が対応して表示される。   The same processing is performed for other manuscript sentences, and the marks “Δ1” to “Δ3” and the audio waveforms w1 to w3 are displayed in correspondence with each other on the screen of FIG.

原稿文b1〜b3についての読み上げタイミング(t1〜t3)は、タイムスケールTSと照合すると、録音開始後それぞれ、0.7秒、2.5秒、4.7秒であることが表示される。また、例えば、原稿文b2の読み上げ時間長は、約0.8秒であることが音声波形の表示から読み取ることができる。   The reading timings (t1 to t3) for the original sentences b1 to b3 are 0.7 seconds, 2.5 seconds, and 4.7 seconds, respectively, after the start of recording, when compared with the time scale TS. Further, for example, it can be read from the display of the voice waveform that the reading time length of the document sentence b2 is about 0.8 seconds.

図6では、録音開始のタイミングに「△0」のマークMが示されており、最初の原稿文b1の読み上げタイミング(t1)が「△1」のマークMになるが、この最初の読み上げタイミング(時刻)を、映像開始のキュー信号と同期するように調整することも可能である。その場合、映像開始のキューは、通信IF8によりナレーション支援装置9に入力され、「△0」のマークMを基準として原稿文b1の読み上げ開始タイミング(t1)の「△1」のマークMの設定を原稿文b2の読み上げタイミング(t2)設定に先立って調整する。   In FIG. 6, the mark M of “Δ0” is shown at the recording start timing, and the reading timing (t1) of the first document sentence b1 becomes the mark M of “Δ1”. It is also possible to adjust the (time) so as to be synchronized with the cue signal for starting the video. In this case, the video start queue is input to the narration support device 9 by the communication IF 8 and the “M” mark “M” is set at the read start timing (t1) of the original text b1 with the “M” mark “M” as a reference. Is adjusted prior to setting the reading timing (t2) of the document sentence b2.

例えば、映像開始の2秒後に読み上げを始める場合、「△1」のマークMを制御入力部4のマウスで、タイムスケールTSの2秒の位置にドラッグすることにより、各マークMと各音声波形全体が左にシフト、即ち1.3秒遅れる様に調整される。そして、原稿文b2の読み上げタイミング(t2)は、2.5+1.3=3.8(秒)、原稿文b3の読み上げタイミング(t3)は、6.0秒となる。   For example, when reading is started 2 seconds after the start of the video, each mark M and each audio waveform is dragged by dragging the mark M of “Δ1” to the position of 2 seconds on the time scale TS with the mouse of the control input unit 4. The whole is shifted to the left, that is, adjusted to be delayed by 1.3 seconds. Then, the reading timing (t2) of the document sentence b2 is 2.5 + 1.3 = 3.8 (seconds), and the reading timing (t3) of the document sentence b3 is 6.0 seconds.

さて、アナウンサは、原稿文b1とb2の間の間隔を長くするために制御入力部4を操作して、「△2」のマークMにポインタを置き、タイムスケールTSを参照して画面左側へドラッグすることにより200m秒発声タイミングを遅らす(ステップs14)。   Now, the announcer operates the control input unit 4 to lengthen the interval between the original sentences b1 and b2, places the pointer on the mark M of “Δ2”, and refers to the time scale TS to the left side of the screen. The utterance timing is delayed by 200 msec by dragging (step s14).

音声・文字処理プログラム13は、各マークMと各原稿文b1〜b3の読み上げ開始位置を対応付けて記憶しているので、マークMの移動に合わせて録音された音声波形の立ち上がり位置、即ち読み上げタイミング(t1)も移動する。   Since the voice / character processing program 13 stores each mark M and the reading start position of each of the original sentences b1 to b3 in association with each other, the rising position of the voice waveform recorded in accordance with the movement of the mark M, that is, the reading-out is read out. Timing (t1) also moves.

この読み上げタイミングを遅らせるコマンドとして、例えば「D2」を入力する様にしても良い。この場合、「D2」の“D”は、遅らせることを意味し、“2”は遅延の単位ステップ数で数字1ステップに付き、ここでは100m秒遅延することを意味している。この処理により原稿文b2の「OOカンパニー」の読み上げタイミング(t2)が2ステップ分の200ミリ秒遅れる(もし、空白時間を反対に短くするので有れば、早めるコマンドとして、例えば、「A2」が入力される。)。この結果、原稿文b2の読み上げタイミング(t2)は、4.0秒になるが、原稿文3の読み上げタイミング(t3)は、6.0秒のまま保持される。   For example, “D2” may be input as a command for delaying the reading timing. In this case, “D” in “D2” means delaying, and “2” means one step in the number of unit steps of delay, and here means 100 ms delay. As a result of this processing, the reading timing (t2) of “OO Company” in the original sentence b2 is delayed by 200 milliseconds corresponding to two steps (if the blank time is shortened on the contrary, as a command to advance, for example, “A2”) Is entered.) As a result, the reading timing (t2) of the original sentence b2 is 4.0 seconds, but the reading timing (t3) of the original sentence 3 is held at 6.0 seconds.

また、音声・文字処理プログラム13は、音声波形w1、w3の読み上げタイミング(t1)、(t3)についても音声波形の立ち上がりが一致するように「△1」、「△3」のマークMとその立ち上がり位置に移動する処理を行う(ステップ14−1)。   Further, the voice / character processing program 13 sets the marks M of “Δ1” and “Δ3” and their marks so that the rising timings of the voice waveforms coincide with the reading timings (t1) and (t3) of the voice waveforms w1 and w3. Processing to move to the rising position is performed (step 14-1).

さて、アナウンサは続いて、読み上げ時間長を長くする修正を行う為に、例えば、ディスプレイ5に表示された原稿文2の「OOカンパニー」の読み上げ部分の音声波形w2上をドラッグし(ステップs15)、その終了点を指示して延長区間を設定する。そして、延長コマンドとして、画面の編集ボタンEの「EXP」を1回クリックする(ステップs16)。このクリックは、1回行う毎に、例えば、10%時間が長くなるように設定されている。(もし、逆に短縮するので有れば、画面の編集ボタンEの「COM」を1回クリックする。)
この読み上げ時間長を長くする別の方法として、例えば、「E10」を制御入力部4から入力する様にしても良い。この「E10」の“E”は、読み上げ時間長の延長を意味し“10”は、読み上げ時間長を10%長くする事を意味する。その結果、CPU1の音声処理プログラム12は、「明日を目指すxyz」の読み上げ部分の音声信号に補正ビットを挿入することにより読み上げ時間長を0.9秒に延長する(ステップs17)。
Now, for example, the announcer drags on the speech waveform w2 of the read-out portion of “OO Company” of the document sentence 2 displayed on the display 5 in order to make correction to increase the read-out time length (step s15). Then, the end point is indicated and an extension section is set. Then, "EXP" of the edit button E on the screen is clicked once as an extension command (step s16). Each time this click is performed, for example, 10% time is set longer. (If it is shortened, click “COM” of the edit button E on the screen once.)
As another method of increasing the reading time length, for example, “E10” may be input from the control input unit 4. “E” of “E10” means extension of the reading time length, and “10” means that the reading time length is increased by 10%. As a result, the speech processing program 12 of the CPU 1 extends the readout time length to 0.9 seconds by inserting a correction bit into the speech signal of the readout portion of “xyz aiming for tomorrow” (step s17).

そして、アナウンサは、編集終了の「END」コマンドを制御入力部4から入力し、CPU1は“広告1−V”の音声ファイル32を修正内容で上書き記憶して音声ファイル編集を一旦終了する(ステップs18)。   Then, the announcer inputs an “END” command to end editing from the control input unit 4, and the CPU 1 overwrites and stores the audio file 32 of “advertisement 1-V” with the modified content, and temporarily ends the audio file editing (step) s18).

この「END」コマンドが入力されると、ディスプレイ5には、ナレーション原稿が再び表示される。CPU1の音声・文字処理プログラム13は、上書きされた音声ファイル32から修正された「△1」のマークMのタイミング(t1)をタイムスケールTSから読み取る。そして、“広告1−L”の原稿ファイル31に修正された読み上げタイミング(t1)の時刻と、バーcbにキューのタイミングの「△1」のマークMを並べて記入する。そして、原稿文b2の読み上げ時間長を音声波形w1から読み取り、原稿文b2の付属情報として“広告1−L”の原稿ファイル31に書き込む処理を行う。   When this “END” command is input, the narration document is displayed on the display 5 again. The voice / character processing program 13 of the CPU 1 reads the timing (t1) of the mark M of “Δ1” corrected from the overwritten voice file 32 from the time scale TS. Then, the corrected reading timing (t1) time and the mark M of “Δ1” of the cue timing are written in the bar cb in the original file 31 of “advertisement 1-L”. Then, the reading time length of the document sentence b2 is read from the voice waveform w1 and written into the document file 31 of “advertisement 1-L” as the attached information of the document sentence b2.

続いて、同様に読み上げタイミング(t2)、(t3)についても時刻情報と「△2」と「△3」のマークMの修正記入、読み上げ時間の書き込みが行われ、音声ファイル32の修正内容がコピーされる(ステップs19)。そして、データベース3の“広告1−L”の原稿ファイル31も上書き記憶される(ステップs20)。この結果、ディスプレイ5における各マークMの画面表示は、図2に示されるものとなる。   Subsequently, for the reading timings (t2) and (t3), the time information, the correction of the marks M of “Δ2” and “Δ3”, the writing of the reading time are performed, and the correction contents of the audio file 32 are changed. Copied (step s19). Then, the document file 31 of “advertisement 1-L” in the database 3 is also overwritten and stored (step s20). As a result, the screen display of each mark M on the display 5 is as shown in FIG.

ここで、アナウンサは、修正内容を確認する為に再度「PLY」のコマンドを入力すると、音声出力部7は、上書きされた“広告1−V”の音声ファイルの音声をスピーカ71から出力する。また、文章処理プログラム11は、編集された原稿ファイル31とタイマ2とを照合して録音再生の開始と共にバーcbの制御と文字食の制御を開始し、図2のディスプレイ5の画面では、音声出力の開始から時間経過と共にバーcbと、原稿文の文字も読み上げ済みの部分の色が変わるように表示される。   Here, when the announcer inputs the “PLY” command again to confirm the correction contents, the audio output unit 7 outputs the audio of the overwritten “advertisement 1-V” audio file from the speaker 71. Also, the sentence processing program 11 compares the edited document file 31 with the timer 2 and starts the control of the bar cb and the character eclipse as well as the start of recording and reproduction. On the screen of the display 5 in FIG. As time elapses from the start of output, the bar cb and the text of the original text are displayed so that the color of the read-out portion changes.

なお、例えば、「PLY」「EDT」と2つのコマンドを同時に入力すると、図5および図6の原稿表示画面と音声波形表示画面とを同一画面で上下に表示するようにしても良い。そして、音声ファイル32を読み出して録音再生を行う場合には、バーcb、タイムスケール上では、文章処理プログラム11、音声プログラム12または、音声文章処理プログラム13がタイマ2を参照して、再生開始(または、キュー開始)とともに再生開始からの時間を示しても良い。この時間経過表示の方法は、前述の色変化、もしくは、縦線が移動するものである。また、時関経過は、数字や時計針の表示の様なものが用いられても良い。   For example, when two commands “PLY” and “EDT” are simultaneously input, the document display screen and the audio waveform display screen of FIGS. 5 and 6 may be displayed vertically on the same screen. When the audio file 32 is read and recorded and reproduced, the text processing program 11, the audio program 12 or the audio text processing program 13 refers to the timer 2 on the bar cb and time scale, and starts reproduction ( Alternatively, the time from the start of reproduction may be indicated together with the cue start). This time-lapse display method is such that the aforementioned color change or vertical line moves. Also, the time course may be displayed as a number or a clock hand.

もし、アナウンサが、更に、原稿文b2の部分の読み上げタイミング、もしくは読み上げ時間長を変更する場合には、上記ステップs14、またはステップs15以降を繰り返して再修正を行う。この場合でも原稿文b3の「OOカンパニー」の読み上げタイミングは、原稿文b3に対する修正コマンドが入力されない限り、再修正前に記憶設定されていた読み上げタイミングが保持され、再修正は、原稿文b2に関わる部分にのみ限定されるように音声・文字処理プログラム13は、修正処理を行う。   If the announcer further changes the reading timing or reading time length of the portion of the document sentence b2, the above-described step s14 or step s15 and the subsequent steps are repeated for recorrection. Even in this case, the read-out timing of “OO Company” of the original sentence b3 is retained as long as the read-out timing stored before the re-correction is stored unless the correction command for the original sentence b3 is input. The voice / character processing program 13 performs correction processing so as to be limited only to the part concerned.

なお、読み上げタイミング(t1)設定は、予め“広告1−L”の原稿ファイルの「△1」の位置を書き込み記憶すれば、映像開始後の読み上げ開始までのリードタイムが最初から記憶されて録音することができる。   When the reading timing (t1) is set in advance by writing and storing the position of “Δ1” in the original file of “Advertisement 1-L”, the lead time from the start of the video to the start of reading is memorized from the beginning. can do.

また、必要で有れば、原稿文b1、b3に付いてもアナウンサが原稿文b2同様の手順を行うことにより、各処理プログラムが、“広告1−L”の原稿ファイル31と“広告1−V”の音声ファイル32とを編集する。   Further, if necessary, the announcer performs the same procedure as the original sentence b2 even if attached to the original sentences b1 and b3, so that each processing program becomes the original file 31 of the “advertisement 1-L” and the “advertisement 1−1”. The V "audio file 32 is edited.

更に、最終のナレーション原稿を表示して原稿を読み上げる際に、音声ファイル32の再生音声を小さなガイダンス音声としてスピーカ71から出力するようにすればその音声は、ディスプレイに表示されるナレーション原稿の読み上げタイミングと同期して出力されるので、ガイダンス効果を高める事も可能である。そしてまた、最終的に編集された“広告1−V”の音声ファイル32を、そのまま、放送用音声素材として用いても良い。   Further, when the final narration original is displayed and the original is read out, if the reproduced sound of the audio file 32 is output as a small guidance voice from the speaker 71, the voice is read out from the narration original displayed on the display. It is possible to increase the guidance effect because it is output in synchronization with the output. Further, the finally edited audio file 32 of “advertisement 1-V” may be used as it is as the audio material for broadcasting.

この場合、ナレーションを開始するコマンドは、例えば、「PLY」が制御入力部4から入力されるか、通信IF8からの映像開始のキュー信号によるもので、開始コマンドに合わせて再生音声がスピーカ71から出力される。また、再生音声は、スピーカ71から出力される代わりに、デジタル音声信号のまま通信インタフェース8を介して、または、音声信号として図示されない外部の装置へ放送用音声素材として出力されても良い。   In this case, the command for starting the narration is, for example, that “PLY” is input from the control input unit 4 or is based on a video start cue signal from the communication IF 8. Is output. Further, instead of being output from the speaker 71, the reproduced audio may be output as a broadcast audio material via the communication interface 8 as a digital audio signal or to an external device (not shown) as an audio signal.

実施例2は、ナレーション支援装置9の構成が、図1に示す実施例1の構成から音声・文字処理プログラム13を省略した構成によって構成される。   In the second embodiment, the configuration of the narration support device 9 is configured by omitting the voice / character processing program 13 from the configuration of the first embodiment shown in FIG.

従って、実施例2においては、原稿ファイル31と音声ファイル32は、実施例1と同様に作成されるが、音声・文字処理プログラム13を省略したことにより、音声波形とマークMの対応が自動的に行われなくなる。その結果、図4におけるステップs14−1、s19と、s20における作業、即ち、図6における音声波形とそれに合わせるマークMとを対応させる一致作業や、その作業画面から音声波形画面のマークMの表示位置を読み取り、ナレーション原稿のタイムスケールCに合わせてマークMを再設定する作業はオペレータ、またはアナウンサが制御入力部4を操作してコマンドを入力して文章処理プログラム11に必要なパラメータを設定しなければならない。しかし、音声処理プログラム12による音声ファイルの編集や再生音声は、実施例1と同じものとなるので、修正変更された音声ファイルの音声を手本等に利用できることは実施例1と同様である。   Accordingly, in the second embodiment, the document file 31 and the voice file 32 are created in the same manner as in the first embodiment, but the correspondence between the voice waveform and the mark M is automatically achieved by omitting the voice / character processing program 13. Will not be done. As a result, the operations in steps s14-1, s19 and s20 in FIG. 4, that is, the matching operation for associating the speech waveform in FIG. 6 with the mark M to be matched therewith, and display of the mark M on the speech waveform screen from the work screen. The operation of reading the position and resetting the mark M in accordance with the time scale C of the narration original is performed by the operator or the announcer operating the control input unit 4 to input a command and setting the necessary parameters in the text processing program 11. There must be. However, since the sound file editing and playback sound by the sound processing program 12 is the same as in the first embodiment, the sound of the modified and changed sound file can be used as a model or the like as in the first embodiment.

以上説明したように、本発明によれば、ナレーション原稿を下読みした音声を録音編集することによりナレーション原稿の読み上げガイドのタイミングの細部調整と共に、確認が可能なナレーション支援装置を提供することができる。   As described above, according to the present invention, it is possible to provide a narration support device capable of confirming, along with the detailed adjustment of the timing of a reading guide for a narration document, by recording and editing the sound of the narration document read down. .

本発明の実施例1に係るナレーション支援装置の機能構成を示すブロック図。The block diagram which shows the function structure of the narration assistance apparatus which concerns on Example 1 of this invention. ナレーション原稿を表示したディスプレイの画面表示例。A screen display example of a display showing a narration manuscript. ナレーション原稿を読み上げた音声波形の画面表示例。An example of the screen display of the voice waveform read out from the narration manuscript. 本発明の実施例1におけるナレーション支援装置の動作手順を説明するフローチャート。The flowchart explaining the operation | movement procedure of the narration assistance apparatus in Example 1 of this invention. 読み上げタイミング修正前の原稿の画面表示例。An example of a screen display of a document before correction of reading timing. アナウンサが下読みした原稿の音声波形の画面表示例。An example of the screen display of the audio waveform of the manuscript read by the announcer.

符号の説明Explanation of symbols

1 制御処理部(CPU)
11 章処理プログラム
12 音声処理プログラム
13 音声・文字処理プログラム
14 ワークメモリ
2 タイマ
3 データベース記憶部
31 原稿ファイル
32 音声ファイル
4 制御入力部
5 ディスプレイ
6 音声入力部
7 音声出力部
8 通信IF(インタフェース)
9 ナレーション支援装置
C、TS タイムスケール
M マーク
1 Control processing unit (CPU)
Chapter 11 Processing Program 12 Voice Processing Program 13 Voice / Character Processing Program 14 Work Memory 2 Timer 3 Database Storage Unit 31 Original File 32 Audio File 4 Control Input Unit 5 Display 6 Audio Input Unit 7 Audio Output Unit 8 Communication IF (Interface)
9 Narration support device C, TS Time scale M mark

Claims (16)

テレビ放送で読み上げられるナレーション原稿を表示するナレーション支援装置において、
ナレーション原稿の情報が書き込まれた原稿ファイルと、前記ナレーション原稿を読み上げた音声が録音された音声ファイルとを記憶するデータベースと、
前記原稿ファイルと、前記音声ファイルの編集を行うコマンドを入力する為の制御入力手段と、
アナウンサが前記ナレーション原稿を読み上げる音声を前記録音される音声のデジタル音声信号に変換する音声入力部と、
前記コマンドにより前記記憶された音声ファイルを音声にして再生出力する音声出力部と、
前記ナレーション原稿、またはおよび前記音声ファイルの音声波形を前記ナレーション原稿の読み上げタイミングを参照するためのタイムスケールと共に画面表示するディスプレイと、
タイマと、前記入力される前記コマンドにより前記読み上げられるナレーション原稿を読み上げる音節、または文節の単位毎の文にすると共に、前記各文、および前記各文の読み上げタイミングを示すマークを前記タイムスケールに合わせて画面表示する編集を行い前記データベースに記憶する処理を行う文章処理プログラムと、前記コマンドにより前記データベースから前記音声ファイルを読み出し、および前記ディスプレイに画面表示される音声波形を調整することにより前記各文の読み上げタイミング、および前記読み上げられる前記各文の時間長を編集して前記データベースに記憶する処理を行う音声処理プログラムとを備える制御処理部とを
具備することを特徴とするナレーション支援装置。
In a narration support device that displays a narration manuscript read out by a television broadcast,
A database for storing a manuscript file in which information of a narration manuscript is written, and a sound file in which a sound of reading out the narration manuscript is recorded;
Control input means for inputting a command for editing the original file and the audio file;
An audio input unit for converting an audio from which the announcer reads the narration document into a digital audio signal of the recorded audio;
An audio output unit that reproduces and outputs the stored audio file as audio by the command;
A display for displaying the voice waveform of the narration document or the voice file together with a time scale for referring to the reading timing of the narration document;
A syllable to be read out by the timer and the narration document read out by the input command, or a sentence for each phrase unit, and a mark indicating the reading timing of each sentence and each sentence are adjusted to the time scale. A sentence processing program for performing processing for screen display editing and storing in the database, and reading each voice file from the database by the command, and adjusting the voice waveform displayed on the display by the command. A narration support apparatus comprising: a speech processing program that performs a process of editing the time to read out and the time length of each sentence read out and storing the edited time in the database.
前記各プログラムは、前記タイマを参照して、ナレーション開始からの時間経過を前記ディスプレイに表示することを特徴とする請求項1に記載のナレーション支援装置。   The narration support apparatus according to claim 1, wherein each of the programs refers to the timer to display a lapse of time from the start of the narration on the display. 前記時間経過は、前記タイムスケールに表示されるバーの色変化、および前記各文の読み上げられる文字の色変化の内少なくともいずれか一つによって表示される事を特徴とする請求項2に記載のナレーション支援装置。   3. The time lapse is displayed by at least one of a color change of a bar displayed on the time scale and a color change of a character read out in each sentence. Narration support device. テレビ放送で読み上げられるナレーション原稿を表示するナレーション支援装置において、
ナレーション原稿の情報が書き込まれた原稿ファイルと、前記ナレーション原稿を読み上げた音声が録音された音声ファイルとを記憶するデータベースと、
前記原稿ファイルと、前記音声ファイルの編集を行うコマンドを入力する為の制御入力手段と、
アナウンサが前記ナレーション原稿を読み上げる音声を前記録音される音声のデジタル音声信号に変換する音声入力部と、
前記コマンドにより前記記憶された音声ファイルを音声にして再生出力する音声出力部と、
前記ナレーション原稿、またはおよび前記音声ファイルの音声波形を前記ナレーション原稿の読み上げタイミングを参照するためのタイムスケールと共に画面表示するディスプレイと、
タイマと、前記入力される前記コマンドにより前記読み上げられるナレーション原稿を読み上げる音節、または文節の単位毎の文にすると共に、前記各文、および前記各文の読み上げタイミングを示すマークを前記タイムスケールに合わせて画面表示する編集を行い前記データベースに記憶する処理を行う文章処理プログラムと、前記コマンドにより前記データベースから前記音声ファイルを読み出し、および前記ディスプレイに画面表示される音声波形を調整することにより前記各文の読み上げタイミング、および前記読み上げられる前記各文の時間長を編集して前記データベースに記憶する処理を行う音声処理プログラムと、前記音声波形を調整して編集された各文の前記読み上げタイミングを前記表示される前記各文の読み上げタイミングを示すマークに合わせて調整する処理を行う音声・文字処理プログラムとを備える制御処理部とを
具備することを特徴とするナレーション支援装置。
In a narration support device that displays a narration manuscript read out by a television broadcast,
A database for storing a manuscript file in which information of a narration manuscript is written, and a sound file in which a sound of reading out the narration manuscript is recorded;
Control input means for inputting a command for editing the original file and the audio file;
An audio input unit for converting an audio from which the announcer reads the narration document into a digital audio signal of the recorded audio;
An audio output unit that reproduces and outputs the stored audio file as audio by the command;
A display for displaying the voice waveform of the narration document or the voice file together with a time scale for referring to the reading timing of the narration document;
A syllable to be read out by the timer and the narration document read out by the input command, or a sentence for each phrase unit, and a mark indicating the reading timing of each sentence and each sentence are adjusted to the time scale. A sentence processing program for performing processing for screen display editing and storing in the database, and reading each voice file from the database by the command, and adjusting the voice waveform displayed on the display by the command. A speech processing program for performing processing for editing the time length of each sentence to be read out and storing it in the database, and the display timing for each sentence edited by adjusting the speech waveform Read-out timing of each sentence Narration support apparatus characterized by comprising a control unit and a voice-character processing program for performing processing to tailor the mark indicating grayed.
前記文章処理プログラムと音声処理プログラムとは、前記タイマを参照して、ナレーション開始からの時間経過を前記タイムスケールにあわせて表示し、前記音声波形を表示する画面には、前記各文の読み上げタイミングを示す前記各マークに対応して、同様にマークが順番で画面表示され、
前記音声・文字処理プログラムは、前記音声ファイルから前記音声波形の立ち上がりを検出する音声認識により前記各文の読み上げタイミングを判読し、前記判読された読み上げタイミングを前記タイマと参照して前記判読された読み上げタイミングに対応した時間で各前記マークを前記順番で画面表示することを特徴とする請求項4に記載のナレーション支援装置。
The sentence processing program and the speech processing program refer to the timer, display the passage of time from the start of narration in accordance with the time scale, and display the speech waveform on the screen for displaying the speech waveform. Corresponding to each mark indicating the same, the marks are displayed on the screen in the same manner,
The voice / character processing program reads the reading timing of each sentence by voice recognition that detects the rising of the voice waveform from the voice file, and the reading timing is read with reference to the timer. The narration support apparatus according to claim 4, wherein each mark is displayed on the screen in the order at a time corresponding to a reading-out timing.
前記各プログラムは、前記タイマを参照して、ナレーション開始からの時間経過を前記ディスプレイに表示することを特徴とする請求項5に記載のナレーション支援装置。   6. The narration support apparatus according to claim 5, wherein each of the programs refers to the timer to display a lapse of time from the start of the narration on the display. 前記時間経過は、前記タイムスケールに表示されるバーの色変化、および前記各文の読み上げられる文字の色変化の内少なくともいずれか一つによって表示される事を特徴とする請求項6に記載のナレーション支援装置。   The time elapsed is displayed by at least one of a color change of a bar displayed on the time scale and a color change of a character read out in each sentence. Narration support device. 前記音声出力部は、前記制御入力手段からナレーションを開始するコマンドが入力された場合、前記編集および記憶された音声ファイルを前記データベースから読み出して生成した再生音声を前記ナレーション原稿の読み上げタイミングのガイド音声、または、アナウンサの読み上げ音声に代わる放送用音声素材として出力とすることを特徴とする請求項1または5に記載のナレーション支援装置。   When a command for starting narration is input from the control input unit, the audio output unit reads out the edited and stored audio file from the database, and generates reproduced audio as a guide audio for reading out the narration document. The narration support apparatus according to claim 1, wherein the narration support apparatus outputs a broadcast sound material in place of an announcer's read-out sound. 前記ナレーション支援装置は、更に通信インタフェース手段を備え、
ナレーションに対応する映像が開始される合図のキュー信号が前記ナレーションを開始するコマンドとして前記通信インタフェース手段を介して入力されることを特徴とする請求項6または7に記載のナレーション支援装置。
The narration support device further includes communication interface means,
8. The narration support apparatus according to claim 6, wherein a cue signal of a signal for starting a video corresponding to narration is input as a command for starting the narration through the communication interface means.
テレビ放送で読み上げられるナレーション原稿を表示するナレーション支援装置の原稿編集方法において、
前記ナレーション支援装置は、ナレーション原稿の情報が書き込まれた原稿ファイルと、前記ナレーション原稿を読み上げた音声が録音された音声ファイルとを記憶するデータベースと、前記原稿ファイルまたはおよび前記音声ファイルの編集を行うコマンドを入力する為の制御入力手段と、アナウンサが前記ナレーション原稿を読み上げる音声を前記録音される音声のデジタル音声信号に変換する音声入力部と、前記コマンドにより前記記憶された音声ファイルを音声に再生出力する音声出力部と、前記ナレーション原稿、またはおよび前記音声ファイルの音声波形を前記ナレーション原稿の読み上げタイミングを参照するためのタイムスケールとともに画面表示するディスプレイと、制御処理部とを備え、
前記制御処理部は、
前記入力される前記コマンドにより前記読み上げられるナレーション原稿を読み上げる音節、または文節の単位毎の文にすると共に、ナレーション開始からの各文およびそれぞれの読み上げタイミングをマークとともに画面表示する前記ナレーション原稿に編集して前記データベースに記憶し、
前記音声ファイルの編集を行うコマンドが入力された場合、内蔵するタイマを参照することにより前記データベースから前記音声ファイルを読み出し、前記ディスプレイに前記音声ファイルの音声波形を表示し前記音声ファイルに書き込まれた前記各文の読み上げタイミング、および前記読み上げられる前記各文の時間長を編集して前記データベースに記憶し、前記音声波形を調整して編集された各文の前記読み上げタイミングにより前記画面表示されるナレーション原稿の読み上げタイミングの表示を調整する処理を行うことを特徴とするナレーション支援装置の原稿編集方法。
In a method for editing a narration support device for displaying a narration manuscript read out by a television broadcast,
The narration support device edits the original file or the audio file, a database that stores a manuscript file in which information of the narration manuscript is written, an audio file in which a voice that reads out the narration manuscript is recorded, and Control input means for inputting a command, a voice input unit for converting a voice that the announcer reads the narration document into a digital voice signal of the recorded voice, and playing back the voice file stored by the command as voice An audio output unit for outputting, a display for displaying the audio waveform of the narration document or the audio file together with a time scale for referring to the reading timing of the narration document, and a control processing unit,
The control processing unit
The narration manuscript to be read out by the input command is changed to a syllable to be read out or a sentence for each unit of the syllable, and each sentence from the start of the narration and each reading timing are edited into the narration manuscript displayed on the screen together with marks. Stored in the database
When a command for editing the voice file is input, the voice file is read from the database by referring to a built-in timer, and the voice waveform of the voice file is displayed on the display and written to the voice file. The reading timing of each sentence and the time length of each sentence read out are edited and stored in the database, and the narration displayed on the screen according to the reading timing of each sentence edited by adjusting the speech waveform A document editing method for a narration support apparatus, characterized in that a process for adjusting a display of a document reading timing is performed.
前記制御処理部は、
前記タイマを参照して、ナレーション開始からの時間経過を前記タイムスケールにあわせて表示し、前記音声波形を表示する画面に前記各文の読み上げタイミングを示す前記各マークに対応して、同様のマークを順番で画面表示するとともに、前記音声ファイルから前記音声波形の立ち上がりを検出する音声認識により前記各文の読み上げタイミングを判読し、前記判読された読み上げタイミングに対応した時間で各前記マークを前記タイムスケールに合わせて画面表示することを特徴とする請求項10に記載のナレーション支援装置の原稿編集方法。
The control processing unit
With reference to the timer, the passage of time from the start of narration is displayed according to the time scale, and the same mark corresponding to each mark indicating the reading timing of each sentence on the screen displaying the speech waveform Are sequentially displayed on the screen, and the reading timing of each sentence is read by voice recognition that detects the rising of the voice waveform from the voice file, and each mark is set to the time at a time corresponding to the read reading timing. The narration support apparatus document editing method according to claim 10, wherein the screen is displayed in accordance with a scale.
前記時間経過は、前記タイムスケールに表示されるバーの色変化、および前記各文の読み上げられる文字の色変化の内少なくともいずれか一つによって表示される事を特徴とする請求項11に記載のナレーション支援装置の原稿編集方法。   12. The time lapse is displayed by at least one of a color change of a bar displayed on the time scale and a color change of a character read out in each sentence. Manuscript editing method of narration support device. ナレーション原稿の情報が書き込まれた原稿ファイルと、前記ナレーション原稿を読み上げた音声が録音された音声ファイルとを記憶するデータベースと、前記原稿ファイルと、前記音声ファイルの編集を行う為の制御入力手段からのコマンドに基づき、
前記ナレーション原稿を読み上げる音節、または文節の単位毎の文にすると共に、ナレーション開始からの各文およびそれぞれの読み上げタイミングをマークとともに画面表示する前記ナレーション原稿に編集して前記データベースに記憶し、
前記音声ファイルの編集を行うコマンドが入力された場合、前記データベースから前記音声ファイルを読み出し、前記ディスプレイに前記音声ファイルの音声波形を表示し、前記表示される音声波形を調整して前記音声ファイルに書き込まれた前記各文の読み上げタイミング、および前記各文が読み上げられる時間長をタイマを参照することにより編集して前記データベースに記憶し、前記音声波形を調整して編集された各文の前記読み上げタイミングにより前記画面表示されるナレーション原稿の読み上げタイミングの表示を調整する処理を行うことを特徴とするナレーション支援装置のプログラム。
From a database that stores a document file in which information of a narration document is written, a sound file in which a voice that reads out the narration document is recorded, the document file, and a control input means for editing the sound file Based on the command
A syllable to read the narration manuscript, or a sentence per phrase unit, and edit each narration manuscript from the start of the narration and the respective reading timing to the narration manuscript displayed on the screen together with marks, and store in the database
When a command for editing the audio file is input, the audio file is read from the database, the audio waveform of the audio file is displayed on the display, and the displayed audio waveform is adjusted to the audio file. The read-out timing of each written sentence and the length of time during which each sentence is read out are edited by referring to a timer and stored in the database, and the read-out of each sentence edited by adjusting the speech waveform A program for a narration support apparatus that performs processing for adjusting display of a reading timing of a narration document displayed on the screen according to timing.
前記プログラムは、
前記タイマを参照して、ナレーション開始からの時間経過を前記タイムスケールにあわせて表示し、前記音声波形を表示する画面に前記各文の読み上げタイミングを示す前記各マークに対応して、同様のマークを順番で画面表示するとともに、前記音声ファイルから前記音声波形の立ち上がりを検出する音声認識により前記各文の読み上げタイミングを判読し、前記判読された読み上げタイミングに対応した時間で各前記マークを前記タイムスケールに合わせて画面表示することを特徴とする請求項13に記載のナレーション支援装置のプログラム。
The program is
With reference to the timer, the passage of time from the start of narration is displayed according to the time scale, and the same mark corresponding to each mark indicating the reading timing of each sentence on the screen displaying the speech waveform Are sequentially displayed on the screen, and the reading timing of each sentence is read by voice recognition that detects the rising of the voice waveform from the voice file, and each mark is set to the time at a time corresponding to the read reading timing. 14. The program for a narration support apparatus according to claim 13, wherein the narration support apparatus displays the screen in accordance with a scale.
前記プログラムは、前記タイマを参照して、ナレーション開始からの時間経過を前記タイムスケールに表示されるバーの色変化、および前記各文の読み上げられる文字の色変化のうち、少なくともいずれか一つによって表示する事を特徴とする請求項14に記載のナレーション支援装置のプログラム。   The program refers to the timer according to at least one of a color change of a bar displayed on the time scale and a color change of a character to be read out of each sentence. The narration support apparatus program according to claim 14, wherein the narration support apparatus program is displayed. 前記プログラムは、前記読み上げられる時間長を当該音声のピッチを変えることなく編集することを特徴とする請求項13に記載のナレーション支援装置のプログラム。   The narration support apparatus program according to claim 13, wherein the program edits the length of time to be read out without changing the pitch of the voice.
JP2005032170A 2005-02-08 2005-02-08 Narration support device, original editing method and program Active JP4459077B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005032170A JP4459077B2 (en) 2005-02-08 2005-02-08 Narration support device, original editing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005032170A JP4459077B2 (en) 2005-02-08 2005-02-08 Narration support device, original editing method and program

Publications (2)

Publication Number Publication Date
JP2006222568A true JP2006222568A (en) 2006-08-24
JP4459077B2 JP4459077B2 (en) 2010-04-28

Family

ID=36984607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005032170A Active JP4459077B2 (en) 2005-02-08 2005-02-08 Narration support device, original editing method and program

Country Status (1)

Country Link
JP (1) JP4459077B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013542A (en) * 2009-07-03 2011-01-20 Nippon Hoso Kyokai <Nhk> Character information display controller, and program
JP2011014021A (en) * 2009-07-03 2011-01-20 Nippon Hoso Kyokai <Nhk> Character information presentation control device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013542A (en) * 2009-07-03 2011-01-20 Nippon Hoso Kyokai <Nhk> Character information display controller, and program
JP2011014021A (en) * 2009-07-03 2011-01-20 Nippon Hoso Kyokai <Nhk> Character information presentation control device and program

Also Published As

Publication number Publication date
JP4459077B2 (en) 2010-04-28

Similar Documents

Publication Publication Date Title
CA2538981C (en) Method and device for processing audiovisual data using speech recognition
JP5093239B2 (en) Character information presentation device
CN110740275B (en) Nonlinear editing system
JPH11162107A (en) System for editing digital video information and audio information
JP4020083B2 (en) Transcription text creation support system and program
JP2004266576A (en) Media data storage apparatus, and media data storage processing program
JP2013025299A (en) Transcription support system and transcription support method
JP4459077B2 (en) Narration support device, original editing method and program
JP2006227082A (en) Synchronous data preparation method for lyrics and music, device, program, and recording medium for recording the program
KR20160129787A (en) A Method Generating Transcripts Of Digital Recording File
JP6949075B2 (en) Speech recognition error correction support device and its program
JP2002344805A (en) Method for controlling subtitles display for open caption
JP2020017885A (en) Information processing unit and program
US20070087312A1 (en) Method for separating sentences in audio-video display system
JP2003223199A (en) Preparation support system for writing-up text for superimposed character and semiautomatic superimposed character program production system
KR101781353B1 (en) A Method Generating Digital Recording File Having Integrity
JP5014184B2 (en) Data editing apparatus, data editing program, and reproducing apparatus
JP2003216200A (en) System for supporting creation of writing text for caption and semi-automatic caption program production system
JP2005129971A (en) Semi-automatic caption program production system
JP4124416B2 (en) Semi-automatic subtitle program production system
JP2008210500A5 (en)
JP4500957B2 (en) Subtitle production system
US20150154000A1 (en) Information processing device, information processing method, and program
JP7481863B2 (en) Speech recognition error correction support device, program, and method
JP7087041B2 (en) Speech recognition text data output control device, speech recognition text data output control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100209

R151 Written notification of patent or utility model registration

Ref document number: 4459077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140219

Year of fee payment: 4