JP2008091972A - System for automatically outputting recorded narration corresponding to still image - Google Patents
System for automatically outputting recorded narration corresponding to still image Download PDFInfo
- Publication number
- JP2008091972A JP2008091972A JP2006266952A JP2006266952A JP2008091972A JP 2008091972 A JP2008091972 A JP 2008091972A JP 2006266952 A JP2006266952 A JP 2006266952A JP 2006266952 A JP2006266952 A JP 2006266952A JP 2008091972 A JP2008091972 A JP 2008091972A
- Authority
- JP
- Japan
- Prior art keywords
- narration
- still image
- dialogue
- speech
- recording
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000000284 extract Substances 0.000 claims abstract description 9
- 230000005540 biological transmission Effects 0.000 description 9
- 238000000034 method Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000003292 diminished effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、台詞が関連付けられた一連の静止画像を順次切り替え表示させると共に、所定個所でナレーションを出力させる静止画像対応録音ナレーション自動出力システムに関する。 The present invention relates to an automatic recording narration automatic output system for still images that sequentially switches and displays a series of still images associated with dialogue and outputs narration at a predetermined location.
近年、一連のデジタル静止画像を昔ながらの紙芝居に見立てて、台詞を読み上げながら順次各シーンの画像を表示させるデジタル紙芝居が知られている。このようなデジタル紙芝居においては、エンターテイメント性の向上が望まれ、観者への観覧意欲の喚起が望まれる。 In recent years, there has been known a digital picture-story show in which a series of digital still images are regarded as an old-fashioned picture-story show, and images of each scene are sequentially displayed while reading a dialogue. In such a digital picture-story show, it is desired to improve entertainment properties and to encourage viewers to view.
従来、デジタル紙芝居は、静止画像を表示し、当該静止画像に対応した台詞が読み上げられ、順次各シーンを切り替えるのが一般的であるが、各シーン(静止画像)に対応したナレーションを流すこともエンターテイメント性等の向上の一つとして考えられる。ナレーションは、通常、登場人物とは異なる声が好ましく、また、芝居中の登場人物の台詞とは異なり、予め録音しておいたものでも語られる台詞に影響を与えず、むしろ録音しておいた方が台詞語りも効率的となる。 Conventionally, a digital picture-story show generally displays a still image, and a speech corresponding to the still image is read out, and each scene is switched sequentially. However, a narration corresponding to each scene (still image) can be played. It is considered as one of the improvement of entertainment. Voices that are different from the characters are usually preferred for narration, and unlike the characters of the characters in the play, even those that were recorded in advance did not affect the spoken dialogue, but rather were recorded It is more efficient to speak the line.
ところで、会話中に効果音を流す手法として下記の特許文献で開示されているものがある。下記特許文献には、移動体通信装置に関して、予め効果音データとキーワードとが対応付けられて記憶され、ユーザの通話音声信号に含まれるキーワードを音声認識手段が検出したときに、当該キーワードに対応する効果音データを移動体通信装置に送出することが開示されている。 By the way, there is a technique disclosed in the following patent document as a technique for playing sound effects during conversation. In the following patent document, sound effect data and a keyword are stored in advance in association with each other with respect to the mobile communication device, and when the keyword included in the user's call voice signal is detected by the voice recognition means, the keyword is handled. Transmitting sound effect data to a mobile communication device.
しかしながら、上記特許文献では、効果音データとキーワードとが単に対応付けられたものであり、ユーザによる通話の時間経過で音声信号に同じキーワードが複数含まれていても、常に同じ効果音が流れることとなり、これを上記デジタル紙芝居のナレーション出力に適用した場合に静止画像が切り替わっても同じキーワードでは同じ録音ナレーションを出力するということとなって録音ナレーションの効果が薄れてくるという問題がある。また、台詞と台詞との間に録音ナレーションを出力させるためには、所定のナレーションの選択や出力トリガの発信などのマニュアル操作を必要として、操作自体を行うという煩わしさがあるという問題がある。 However, in the above patent document, the sound effect data and the keyword are simply associated with each other, and the same sound effect always flows even if a plurality of the same keywords are included in the sound signal as the user calls. When this is applied to the narration output of the above-mentioned digital picture-story show, there is a problem that even if the still image is switched, the same recorded narration is output with the same keyword, and the effect of the recorded narration is diminished. Further, in order to output a recorded narration between lines, there is a problem that manual operations such as selection of a predetermined narration and transmission of an output trigger are required, and there is a troublesome operation.
そこで、本発明は上記課題に鑑みなされたもので、特別の操作を要せずに録音ナレーションを出力可能とし、ナレーションによるエンターテイメント性の向上、観覧意欲の喚起を図る静止画像対応録音ナレーション自動出力システムを提供することを目的とする。 Accordingly, the present invention has been made in view of the above problems, and it is possible to output a recording narration without requiring a special operation, and it is possible to output a recording narration that can improve the entertainment property by the narration and stimulate the willingness to view. The purpose is to provide.
上記課題を解決するために、請求項1の発明では、台詞が関連付けられた一連の静止画像を順次切り替え表示させると共に、所定個所でナレーションを出力させる静止画像対応録音ナレーション自動出力システムであって、静止画像記憶部、録音ナレーション記憶部、照合テーブル、音声入力部、音声処理部、録音ナレーション制御手段及び第1の表示部を備え、前記静止画像記憶部は、一連で構成される複数の静止画像を一組として所定数記憶し、前記録音ナレーション記憶部は、前記一連で構成される静止画像毎に対して、当該それぞれの静止画像毎に関連する台詞のうち、所定の台詞キーワードに対応する録音ナレーションデータをそれぞれ記憶し、前記照合テーブルは、所定の静止画像毎の台詞キーワードと前記録音ナレーション記憶部に記憶されている静止画像毎に対応する録音ナレーションデータに関する情報とが関連付けられ、前記音声入力部は、台詞音声を入力し、前記音声処理部は、前記入力した台詞音声を解析して生成した音声データと前記照合テーブルの前記第1の表示部で現に表示されている静止画像に対応する台詞キーワードとを照合し、一致したときに上記台詞キーワードで個々に特定される前記録音ナレーションデータに関する情報を出力し、前記録音ナレーション制御手段は、前記音声処理部からの前記録音ナレーションデータに関する情報に応じて、前記第1の表示部で現に表示されている静止画像毎に対応した録音ナレーションデータを前記録音ナレーション記憶部より抽出して出力させる構成とする。
In order to solve the above-described problem, the invention of
請求項2、3の発明では、「さらに台詞記憶部、台詞表示制御手段及び第2の表示部を備え、前記台詞記憶部は、前記一連で構成される静止画像毎の台詞データを記憶し、前記台詞表示制御手段は、前記第2の表示部に、現に表示されている静止画像に対応する台詞データを前記台詞記憶部より抽出して表示させる」構成であり、
「前記第1の表示部に表示する静止画像を表示制御する第1の画像表示制御手段の他に第2の画像表示制御手段を備え、前記第2の表示部に、前記第1の表示部で現に表示されている静止画像を表示させる」構成である。
In the inventions of
“In addition to first image display control means for controlling display of a still image displayed on the first display section, second image display control means is provided, and the second display section includes the first display section. In this configuration, the still image currently displayed is displayed.
本発明によれば、一連で構成される静止画像毎に対して、当該それぞれの静止画像毎に関連する台詞のうちの所定の台詞に対応する静止画像毎の録音ナレーションをそれぞれ記憶しておき、入力した台詞音声を解析した音声データと照合テーブルの台詞キーワードとを照合し、一致したときに当該台詞キーワードで個々に特定される録音ナレーションデータに関する情報に基づいて表示されている静止画像上で録音ナレーションを出力させる構成とすることにより、特別の操作を要せずに録音ナレーションを出力可能とし、同じ台詞キーワードでも表示されている静止画像が異なる場合には対応の異なる録音ナレーションを出力させることとなってナレーションによるエンターテイメント性の向上、観覧意欲の喚起を図ることができるものである。 According to the present invention, for each still image constituted by a series, the recording narration for each still image corresponding to a predetermined dialogue among the dialogues associated with each still image is stored, The voice data obtained by analyzing the input speech is compared with the speech keywords in the matching table, and when they match, they are recorded on the still image that is displayed based on the information related to the recorded narration data that is individually identified by the speech keywords. By configuring the narration to be output, it is possible to output the recorded narration without requiring any special operation, and if the displayed still image is different even with the same dialogue keyword, the corresponding recorded narration is output. It is possible to improve the entertainment properties by narration and to stimulate the willingness to see That.
以下、本発明の最良の実施形態を図により説明する。
図1に、本発明に係る静止画像対応録音ナレーション自動出力システムの第1実施形態のブロック構成図を示す。図1において、静止画像対応録音ナレーション自動出力システム11は、バス12、中央制御部13、ROM14、RAM15、表示制御部16、第1の表示部である画像表示部17、NR(ナレーション)出力制御部18、ミキシングアンプ19、音声入力部であるマイク20、スピーカ21、音声処理部22、記憶装置23及び操作部24を適宜備える。
Hereinafter, the best embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a block diagram of a first embodiment of a still picture narration automatic output system according to the present invention. In FIG. 1, a recording narration
また、音声処理部22には、音声認識手段31及び音声照合手段32を備える。さらに、記憶装置23には、照合テーブル33、録音ナレーション制御手段であるNR制御手段34、第1の画像表示制御手段35、画像記憶部である画像DB(画像データベース)36及び録音ナレーション記憶部であるNRデータDB(データベース)37が記憶される。
The
中央制御部13は、このシステムを統括的に処理制御する物理的なCPUであり、ROM14に記憶されているプログラムに基づくアルゴリズム処理を行う。上記RAM15は、種々のプログラムを展開、実行させるための作業領域としての役割をなすもので、例えば半導体メモリで構成され、仮想的にハードディスク上に構築される場合をも含む概念である。
The
上記表示制御部16は、後述の第1の画像表示制御手段35より送られてくる画像をデコードして画像表示部17に表示させる電子回路及びこれに付随したプログラムを備える。当該画像表示部17としては例えば、プロジェクタスクリーン、ブラウン管(CRT)ディスプレイ、液晶ディスプレイ(LCD)、プラズマディスプレイ(PDP)等がある。
The
上記NR出力制御部18は、後述のNR制御手段34から送られてくる録音ナレーションのデータ(ファイル)をデコードしてミキシングアンプ19に出力する電子回路である。当該ミキシングアンプ19は、マイク20より入力した読み上げ者の台詞音声を増幅してスピーカ21より出力させると共に、当該NR出力制御部18より送られてくる録音ナレーションの音声を増幅してスピーカ21より出力させるものである。また、上記操作部24は、電源ボタンやスタートボタン等のスイッチ類を備えたものである。
The NR
上記音声処理部22の備える上記音声認識手段31は、入力される台詞音声を解析して音声データとするプログラムでありRAM15に展開されて実行される。本実施形態では、例えば、アナログ信号の台詞音声をデジタル変換し、フォントコード化した音声データとする。なお、アナログ波形を画像化して解析した音声データとしてもよい。
The speech recognition means 31 provided in the
上記音声処理部22の備える音声照合手段32は、音声認識手段31からの音声データと照合テーブル33(図2で説明する)の画像表示部17で現に表示されている静止画像に対応する台詞キーワードとを照合し、一致したときに上記台詞キーワードで個々に特定されるNRファイル名を出力するプログラムであり、RAM15に展開されて実行される。
The
ここで、音声データと台詞キーワードとの照合は、例えば、随時入力されて解析された音声データ(フォントコード)を、まず台詞キーワードの最初の一音データ(フォントコード)と照合し、一致したときに順次2番目以降の一音データ(フォントコード)と照合していく処理であり、台詞キーワードの総ての一音データ(フォントコード)とが一致したときに、当該台詞キーワードで個々に特定されるNRファイル名を出力する。逆に、一つでも一致しないものがあれば、台詞キーワードの最初の一音データとの照合から繰り返すものである。記憶装置23に記憶される照合テーブル33は、図2で一例を説明するが、静止画像毎の台詞キーワードと録音ナレーションデータに関する情報としての当該静止画像毎の録音ナレーションを特定付けるファイル名(NRファイル名)とを関連付けたテーブルである。
Here, the collation between the speech data and the speech keyword is performed, for example, when speech data (font code) input and analyzed at any time is first collated with the first sound data (font code) of the speech keyword and matched. This is a process of sequentially matching the second and subsequent one-tone data (font code), and when all the one-tone data (font code) of the dialogue keyword is matched, it is individually identified by the dialogue keyword. Output NR file name. On the contrary, if there is even one that does not match, it is repeated from the collation with the first note data of the line keyword. An example of the collation table 33 stored in the
上記記憶装置23に記憶されるNR制御手段34は、音声照合手段32から照合結果として出力される録音ナレーションデータに関する情報としてのNRファイル名に基づいて、画像表示部17で現に表示されている静止画像毎に対応した録音ナレーションデータ(ファイル)をNRデータDB37より抽出してNR出力制御部18に送出するプログラムであり、RAM15に展開されて実行される。NR出力制御部18では入力した録音ナレーションデータをデコードしてミキシングアンプ19に出力するものである。
The NR control means 34 stored in the
上記記憶装置23に記憶される第1の画像表示制御手段35は、画像表示部17に一連の静止画像を所定の切替信号(例えば、操作部24の切替ボタン等)により順次切り替え表示させるプログラムであり、RAM15に展開されて実行される。上記記憶装置23に記憶される静止画像記憶部である画像DB36は、一連で構成される複数の静止画像を一組として所定数記憶させておくデータベースであり、NRデータDB37は一連で構成される静止画像毎に対して、当該それぞれの静止画像毎に関連する録音ナレーションデータであって、台詞のうちの所定の台詞キーワードに対応する当該録音ナレーションデータをそれぞれ記憶するデータベースである。
The first image display control means 35 stored in the
ここで、図2に、図1の照合テーブル及びNRテーブルの説明図を示す。図2に示す照合テーブル33は、例えば第1画像の静止画像に、当該第1画像に対応した所定数の台詞キーワードとそれぞれのNRファイル名とが対応付けられたもので、第10画像の静止画像まで存在するとして、当該静止画像毎に所定数の台詞キーワードとNRファイル名とを関連付けている。すなわち、当該照合テーブル33は、静止画像毎に定められた台詞キーワードが対応のNRファイル名と関連付けられていることから、当該静止画像間で同じ台詞キーワードが存在しても異なるNRファイル名として区別している。なお、同一の静止画像において、台詞キーワードのワード数の長さを異ならせることで、重複した台詞キーワードの設定を回避させることができるものである。 Here, FIG. 2 is an explanatory diagram of the collation table and the NR table of FIG. The collation table 33 shown in FIG. 2 is a table in which, for example, a still image of the first image is associated with a predetermined number of dialogue keywords corresponding to the first image and each NR file name. Assuming that images exist, a predetermined number of dialogue keywords and NR file names are associated with each still image. That is, since the dialogue keyword defined for each still image is associated with the corresponding NR file name, the matching table 33 is classified as a different NR file name even if the same dialogue keyword exists between the still images. Separated. In the same still image, the setting of overlapping dialogue keywords can be avoided by changing the length of the number of words of dialogue keywords.
そこで、図3に、図1の録音ナレーション制御のフローチャートを示す。ここで、上記静止画像対応録音ナレーション自動出力システム11においては、第1の画像表示制御手段35が所定の静止画像を画像DB36より抽出して表示制御部16に送出することで、当該表示制御部16が当該画像データをデコードして画像表示部17に表示する。このときに読み上げ者が当該画像に対応した台詞を、マイク20を介して読み上げると、当該マイク20に入力される読み上げられた台詞音声は、ミキシングアンプ19で増幅されてスピーカ21より出力され、一方で、当該台詞音声が音声処理部22の音声認識手段31に随時入力される(ステップ(S)1)。
FIG. 3 shows a flowchart of the recording narration control of FIG. Here, in the above-described still image-corresponding recording narration
すなわち、音声処理部22では、第1の画像表示制御手段35より画像表示部17で現に表示されている静止画像の情報を取得すると共に、音声認識手段31が入力した台詞音声を解析して音声データとし、音声照合手段32が当該音声データと照合テーブル33の現に表示されている静止画像に対応する台詞キーワードとを実時間で順次照合していく(S2)。一致するまで照合が繰り返される(S3)。
That is, the
音声照合手段32による照合の結果(S3)、一致した場合には、照合テーブル33の当該一致した台詞キーワードに関連付けられたNRファイル名をNR制御手段34に出力する(S4)。NR制御手段34では、音声照合手段32より入力したNRファイル名に基づいて、録音ナレーションデータをNRデータDB37より抽出してNR出力制御部18に送出する(S5)。
As a result of the collation by the voice collation unit 32 (S3), if they match, the NR file name associated with the matched dialogue keyword in the collation table 33 is output to the NR control unit 34 (S4). The NR control means 34 extracts the recorded narration data from the
NR音出力部18は、送られてきたNRファイル名の録音ナレーションデータをデコードしてミキシングアンプ19に出力し、当該ミキシングアンプ19は、当該録音ナレーションの音声を増幅してスピーカ21より出力させる。そして、これらの処理が最終画像(例えば、第10画像の静止画像)まで繰り返されるものである(S6)。
The NR
このように、特別の操作を要せずに録音ナレーションを出力可能とし、同じ台詞キーワードでも表示されている静止画像が異なる場合には対応の異なる録音ナレーションを出力させることとなってナレーションによるエンターテイメント性の向上、観覧意欲の喚起を図ることができるものである。 In this way, recording narration can be output without requiring a special operation, and even if the still image displayed is different even if the same dialogue keyword is displayed, different recorded narration is output and entertainment characteristics by narration It is possible to improve the quality and stimulate the willingness to view.
次に、図4に本発明に係る静止画像対応録音ナレーション自動出力システムの第2実施形態のブロック構成図を示すと共に、図5に図4の台詞表示の説明図を示す。図4(A)は、静止画像表示システム11の、主要な一部のブロック図であり、記憶装置23には、さらに台詞DB41、台詞表示制御手段42及び第2の画像表示制御手段43が記憶される。また、バス12に送受信部44が設けられ、当該送受信部44と無線式によりデータ送信される第2の表示部である遠隔表示端末45が備えられる。当該遠隔表示端末45には、第2の表示部46、第2の表示制御部47及び送受信部48が適宜備えられる。
Next, FIG. 4 shows a block diagram of the second embodiment of the still image corresponding automatic recording narration output system according to the present invention, and FIG. 5 shows an explanatory diagram of the dialogue display of FIG. FIG. 4A is a block diagram of a main part of the still
上記台詞DB41は、画像DB36に記憶されている一連で構成される静止画像に関連付けられている対応の台詞データ(台詞ファイル名)をそれぞれ記憶しておくデータベースである。この場合、照合テーブル33Aには、図4(B)に示すように、例えば、各静止画像に対応した台詞、すなわち台詞DB45に記憶された台詞ファイル名で特定される台詞データのうち、所定数の台詞キーワードとそれぞれのNRファイル名とが対応付けられたもので、第10画像の静止画像まで存在するとして、当該静止画像毎に所定数の台詞キーワードとNRファイル名とを関連付けている。 The dialogue DB 41 is a database for storing corresponding dialogue data (dialog file name) associated with a series of still images stored in the image DB 36. In this case, as shown in FIG. 4B, the collation table 33A includes, for example, a predetermined number of dialogue data corresponding to each still image, that is, dialogue data specified by dialogue file names stored in the dialogue DB 45. Are associated with each NR file name, and a predetermined number of dialogue keywords and NR file names are associated with each still image, assuming that there is a still image of the tenth image.
なお、この台詞DB41のデータを画像DB36内に対応画像と関連付けて記憶させておくこととしてもよい。上記台詞表示制御手段42は、遠隔表示端末45に、上記画像表示部17に現に表示されている静止画像に対応する台詞データを、台詞DB41より抽出して送受信部44に送出するプログラムであり、RAM15に展開されて実行される。上記第2の画像表示制御手段43は、上記画像表示部17で現に表示されている静止画像を、画像DB36より抽出して送受信部44に送出するプログラムであり、RAM15に展開されて実行される。
Note that the data of the dialogue DB 41 may be stored in the image DB 36 in association with the corresponding image. The dialogue display control means 42 is a program for extracting dialogue data corresponding to the still image currently displayed on the
上記送受信部44は、遠隔表示端末45に対して、送受信部48と無線方式で送出する電子回路である。例えば、IR方式やブルートゥース機構のピコネット接続方式などによる無線方式で接続可能であるが、有線方式であってもよい。当該遠隔表示端末45の備える第2の表示部46は、画像表示部17に現に表示されている静止画像、及び、当該静止画像に対応する台詞データを表示させるディスプレイである。そして、遠隔表示端末45の備える第2の表示制御部47は、送受信部48に送られてくる静止画像のデータ及び台詞データをデコードして当該静止画像を第2の表示部46に表示させ、このときに台詞データをテロップ状態で表示させるものである。
The transmission / reception unit 44 is an electronic circuit that transmits to the remote display terminal 45 in a wireless manner with the transmission / reception unit 48. For example, connection is possible by a wireless method such as an IR method or a piconet connection method of a Bluetooth mechanism, but a wired method may also be used. The second display unit 46 included in the remote display terminal 45 is a display that displays a still image currently displayed on the
すなわち、システムの所定の画像表示時には、画像表示部17に現に表示されている静止画像のデータを第2の画像表示制御手段43が抽出して遠隔表示端末45に送出することで第2の表示部46に表示させ、また、これに対応した台詞データを台詞表示制御手段42が台詞DB41より抽出し、図5に示すように台詞キーワードとなる部分を、下線、表示文字の大きさ、異なる色表示等に特徴付けて遠隔表示端末45に送出することで表示させる。
That is, at the time of displaying a predetermined image of the system, the second image display control means 43 extracts the still image data currently displayed on the
そこで、読み上げ者が遠隔表示端末45に表示された静止画像及び台詞を見ながら読み上げ、台詞キーワード(図4(B))と一致する台詞が読み上げられると、音声照合手段32から照合結果として送出されてくるNRファイル名に基づいて、NR制御手段34が録音ナレーションデータをNRデータDB37より抽出してNR出力制御部18に送出することによって、当該録音ナレーションをスピーカ21より出力させる。これが最終の静止画像の表示まで繰り返されるものである。
Therefore, when the reader reads out the speech while looking at the still image and the dialogue displayed on the remote display terminal 45 and reads out the dialogue that matches the dialogue keyword (FIG. 4B), the speech collating means 32 sends it out as a matching result. Based on the incoming NR file name, the NR control means 34 extracts the recorded narration data from the
なお、遠隔表示端末45に、上記画像表示部17に現に表示されている静止画像及び台詞を表示させることとして説明したが、台詞のみの表示であってもよく、遠隔表示端末45に同一の静止画像を表示させることで読み上げ者の台詞読み上げに感情移入させる効果がある。逆に、遠隔表示端末45に静止画像のみを表示させることとしてもよく、台詞、特に録音ナレーションの出力される個所を特徴付けて表示させることで、読み上げ者に対して録音ナレーションの音声が流れる個所(台詞)を認識させることができるものである。また、台詞読み上げ者は、遠隔表示端末45を見ながらマイク19に読み上げ発声することから、当該遠隔表示端末45にマイク機能を備えさせてもよい。
Note that although the remote display terminal 45 has been described as displaying the still image and dialogue currently displayed on the
このように、台詞読み上げ者が、遠隔表示端末45に表示された台詞、特に録音ナレーションが流れる台詞キーワードを特徴付けた台詞、又は、当該台詞及び静止画像を見ながら読み上げることから利便性を提供することができると共に、上記同様に、特別の操作を要せずに録音ナレーションを出力可能とし、同じ台詞キーワードでも表示されている静止画像が異なる場合には対応の異なる録音ナレーションを出力させることとなってナレーションによるエンターテイメント性の向上、観覧意欲の喚起を図ることができるものである。 In this way, the user who reads the speech reads the speech displayed on the remote display terminal 45, particularly the speech characterizing the speech keyword in which the recording narration flows, or the speech and the still image while viewing the speech. In the same way as above, recording narration can be output without requiring any special operation, and even when the same dialogue keyword is displayed, different recorded narration is output. It is possible to improve entertainment through narration and to stimulate viewing.
本発明の静止画像対応録音ナレーション自動出力システムは、デジタル紙芝居の台詞と静止画像とが対応付けられ、静止画像が表示されているときの当該静止画像毎に対応した録音ナレーションを出力するシステムに利用可能である。 The automatic recording narration output system for still images according to the present invention is used in a system for outputting recorded narration corresponding to each still image when a digital picture-story show dialogue is associated with a still image and a still image is displayed. Is possible.
11 静止画像対応録音ナレーション自動出力システム
17 画像表示部
18 NR出力制御部
22 音声処理部
31 音声認識手段
32 音声照合手段
33 照合テーブル
34 NR制御手段
35 第1の画像表示制御手段
36 画像DB
37 NRデータDB
41 台詞DB
42 台詞表示制御手段
43 第2の画像表示制御手段
45 遠隔表示端末
DESCRIPTION OF
37 NR data DB
41 Dialogue DB
42 Dialog display control means 43 Second image display control means 45 Remote display terminal
Claims (3)
静止画像記憶部、録音ナレーション記憶部、照合テーブル、音声入力部、音声処理部、録音ナレーション制御手段及び第1の表示部を備え、
前記静止画像記憶部は、一連で構成される複数の静止画像を一組として所定数記憶し、
前記録音ナレーション記憶部は、前記一連で構成される静止画像毎に対して、当該それぞれの静止画像毎に関連する台詞のうち、所定の台詞キーワードに対応する録音ナレーションデータをそれぞれ記憶し、
前記照合テーブルは、所定の静止画像毎の台詞キーワードと前記録音ナレーション記憶部に記憶されている静止画像毎に対応する録音ナレーションデータに関する情報とが関連付けられ、
前記音声入力部は、台詞音声を入力し、
前記音声処理部は、前記入力した台詞音声を解析して生成した音声データと前記照合テーブルの前記第1の表示部で現に表示されている静止画像に対応する台詞キーワードとを照合し、一致したときに上記台詞キーワードで個々に特定される前記録音ナレーションデータに関する情報を出力し、
前記録音ナレーション制御手段は、前記音声処理部からの前記録音ナレーションデータに関する情報に応じて、前記第1の表示部で現に表示されている静止画像毎に対応した録音ナレーションデータを前記録音ナレーション記憶部より抽出して出力させる
ことを特徴とする静止画像対応録音ナレーション自動出力システム。 It is a recording narration automatic output system for still images that sequentially switches and displays a series of still images associated with dialogue and outputs narration at a predetermined location,
A still image storage unit, a recording narration storage unit, a collation table, a voice input unit, a voice processing unit, a recording narration control means, and a first display unit;
The still image storage unit stores a predetermined number of still images configured in series as a set,
The recording narration storage unit stores recording narration data corresponding to a predetermined dialogue keyword among dialogues associated with each still image for each still image configured in the series,
In the collation table, dialogue keywords for each predetermined still image are associated with information related to recorded narration data corresponding to each still image stored in the recorded narration storage unit,
The speech input unit inputs speech speech,
The speech processing unit collates speech data generated by analyzing the input speech and the speech keyword corresponding to the still image currently displayed on the first display unit of the collation table, and matches. Sometimes output information about the recorded narration data individually identified by the above dialogue keywords,
The recording narration control means, according to information related to the recording narration data from the audio processing unit, records narration data corresponding to each still image currently displayed on the first display unit. An automatic recording narration output system for still images, which is characterized by being extracted and output.
前記台詞記憶部は、前記一連で構成される静止画像毎の台詞データを記憶し、
前記台詞表示制御手段は、前記第2の表示部に、現に表示されている静止画像に対応する台詞データを前記台詞記憶部より抽出して表示させることを特徴とする静止画像対応録音ナレーション自動出力システム。 The automatic narration recording audio output system according to claim 1, further comprising a dialogue storage unit, dialogue display control means and a second display unit,
The dialogue storage unit stores dialogue data for each still image composed of the series,
The dialogue display control means extracts and displays dialogue data corresponding to a still image currently displayed on the second display portion from the dialogue storage portion and displays it. system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006266952A JP4679480B2 (en) | 2006-09-29 | 2006-09-29 | Recording narration automatic output system for still images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006266952A JP4679480B2 (en) | 2006-09-29 | 2006-09-29 | Recording narration automatic output system for still images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008091972A true JP2008091972A (en) | 2008-04-17 |
JP4679480B2 JP4679480B2 (en) | 2011-04-27 |
Family
ID=39375700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006266952A Active JP4679480B2 (en) | 2006-09-29 | 2006-09-29 | Recording narration automatic output system for still images |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4679480B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0528648A (en) * | 1991-07-26 | 1993-02-05 | Hitachi Ltd | Electronic picture-card show |
JPH08248971A (en) * | 1995-03-09 | 1996-09-27 | Hitachi Ltd | Text reading aloud and reading device |
JP2002140190A (en) * | 2000-10-31 | 2002-05-17 | Arcadia:Kk | Speech recognition processor |
JP2003099457A (en) * | 2001-09-20 | 2003-04-04 | Hitachi Information Systems Ltd | Contents display method, its display system and its display program |
JP2005208292A (en) * | 2004-01-22 | 2005-08-04 | Canon Inc | Information presenting apparatus with speech recognizing function |
-
2006
- 2006-09-29 JP JP2006266952A patent/JP4679480B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0528648A (en) * | 1991-07-26 | 1993-02-05 | Hitachi Ltd | Electronic picture-card show |
JPH08248971A (en) * | 1995-03-09 | 1996-09-27 | Hitachi Ltd | Text reading aloud and reading device |
JP2002140190A (en) * | 2000-10-31 | 2002-05-17 | Arcadia:Kk | Speech recognition processor |
JP2003099457A (en) * | 2001-09-20 | 2003-04-04 | Hitachi Information Systems Ltd | Contents display method, its display system and its display program |
JP2005208292A (en) * | 2004-01-22 | 2005-08-04 | Canon Inc | Information presenting apparatus with speech recognizing function |
Also Published As
Publication number | Publication date |
---|---|
JP4679480B2 (en) | 2011-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8521525B2 (en) | Communication control apparatus, communication control method, and non-transitory computer-readable medium storing a communication control program for converting sound data into text data | |
US20080140398A1 (en) | System and a Method For Representing Unrecognized Words in Speech to Text Conversions as Syllables | |
EP1768103A1 (en) | Device in which selection is activated by voice and method in which selection is activated by voice | |
JP2003163745A (en) | Telephone set, interactive responder, interactive responding terminal, and interactive response system | |
JPWO2003030150A1 (en) | Conversation device, conversation master device, conversation slave device, conversation control method, and conversation control program | |
JP2011065467A (en) | Conference relay device and computer program | |
WO2020153109A1 (en) | Presentation assistance device for calling attention to words that are forbidden to speak | |
US8393962B2 (en) | Storage medium storing game program and game device | |
JP2018174439A (en) | Conference support system, conference support method, program of conference support apparatus, and program of terminal | |
US10216732B2 (en) | Information presentation method, non-transitory recording medium storing thereon computer program, and information presentation system | |
JP7026004B2 (en) | Conversation aids, conversation aid methods and programs | |
US8553855B2 (en) | Conference support apparatus and conference support method | |
JP2010176544A (en) | Conference support device | |
JP2010054549A (en) | Answer voice-recognition system | |
KR100898104B1 (en) | Learning system and method by interactive conversation | |
JP6166831B1 (en) | Word learning support device, word learning support program, and word learning support method | |
JP2015087649A (en) | Utterance control device, method, utterance system, program, and utterance device | |
JP4679480B2 (en) | Recording narration automatic output system for still images | |
JP5041754B2 (en) | Still image display switching system | |
JP2017021245A (en) | Language learning support device, language learning support method, and language learning support program | |
JP4679463B2 (en) | Still image display system | |
JP2019203998A (en) | Conversation device, robot, conversation device control method and program | |
JP2008089628A (en) | Recording narration automatic output system | |
JP6401488B2 (en) | Foreign language conversation understanding support device, foreign language conversation understanding support method and program | |
JP4741817B2 (en) | Audio output device, character image display device, audio output method, and character image display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090929 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110201 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4679480 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |