JP2005189454A - テキスト同期音声再生制御装置及びプログラム - Google Patents

テキスト同期音声再生制御装置及びプログラム Download PDF

Info

Publication number
JP2005189454A
JP2005189454A JP2003429757A JP2003429757A JP2005189454A JP 2005189454 A JP2005189454 A JP 2005189454A JP 2003429757 A JP2003429757 A JP 2003429757A JP 2003429757 A JP2003429757 A JP 2003429757A JP 2005189454 A JP2005189454 A JP 2005189454A
Authority
JP
Japan
Prior art keywords
text
reproduction
display
audio
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003429757A
Other languages
English (en)
Inventor
Ryuichi Kagaya
隆一 加賀谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003429757A priority Critical patent/JP2005189454A/ja
Publication of JP2005189454A publication Critical patent/JP2005189454A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 所望の再生開始位置を簡単且つ平易に指定でき、操作性を向上させたテキスト同期音声再生制御装置等を実現すること。
【解決手段】
タイムコードファイルのコマンドに従い、テキスト表示画面W10に、テキストデータに基づいたテキストを表示させる(a)。表示させたテキストの内容に関する音声を再生出力させると共に、タイムコードファイルに従って表示させたテキストを下線UL10によって特別表示させていく。ユーザによって、特別表示させたテキスト上をタッチペンTPによってタップされる(b)、タップされたテキストの文字列からの音声の再生出力を開始し、更に、タイムコードファイルに従って指定されたテキストの文字列からの特別表示を開始させる(c)。
【選択図】図9

Description

テキストの表示と音声の再生出力とを同期させる制御を行うテキスト同期音声再生制御装置等に関する。
従来から、音声の再生に同期するように、テキストを表示するテキスト同期音声再生制御装置が知られている。テキスト同期音声再生制御装置には、例えば、朗読装置やカラオケ装置等がある。朗読装置は、物語を朗読する音声を再生すると、表示した文章を再生中の音声に合わせるように反転表示していく。また、カラオケ装置は、楽曲を再生すると、楽曲のフレーズに合った部分の歌詞を表示するとともに、当該歌詞を先頭から順次反転表示していく。
また、テキスト同期音声再生制御装置の一種として、CD(Compact Disc)に記憶されている音響信号と表示信号とに従って、音響の再生と楽曲名や音符等の画像の表示とを同期して出力する制御装置が知られている(特許文献1参照)。
特開平8−306171号公報
しかし、従来のテキスト同期音声再生制御装置において、巻き戻しや早送り等により音声の再生を開始する位置(再生開始位置)から再生を開始したいときは、時間カウンタに表示される計時時間を手掛かりとして再生開始位置を指定しなければなかった。この計時時間は、音声の再生出力の開始時刻からの経過時間であり、音声の内容とはなんら関係のない情報である。そのため、単なる計時時間を手掛かりとして所望の再生開始位置を指定するためには、指定したい計時時間をメモしておくといった煩わしい作業が必要であり、操作性が悪かった。
上述した課題に鑑みて本発明がなされたものであり、本発明の目的とするところは、所望の再生開始位置を簡単且つ平易に指定でき、操作性を向上させたテキスト同期音声再生制御装置等を実現することである。
以上の課題を解決するために、請求項1に記載のテキスト同期音声再生制御装置は、
テキスト(例えば、図5のテキストファイル304b)と当該テキストの内容に関する一連の音声データ(例えば、図6(b)の音声情報ファイル304c)とを記憶し、当該音声データの再生出力に沿って当該テキストを所定形式(例えば、コマンド“VD”による場面ごとの表示)で順次表示させることによりテキストの表示と音声の再生出力とを同期させる制御を行うテキスト同期音声再生制御装置において、
表示されたテキストの部分を指定する部分指定手段(例えば、図2のCPU10、入力部70;図9のタッチペンTP;図8のステップS124)と、
この部分指定手段により指定された部分の前記テキスト中の位置に基づいて音声データの再生開始位置(例えば、早送り時間416)を決定し、決定した再生開始位置から音声データの再生出力を開始する制御を行う音声再生開始制御手段(例えば、図2のCPU10、音声再生装置50、スピーカ52;図8のステップS126〜S130)と、
を備えることを特徴としている。
また、請求項8に記載の発明は、コンピュータに、
テキスト(例えば、図5のテキストファイル304b)と当該テキストの内容に関する一連の音声データ(例えば、図6(b)の音声情報ファイル304c)とを記憶させ、当該音声データの再生出力に沿って当該テキストを所定形式(例えば、コマンド“VD”による場面ごとの表示)で順次表示させることによりテキストの表示と音声の再生出力とを同期させる制御を行わせるためのプログラムであって
表示されたテキストの部分を指定する部分指定機能(例えば、図2のCPU10、入力部70;図9のタッチペンTP;図8のステップS124)と、
この部分指定機能により指定された部分の前記テキスト中の位置に基づいて音声データの再生開始位置(例えば、早送り時間416)を決定し、決定した再生開始位置から音声データの再生出力を開始する制御を行う音声再生開始制御機能(例えば、図2のCPU10、音声再生装置50、スピーカ52;図8のステップS126〜S130)と、
を実現させることを特徴としている。
請求項1又は8に記載の発明によれば、記憶されたテキストの内容に関する音声の再生出力に同期するようにテキストが所定形式で表示され、ユーザが当該テキストの部分を指定すると、指定したテキストの位置から音声データの再生開始位置が決定され、音声の再生出力が再生開始位置から行われる。従って、テキストの部分を指定するといった簡単かつ平易な操作で所望の再生開始位置を指定することができ、操作性を向上させたテキスト同期音声再生制御装置を実現できる。
請求項2に記載の発明は、請求項1に記載のテキスト同期音声再生制御装置であって、
前記テキストを表示させた後、表示させたテキストを順次特別表示(例えば、図9(a)の下線UL10;コマンド“HL”による特別表示)させる制御を行うことにより前記テキストの前記所定形式での順次表示を行う順次表示制御手段(例えば、図1のディスプレイ3;図2のCPU10、表示部80;図8のステップS122;コマンド“VD”による場面ごとの表示)を更に備え、
前記音声再生開始制御手段は、前記指定された部分から前記順次表示制御手段に順次特別表示させる制御を行わせる表示開始制御手段(例えば、図1のディスプレイ3;図2のCPU10、表示部80;図8のステップS132〜S106→S108→S112)を有する、
ことを特徴としている。
請求項2に記載の発明によれば、請求項1に記載の発明と同様の効果が得られることは無論のこと、テキストが表示された後、当該テキストが順次特別表示される。この特別表示により、所定形式での表示が為され、また、指定したテキストの部分から特別表示が行われる。これにより、ユーザは、再生出力される音声の内容を順次特別表示されるテキストを参照して簡単に確認するといったことができる。
請求項3に記載の発明は、請求項1又は2に記載のテキスト同期音声再生制御装置であって、
前記テキストを構成する文字列(例えば、“HL”コマンドの引数によって指定される文字数)に対応づけて、当該文字列が順次表示されるタイミングの情報(例えば、タイムコード)を記憶するタイミング記憶手段(例えば、図2のフラッシュROM30;図5(a)のタイムコードファイル304a)を更に備え、
前記音声再生開始制御手段は、前記指定された部分の文字列に対応づけて前記タイミング記憶手段に記憶されたタイミングの情報に基づいて、音声データの再生開始位置を決定する決定手段(例えば、図2のCPU10;図8のステップS128)を有する、
ことを特徴としている。
請求項3に記載の発明によれば、請求項1又は2に記載の発明と同様の効果が得られることは無論のこと、表示されたテキストの部分を指定すると、指定した部分の文字列が表示されたタイミングの情報に基づいて音声の再生開始位置が決定される。
請求項4に記載の発明は、請求項3に記載のテキスト同期音声再生制御装置であって、
前記タイミング記憶手段は、前記テキストを構成する文字列が順次表示された際に、その順次表示されたタイミングの情報を、当該文字列の表示位置(例えば、特別表示範囲)と対応づけて記憶する表示位置対応記憶手段(例えば、図2のRAM30;図7のタイムコード表示範囲402)を有し、
前記決定手段は、前記指定された部分の文字列の表示位置に対応づけて前記表示位置対応記憶手段に記憶されたタイミングの情報に基づいて、音声データの再生開始位置を決定する表示位置基準決定手段(例えば、図2のCPU10;図8のステップS126〜S128)を有する、
ことを特徴としている。
請求項4に記載の発明によれば、請求項3に記載の発明と同様の効果が得られることは無論のこと、テキストを構成する文字列が表示されると、当該文字列が表示されたタイミングの情報と、表示位置とが対応付けて記憶され、表示されたテキストの部分を指定すると、当該指定した部分の文字列の表示位置に対応するタイミングの情報に基づいて音声の再生開始位置が決定される。
請求項5に記載の発明は、請求項1〜4の何れか一項に記載のテキスト同期音声再生制御装置において、
前記表示されたテキストの中から、開始文字列と終了文字列とが定まることにより特定される反復範囲を指定する反復範囲指定手段(例えば、図2のCPU10、入力部70;図8のステップS134;図10のタッチペンTP)と、
この反復範囲指定手段により指定された反復範囲の開始文字列及び終了文字列の前記テキスト中の位置に基づいて音声データの再生開始位置及び再生終了位置(例えば、反復再生時間418)を決定し、決定した再生開始位置から再生終了位置まで、音声データの再生出力を繰り返し行う制御をする反復制御手段(例えば、図2のCPU10、音声再生装置50、スピーカ52;図8のステップS142〜S150)と、
を更に備えることを特徴としている。
請求項5に記載の発明によれば、請求項1〜4の何れか一項に記載の発明と同様の効果が得られることは無論のこと、反復範囲を指定すると、反復範囲の開始文字列と終了文字列とから、音声の再生開始位置と再生終了位置とが決定され、音声の再生出力が再生開始位置から再生終了位置まで繰り返して行われる。これにより、ユーザは、表示されたテキスト中から開始文字列及び終了文字列を指定することで、簡単に反復範囲を指定することができる。
請求項6に記載のテキスト同期音声再生制御装置は、
テキスト(例えば、テキスト同期情報324a)と、当該テキストの内容に関する一連の音声データ(例えば、音声情報ファイル324b)と、当該テキストを構成する文字列を当該音声データの再生出力に沿って所定形式(例えば、イベント“rev_disp”による特別表示;図15(d)の下線UL20)で順次表示させたときの当該各文字列の表示タイミングの情報(例えば、イベント実行時間)とを記憶する記憶手段(例えば、図11(b)のフラッシュROM32、英会話データ324)と、
前記テキストを構成する文字列を、ユーザ操作に従って順次表示する順次表示操作手段(例えば、図2のCPU10、入力部70;図15のステップS206→S238〜S240、S208→S242〜S244;図15の巻き戻しキーK20、早送りキーK22)と、
再生開始指示を入力する再生開始指示入力手段(例えば、図2のCPU10、入力部70;図15のステップS212;図15の再生キーK24)と、
この再生開始指示入力手段により再生開始指示が入力された際に、前記順次表示操作手段によって順次表示されていた文字列の前記表示タイミングの情報に基づいて前記音声データの再生開始位置(例えば、再生開始位置436)を決定し、決定した再生開始位置から音声データの再生出力を開始する制御を行う音声再生開始制御手段(例えば、図2のCPU10、音声再生装置50、スピーカ52;図14のステップS214〜S222)と、
を備えることを特徴としている。
また、請求項9に記載のプログラムは、コンピュータに、
テキスト(例えば、テキスト同期情報324a)と、当該テキストの内容に関する一連の音声データ(例えば、音声情報ファイル324b)と、当該テキストを構成する文字列を当該音声データの再生出力に沿って所定形式(例えば、イベント“rev_disp”による特別表示;図15(d)の下線UL20)で順次表示させたときの当該各文字列の表示タイミングの情報(例えば、イベント実行時間)とを記憶する記憶機能(例えば、図11(b)のフラッシュROM32、英会話データ324)と、
前記テキストを構成する文字列を、ユーザ操作に従って順次表示する順次表示操作機能(例えば、図2のCPU10、入力部70;図15のステップS206→S238〜S240、S208→S242〜S244;図15の巻き戻しキーK20、早送りキーK22)と、
再生開始指示を入力する再生開始指示入力機能(例えば、図2のCPU10、入力部70;図15のステップS212;図15の再生キーK24)と、
この再生開始指示入力機能により再生開始指示が入力された際に、前記順次表示操作機能によって順次表示されていた文字列の前記表示タイミングの情報に基づいて前記音声データの再生開始位置(例えば、再生開始位置436)を決定し、決定した再生開始位置から音声データの再生出力を開始する制御を行う音声再生開始制御機能(例えば、図2のCPU10、音声再生装置50、スピーカ52;図14のステップS214〜S222)と、
を実現させることを特徴としている。
請求項6又は9に記載の発明によれば、ユーザが文字列を順次表示させて音声再生開始指示を入力すると、当該入力の時点において順次表示されていた文字列の表示タイミングの情報に基づいて音声データの再生開始位置が決定され、音声の再生出力が再生開始位置から行われる。従って、所望の文字列を表示させて音声再生開始指示を入力するといった簡単かつ平易な操作で所望の再生開始位置を指定することができ、操作性を向上させたテキスト同期音声再生制御装置を実現できる。
請求項7に記載の発明は、請求項6に記載のテキスト同期音声再生制御装置において、
前記音声再生開始制御手段は、前記表示タイミングの情報に加えて、更に前記音声データのデータ量(例えば、音声情報データ全容量434)に基づいて、前記音声データの再生を開始するデータの位置を算出することで再生開始位置を決定する算出手段(例えば、図2のCPU10;図14のステップS214〜S220)を有することを特徴としている。
請求項7に記載の発明によれば、請求項6に記載の発明と同様の効果が得られることは無論のこと、表示タイミングの情報と音声データのデータ量とに基づいて再生開始位置が決定される。
請求項1又は8に記載の発明によれば、記憶されたテキストの内容に関する音声の再生出力に同期するようにテキストが所定形式で表示され、ユーザが当該テキストの部分を指定すると、指定したテキストの位置から音声データの再生開始位置が決定され、音声の再生出力が再生開始位置から行われる。従って、テキストの部分を指定するといった簡単かつ平易な操作で所望の再生開始位置を指定することができ、操作性を向上させたテキスト同期音声再生制御装置を実現できる。
請求項2に記載の発明によれば、テキストが表示された後、当該テキストが順次特別表示される。この特別表示により、所定形式での表示が為され、また、指定したテキストの部分から特別表示が行われる。これにより、ユーザは、再生出力される音声の内容を順次特別表示されるテキストを参照して簡単に確認するといったことができる。
請求項3に記載の発明によれば、表示されたテキストの部分を指定すると、指定した部分の文字列が表示されたタイミングの情報に基づいて音声の再生開始位置が決定される。
請求項4に記載の発明によれば、テキストを構成する文字列が表示されると、当該文字列が表示されたタイミングの情報と、表示位置とが対応付けて記憶され、表示されたテキストの部分を指定すると、当該指定した部分の文字列の表示位置に対応するタイミングの情報に基づいて音声の再生開始位置が決定される。
請求項5に記載の発明によれば、反復範囲を指定すると、反復範囲の開始文字列と終了文字列とから、音声の再生開始位置と再生終了位置とが決定され、音声の再生出力が再生開始位置から再生終了位置まで繰り返して行われる。これにより、ユーザは、表示されたテキスト中から開始文字列及び終了文字列を指定することで、簡単に反復範囲を指定することができる。
請求項6又は9に記載の発明によれば、ユーザが文字列を順次表示させて音声再生開始指示を入力すると、当該入力の時点において順次表示されていた文字列の表示タイミングの情報に基づいて音声データの再生開始位置が決定され、音声の再生出力が再生開始位置から行われる。従って、所望の文字列を表示させて音声再生開始指示を入力するといった簡単かつ平易な操作で所望の再生開始位置を指定することができ、操作性を向上させたテキスト同期音声再生制御装置を実現できる。
請求項7に記載の発明によれば、表示タイミングの情報と音声データのデータ量とに基づいて再生開始位置が決定される。
以下、本発明のテキスト同期音声再生制御装置を電子辞書に適用した場合の実施形態について図1〜図18を参照して詳細に説明する。
図1(a)は、本実施形態における電子辞書1の概観の一例を示す図である。同図のように、電子辞書1は、タッチパネル21と一体的に構成されたディスプレイ3と、各種キー群5と、コネクタ7と、スロット9とを備えて構成される。
コネクタ7は、ケーブル17の接続端子である。電子辞書1は、ケーブル17を介してパソコン15と接続可能に構成されている。そして、パソコン15側から各種データをダウンロード可能に構成されている。例えば、パソコン15のCD−ROMリーダ19によってCD−ROM13から英会話データが読み出されて電子辞書1にダウンロードされたり、インターネット網Nを介してパソコン15がサーバSVから取得した英会話データが電子辞書1に転送されたりする。これらパソコン15側から電子辞書1にデータをダウンロードする技術は適宜公知技術を適用してよいため、詳細な説明は省略する。
また、ダウンロードされたデータは、電子辞書1に内蔵されるフラッシュROM等に格納されることとしてもよいし、スロット9に着脱自在に装着されるメモリカード11に格納されることとしてもよい。
各種キー群5を構成するキーにはそれぞれ固有の機能が割り当てられており、ユーザによってこれらのキーが押下され、電子辞書1が操作される。具体的には図1(b)のように、操作の確定指示を入力する決定キー29、カーソルの移動指示等を入力するカーソルキー23、文字入力キー27、電子辞書1の動作モードを選択するモードキー25等を備えている。ユーザによりこれらのキーが押下されることで、CPU10は当該キーに割り当てられた機能を実行する。
モードキー25には、英会話キー25aと、英和キー25bとがある。英会話キー25aは、電子辞書1を英会話モードとするためのモードキーである。英会話モードとは、英会話音声を音声出力させると共に、英会話の内容の英文を表示するモードであって英会話を学習するためのモードである。ユーザにより英会話モードに切り替えられると、本実施形態に係る第1又は第2英会話視聴処理が実行される。また、英和キー25bは、電子辞書1を英和辞書モードとするためのモードキーである。英和辞書モードとは、ユーザにより入力された英単語の説明情報を内蔵している英和辞書データベースから読み出して表示するモードである。
図2は、電子辞書1の機能構成を示すブロック図である。同図に示すように、電子辞書1はCPU10、ROM20、フラッシュROM30、RAM40、音声データに基づいた音声をスピーカ52に出力させる音声再生装置50、通信装置60、入力部70、表示部80、タブレット92に対する当接操作位置の座標を検出する位置検出装置90及び記憶媒体読取部100がバス110に接続されて構成される。
CPU10は、入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの入出力を行う。具体的には、CPU10は、入力部70から入力される操作信号に応じてROM20又はフラッシュROM30に格納されたプログラムを読み出し、当該プログラムに従って処理を実行する。そして、処理結果を表示するための表示制御信号を表示部80に出力し、当該表示制御信号に従った表示情報を表示部80に表示させる。
ROM20は、各種初期設定、ハードウェアの検査、又は必要なプログラムのロード等を行うための初期プログラムを格納する。CPU10は、電子辞書1の電源投入時にこの初期プログラムを実行することにより、電子辞書1の動作環境を設定する。また、ROM20は、電子辞書1の動作に係る各種処理プログラムを格納する。
フラッシュROM30は、読み書き可能な不揮発性メモリであり、電子辞書1の動作に係る種々の機能を実現するためのデータやプログラムを格納する。RAM40は、CPU10が実行する各種プログラムやこれらプログラムの実行に係るデータ等を一時的に保管するメモリ領域を備える。
音声再生装置50は、D/A変換部とアンプとを備えて構成される。音声再生装置50は、CPU10から入力される音声データをD/A変換部においてD/A変換し、アンプによって増幅した後、スピーカ52に音声出力させる。
通信装置60は、例えば、パソコン15を接続してデータ通信するための機能部であり、USB(universal serial bus)やLANインターフェイス等により構成される。尚、通信装置60は、図1に示すコネクタ7に相当するものである。
入力部70は、仮名、アルファベット等の文字入力や機能選択等に必要なキー群を備え、押下されたキーの押下信号等をCPU10に出力する。この入力部70におけるキー入力により、モードの選択、文字入力、確定指示の入力等をするための入力手段が実現される。尚、この入力部70は、図1に示すキー群5に相当するものである。
表示部80は、CPU10から入力される表示制御信号に基づいて各種画面を表示させるものであり、LCD(Liquid Crystal Display)等により構成される。尚、この表示部80は、図1に示すディスプレイ3に相当し、タブレット92と一体的に構成されるものである。
また、電子辞書1は、入力装置としてタブレット92を備える。このタブレット92は、タッチペンTPや指先等によって、表示部80の表示領域上に指示(当接)された位置を感知して、当接された位置に応じた信号を位置検出装置90へ出力する装置である。尚、このタブレット92は、図1に示すタッチパネル21に相当するものである。
タブレット92に接続される位置検出装置90は、タブレット92から入力される信号に基づいて、表示部80上の指示された位置座標を検出する。このタブレット92を使用すれば、表示部80の表示領域における位置を直接的に指定することができる。特に、このタブレット92上にタッチペンTPを当接させることにより、タップイン、タップアウト、ドラッグ及びドロップといった操作を実現することができる。
ここでタップイン、タップアウト、ドラッグ、ドロップとは、一般的なウィンドウシステムにおける操作と同意であって、タップイン(時として、単にタップとも言う。)とは、タッチペンTPを表示部80の表示領域上に当接させる操作のことを言い、タップアウトとは、当接させた後にタッチペンTPを表示部80の表示領域上から離す操作のことを言う。またドラッグとは、表示部80上に表示されたオブジェクトを移動等させるためにタッチペンTPを表示部80の表示領域上で摺動させる操作のことを言い、ドロップとはドラッグした後のタップアウトの操作のことを言う。
記憶媒体読取部100は、メモリカード11等のCPU10で読み取り可能な記憶メディアにデータの読み書きを行う機能部である。尚、図1では記憶媒体読取部100は、スロット9に相当するものである。
〔第1実施形態〕
先ず、電子辞書1の第1実施形態について説明する。
図3は、第1実施形態に係るROM20、フラッシュROM30及びRAM40の構成を示す図である。
図3(a)によれば、ROM20は、第1英会話視聴プログラム202を格納する。CPU10は、ユーザによって英会話キー25aが押下されたことを検知すると、ROM20から第1英会話視聴プログラム202を読み出し、RAM40に展開することで、第1英会話視聴処理を開始する。
図3(b)によれば、フラッシュROM30は、コマンドプログラム302と、英会話データ304とを記憶する。
コマンドプログラム302は、英会話データ304のタイムコードファイル304aに記憶されている各コマンドの制御内容を実現するためのプログラム群である。CPU10によって、該当するコマンドプログラム302が読み出され、RAM40に展開されることで、当該コマンドプログラム302に従った処理が実行される。
図4(a)は、第1実施形態に係る代表的なコマンドの制御内容を説明するための図である。
“LT”コマンドは、i(タイムコードファイル304aに格納されている引数)番目のテキストデータを読み込むためのコマンドである。
“VD”コマンドは、“LT”コマンドによって読み込まれたi番目のテキストデータを表示部80に表示させるためのコマンドである。
“HL”コマンドは、表示部80に表示させたテキストの先頭の文字からi番目の文字までの文字に下線を付して特別表示させることにより、表示部80を更新させるためのコマンドである。また、“HL”コマンドによって新たに特別表示した文字が表示されている範囲を示す座標(以下、「特別表示範囲」という。)と、タイムコードファイル304aにおける当該“HL”コマンドのタイムコードとを対応付けてタイムコード表示範囲402に蓄積的に記憶させる。
“DI”コマンドは、i番目の画像データに基づいた画像を表示部80に表示させるためのコマンドである。“PS”コマンドは、i番目の音声情報データに基づいた音声の再生出力を開始するためのコマンドである。“CS”コマンドは、表示部80に表示させた表示画面内をクリアするためのコマンドである。
“PP”コマンドは、タイマーの計時を一時停止するためのコマンドである。また、音声が再生中であれば、再生中の音声の一時停止も行う。この“PP”コマンドにより実行される一連の処理をポーズ処理と言う。
“FN”コマンドは、タイマーの計時を終了した後、第1英会話視聴処理を終了させるためのコマンドである。また、音声が再生中であれば、再生中の音声の停止も行う。“FN”コマンドにより実行される一連の処理をストップ処理と言う。
英会話データ304は、上述したように、例えば、パソコン15からダウンロードされて、フラッシュROM30に記憶される。尚、ダウンロード時に、公知の暗号処理技術が施されている場合には、CPU10が、ダウンロード時に復号処理を行って、フラッシュROM30に記憶させる。
図4(b)は、英会話データ304のデータ構成の一例を示す図である。同図のように、英会話データ304は、タイムコードファイル304aと、テキストファイル304bと、音声情報ファイル304cと、画像ファイル304dと、処理単位時間304eとを有する。
タイムコードファイル304aは、タイムコードと、コマンドと、当該コマンドの引数とを格納するためのデータファイルである。タイムコードとは、コマンドを読み出す順序を表すタイミングの情報である。図5(a)は、タイムコードファイル304aのデータ構成の一例を示す図である。同図によれば、タイムコードファイル304aには、タイムコードとコマンドと引数とが対応付けられて格納されている。例えば、タイムコード“1”には、コマンド“CS”と引数“00”とが対応付けられている。これは、CPU10が、1番目の処理として、“CS”コマンドに対応するコマンドプログラム302に従った処理を実行することを表している。CPU10は、タイムコードの順にコマンドを読み出して、当該コマンドに対応するコマンドプログラム302に従った処理を実行していく。
テキストファイル304bは、テキストデータを格納するためのデータファイルである。図5(b)は、テキストファイル304bのデータ構成の一例を示す図である。同図によれば、テキストファイル304bは、第1テキストデータ、第2テキストデータ、・・・といった複数のテキストデータを格納している。テキストデータの一例として、第2テキストデータのデータ構成を図6(a)に示す。同図のように、テキストデータには、第1場面、第2場面、・・・といった場面ごとのテキストが複数格納されている。
音声情報ファイル304cは、音声情報データを格納するためのデータファイルである。図6(b)は、音声情報ファイル304cのデータ構成の一例を示す図である。同図によれば、音声情報ファイル304cは、第1音声情報データ、第2音声情報データ、・・・といった複数の音声情報データを格納している。音声情報データの一例として、第2音声情報データの概念図を図6(c)に示す。同図は、音声出力の開始後、150m秒後に、「What」という音声が再生され、225m秒後に「High」という音声が再生されることを表している。
上述した各テキストデータには、それぞれに対応した音声情報データがある。テキストデータに基づくテキストの内容と、当該テキストデータに対応する音声情報データに基づく音声の内容とは、同じ内容である。具体的には、音声情報データに基づいて再生出力される音声は、対応するテキストデータに格納されているテキスト(英文)を朗読する音声である。第2テキストデータには、第2音声情報データが対応付けられている。第2テキストデータのテキストが表示されている間は、第2音声情報データに基づいた音声が再生出力される。タイムコードファイル304aに従って第2テキストデータの第1場面が表示されると、第2音声情報データに基づいた音声が再生出力される。音声の再生出力の開始から150m秒経過すると、「What」という音声が再生出力されると共に、タイムコードファイル304aに従って表示部80に表示された「A:What」に下線UL10が付されて特別表示される。更に、75m秒経過(音声の再生出力の開始から225m秒後)すると、「high」という音声が再生出力されると共に、「high」までのテキストに下線UL10が付されて特別表示され、表示部80が更新される。
このようにして、音声情報データに対応したテキストデータに基づくテキストが、タイムコードファイル304aに記憶されているコマンドに従って表示されることにより、再生出力される音声と同じ内容のテキストが当該音声に同期するように表示されていく。
画像ファイル304dは、画像データを格納するためのデータファイルである。画像ファイル304dは、第1画像データ、第2画像データ、・・・といった複数の画像データを格納している。“DI”コマンドに対応したコマンドプログラム302に従った処理を実行すると、当該コマンドの引数で指定された画像データが読み出されて当該画像データに基づいた画像が表示部80に表示される。
処理単位時間304eは、CPU10がタイムコードファイル304aからコマンドを読み出す時間間隔である。例えば、処理単位時間304eが25m秒であるとすると、CPU10は、タイムコードファイル304aから25m秒おきにコマンドを読み出し、当該コマンドに対応するコマンドプログラム302に従って処理を実行する。
RAM40は、タイムコード表示範囲402と、タイマー計時時間404と、実行中タイムコード406と、指定座標408と、指定座標タイムコード410と、反復範囲412と、反復範囲タイムコード414と、早送り時間416と、反復再生時間418とを記憶する。
タイムコード表示範囲402は、タイムコードと特別表示範囲とを対応付けて格納する。特別表示範囲とは、“HL”コマンドによって特別表示された文字列の表示範囲である。特別表示範囲は、x軸方向座標範囲と、y軸方向座標範囲とによって表される。x軸方向座標範囲は、表示部80のx軸方向の座標の範囲であり、y軸方向座標範囲は、表示部80のy軸方向の座標の範囲である。尚、x軸方向とは、表示部80の横方向を表し、y軸方向とは表示部80の縦方向を表す。また、これらの座標は、表示部80の左上の頂点を原点として、x軸右方向を正、y軸下方向を正とした場合の座標である。
図7(a)は、タイムコード表示範囲402の一例を示す図である。同図によれば、タイムコードと特別表示範囲であるx軸方向座標範囲と、y軸方向座標範囲とが対応付けられて格納されている。
例えば、タイムコード“9”には、x軸方向座標範囲として「10〜50」、y軸方向座標範囲として「10〜20」とが対応付けられている。これは、タイムコードファイル304aのタイムコード“9”での“HL”コマンドによって特別表示した文字列の表示範囲が、x軸方向の座標が“10”から“50”、y軸方向の座標が“10”から“20”までの範囲であったことを表している。
タイマー計時時間404は、CPU10のタイマーにより計時される計時時間である。CPU10は、タイマーの計時を開始すると、RAM40に格納されたタイマー計時時間404を随時更新していく。
実行中タイムコード406は、CPU10が、タイムコードファイル304aより読み出して実行するコマンドのタイムコードである。
指定座標408は、ユーザの再生開始位置指定操作によってタップされた表示部80上のx座標及びy座標それぞれの座標値である。再生開始位置指定操作とは、音声の再生開始位置を指定するための操作である。再生開始位置指定操作は、ユーザが特別表示された文字列の表示範囲内をタップした後、決定キー29を押下するまでの一連の操作のことを言う。よって、ユーザが特別表示された文字列の表示範囲外をタップし、決定キー29を押下するといった操作は、再生開始位置指定操作とは判別されない。
指定座標タイムコード410は、タイムコード表示範囲402の特別表示範囲のうち、指定座標408を含む特別表示範囲に対応するタイムコードであり、CPU10によって決定される。具体的には、タイムコード表示範囲402の特別表示範囲の中から、指定座標408のx座標値とy座標値とに基づいて、指定座標408を含む特別表示範囲が検索され、検索された特別表示範囲に対応するタイムコードが指定座標タイムコード410として格納される。
反復範囲412は、ユーザの反復範囲指定操作によって指定された開始文字列と終了文字列との座標である。反復範囲指定操作とは、音声を反復して再生するための範囲を指定するための操作である。反復範囲指定操作は、ユーザが特別表示されたテキスト中の文字列から開始文字列を選択(例えば、文字列上のタップ操作)した後、更に終了文字列を選択するまでの一連の操作のことを言う。よって、ユーザが特別表示された文字列の表示範囲外を選択するといった操作は、反復範囲指定操作とは判別されない。
尚、再生開始位置指定操作及び反復範囲指定操作は、タッチペンによる操作に限られるものでなく、適宜変更可能である。例えば、所望のテキストの位置にカーソルを移動して決定キー29を押下する操作としてもよい。また、テキスト中の一連の文字列上をドラッグして決定キー29を押下する操作を反復範囲指定操作としてもよい。
反復範囲タイムコード414は、反復範囲412を基にCPU10によって決定されるタイムコードである。CPU10は、反復範囲412である開始文字列のx座標をx軸方向座標範囲内に含み、更にy座標をy軸方向座標範囲内に含む特別表示範囲に対応するタイムコードを取得する。また、終了文字列のx座標をx軸方向座標範囲内に含み、更にy座標をy軸方向座標範囲内に含む特別表示範囲に対応するタイムコードを取得する。そして、CPU10は、タイムコード表示範囲402から、取得したタイムコードの最小のタイムコードから最大のタイムコードまでのタイムコードを反復範囲タイムコード414として決定する。
図7(b)は、図10(a)のように反復範囲指定操作を行ったときの、反復範囲タイムコード414の一例を示す図である。図10(a)において、反復範囲指定操作としては、開始文字列「Higashi」の「H」上がタップされ、終了文字列「school」の「l」上がタップされている。同図において、「H」の座標を(60、35)、「l」の座標を(170、35)とすると、図7(a)の特別表示範囲において、座標(60、35)を含む特別表示範囲に対応するタイムコードは「150」となり、座標(170、35)を含む特別表示範囲に対応するタイムコードは「175」となる。従って、タイムコード表示範囲402には、“150”、“165”及び“175”が格納される。
早送り時間416は、音声情報データによる音声の再生出力を早送りさせる時間である。CPU10は、再生開始位置指定操作が為された場合には、指定座標タイムコード410と“PS”コマンドのタイムコードとから早送り時間416を算出する。具体的には、指定座標タイムコード410から、当該指定座標タイムコード410の直前の“PS”コマンドのタイムコードを減算した値に、処理単位時間304eを乗算することにより早送り時間416を算出する。
また、反復範囲指定操作が為された場合は、反復範囲タイムコード414と“PS”コマンドのタイムコードとから早送り時間416を算出する。この場合、反復範囲タイムコード414の最小のタイムコードから、当該コードの直前の“PS”コマンドのタイムコードを減算した値に、処理単位時間304eを乗算することにより早送り時間416を算出する。
この算出された早送り時間416の時間分、早送りした位置を再生開始位置とし、当該再生開始位置からの音声の再生出力を開始することで、再生開始位置指定操作、又は反復範囲指定操作によって指定された位置の文字列に同期するような音声の再生出力が実現される。
反復再生時間418は、音声を反復して再生出力させるときの時間であり、反復範囲タイムコード414から算出される。具体的には、反復範囲タイムコード414から最大のタイムコードと最小のタイムコードとを取得し、この2つのタイムコードの差に処理単位時間304eを乗算した値を反復再生時間418とする。この反復再生時間418により、反復範囲指定操作によって指定された範囲に相当する時間分の再生出力が実現される。
次に、電子辞書1の第1英会話視聴処理の動作について、図8に示すフローチャートを用いて以下に説明する。
先ず、ユーザによって英会話キー25aが押下されると、CPU10は、フラッシュROM30から第1英会話視聴プログラム202を読み出し、RAM40に展開することで第1英会話視聴処理を開始する。
第1英会話視聴処理を開始すると、CPU10は、英会話データ304を読み込み(ステップS100)、実行中タイムコード406を読み込んだ英会話データ304のタイムコードファイル304aの先頭のタイムコードに設定する(ステップS102)。
そして、CPU10は、タイマーの計時を開始し、計時時間によってタイマー計時時間404を随時更新していく(ステップS104)。CPU10は、実行中タイムコード406に対応するコマンドをタイムコードファイル304aから読み出し(ステップS106)、当該コマンドが“FN”コマンドか否かを判別する(ステップS108)。
読み出したコマンドが“FN”コマンドであると判別した場合(ステップS108:Yes)、CPU10は、ストップ処理を行う(ステップS110)。具体的には、“FN”コマンドに対応するコマンドプログラム302を読み出し、RAM40に展開することでストップ処理を実行する。CPU10は、ストップ処理を実行することで、第1英会話視聴処理を終了する。
また、ステップS108において、読み出したコマンドが“FN”コマンドではないと判別した場合(ステップS108:No)、CPU10は、読み出したコマンドが“PP”コマンドであるか否かを判別する(ステップS112)。
読み出したコマンドが“PP”コマンドであると判別した場合(ステップS112:Yes)、CPU10は、ポーズ処理を行う。具体的には、“PP”コマンドに対応するコマンドプログラム302を読み出し、RAM40に展開することでポーズ処理を実行する。CPU10は、ポーズ処理を実行した後、ポーズ処理による一時停止状態を解除するためのポーズ処理解除操作(例えば、決定キー29の押下)を検知するまで待機する(ステップS116)。
ユーザによるポーズ処理解除操作を検知すると(ステップS116:Yes)、CPU10は、タイマー計時時間404が処理単位時間304eの倍数となることで、次のコマンドの処理を実行する時間に到達したか否かを判別する(ステップS118)。
タイマー計時時間404が処理単位時間304eの倍数であった場合は、次のコマンド処理を実行する時間に到達したと判別し(ステップS118:Yes)、実行中タイムコード406に“1”を加算して更新する(ステップS120)。そして、CPU10は、ステップS106の処理に移行する。
ステップS112において、読み出したコマンドが“PP”コマンドではないと判別した場合(ステップS112:No)、CPU10は、読み出したコマンドに対応する処理を実行する(ステップS120)。具体的には、読み出したコマンドに対応するコマンドプログラム302を読み出して、RAM40に展開することで、読み出したコマンドに対応する処理を実行する。
ステップS122の処理の後、又は、ステップS118において次のコマンドの処理を実行する時間には到達してないと判別した場合(ステップS118:No)、ユーザによる再生開始位置指定操作が為されたか否かを判別する(ステップS124)。
再生開始位置指定操作が為されたと判別した場合(ステップS124:Yes)、CPU10は、再生開始位置指定操作によってタップされた表示部80上の座標を指定座標408としてRAM40に記憶させる。そして、指定座標408を含む特別表示範囲に対応するタイムコードをタイムコード表示範囲402から読み出して、指定座標タイムコード410とする(ステップS126)。
次いで、指定座標タイムコード410の直前にある“PS”コマンドのタイムコードと、指定座標タイムコード410とから早送り時間416を算出する(ステップS128)。CPU10は、早送り時間416の時間分早送りした位置を再生開始位置として、当該再生開始位置からの音声の再生出力を開始する(ステップS130)。
次いで、指定座標タイムコード410を実行中タイムコード406に設定した後(ステップS132)、ステップS106の処理へ移行する。
このとき、指定座標タイムコード410に基づいた再生開始位置から音声が再生出力されるとともに、指定座標タイムコード410以降のタイムコードに対応するコマンドがステップS122において実行される。これにより、再生開始位置からの音声の再生出力の開始に同期するように、ユーザが指定した座標に位置する文字列からの特別表示が実現される。
ステップS124において、再生開始指定操作が為されなかったと判別した場合(ステップS124:No)、CPU10は、反復範囲指定操作が為されたか否かを判別する(ステップS134)。反復範囲指定操作が為されなかったと判別した場合は(ステップS134:No)、ステップS118の処理へ移行する。
また、反復範囲指定操作が為されたと判別した場合は(ステップS134:Yes)、反復範囲指定操作によって指定された開始文字列と終了文字列との座標を反復範囲412としてRAM40に記憶させる。そして、反復範囲412の開始文字列及び終了文字列それぞれの座標を含む特別表示範囲に対応するタイムコードをタイムコード表示範囲402から取得する。CPU10は、取得した各タイムコードの最小のタイムコードから最大のタイムコードまでの範囲内のタイムコードを反復範囲タイムコード414としてRAM40に記憶させる(ステップS136)。
CPU10は、反復範囲タイムコード414に対応する特別表示範囲を読み出し、読み出した特別表示範囲内を反転表示させる(ステップS138)。そして、ユーザによって決定キー29が押下されたか否かを判別する(ステップS140)。決定キー29が押下されなかったと判別した場合は(ステップS140:No)、ステップS118の処理へ移行する。
CPU10は、決定キー29が押下されたことを検知すると(ステップS140:Yes)、反復範囲タイムコード414内の最小のタイムコードと、当該タイムコードの直前の“PS”コマンドのタイムコードとから早送り時間416を算出する(ステップS142)。そして、反復範囲タイムコード414の最小のタイムコードと最大のタイムコードとから反復再生時間418を算出する(ステップS144)。
CPU10は、早送り時間416分早送りした位置を再生開始位置とし、当該再生開始位置から反復再生時間418の時間分の音声の再生出力を開始する(ステップS146)。次いで、反復範囲タイムコード414の最小から最大までのタイムコードをタイムコードファイル304aから順次読み出し、読み出したタイムコードに対応するコマンドの処理を実行していく(ステップS148)。
このとき、反復範囲タイムコード414に基づいた再生開始位置からの反復再生時間418の時間分の音声が再生出力されるとともに、反復範囲タイムコード414の最小から最大までのタイムコードに対応するコマンドの処理が実行される。これにより、反復範囲指定操作によって指定された範囲内に相当する音声の再生出力に同期するように、当該範囲内の文字列の特別表示が実現される。
CPU10は、ユーザによるリピート操作(例えば、リピート選択画面W14のOKキーK10に対するタップ操作)が為されたか否かを判別する(ステップS150)。リピート操作が為されたと判別した場合(ステップS150:Yes)、CPU10は、ステップS146の処理へ移行し、再び、ステップS146による音声の再生出力と、ステップS148によるコマンドの実行とを行う。
また、リピート操作が為されなかったと判別した場合は(ステップS150:No)、反復範囲タイムコード414の最大のタイムコードを実行中タイムコード406に設定する(ステップS152)。そして、早送り時間416と反復再生時間418とを加算した時間分早送りした位置からの音声の再生出力を開始し(ステップS154)、ステップS120の処理へ移行する。
図9及び図10は、図5のタイムコードファイル304a及びテキストファイル304bと、図6の第2テキストデータ、音声情報ファイル304c及び第2音声情報データとに従った具体的な表示画面の画面遷移の例を示す図である。以下、ユーザの操作例と合わせて説明する。尚、処理単位時間304eは25m秒として説明する。
ユーザが、英会話キー25aを押下すると、表示部80の表示画面がクリアされた後(タイムコード“1”の“CS”コマンドによる処理に相当)、第2画像データに基づいた画像を表示した画像表示画面W12が表示される(タイムコード“2”の“DI”コマンドによる処理に相当)。
そして、第2音声情報データに基づいた音声の再生出力が開始される(タイムコード“3”の“PS”コマンドによる処理に相当)。
そして、第2テキストデータの第1場面のテキスト「A:What high school ・・・・・school student.」を行数と共に表示したテキスト表示画面W10が表示部80に表示される(タイムコード“4”の“LT”コマンドによる処理、及びタイムコード“5”の“VD”コマンドによる処理に相当)。
ユーザの英会話キー25aの押下から200m秒経過後(“PS”コマンドの実行時間50m秒((タイムコード“3”−1)×25m秒)+音声の再生出力開始からの経過時間150m秒)、「What」という音声が再生出力されると同時に、テキスト表示画面W10に表示されているテキストの「A:What 」(空白文字を含む計7文字)が下線UL10によって特別表示される。このとき、CPU10によってタイムコード“9”と、「A:What 」のx軸方向座標範囲「10〜50」と、y軸方向座標範囲「10〜20」とがタイムコード表示範囲402としてRAM40に記憶される(タイムコード“9”の“HL”コマンドによる処理に相当)。
その後、音声の再生出力に同期するように、テキスト表示画面W10に表示されているテキストは下線UL10によって特別表示されていく。図9(a)は、英会話キー25aの押下から850m秒経過後(“PS”コマンドの実行時間50m秒+音声の再生出力開始からの経過時間800m秒)の表示部80の表示画面である。同図によれば、「school」という音声が再生出力されると同時に、テキスト表示画面W10に表示されているテキストの「A:What high school 」(空白文字を含む計19文字)が下線UL10によって特別表示されている(タイムコード“35”の“HL”コマンドによる処理に相当)。
ユーザが、図9(b)のようにタッチペンTPを用いて特別表示されたテキストのうち「H」の上をタップすると、「Me,too.」まで再生出力されていた音声は「Higashi High・・・」という音声の再生出力に切り替わる。また、同時に、「C:Me,too.」まで特別表示されていたテキストは、「Higashi」からの特別表示に切り替わり、引き続き、再生出力される音声に同期するように特別表示が為されていく(図8に示すステップS124→S126〜S132〜S106に相当)(図9(c))。
図9(b)において、ユーザがタップした位置の座標を(60、35)とすると、この座標は、x軸方向座標範囲「55〜105」及びy軸方向座標範囲「30〜40」の特別表示範囲に含まれているので、CPU10によって当該特別表示に対応するタイムコード“150”が読み出され、記憶される。(図8に示すステップS126に相当)。そして、タイムコードファイル304aにおいて、タイムコード“150”の直前にある“PS”コマンドのタイムコードは“3”であるので、早送り時間416は(150−3)×25m秒として算出され、3675m秒となる(図8に示すステップS128に相当)。よって、CPU10により、第2音声情報データに基づく音声を3675m秒早送りした再生開始位置からの音声の再生出力が開始されると同時に、タイムコード“150”以降のコマンドがタイムコードファイル304aから読み出されて、当該コマンドに対応する処理が実行されていく(図8に示すステップS130〜S132〜S106に相当)。
ユーザは、図10(a)のように特別表示されたテキストのうち「Higashi」を開始文字列として選択し、「H」上をタップした後、「school」を終了文字列として選択し、「l」上をタップすると、「Higashi」から「school」までの文字列が反転表示される(図8に示すステップS134→S136〜S138に相当)。そして、決定キー29を押下すると、「Me,too.」まで再生出力されていた音声は「Higashi High・・・」という音声の再生出力に切り替わる。また、同時に、「C:Me,too.」まで特別表示されていたテキストは、「Higashi」からの特別表示に切り替わる(図8に示すステップS140→S142〜S148に相当)。
その後、音声の再生出力と特別表示は、「school」で一時的に停止する。そして、ユーザが、表示されたリピート選択画面W14のOKキーK10をタップすると、再度「Higashi high school」の音声が再生出力され、同時に特別表示されていく(図8に示すステップS150→S146→S148に相当)。また、ユーザは、リピート選択画面W14のcancelキーK12をタップすると、「Me,too.」以降の音声が再生出力され、更に、「C:Me,too.」以降のテキストが特別表示されていく(図8に示すステップS150→S152〜S120〜S106に相当)(図10(b))。
図10(a)において、ユーザが開始文字列としてタップした位置の座標を(60、35)とすると、開始文字列の座標(60、35)は、x軸方向座標範囲「55〜105」及びy軸方向座標範囲「30〜40」の特別表示範囲に含まれているので、CPU10によって当該特別表示範囲に対応するタイムコード“150”が読み出される。また、終了文字列としてタップした位置の座標を(170、35)とすると、終了文字列の座標(170、35)は、x軸方向座標範囲「135〜175」及びy軸方向座標範囲「30〜40」の特別表示範囲に含まれているので、CPU10によって当該特別表示範囲に対応するタイムコード“175”が読み出される。CPU10は、読み出したタイムコード“150”から“175”までの範囲内のタイムコード“150”、“160”及び“175”を、タイムコードファイル304aから読み出し、記憶する(図8に示すステップS136に相当)。
そして、タイムコード“150”の直前にある“PS”コマンドのタイムコードは“3”であるので、早送り時間416は3675m秒と算出される(図8に示すステップS142に相当)。また、記憶したタイムコードの最大及び最小のタイムコードから反復再生時間418は、(175−150)×25m秒として算出され、625m秒となる(図8に示すステップS144に相当)。よって、CPU10により、第2音声情報データに基づく音声を3675m秒早送りした再生開始位置から、625m秒分の音声の再生出力が開始されると同時に、“150”から“175”までタイムコードに対応するコマンドがタイムコードファイル304aから読み出されて、当該コマンドに対応する処理が実行されていく(図8に示すステップS146〜S148に相当)。
以上、第1実施形態によれば、表示されたテキストの内容と同じ音声が再生出力されると共に、タイムコードファイル304aに記憶されているコマンドに従って表示されたテキストが音声に同期するように特別表示されていく。特別表示されたテキスト上をタップし、決定キーを押下すると、タップした位置の文字列からのテキストと同じ内容の音声が再生出力されるとともに、タップした位置の文字列からの特別表示が開始される。
また、ユーザは、特別表示されたテキストを範囲指定することにより、所望の範囲の音声を繰り返し聞くことができると共に、再生される音声に同期するように指定した範囲内の文字列が特別表示されていく。これにより、ユーザは、一度再生出力された音声を聞き直したい場合など、聞き直したい音声と同じ内容のテキスト上をタップするといった簡単な操作によって、音声の聞き直しをすることができる。従って、表示されたテキストの一部分を指定するといった簡単な操作によって再生開始位置を指定でき、操作性を向上させたテキスト同期音声再生制御装置を実現することができる。
〔第2実施形態〕
次に、本発明を適用した電子辞書1の第2実施形態について説明する。第2実施形態における電子辞書1は、図3に示した第1実施形態のROM20と、フラッシュROM30と、RAM40とを、ROM22と、フラッシュROM32と、RAM42とに置き換えた構成である。尚、第1実施形態と同一の構成要素には同一の符号を付してその説明を省略する。
図11は、第2実施形態に係るROM22、フラッシュROM32及びRAM42の構成を示す図である。
図11(a)によれば、ROM22は、第2英会話視聴プログラム222を格納する。CPU10は、ユーザによって英会話キー25aが押下されたことを検知すると、ROM22から第2英会話視聴プログラム222を読み出し、RAM42に展開することで、第2英会話視聴処理を開始する。
図11(b)によれば、フラッシュROM32は、イベントプログラム322と、英会話データ324とを記憶する。
イベントプログラム322は、テキスト同期情報324aに記憶されている各イベント情報のイベントを実現するためのプログラムである。CPU10によって、該当するイベントプログラム322が読み出され、RAM42に展開されることで、イベントプログラム322に従った処理が実行される。
図12(a)は、代表的なイベントの制御内容を説明するための図である。
イベント“txt_disp”は、テキスト表示画面W20の“X”列、“Y”行から“text”に指定されたテキストの“char”文字分を表示するイベントである。尚、“X”、“Y”、“text”及び“char”は、イベント引数である。
イベント“allclear”は、テキスト表示画面W20内をクリアするイベントである。
イベント“rev_disp”は、テキスト表示画面W20の“X”列、“Y”行の文字から“char”文字分までを下線UL20によって特別表示させるイベントである。
イベント“bit_disp”は、“text”に指定された画像データを画像表示画面W30の“X”行、“Y”列に表示させるイベントである。
“end”は、タイマーの計時を終了し、音声が再生中であれば、再生中の音声を停止するイベントである。
第2実施形態において、英会話データ324は、テキスト同期情報324aと、音声情報ファイル324bとを有する。図12(b)は、第2実施形態に係る英会話データ324のデータ構成の一例を示す図である。
テキスト同期情報324aは、イベントを実行する順番を表すイベント番号とイベント情報とを格納するデータファイルである。イベント情報は、イベントを実行開始する時間を表すイベント実行時間と、イベント名と、イベントの実行に必要な情報であるイベント引数との3つの要素により構成される。図13(a)は、テキスト同期情報324aの一例を示す図である。
1行目の「file=onsei001.mp3」は、テキスト同期情報324aのヘッダ情報であり、テキスト同期情報324aに対応付けられている音声情報ファイル324bが「onsei001.mp3」であることを表している。
イベント番号“1”には、「time=00m25s,event=txt_disp,X=01,Y=01,char=09,text=“ABCDEFGHI”」というイベント情報が対応付けられている。このイベント情報は、イベント実行時間が25秒(time=00m25s)、イベント名が「txt_disp」、イベント引数が「X=01,Y=01,char=09,text=“ABCDEFGHI”」となる。これは、タイマー計時時間404が25秒となったら、テキスト表示画面W20の1行目(X=1)及び1列目(Y=1)からテキスト“ABCDEFGHI”(text=“ABCDEFGHI”)のうち9文字(char=09)を表示する(event=txt_disp)というイベントを表している。
また、イベント番号“4”には、「time=00m30s,event=rev_disp,X=01,Y=01,char=09」というイベント情報が対応付けられている。このイベント情報は、イベント実行時間30秒(time=00m30s)、イベント名が「rev_disp」、イベント引数が「X=01,Y=01,char=09」となる。これは、タイマー計時時間404が30秒となったら、テキスト表示画面W20の1行目及び2列目の文字から9文字目までを下線UL20によって特別表示するというイベントを表している。
テキスト同期情報324aの最後のイベント番号“15”には、「time=04m30s,event=end」というイベント情報が対応付けられている。このイベント情報は、イベント実行時間が4分30秒、イベント名が「end」となる。これは、タイマー計時時間404が4分30秒となったら、タイマーの計時を終了し、テキスト同期情報324aによるイベントが終了したことを表している。また、テキスト同期情報324aの最後のイベント実行時間は、音声総時間432となる。音声総時間432は、音声情報ファイル324bに基づいて再生出力される音声の全再生時間である。よって、図13(a)のテキスト同期情報324aにおいては、音声総時間432は4分30秒となる。
図13(b)は、音声情報ファイル324b「onsei001.mp3」の概念図の一例を表す図である。同図は、音声の再生開始から30秒後に「ABCDEFGHI」という歌詞の音声が再生出力されることを表している。また、音声の再生開始から40秒後、50秒後、3分10秒後、3分20秒後及び3分30秒後に音声情報ファイル324bに従った歌詞が再生出力され、4分30秒後には音声の再生出力が終了することを表している。
上述したようにテキスト同期情報324aには、音声情報ファイル324bが対応付けられている。テキスト同期情報324a内に定義されているテキストの内容は、音声情報ファイル324bに従って再生出力される音声の内容と同じである。例えば、タイマー計時時間404が25秒となったとき、テキスト同期情報324aに基づいて「ABCDEFGHI」がテキスト表示画面W20に表示される。その5秒後、即ちタイマー計時時間404が30秒となったとき、音声情報ファイル324bに従って「ABCDEFGHI」という音声が再生出力されるとともに、テキスト表示画面W20に表示されたテキスト「ABCDEFGHI」は下線UL20によって特別表示される。
このようにして、テキスト同期情報324aに対応した音声情報ファイル324bに基づいた音声を再生出力させるとともに、テキスト同期情報324aに従ってテキストの表示制御を行うことにより、再生出力される音声と同じ内容のテキストを当該音声に同期するように特別表示させることを実現する。
RAM42は、タイマー計時時間404と、イベントカウンタ426と、タップ位置428と、選択イベント実行時間430と、音声総時間432と、音声情報データ全容量434と、再生開始位置436とを記憶する。
イベントカウンタ426は、テキスト同期情報324aから読み出して実行するイベント情報のイベント番号である。イベントカウンタ426は、0以上の整数であり、CPU10によって、デクリメントされた際に負の整数となる場合は、“0”として設定される。
タップ位置428は、ユーザによってタップされた表示部80上の座標値である。
選択イベント実行時間430は、イベントカウンタ426により選択されるイベント情報のイベント実行時間である。具体的には、ユーザによって再生キーK24のタップ操作が為されると、CPU10は、タップ操作が為された時点におけるイベントカウンタ426と同一のイベント番号に対応するイベント情報をテキスト同期情報322aから読み出し、読み出したイベント情報のイベント実行時間を選択イベント実行時間430としてRAM42に記憶させる。
音声総時間432は、テキスト同期情報324a内の最後のイベント情報のイベント実行時間によって設定される。
音声情報データ全容量434は、音声情報ファイル324bを構成するヘッダ情報及び音声情報データのうち音声情報データ部分のみのデータ容量である。
再生開始位置436は、選択イベント実行時間430と、音声総時間432と、音声情報データ全容量434とによって算出される。具体的には、選択イベント実行時間430を音声総時間432で除算した値に音声情報データ全容量434を乗算した値を再生開始位置436とする。CPU10は、算出した再生開始位置436分までの音声情報データを読み飛ばした位置から音声の再生出力を行う。これにより、ユーザによって実行されたイベントにより表示されたテキストに同期するような音声の再生出力が実現される。
次に、電子辞書1の第2英会話視聴処理の動作について、図14に示すフローチャートを用いて以下に説明する。
先ず、ユーザによって英会話キー25aが押下されると、CPU10は、フラッシュROM32から第2英会話視聴プログラム222を読み出し、RAM42に展開することで第2英会話視聴処理を開始する。
第2英会話視聴処理を開始すると、CPU10は、画面の初期設定を行う(ステップS200)。具体的には、図15(a)に示すように、表示部80にテキスト表示画面W20と、巻き戻し(△)キーK20と、早送り(▽)キーK22と、再生(>)キーK24と、停止(□)キーK26とを表示させる。尚、巻き戻しキーK20、早送りキーK22、再生キーK24及び停止キーK26は、表示部80とは別の入力装置で実現することとしてもよい。
CPU10は、イベントカウンタ426を“0”に設定する(ステップS202)。そして、ユーザのタップ操作を検知するまで待機し(ステップS204)、タップ操作を検知すると(ステップS204:Yes)、タップされた表示部80上の座標値をタップ位置428としてRAM42に記憶させる。
そして、タップ位置428が巻き戻しキーK20の表示座標上であるかを判別する(ステップS206)。巻き戻しキーK20の表示座標上であると判別した場合は(ステップS206:Yes)、イベントカウンタ426をデクリメントする(ステップS238)。次いで、テキストや下線UL20等の直前のイベントの実行によって表示された表示内容を表示部80から消去して(ステップS240)、ステップS204の処理へ移行する。
ステップS206において、タップ位置428が巻き戻しキーK20の表示座標上でないと判別した場合(ステップS206:No)、CPU10は、タップ位置428が早送りキーK22の表示上であるか否かを判別する(ステップS208)。早送りキーK22の表示座標上であると判別した場合は(ステップS208:Yes)、イベントカウンタ426をインクリメントし(ステップS242)、イベントカウンタ426に対応するイベント情報のイベントを実行する(ステップS244)。具体的には、イベントカウンタ426と同じイベント番号のイベント情報をテキスト同期情報324aから読み出す。そして、読み出したイベント情報のイベント名に対応するイベントプログラム322に従った処理を実行する。CPU10は、ステップS244においてイベントを実行すると、ステップS204の処理へ移行する。
ステップS208において、タップ位置428が早送りキーK22の表示座標上でないと判別した場合(ステップS208:No)、CPU10は、タップ位置428が停止キーK26の表示座標上であるか否かを判別する(ステップS210)。停止キーK26の表示座標上であると判別した場合(ステップS210:Yes)、CPU10は、音声が再生中である場合は、再生中の音声を停止した後(ステップS246)、第2英会話視聴処理を終了する。
ステップS210において、タップ位置428が停止キーK26の表示座標上でないと判別した場合(ステップS210:No)、CPU10は、タップ位置428が再生キーK24の表示座標上であるか否かを判別する(ステップS212)。再生キーK24の表示座標上でないと判別した場合は(ステップS212:No)、ステップS204の処理へ移行する。
再生キーK24の表示座標上であると判別した場合(ステップS212:Yes)、CPU10は、再生開始指示が入力されたと判別し、イベントカウンタ426に対応するイベント情報を読み出した後、当該イベント情報の中からイベント実行時間を取得する。そして、取得したイベント実行時間を選択イベント実行時間430としてRAM42に記憶させる(ステップS214)。
次いで、CPU10は、テキスト同期情報324aの最後のイベント情報からイベント実行時間を読み出し、当該イベント実行時間を音声総時間432として検出する(ステップS216)。
次いで、音声情報ファイル324b内の音声情報データの全データ容量を検出し、検出したデータ容量を音声情報データ全容量434としてRAM42に記憶させる(ステップS218)。
CPU10は、選択イベント実行時間430、音声総時間432及び音声情報データ全容量434から再生開始位置436を算出する(ステップS220)。
そして、音声情報データを再生開始位置436まで読み飛ばした位置から音声の再生出力を開始する(ステップS222)。
CPU10は、タイマー計時時間404に選択イベント実行時間430を設定し(ステップS224)、タイマーの計時を開始する(ステップS226)。次いで、イベントカウンタ426をインクリメントした後(ステップS228)、ユーザのタップ操作を検知したか否かを判別する(ステップS230)。
タップ操作を検知した場合は(ステップS230:Yes)、ステップS206の処理へ移行する。また、タップ操作を検知しなかった場合(ステップS230:No)、CPU10は、タイマー計時時間404を読み出し(ステップS232)、当該タイマー計時時間404がイベントカウンタ426に対応するイベント情報のイベント実行時間に到達したかを判別する(ステップS234)。
イベント実行時間に到達したと判別した場合(ステップS234:Yes)、CPU10は、イベントカウンタ426に対応するイベント情報のイベントを実行し(ステップS236)、ステップS228の処理へ移行する。
図15及び16は、図13のテキスト同期情報324aと音声情報ファイル324bに従った具体的な表示画面の画面遷移の例を示す図であり、以下、ユーザの操作例と合わせて説明する。
先ず、ユーザは、英会話キー25aを押下すると、表示部80にテキスト表示画面W20、巻き戻しキーK20、早送りキーK22、再生キーK24及び停止キーK26が表示される(図14に示すステップS200に相当)。
そして、図15(a)のように早送りキーK22を1回タップすると、テキスト表示画面W20には、「ABCDEFGHI」というテキストが表示される(図15(b))。これは、CPU10によって、早送りキーK22のタップ操作が検知され、イベントカウンタ426が“1”となり、当該イベントカウンタ426に対応するイベント情報が読み出されて実行された結果である。(図14に示すステップS204→S206→S208→S240→S242に相当)。
図15(b)のように、更に早送りキーK22をタップすると、図15(c)のように、テキスト表示画面W20には、新たに「JKLMNOPQRS」といったテキストが表示されていく。このように、ユーザがタップする回数に応じてテキスト表示画面W20の表示が更新されていく。
ユーザが早送りキーK22を10回タップすると、図15(d)のようにテキスト表示画面W20には、表示されていたテキストの「jklmnopqrs」までが下線UL22によって特別表示される。
そして、巻き戻しキーK20を1回タップすると、テキスト「jklmnopqrs」上に表示されていた下線UL22がテキスト表示画面W20から消去される(図16(a))(図14に示すステップS206→S238→S240に相当)。
次いで、ユーザが、再生キーK24をタップすると、テキスト「jklmnopqrs」が下線UL22によって特別表示されると共に、テキスト「jklmnopqrs」を発音する音声が再生出力されていく(図16(b))(図14に示すステップS212→S214〜S230→S232→S234→S236に相当)。
ユーザが再生キーK24をタップしたとき、CPU10によって再生開始位置436が算出される。図16(a)においては、再生キーK24がタップされた時点のイベントカウンタ426は“11”である。イベントカウンタ426“11”に対応するイベント情報のイベント実行時間は“3分10秒(190秒)”であるので、CPU10により“3分10秒”が選択イベント実行時間430として設定される。次いで、テキスト同期情報324aの最後のイベント情報から音声総時間432である“4分30秒(270秒)”が検出される。また、図13(b)の音声情報ファイル324bにおいては、音声情報データ全容量434が“5Mbyte”と検出される。従って、再生開始位置436は、(190/270)×5Mによって算出され、“3.518Mbyte”となる。よって、CPU10によって音声情報ファイル324bの音声情報データを“3.518Mbyte”分読み飛ばした位置から再生出力が開始される共に、イベントカウンタ426の値“11”をインクリメントしたイベント番号“12”に対応するイベント(テキスト「jklmnopqrs」の特別表示)が実行される。
ユーザは、停止キーK26をタップすることで再生出力される音声を停止させる(図16(c))(図16に示すステップS210→S244に相当)。
以上、第2実施形態によれば、ユーザが早送りキー及び巻き戻しキーをタップすると、当該タップの回数に応じて、テキストが表示されていく。ユーザは、所望のテキストを表示させ、再生キーをタップすると、テキスト同期情報324aに従ってテキストが順次特別表示されると共に、当該テキストの表示に同期するようにテキストの内容を表す音声が再生出力されていく。これにより、ユーザは、早送りキー及び巻き戻しキーの操作によって、聞きたい音声のテキストを表示させ、表示させたテキストに対応する音声から再生出力させることができる。また、再生出力される音声に同期するようにテキストが特別表示されていくため、ユーザは、特別表示によって再生出力されている音声の内容を簡単に確認することができる。従って、所望のテキストを表示させるといった簡単な操作によって再生開始位置を指定でき、操作性を向上させたテキスト同期音声再生制御装置を実現することができる。
尚、第2実施形態において、テキスト同期情報324aはテキストの表示を制御するものとして説明したが、テキスト同期情報によって画像を表示する制御を行ってもよい。例えば、画像の表示を実現するために、イベント“bit_disp”を使用し、画像データを英会話データ324に含めてフラッシュROM32に記憶する。
図14に、イベント“bit_disp”を使用したテキスト同期情報324cの一例を示す。同図によれば、イベント番号“1”に対応するイベント情報として「time=00m24s,event=bit_disp,X=01,Y=01,text“<a href=“gazou.jpg”>”」が記憶されている。このイベント情報は、イベント実行時間が24秒のとき、画像データ「gazou.jpg」に基づいた画像を画像表示画面W30の1行目(X=01)、1列目(Y=01)に表示させる(event=bit_disp)ことを表している。
図18は、音声の再生開始時刻からの計時時間を表示する時間カウンタ912と、再生キー、停止キー、早送りキー及び巻き戻しキーにより再生開始位置を制御するための再生制御装置とを設け、図17のテキスト同期情報324cに従った具体的な表示画面の画面遷移の例を示す図である。以下、ユーザの操作例と合わせて説明する。
ユーザが英会話キー25aを押下した後、再生キーを押下すると、時間カウンタの計時時間が計時されていくと共に、音声情報ファイル324bに基づいた音声の再生出力が開始される。そして、計時時間が24秒となると、表示部80の画像表示画面W30には、画像データ「gazou.jpg」に基づいた画像が表示される(図18(a))。これは、テキスト同期情報324cのイベント番号“1”のイベント情報に従った処理(「gazou.jpg」に基づく画像の表示)の結果である。
そして、再生時間が25秒となると、表示部80のテキスト表示画面W32にテキスト
「ABCDEFGHI」が表示される(図18(b))。これは、テキスト同期情報324cのイベント番号“2”のイベント情報に従った処理(テキスト「ABCDEFGHI」の表示)の結果である。
そして、テキスト同期情報324cに従って、図18(c)のようにテキストが表示されていく。計時時間が30秒となると、表示されたテキストの「ABCDEFGHI」が下線UL30によって特別表示される(図18(d))。これは、テキスト同期情報324cのイベント番号“8”のイベント情報に従った処理(1行目、1列目のテキストから9文字までを特別表示)の結果である。
以上のように、テキスト同期情報324cに画像を表示するイベント情報を使用することで、テキストと画像の両方を表示させることができる。また、画像を表示するためのイベント情報を再生出力される音声に同期するようにテキスト同期情報324cに定義することで、再生出力される音声に同期した画像表示が可能となる。
このように、テキスト同期情報に予め定義するイベント情報は、テキストの表示のみに限られるものではなく、電子辞書1で実現できるイベントであれば、適宜追加、変更して適用してよい。
尚、2つの実施形態では、再生出力される音声に同期するようにテキストを表示することとして説明したが、例えば、楽曲を再生出力すると共に、当該楽曲の楽譜を表示させ、楽曲の再生に同期するように楽譜上の音符の表示色を変更して特別表示させるとしてよい。ユーザは、特別表示されていく音符によって、再生出力されている楽曲がどのような音程やリズムで構成されているのかを知ることができる。
また、2つの実施形態では電子辞書を適用例として説明したが、このような製品に限定されず、携帯電話、パソコン、電子時計などの電子機器に適用可能である。
(a)は電子辞書の概観図の一例、(b)は電子辞書のキー配列の一例を示す図。 電子辞書の機能構成を示すブロック図。 第1実施形態の(a)はROMの構成、(b)はフラッシュメモリの構成、(c)はRAMの構成を示す図。 (a)はプログラムコマンドの制御内容を説明するための図、(b)は英会話データのデータ構成の一例を示す図。 (a)はタイムイコードファイルのデータ構成の一例を示す図、(b)はテキストファイルのデータ構成の一例を示す図。 (a)は第2テキストデータのデータ構成の一例を示す図、(b)は音声情報ファイルのデータ構成の一例を示す図、(c)は第2音声情報データの概念図。 (a)はタイムコード表示範囲の一例を示す図、(b)は反復範囲タイムコードの一例を示す図。 第1実施形態における第1英会話視聴処理を説明するためのフローチャート。 第1実施形態における電子辞書の画面例を示す第1の図。 第1実施形態における電子辞書の画面例を示す第2の図。 第2実施形態の(a)はROMの構成、(b)はフラッシュメモリの構成、(c)はRAMの構成を示す図。 (a)はイベントコマンドの制御内容を説明するための図、(b)は英会話データのデータ構成の一例を示す図。 (a)はテキスト同期情報のデータ構成の一例を示す図、(b)は音声情報ファイルの概念図。 第2実施形態における第2英会話視聴処理を説明するためのフローチャート。 第2実施形態における電子辞書の画面例を示す第1の図。 第2実施形態における電子辞書の画面例を示す第2の図。 第2実施形態の変形例におけるテキスト同期情報のデータ構成の一例を示す図。 第2実施形態の変形例における電子辞書の画面例を示す図。
符号の説明
1 電子辞書
3 ディスプレイ
5 各種キー群
23 カーソルキー
25 モードキー
25a 英会話キー
25b 英和キー
27 文字入力キー
29 決定キー
7 コネクタ
9 スロット
11 メモリカード
15 パソコン
17 ケーブル
21 タッチパネル
50 音声再生装置
52 スピーカ
60 通信装置
70 入力部
80 表示部
90 位置検出装置
92 タブレット
100 記憶媒体読取部
110 バス

Claims (9)

  1. テキストと当該テキストの内容に関する一連の音声データとを記憶し、当該音声データの再生出力に沿って当該テキストを所定形式で順次表示させることによりテキストの表示と音声の再生出力とを同期させる制御を行うテキスト同期音声再生制御装置において、
    表示されたテキストの部分を指定する部分指定手段と、
    この部分指定手段により指定された部分の前記テキスト中の位置に基づいて音声データの再生開始位置を決定し、決定した再生開始位置から音声データの再生出力を開始する制御を行う音声再生開始制御手段と、
    を備えることを特徴とするテキスト同期音声再生制御装置。
  2. 前記テキストを表示させた後、表示させたテキストを順次特別表示させる制御を行うことにより前記テキストの前記所定形式での順次表示を行う順次表示制御手段を更に備え、
    前記音声再生開始制御手段は、前記指定された部分から前記順次表示制御手段に順次特別表示させる制御を行わせる表示開始制御手段を有する、
    ことを特徴とする請求項1に記載のテキスト同期音声再生制御装置。
  3. 前記テキストを構成する文字列に対応づけて、当該文字列が順次表示されるタイミングの情報を記憶するタイミング記憶手段を更に備え、
    前記音声再生開始制御手段は、前記指定された部分の文字列に対応づけて前記タイミング記憶手段に記憶されたタイミングの情報に基づいて、音声データの再生開始位置を決定する決定手段を有する、
    ことを特徴とする請求項1又は2に記載のテキスト同期音声再生制御装置。
  4. 前記タイミング記憶手段は、前記テキストを構成する文字列が順次表示された際に、その順次表示されたタイミングの情報を、当該文字列の表示位置と対応づけて記憶する表示位置対応記憶手段を有し、
    前記決定手段は、前記指定された部分の文字列の表示位置に対応づけて前記表示位置対応記憶手段に記憶されたタイミングの情報に基づいて、音声データの再生開始位置を決定する表示位置基準決定手段を有する、
    ことを特徴とする請求項3に記載のテキスト同期音声再生制御装置。
  5. 前記表示されたテキストの中から、開始文字列と終了文字列とが定まることにより特定される反復範囲を指定する反復範囲指定手段と、
    この反復範囲指定手段により指定された反復範囲の開始文字列及び終了文字列の前記テキスト中の位置に基づいて音声データの再生開始位置及び再生終了位置を決定し、決定した再生開始位置から再生終了位置まで、音声データの再生出力を繰り返し行う制御をする反復制御手段と、
    を更に備えたことを特徴とする請求項1〜4の何れか一項に記載のテキスト同期音声再生制御装置。
  6. テキストと、当該テキストの内容に関する一連の音声データと、当該テキストを構成する文字列を当該音声データの再生出力に沿って所定形式で順次表示させたときの当該各文字列の表示タイミングの情報とを記憶する記憶手段と、
    前記テキストを構成する文字列を、ユーザ操作に従って順次表示する順次表示操作手段と、
    再生開始指示を入力する再生開始指示入力手段と、
    この再生開始指示入力手段により再生開始指示が入力された際に、前記順次表示操作手段によって順次表示されていた文字列の前記表示タイミングの情報に基づいて前記音声データの再生開始位置を決定し、決定した再生開始位置から音声データの再生出力を開始する制御を行う音声再生開始制御手段と、
    を備えることを特徴とするテキスト同期音声再生制御装置。
  7. 前記音声再生開始制御手段は、前記表示タイミングの情報に加えて、更に前記音声データのデータ量に基づいて、前記音声データの再生を開始するデータの位置を算出することで再生開始位置を決定する算出手段を有することを特徴とする請求項6に記載のテキスト同期音声再生制御装置。
  8. コンピュータに、
    テキストと当該テキストの内容に関する一連の音声データとを記憶させ、当該音声データの再生出力に沿って当該テキストを所定形式で順次表示させることによりテキストの表示と音声の再生出力とを同期させる制御を行わせるためのプログラムであって、
    表示されたテキストの部分を指定する部分指定機能と、
    この部分指定機能により指定された部分の前記テキスト中の位置に基づいて音声データの再生開始位置を決定し、決定した再生開始位置から音声データの再生出力を開始する制御を行う音声再生開始制御機能と、
    を実現させるためのプログラム。
  9. コンピュータに、
    テキストと、当該テキストの内容に関する一連の音声データと、当該テキストを構成する文字列を当該音声データの再生出力に沿って所定形式で順次表示させたときの当該各文字列の表示タイミングの情報とを記憶する記憶機能と、
    前記テキストを構成する文字列を、ユーザ操作に従って順次表示する順次表示操作機能と、
    再生開始指示を入力する再生開始指示入力機能と、
    この再生開始指示入力機能により再生開始指示が入力された際に、前記順次表示操作機能によって順次表示されていた文字列の前記表示タイミングの情報に基づいて前記音声データの再生開始位置を決定し、決定した再生開始位置から音声データの再生出力を開始する制御を行う音声再生開始制御機能と、
    を実現させるためのプログラム。
JP2003429757A 2003-12-25 2003-12-25 テキスト同期音声再生制御装置及びプログラム Pending JP2005189454A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003429757A JP2005189454A (ja) 2003-12-25 2003-12-25 テキスト同期音声再生制御装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003429757A JP2005189454A (ja) 2003-12-25 2003-12-25 テキスト同期音声再生制御装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2005189454A true JP2005189454A (ja) 2005-07-14

Family

ID=34788323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003429757A Pending JP2005189454A (ja) 2003-12-25 2003-12-25 テキスト同期音声再生制御装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2005189454A (ja)

Cited By (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008096902A1 (en) * 2007-02-07 2008-08-14 Sharp Kabushiki Kaisha Computer-implemented learning method and apparatus
JP2008204216A (ja) * 2007-02-21 2008-09-04 Dainippon Printing Co Ltd 端末装置、それに用いられるプログラム及び情報処理システム
JP2009122581A (ja) * 2007-11-19 2009-06-04 Kaori Otomo 単語学習装置、対話型学習システムおよび単語学習プログラム
JP2010085727A (ja) * 2008-09-30 2010-04-15 Casio Computer Co Ltd 辞書機能を備えた電子装置およびプログラム
KR101030777B1 (ko) * 2010-11-10 2011-05-25 김인송 스크립트 데이터 생성 방법 및 장치
KR101069156B1 (ko) * 2010-04-05 2011-09-30 박인숙 문서 데이터를 이용한 음성 출력 제어 장치 및 방법
JP2012220510A (ja) * 2011-04-04 2012-11-12 Brother Ind Ltd 再生方法切替装置、再生方法切替方法及びプログラム
KR101326275B1 (ko) * 2011-07-29 2013-11-11 김희곤 문자 및 음성 동기화 출력 장치
WO2013176366A1 (en) * 2012-05-21 2013-11-28 Lg Electronics Inc. Method and electronic device for easy search during voice record
JP2014514645A (ja) * 2011-03-23 2014-06-19 オーディブル・インコーポレイテッド 同期されたコンテンツの再生管理
JP2014519058A (ja) * 2011-06-03 2014-08-07 アップル インコーポレイテッド テキストデータとオーディオデータとの間のマッピングの自動作成
US8948892B2 (en) 2011-03-23 2015-02-03 Audible, Inc. Managing playback of synchronized content
US9099089B2 (en) 2012-08-02 2015-08-04 Audible, Inc. Identifying corresponding regions of content
US9141257B1 (en) 2012-06-18 2015-09-22 Audible, Inc. Selecting and conveying supplemental content
WO2015194423A1 (ja) * 2014-06-17 2015-12-23 ヤマハ株式会社 文字に基づく音声生成のためのコントローラ及びシステム
US9223830B1 (en) 2012-10-26 2015-12-29 Audible, Inc. Content presentation analysis
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9280906B2 (en) 2013-02-04 2016-03-08 Audible. Inc. Prompting a user for input during a synchronous presentation of audio content and textual content
US9317486B1 (en) 2013-06-07 2016-04-19 Audible, Inc. Synchronizing playback of digital content with captured physical content
US9317500B2 (en) 2012-05-30 2016-04-19 Audible, Inc. Synchronizing translated digital content
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9367196B1 (en) 2012-09-26 2016-06-14 Audible, Inc. Conveying branched content
US9472113B1 (en) 2013-02-05 2016-10-18 Audible, Inc. Synchronizing playback of digital content with physical content
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9489360B2 (en) 2013-09-05 2016-11-08 Audible, Inc. Identifying extra material in companion content
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US9536439B1 (en) 2012-06-27 2017-01-03 Audible, Inc. Conveying questions with content
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US9632647B1 (en) 2012-10-09 2017-04-25 Audible, Inc. Selecting presentation positions in dynamic content
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9679608B2 (en) 2012-06-28 2017-06-13 Audible, Inc. Pacing content
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US9703781B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Managing related digital content
US9706247B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Synchronized digital content samples
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9734153B2 (en) 2011-03-23 2017-08-15 Audible, Inc. Managing related digital content
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9760920B2 (en) 2011-03-23 2017-09-12 Audible, Inc. Synchronizing digital content
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9792027B2 (en) 2011-03-23 2017-10-17 Audible, Inc. Managing playback of synchronized content
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
CN109686366A (zh) * 2018-12-12 2019-04-26 珠海格力电器股份有限公司 语音播报方法和装置
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10568032B2 (en) 2007-04-03 2020-02-18 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10607141B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US11069347B2 (en) 2016-06-08 2021-07-20 Apple Inc. Intelligent automated assistant for media exploration
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6373360A (ja) * 1986-09-16 1988-04-02 Brother Ind Ltd イントネ−シヨン情報付き例文表示装置
JPH11338483A (ja) * 1998-05-29 1999-12-10 Ntt Chubu Telecom Kk カラオケ練習システムおよび記憶媒体
JP2000330577A (ja) * 1999-05-20 2000-11-30 Daiichikosho Co Ltd 演奏再開制御に特徴を有するカラオケ装置
JP2001324916A (ja) * 2000-05-15 2001-11-22 Vlc Co Ltd 語学学習システム
JP2002318580A (ja) * 2001-04-23 2002-10-31 Sony Corp 音声再生装置、音声再生方法、音声再生プログラム、音声再生プログラム格納媒体、およびデータ格納媒体
JP2003241798A (ja) * 2002-02-22 2003-08-29 Sanyo Electric Co Ltd 情報再生装置および情報再生方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6373360A (ja) * 1986-09-16 1988-04-02 Brother Ind Ltd イントネ−シヨン情報付き例文表示装置
JPH11338483A (ja) * 1998-05-29 1999-12-10 Ntt Chubu Telecom Kk カラオケ練習システムおよび記憶媒体
JP2000330577A (ja) * 1999-05-20 2000-11-30 Daiichikosho Co Ltd 演奏再開制御に特徴を有するカラオケ装置
JP2001324916A (ja) * 2000-05-15 2001-11-22 Vlc Co Ltd 語学学習システム
JP2002318580A (ja) * 2001-04-23 2002-10-31 Sony Corp 音声再生装置、音声再生方法、音声再生プログラム、音声再生プログラム格納媒体、およびデータ格納媒体
JP2003241798A (ja) * 2002-02-22 2003-08-29 Sanyo Electric Co Ltd 情報再生装置および情報再生方法

Cited By (170)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
WO2008096902A1 (en) * 2007-02-07 2008-08-14 Sharp Kabushiki Kaisha Computer-implemented learning method and apparatus
JP2008204216A (ja) * 2007-02-21 2008-09-04 Dainippon Printing Co Ltd 端末装置、それに用いられるプログラム及び情報処理システム
US10568032B2 (en) 2007-04-03 2020-02-18 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
JP2009122581A (ja) * 2007-11-19 2009-06-04 Kaori Otomo 単語学習装置、対話型学習システムおよび単語学習プログラム
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US10381016B2 (en) 2008-01-03 2019-08-13 Apple Inc. Methods and apparatus for altering audio output signals
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US10108612B2 (en) 2008-07-31 2018-10-23 Apple Inc. Mobile device having human language translation capability with positional feedback
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
JP2010085727A (ja) * 2008-09-30 2010-04-15 Casio Computer Co Ltd 辞書機能を備えた電子装置およびプログラム
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US10475446B2 (en) 2009-06-05 2019-11-12 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US9548050B2 (en) 2010-01-18 2017-01-17 Apple Inc. Intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US11410053B2 (en) 2010-01-25 2022-08-09 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10607140B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10607141B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10984326B2 (en) 2010-01-25 2021-04-20 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10984327B2 (en) 2010-01-25 2021-04-20 New Valuexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
KR101069156B1 (ko) * 2010-04-05 2011-09-30 박인숙 문서 데이터를 이용한 음성 출력 제어 장치 및 방법
WO2012064110A2 (ko) * 2010-11-10 2012-05-18 Lim Kwang-Soon 스크립트 데이터 생성 방법 및 장치
CN103210447A (zh) * 2010-11-10 2013-07-17 任矿淳 脚本数据生成方法及装置
KR101030777B1 (ko) * 2010-11-10 2011-05-25 김인송 스크립트 데이터 생성 방법 및 장치
WO2012064110A3 (ko) * 2010-11-10 2012-07-12 Lim Kwang-Soon 스크립트 데이터 생성 방법 및 장치
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
JP2014514645A (ja) * 2011-03-23 2014-06-19 オーディブル・インコーポレイテッド 同期されたコンテンツの再生管理
US8948892B2 (en) 2011-03-23 2015-02-03 Audible, Inc. Managing playback of synchronized content
US9734153B2 (en) 2011-03-23 2017-08-15 Audible, Inc. Managing related digital content
US9706247B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Synchronized digital content samples
US9792027B2 (en) 2011-03-23 2017-10-17 Audible, Inc. Managing playback of synchronized content
US9760920B2 (en) 2011-03-23 2017-09-12 Audible, Inc. Synchronizing digital content
US9703781B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Managing related digital content
JP2012220510A (ja) * 2011-04-04 2012-11-12 Brother Ind Ltd 再生方法切替装置、再生方法切替方法及びプログラム
JP2014519058A (ja) * 2011-06-03 2014-08-07 アップル インコーポレイテッド テキストデータとオーディオデータとの間のマッピングの自動作成
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US11120372B2 (en) 2011-06-03 2021-09-14 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10672399B2 (en) 2011-06-03 2020-06-02 Apple Inc. Switching between text data and audio data based on a mapping
KR101326275B1 (ko) * 2011-07-29 2013-11-11 김희곤 문자 및 음성 동기화 출력 장치
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US9514749B2 (en) 2012-05-21 2016-12-06 Lg Electronics Inc. Method and electronic device for easy search during voice record
WO2013176366A1 (en) * 2012-05-21 2013-11-28 Lg Electronics Inc. Method and electronic device for easy search during voice record
US9317500B2 (en) 2012-05-30 2016-04-19 Audible, Inc. Synchronizing translated digital content
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US9141257B1 (en) 2012-06-18 2015-09-22 Audible, Inc. Selecting and conveying supplemental content
US9536439B1 (en) 2012-06-27 2017-01-03 Audible, Inc. Conveying questions with content
US9679608B2 (en) 2012-06-28 2017-06-13 Audible, Inc. Pacing content
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9799336B2 (en) 2012-08-02 2017-10-24 Audible, Inc. Identifying corresponding regions of content
US10109278B2 (en) 2012-08-02 2018-10-23 Audible, Inc. Aligning body matter across content formats
US9099089B2 (en) 2012-08-02 2015-08-04 Audible, Inc. Identifying corresponding regions of content
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9367196B1 (en) 2012-09-26 2016-06-14 Audible, Inc. Conveying branched content
US9632647B1 (en) 2012-10-09 2017-04-25 Audible, Inc. Selecting presentation positions in dynamic content
US9223830B1 (en) 2012-10-26 2015-12-29 Audible, Inc. Content presentation analysis
US9280906B2 (en) 2013-02-04 2016-03-08 Audible. Inc. Prompting a user for input during a synchronous presentation of audio content and textual content
US9472113B1 (en) 2013-02-05 2016-10-18 Audible, Inc. Synchronizing playback of digital content with physical content
US9317486B1 (en) 2013-06-07 2016-04-19 Audible, Inc. Synchronizing playback of digital content with captured physical content
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10657961B2 (en) 2013-06-08 2020-05-19 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US9489360B2 (en) 2013-09-05 2016-11-08 Audible, Inc. Identifying extra material in companion content
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10497365B2 (en) 2014-05-30 2019-12-03 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
WO2015194423A1 (ja) * 2014-06-17 2015-12-23 ヤマハ株式会社 文字に基づく音声生成のためのコントローラ及びシステム
EP3159892A4 (en) * 2014-06-17 2018-03-21 Yamaha Corporation Controller and system for voice generation based on characters
JPWO2015194423A1 (ja) * 2014-06-17 2017-04-20 ヤマハ株式会社 文字に基づく音声生成のためのコントローラ及びシステム
US10192533B2 (en) 2014-06-17 2019-01-29 Yamaha Corporation Controller and system for voice generation based on characters
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10431204B2 (en) 2014-09-11 2019-10-01 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US11556230B2 (en) 2014-12-02 2023-01-17 Apple Inc. Data detection
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US11087759B2 (en) 2015-03-08 2021-08-10 Apple Inc. Virtual assistant activation
US10311871B2 (en) 2015-03-08 2019-06-04 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US11500672B2 (en) 2015-09-08 2022-11-15 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US11526368B2 (en) 2015-11-06 2022-12-13 Apple Inc. Intelligent automated assistant in a messaging environment
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11069347B2 (en) 2016-06-08 2021-07-20 Apple Inc. Intelligent automated assistant for media exploration
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US11037565B2 (en) 2016-06-10 2021-06-15 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US11152002B2 (en) 2016-06-11 2021-10-19 Apple Inc. Application integration with a digital assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
CN109686366A (zh) * 2018-12-12 2019-04-26 珠海格力电器股份有限公司 语音播报方法和装置

Similar Documents

Publication Publication Date Title
JP2005189454A (ja) テキスト同期音声再生制御装置及びプログラム
CN104239392A (zh) 与显示内容关联地记录音频
US20050257667A1 (en) Apparatus and computer program for practicing musical instrument
KR101789057B1 (ko) 시각 장애인을 위한 자동 오디오 북 시스템 및 그 운영 방법
JP5549521B2 (ja) 音声合成装置およびプログラム
JPH11202857A (ja) 楽譜表示装置及び方法並びに記憶媒体
JP2009230006A (ja) 演奏情報表示装置およびプログラム
JP2017032693A (ja) 映像記録再生装置
JP4769611B2 (ja) 音声データ再生装置および音声データ再生装置のデータ表示方法
JP3759919B2 (ja) 外国語学習プログラム及び外国語学習装置
JP2007219218A (ja) 語学学習用電子機器および訳文再生方法
JP5375868B2 (ja) 再生方法切替装置、再生方法切替方法及びプログラム
JP2006267881A (ja) 電子学習装置
JP5935815B2 (ja) 音声合成装置およびプログラム
JP2007219219A (ja) 語学学習用電子機器および学習用文章リスト作成方法
JP7424361B2 (ja) 演奏装置、電子楽器、演奏フレーズ決定方法及びプログラム
JP2006208866A (ja) 再生装置
JP4591481B2 (ja) 表示制御装置および表示制御処理プログラム
JP6149917B2 (ja) 音声合成装置および音声合成方法
JP4087101B2 (ja) 情報処理装置、情報処理装置の制御方法、情報処理装置の制御プログラム、情報処理装置の制御プログラムを記録した記録媒体及び情報記録装置のデータ記録方法
JP6752046B2 (ja) 電子機器、その制御方法および制御プログラム
JP4389753B2 (ja) 音楽情報表示編集装置及びプログラム
KR100216297B1 (ko) 디지탈 전자악기의 악보표시장치 및 방법
JP2004302285A (ja) 情報出力装置、情報出力プログラム
KR100389451B1 (ko) 저장된 질의/응답문의 재생을 통한 학습 보조 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100413