JP2011233047A - Electronic book device, reproducing method for electronic book and reproducing program for electronic book - Google Patents

Electronic book device, reproducing method for electronic book and reproducing program for electronic book Download PDF

Info

Publication number
JP2011233047A
JP2011233047A JP2010104493A JP2010104493A JP2011233047A JP 2011233047 A JP2011233047 A JP 2011233047A JP 2010104493 A JP2010104493 A JP 2010104493A JP 2010104493 A JP2010104493 A JP 2010104493A JP 2011233047 A JP2011233047 A JP 2011233047A
Authority
JP
Japan
Prior art keywords
sound data
sound
electronic book
reproduction
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010104493A
Other languages
Japanese (ja)
Other versions
JP5213273B2 (en
Inventor
Natsuki Ushigome
夏樹 牛込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010104493A priority Critical patent/JP5213273B2/en
Priority to PCT/JP2011/001128 priority patent/WO2011135770A1/en
Publication of JP2011233047A publication Critical patent/JP2011233047A/en
Application granted granted Critical
Publication of JP5213273B2 publication Critical patent/JP5213273B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/062Combinations of audio and printed presentations, e.g. magnetically striped cards, talking books, magnetic tapes with printed texts thereon
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic book device capable of reproducing sound data expressively as intended by a writer.SOLUTION: An electronic book device 100 for reading and reproducing electronic book data including text data having information on character strings that construct sentences and sound data corresponding to the text data comprises an attention position estimating section 40 for estimating an attention position in the text data and a sound data reproducing control section 50 for determining a reproducing form of sound data on the basis of a sound data type. The sound data reproducing control section 50 controls the sound data corresponding to the text data of the attention position estimated by the attention position estimating section 40 so as to reproduce the data in the determined reproducing form.

Description

本発明は、電子書籍装置、電子書籍再生方法、及び電子書籍再生プログラムに関する。特に、文章を構成する文字列の情報を含む本文データと、前記本文データとの関連付けが可能な音データとを組み合わせて構成される電子書籍の情報を読み込んで再生する電子書籍装置に関する。   The present invention relates to an electronic book device, an electronic book reproduction method, and an electronic book reproduction program. In particular, the present invention relates to an electronic book device that reads and reproduces information of an electronic book configured by combining text data including information on character strings constituting a sentence and sound data that can be associated with the text data.

電子書籍装置に関する従来技術としては、例えば特許文献1、特許文献2、特許文献3に開示された技術が知られている。電子書籍は、例えば特許文献3に示されているように、本文データ、音声/効果音データ、画像データなどを一体化した情報コンテンツである場合が多い。   For example, techniques disclosed in Patent Document 1, Patent Document 2, and Patent Document 3 are known as conventional techniques related to electronic book devices. For example, as disclosed in Patent Document 3, an electronic book is often information content in which text data, audio / sound effect data, image data, and the like are integrated.

このような電子書籍を再生する場合には、一般的に紙の書籍の場合と同様に頁単位で管理し、ユーザがこの書籍を読めるように、1頁毎にコンテンツの文章や画像を可視情報として所定の画面に表示し、必要に応じて音も出力する。   When reproducing such an electronic book, generally, it is managed in units of pages as in the case of paper books, and the text and images of the contents are visible information for each page so that the user can read the book. Is displayed on a predetermined screen, and a sound is also output if necessary.

特許文献1においては、電子書籍の頁めくりを自動化する技術を開示している。具体的には、ユーザが該当する1頁を読み終えるのに必要な時間の長さを電子書籍の各頁にある文章の文字数や図形数に基づいて算出し、ユーザが該当する1頁を読み終えたと推定されるタイミングで、表示する頁を次の頁に自動的に移動する(自動頁めくり)。   Patent Document 1 discloses a technique for automating page turning of an electronic book. Specifically, the length of time required for the user to finish reading the corresponding page is calculated based on the number of characters and figures in the text on each page of the electronic book, and the user reads the corresponding page. The page to be displayed is automatically moved to the next page (automatic page turning) at the timing estimated to be finished.

特許文献2においては、電子書籍の文章や画像と、画像、音楽データを関連付け、関連付けられている文章や画像を選択すると、関連付けられているコンテンツを再生することを開示している。   Japanese Patent Application Laid-Open No. 2004-228561 discloses that an associated text or image is associated with an image or music data, and when the associated text or image is selected, the associated content is reproduced.

特許文献3においては、ユーザが読んでいると予想される位置(行など)を、下線や文字を太字にすることで表示しつつ、該当する位置に音声/効果音データや画像が指定されていた場合に、それを再生し表示することを開示している。   In Patent Document 3, a position (line or the like) expected to be read by the user is displayed by making an underline or a character bold, and audio / sound effect data or an image is designated at the corresponding position. It is disclosed that it is played back and displayed in the case of a failure.

特開平6−231187号公報JP-A-6-231187 特開平8−106472号公報JP-A-8-106472 特開2006−331257号公報JP 2006-331257 A

特許文献2の技術を採用すれば、電子書籍内の文章や画像に音データのコンテンツを関連付けることができる。また、特許文献1や特許文献3の技術を採用すれば、ユーザが読んでいると予想される位置を自動的に算出し、この位置をユーザに分かりやすく自動で表示することができる。また、特許文献3の技術では、到達した位置に基づいて音声/効果音を再生することができる。   If the technique of Patent Document 2 is adopted, the content of sound data can be associated with texts and images in the electronic book. Further, if the techniques of Patent Literature 1 and Patent Literature 3 are employed, a position expected to be read by the user can be automatically calculated, and this position can be automatically displayed to the user in an easily understandable manner. Also, with the technology of Patent Document 3, it is possible to reproduce sound / sound effects based on the reached position.

音声や効果音のような音データを併用することにより、紙の書籍と比べてより豊かな表現が可能になる。すなわち、書籍の著作者が意図している情景などを音で直接的に読者に伝えることが可能になる。しかしながら、従来技術では、音データの再生を開始する位置が制御できるだけなので、著作者が意図しているであろう細かい表現や、読者の様々な状況に対して音の再生機能が十分でない。   By using sound data such as sound and sound effects in combination, richer expressions are possible compared to paper books. In other words, it is possible to directly convey to the reader a sound or the like intended by the book author. However, in the prior art, since the position where the reproduction of the sound data is started can only be controlled, the sound reproduction function is not sufficient for various expressions that the author intends and various situations of the reader.

例えば、電子書籍の文章に合わせて音楽(BGM)のような背景音を出力しようとする場合に、該当する文章の長さと背景音の長さとが時間的に一致していない場合には、文章が想定している場面と背景音とが一致しない状況も発生するので、著作者の意図を正しく反映できない。   For example, when a background sound such as music (BGM) is to be output in accordance with the text of an electronic book, if the length of the corresponding text does not coincide with the length of the background sound, the text Because the situation that does not match the background sound and the background sound may occur, the intention of the author cannot be correctly reflected.

また、例えば、背景音等を出力する時には、読者が文章を読む速度が変化すると考えられるので、読む速度が一定であることを想定して位置を推定すると、読者が実際に注目している位置と推定した位置との間に大きなずれが発生する可能性が高い。   Also, for example, when outputting background sounds, it is considered that the speed at which the reader reads the text changes, so if the position is estimated assuming that the reading speed is constant, the position that the reader is actually paying attention to There is a high possibility that a large deviation occurs between the estimated position and the estimated position.

しかも、電子書籍に関連付けられる音データについては、実際には音声(セリフ、本文の朗読)、効果音、背景音(BGM)など様々な種類が考えられる為、再生制御を背景音に対して最適化すると、他の音声や効果音については不適切な再生制御が行われる可能性が高い。   In addition, for sound data associated with e-books, there are actually various types of sounds such as speech (speech, reading of text), sound effects, and background sounds (BGM), so playback control is optimal for background sounds. In other words, there is a high possibility that inappropriate playback control is performed for other sounds and sound effects.

本発明は、上記事情に鑑みてなされたものであって、著者が意図するよう表現力豊かに音データを再生することが可能な電子書籍装置、電子書籍再生方法、及び電子書籍再生プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an electronic book device, an electronic book reproduction method, and an electronic book reproduction program capable of reproducing sound data rich in expressiveness as intended by the author The purpose is to do.

本発明の電子書籍装置は、文章を構成する文字列の情報を含む本文データと、前記本文データに対応する音データと、を含む電子書籍のデータを読み込んで再生する電子書籍装置であって、前記本文データ中の注目位置を推定する注目位置推定部と、前記音データの種別に基づいて、前記音データの再生形態を決定する音データ再生形態決定部と、前記注目位置推定部により推定された注目位置の前記本文データに対応する前記音データを、前記音データ再生形態決定部により決定された再生形態で再生するよう制御する音データ再生制御部と、を備える。   An electronic book device according to the present invention is an electronic book device that reads and reproduces data of an electronic book including text data including character string information constituting a sentence and sound data corresponding to the text data, Estimated by an attention position estimation unit that estimates an attention position in the text data, a sound data reproduction form determination unit that determines a reproduction form of the sound data based on the type of the sound data, and the attention position estimation part. A sound data reproduction control unit that controls to reproduce the sound data corresponding to the body data at the target position in the reproduction form determined by the sound data reproduction form determination unit.

この電子書籍装置によれば、様々な種別の音データが混在する電子書籍を再生する場合であっても、それぞれの音データを最適な条件で再生することが可能になる。従って、著者が意図するよう表現力豊かに音データを再生できる。   According to this electronic book apparatus, even when an electronic book in which various types of sound data are mixed is reproduced, the respective sound data can be reproduced under optimum conditions. Therefore, sound data can be reproduced with rich expressiveness as intended by the author.

また、本発明の電子書籍装置は、前記音データ再生形態決定部が、前記音データの種別として、背景音、効果音、台詞の音声、本文の朗読用音声のうち少なくとも1種類を認識し、前記音データの再生形態として、再生停止条件、再生繰り返し回数、再生音量、前記注目位置の推定への音データ再生の影響、の少なくとも1つを決定する。   In the electronic book device of the present invention, the sound data reproduction form determination unit recognizes at least one of background sound, sound effect, speech sound, and text reading sound as the sound data type, As the sound data reproduction mode, at least one of a reproduction stop condition, the number of reproduction repetitions, a reproduction volume, and the influence of sound data reproduction on the estimation of the target position is determined.

この電子書籍装置によれば、電子書籍データの中で種別が異なる複数の音データを区別し、再生停止条件、再生繰り返し回数、再生音量、注目位置の推定に対する音データ再生の影響に反映して、好適に再生できる。   According to this electronic book device, a plurality of different types of sound data are distinguished from each other in the electronic book data, and reflected in the influence of the sound data reproduction on the reproduction stop condition, the number of reproduction repetitions, the reproduction volume, and the estimated position of interest. Can be suitably reproduced.

また、本発明の電子書籍装置は、前記音データ再生形態決定部が、前記音データが対応する前記本文データに引用符号を示す文字が含まれている場合、前記音データは台詞の音声であると判定する。   In the electronic book device according to the present invention, when the sound data reproduction form determination unit includes a character indicating a quotation mark in the body data corresponding to the sound data, the sound data is speech of speech. Is determined.

この電子書籍装置によれば、電子書籍のデータから台詞の音声を区別することができ、台詞の音声に適した再生形態で再生を行うことができる。   According to this electronic book apparatus, the speech of the dialogue can be distinguished from the data of the electronic book, and the reproduction can be performed in a reproduction form suitable for the speech of the speech.

また、本発明の電子書籍装置は、前記音データ再生形態決定部が、前記音データが対応する前記本文データに擬声語が含まれている場合、前記音データが効果音であると判定する。   In the electronic book device of the present invention, the sound data reproduction form determination unit determines that the sound data is a sound effect when the text data corresponding to the sound data includes an onomatopoeia.

この電子書籍装置によれば、電子書籍のデータから効果音を区別することができ、効果音に適した再生形態で再生を行うことができる。   According to this electronic book apparatus, the sound effect can be distinguished from the data of the electronic book, and reproduction can be performed in a reproduction form suitable for the sound effect.

また、本発明の電子書籍装置は、前記音データ再生形態決定部が、前記音データが対応する前記本文データの文字数に基づく読書時間と前記音データの再生時間とに基づいて、前記音データが背景音および効果音のいずれであるかを判定する。   Further, in the electronic book device of the present invention, the sound data reproduction form determination unit is configured to store the sound data based on a reading time based on the number of characters of the body data corresponding to the sound data and a reproduction time of the sound data. It is determined whether the sound is a background sound or a sound effect.

この電子書籍装置によれば、電子書籍のデータから背景音または効果音を区別することができ、背景音または効果音に適した再生形態で再生を行うことができる。   According to this electronic book apparatus, the background sound or the sound effect can be distinguished from the data of the electronic book, and the reproduction can be performed in a reproduction form suitable for the background sound or the sound effect.

また、本発明の電子書籍装置は、前記音データ再生制御部が、前記注目位置推定部により推定された注目位置の前記本文データに対応する前記音データが背景音であり、管理テーブルに前記注目位置の推定を停止する旨が記憶されている場合、前記注目位置推定部による前記注目位置の推定を中断させる。   Further, in the electronic book device of the present invention, the sound data reproduction control unit is configured such that the sound data corresponding to the body data of the target position estimated by the target position estimation unit is a background sound, and the target table is recorded in the target table. When it is stored that the position estimation is to be stopped, the attention position estimation by the attention position estimation unit is interrupted.

この電子書籍装置によれば、音データが背景音であり、更に必要がある場合には、注目位置の推定を中断させることで、推定される注目位置における本文データによる観念と背景音による観念とで、ずれが生じることを回避できる。   According to this electronic book apparatus, when the sound data is background sound and further needs, the idea of the text data at the estimated position of interest and the idea of the background sound are interrupted by interrupting the estimation of the position of interest. Thus, it is possible to avoid the occurrence of deviation.

また、本発明の電子書籍装置は、前記音データ再生制御部が、前記注目位置推定部により推定された注目位置の前記本文データに対応する前記音データが台詞の音声である場合、前記注目位置推定部による前記注目位置の推定を中断させる。   Further, in the electronic book device of the present invention, the sound data reproduction control unit, when the sound data corresponding to the body data of the target position estimated by the target position estimation unit is speech of speech, The estimation of the attention position by the estimation unit is interrupted.

この電子書籍装置によれば、音データが台詞の音声である場合には、注目位置の推定を中断させることで、推定される注目位置における本文データによる観念と台詞の音声による観念とで、ずれが生じることを回避できる。   According to this electronic book apparatus, when the sound data is speech of speech, by interrupting estimation of the attention position, there is a difference between the idea based on the text data at the estimated attention position and the idea based on speech of the speech. Can be avoided.

また、本発明の電子書籍装置は、前記音データ再生制御部が、前記注目位置推定部により推定された同一の注目位置に対応する前記音データが複数割り当てられている場合には、複数の前記音データのうち優先順位の低い種別の音データの再生を制限する。   In the electronic book device of the present invention, when the sound data reproduction control unit is assigned a plurality of the sound data corresponding to the same target position estimated by the target position estimation unit, The reproduction of the low-priority type sound data among the sound data is restricted.

この電子書籍装置によれば、同時に再生されるべき音データが複数存在する場合に、優先度の低い種別の音データを小さい音量にしたり再生を中止したりすることで、好適な音データの再生を行うことができる。   According to this electronic book apparatus, when there is a plurality of sound data to be reproduced at the same time, the sound data of the type with low priority is reduced to a low volume or the reproduction is stopped, thereby reproducing the suitable sound data. It can be performed.

また、本発明の電子書籍装置は、前記音データ再生制御部が、ページめくり指示を受け付けた場合、再生中の前記音データの種別に基づく異なる条件で、前記音データの再生を停止する。   In the electronic book device of the present invention, when the sound data reproduction control unit accepts a page turning instruction, reproduction of the sound data is stopped under different conditions based on the type of the sound data being reproduced.

この電子書籍装置によれば、ページめくりが発生したときに、再生されるべきでない種別の音データについては再生を停止し、再生されるべき種別の音データについては再生を継続することができる。   According to this electronic book apparatus, when page turning occurs, the reproduction of the type of sound data that should not be reproduced can be stopped, and the reproduction of the type of sound data that should be reproduced can be continued.

また、本発明の電子書籍装置は、外部装置から前記音データを受信するデータ通信部を備える。   Moreover, the electronic book apparatus of this invention is provided with the data communication part which receives the said sound data from an external device.

この電子書籍装置によれば、電子書籍に音データとしてその実体の所在等を示すリンク情報だけが含まれている場合であっても、必要な音データの本体を外部装置から取得し再生することができる。   According to this electronic book apparatus, even when the electronic book includes only link information indicating the location of the entity as sound data, the main body of the necessary sound data is acquired from the external apparatus and reproduced. Can do.

また、本発明の電子書籍再生方法は、文章を構成する文字列の情報を含む本文データと、前記本文データに対応する音データと、を含む電子書籍のデータを読み込んで再生する電子書籍再生方法であって、前記本文データ中の注目位置を推定するステップと、前記音データの種別に基づいて、前記音データの再生形態を決定するステップと、前記推定された注目位置の前記本文データに対応する前記音データを、前記決定された再生形態で再生するよう制御するステップと、を有する。   The electronic book reproducing method of the present invention is an electronic book reproducing method for reading and reproducing electronic book data including text data including character string information constituting a sentence and sound data corresponding to the text data. A step of estimating a position of interest in the text data; a step of determining a reproduction form of the sound data based on a type of the sound data; and corresponding to the text data of the estimated position of interest Controlling the sound data to be played back in the determined playback mode.

この電子書籍再生方法によれば、様々な種別の音データが混在する電子書籍を再生する場合であっても、それぞれの音データを最適な条件で再生することが可能になる。従って、著者が意図するよう表現力豊かに音データを再生できる。   According to this electronic book reproduction method, even when an electronic book in which various types of sound data are mixed is reproduced, the respective sound data can be reproduced under optimum conditions. Therefore, sound data can be reproduced with rich expressiveness as intended by the author.

また、本発明の電子書籍再生プログラムは、上記の電子書籍再生方法の各ステップを実行させるためのプログラムである。   Moreover, the electronic book reproduction | regeneration program of this invention is a program for performing each step of said electronic book reproduction | regeneration method.

この電子書籍再生プログラムにより、様々な種別の音データが混在する電子書籍を再生する場合であっても、それぞれの音データを最適な条件で再生することが可能になる。従って、著者が意図するよう表現力豊かに音データを再生できる。   With this electronic book reproduction program, even when an electronic book in which various types of sound data are mixed is reproduced, the respective sound data can be reproduced under optimum conditions. Therefore, sound data can be reproduced with rich expressiveness as intended by the author.

本発明によれば、著者が意図するよう表現力豊かに音データを再生することが可能になる。   According to the present invention, sound data can be reproduced with rich expressiveness as intended by the author.

本発明の実施形態の電子書籍装置の主要な機能に関する構成例を示すブロック図1 is a block diagram showing a configuration example regarding main functions of an electronic book device according to an embodiment of the present invention; 本発明の実施形態の電子書籍装置が再生する電子書籍の構成に関する具体例を示す模式図The schematic diagram which shows the specific example regarding the structure of the electronic book which the electronic book apparatus of embodiment of this invention reproduces | regenerates 本発明の実施形態の電子書籍装置が再生する電子書籍の構成に関する具体例を示す模式図The schematic diagram which shows the specific example regarding the structure of the electronic book which the electronic book apparatus of embodiment of this invention reproduces | regenerates 本発明の実施形態の電子書籍装置が使用する音データ管理テーブル及びレジューム用データ管理テーブルの構成例を示す模式図The schematic diagram which shows the structural example of the sound data management table and resume data management table which the electronic book apparatus of embodiment of this invention uses. 本発明の実施形態の電子書籍装置の動作に関する概要を示すフローチャートThe flowchart which shows the outline | summary regarding operation | movement of the electronic book apparatus of embodiment of this invention. 本発明の実施形態の音データの種別を自動分類するための処理の一部分を示すフローチャートThe flowchart which shows a part of process for automatically classifying the classification of the sound data of embodiment of this invention. 本発明の実施形態の音データの種別を自動分類するための処理の一部分を示すフローチャートThe flowchart which shows a part of process for automatically classifying the classification of the sound data of embodiment of this invention. 本発明の実施形態の音データの種別を自動分類するための処理の対象になる電子書籍データの具体例を示す模式図The schematic diagram which shows the specific example of the electronic book data used as the object of the process for automatic classification | category of the classification of the sound data of embodiment of this invention 本発明の実施形態の音データの種別を自動分類するための処理の対象になる電子書籍データの具体例を示す模式図である。It is a schematic diagram which shows the specific example of the electronic book data used as the object of the process for automatically classifying the classification of the sound data of embodiment of this invention. 本発明の実施形態の音データの再生停止位置を推定するための処理を示すフローチャートThe flowchart which shows the process for estimating the reproduction | regeneration stop position of the sound data of embodiment of this invention. 本発明の実施形態の音データを再生制御するための処理を示すフローチャートThe flowchart which shows the process for carrying out reproduction | regeneration control of the sound data of embodiment of this invention 本発明の実施形態のページめくりの指示を受けた時の処理を示すフローチャートThe flowchart which shows a process when the instruction | indication of the page turning of embodiment of this invention is received 本発明の実施形態のページ戻しの指示を受けた時の処理を示すフローチャートThe flowchart which shows a process when the instruction | indication of the page return of embodiment of this invention is received

本発明の実施形態における電子書籍装置、電子書籍再生方法、及び電子書籍再生プログラムについて、図面を参照しながら以下に説明する。   An electronic book apparatus, an electronic book reproduction method, and an electronic book reproduction program according to embodiments of the present invention will be described below with reference to the drawings.

本発明の実施形態の電子書籍装置の主要な機能に関する構成例が図1に示されている。図1に示すように、この電子書籍装置100は、文章データ記憶部10、音データ記憶部20、データ通信部25、文章・音データ解析部30、注目位置推定部40、時計部45、音データ再生制御部50、ページ切り替え処理部60、出力部70、入力部80、位置記憶部90を備えている。   A configuration example relating to main functions of the electronic book device according to the embodiment of the present invention is shown in FIG. As shown in FIG. 1, the electronic book device 100 includes a text data storage unit 10, a sound data storage unit 20, a data communication unit 25, a text / sound data analysis unit 30, an attention position estimation unit 40, a clock unit 45, a sound A data reproduction control unit 50, a page switching processing unit 60, an output unit 70, an input unit 80, and a position storage unit 90 are provided.

この電子書籍装置100が再生対象とする電子書籍(コンテンツ)のデータについては、少なくとも文章を構成する文字列の情報を含む本文データ(又は文章データ)と、この本文データとの関連付けが可能な音データとの組み合わせで構成される。勿論、音データ以外に、画像等の付属コンテンツを含む電子書籍を再生することもできる。音データは、所定のリンク情報により、本文データの文章の所望の位置に対応付けられる。音データの本体、すなわち音響の信号を出力するために必要なデジタル音響データについては、本文データの文章の中に埋め込まれ一体化される場合もあるし、本文データの外側つまり本文データとは別に配置される場合もある。   As for the data of the electronic book (content) to be reproduced by the electronic book apparatus 100, sound that can be associated with at least text data (or text data) including character string information constituting the text and the text data. It consists of a combination with data. Of course, in addition to sound data, an electronic book including attached content such as an image can be reproduced. The sound data is associated with a desired position of the text of the text data by predetermined link information. The main body of the sound data, that is, the digital sound data necessary for outputting the sound signal may be embedded and integrated in the text of the text data, or outside the text data, that is, separately from the text data Sometimes it is arranged.

なお、本実施形態では、「電子書籍を再生する」とは、ここでは少なくとも電子書籍に含まれる本文データの1つのページの内容を所定の画面上に文字列として可視表示すること、つまり読者が画面を見てその内容を読むことができる状態にすることを意味している。勿論、文章全体を装置の発声機能を利用して自動的に朗読する機能を有する場合には、画面表示を省略して自動的に朗読することも「電子書籍の再生」と同等の意味になる。また、再生している本文データにリンク情報により関連付けられた音データが存在する場合には、後述するように、必要に応じてその音データを読者(ユーザ)に聞こえるように音として出力する。このような動作を、本実施形態では「音データの再生」と定義する。   In the present embodiment, “reproducing an electronic book” means here that at least the content of one page of body data included in the electronic book is visually displayed as a character string on a predetermined screen. This means that you can read the contents by looking at the screen. Of course, when there is a function that automatically reads the entire sentence using the utterance function of the device, reading automatically without displaying the screen is equivalent to “reproducing an electronic book”. . Further, when there is sound data associated with the link information in the reproduced body data, the sound data is output as sound so that the reader (user) can hear it, as will be described later. Such an operation is defined as “sound data reproduction” in the present embodiment.

図1に示した文章データ記憶部10は、再生対象となる電子書籍の本文データ(又は文章データ、リンク情報も含む)を記憶し保持する。音データ記憶部20は、電子書籍の本文データとリンク情報で関連付けられた音データの本体の内容を記憶し保持する。具体例として、CD−ROMやDVDディスクのような記録媒体や、ハードディスクのような記憶装置が文章データ記憶部10や音データ記憶部20として用いられる。   The text data storage unit 10 shown in FIG. 1 stores and holds text data (or text data, including link information) of an electronic book to be reproduced. The sound data storage unit 20 stores and holds the contents of the main body of the sound data associated with the body data of the electronic book and the link information. As a specific example, a recording medium such as a CD-ROM or a DVD disk or a storage device such as a hard disk is used as the text data storage unit 10 or the sound data storage unit 20.

電子書籍に関連付けられた音データの本体の内容については、電子書籍装置100の外側の任意の場所、例えばインターネットを介して接続可能な所定のサーバ上に配置することもできる。図1に示すデータ通信部25は、インターネット等の通信網と接続するためのデータ通信機能を備えており、リンク情報に基づき、必要とされる音データの本体を指定された場所から取得して音データ記憶部20上に保持する。   About the content of the main body of the sound data linked | related with the electronic book, it can also be arrange | positioned on the predetermined | prescribed server which can connect via the arbitrary places outside the electronic book apparatus 100, for example, the internet. The data communication unit 25 shown in FIG. 1 has a data communication function for connecting to a communication network such as the Internet. Based on the link information, the data communication unit 25 acquires the required sound data body from a specified location. It is stored on the sound data storage unit 20.

従って、文章データ記憶部10が保持しているデータと音データ記憶部20が保持しているデータとを読み込むことにより、電子書籍を再生すると共に関連付けられた音データも再生することが可能である。   Therefore, by reading the data held in the text data storage unit 10 and the data held in the sound data storage unit 20, it is possible to reproduce the electronic book and the associated sound data. .

文章・音データ解析部30は、電子書籍のコンテンツ全体を解析し、文章等の本文データと音データ等の付属コンテンツとのリンク状況をチェックしたり、リンク情報により関連付けられた音データの種別を分類したりするための処理を行う。   The sentence / sound data analysis unit 30 analyzes the entire contents of the electronic book, checks the link status between the body data such as sentences and the attached contents such as sound data, and determines the type of sound data associated with the link information. Performs processing for classification.

注目位置推定部40は、再生中の電子書籍の1ページの内容について読者が現在読んでいると推定される注目位置(文章中の文字等の位置)を推定する。例えば、読者が1文字を読むのに必要な時間Tc1が一定であると仮定すれば、該当するページを開いてからの経過時間と時間Tc1とに基づき、該当するページの何文字目が注目位置であるのかを求めることができる。勿論、個人差や状況に応じて前記時間Tc1は変動するので、実際の注目位置の推定においては様々な処理が実施される。   The attention position estimation unit 40 estimates the attention position (position of characters or the like in the sentence) that is estimated to be read by the reader about the contents of one page of the electronic book being reproduced. For example, assuming that the time Tc1 required for the reader to read one character is constant, the number of characters on the corresponding page is the position of interest based on the elapsed time since the corresponding page was opened and the time Tc1. Can be determined. Of course, since the time Tc1 varies depending on individual differences and circumstances, various processes are performed in estimating the actual attention position.

時計部45は、現在の時刻の情報を出力する。この時刻情報は、注目位置推定部40が注目位置を推定する際に利用される。   The clock unit 45 outputs information on the current time. This time information is used when the attention position estimation unit 40 estimates the attention position.

音データ再生制御部50は、音データの再生に関する制御を実施する。すなわち、再生すべき音データの本体の情報を取得してデコードし、音響の電気信号に変換すると共に、音響出力開始や終了のタイミングを制御したり、音量制御を実施し、音響の信号を出力部70に出力したりする。また、音データの種別に基づいて、音データの再生形態を決定する音データ再生形態決定部としての機能も有する。   The sound data reproduction control unit 50 performs control related to reproduction of sound data. In other words, information on the main body of the sound data to be reproduced is acquired and decoded, converted into an electrical electrical signal, and the timing of starting and ending the acoustic output is controlled, and the volume control is performed to output the acoustic signal Or output to the unit 70. Also, it has a function as a sound data reproduction form determination unit that decides the reproduction form of sound data based on the type of sound data.

ページ切り替え処理部60は、ページ切り替えに関する処理を実施する。すなわち、電子書籍のコンテンツはページ単位で管理されているので、現在の画面に表示する特定の1ページを必要に応じて切り替える。注目位置推定部40が読者の注目位置を推定している状態においては、現在表示している1ページの内容を読者が最後まで読み終わるタイミングを予想できるので、この読み終わるタイミングを推定してページ切り替え処理部60が次のページに切り替える。また、読者の入力操作によるページめくりやページ戻しの指示を受けた場合には、その指示に従ってページ切り替え処理部60はページを切り替える。   The page switching processing unit 60 performs processing related to page switching. That is, since the content of the electronic book is managed in units of pages, one specific page displayed on the current screen is switched as necessary. In the state where the attention position estimation unit 40 estimates the attention position of the reader, the reader can predict the timing when the reader finishes reading the content of the currently displayed one page to the end. The switching processing unit 60 switches to the next page. Further, when receiving an instruction to turn pages or return pages by an input operation by the reader, the page switching processing unit 60 switches pages according to the instructions.

なお、前述の文章・音データ解析部30、注目位置推定部40、音データ再生制御部50、ページ切り替え処理部60の機能については、マイクロコンピュータのハードウェアとそれが実行するプログラムとにより実現される。勿論、これらの機能の一部分あるいは全体を専用の処理を実行するハードウェアに置き換えることも可能である。   Note that the functions of the sentence / sound data analysis unit 30, the attention position estimation unit 40, the sound data reproduction control unit 50, and the page switching processing unit 60 are realized by microcomputer hardware and a program executed by the microcomputer. The Of course, part or all of these functions can be replaced with hardware that executes dedicated processing.

出力部70は、再生された電子書籍の文章等を画面上に可視表示するための表示装置と、音響の電気信号を音響として出力するための変換器(スピーカ等)を備える。   The output unit 70 includes a display device for visually displaying a reproduced electronic book text or the like on a screen, and a converter (speaker or the like) for outputting an acoustic electric signal as sound.

入力部80は、ユーザである読者からの必要な入力操作を受け付けるための入力装置である。入力部80の具体例としては、出力部70の表示画面上に配置されるタッチパネルなどが想定される。入力部80は、例えばユーザからの再生開始指示や、ページめくり指示や、ページ戻し指示や再生終了指示などを受け付ける。   The input unit 80 is an input device for receiving a necessary input operation from a reader who is a user. As a specific example of the input unit 80, a touch panel disposed on the display screen of the output unit 70 is assumed. The input unit 80 receives, for example, a reproduction start instruction, a page turning instruction, a page return instruction, a reproduction end instruction, or the like from the user.

位置記憶部90は、ページ切り替え処理部60がページ切り替えを行う際に、位置などの情報を必要に応じて保存する。   The position storage unit 90 stores information such as a position as necessary when the page switching processing unit 60 performs page switching.

図1に示した電子書籍装置100が扱う電子書籍に含まれる音データに関しては、「背景音」、「効果音」、「セリフ」、「本文の朗読用音声」の4種類がある。これら4種類の音データの定義については次の通りである。   Regarding the sound data included in the electronic book handled by the electronic book apparatus 100 shown in FIG. 1, there are four types: “background sound”, “sound effect”, “serif”, and “text reading speech”. The definition of these four types of sound data is as follows.

背景音:バックグラウンドミュージック(BGM)や、環境を表す音(虫の鳴き声や波の音)、音楽や映画の著作物などのように、ある程度長い時間に渡ってほぼ連続的に現れる音を表す。   Background sound: Represents sound that appears almost continuously over a long period of time, such as background music (BGM), sound that represents the environment (sounds of insects and sound of waves), music and movie works, etc. .

効果音:例えば車のクラクション、猫の鳴き声のように物や生物が発する音や、状態や感情などを表す音を表す。背景音よりも短く、突発的に短時間だけ現れる。   Sound effects: For example, sounds expressed by things or creatures, such as car horns or cat calls, or sounds that represent conditions or emotions. It is shorter than the background sound and appears suddenly for a short time.

セリフ(台詞の音声):演劇や創作物の劇中で登場人物が発する言葉を人間の音声もしくはそれに近い疑似音声により表現するための音を表す。   Dialogue (speech speech): Sounds used to express words uttered by characters in plays or creative plays with human speech or pseudo-speech.

本文の朗読用音声:電子書籍中の文章(人物が発する言葉以外)を人間の音声もしくはそれに近い疑似音声により読み上げる音を表す。   Text-to-speech reading: Represents a sound that reads a sentence (other than a word uttered by a person) in an electronic book using a human voice or a pseudo voice similar to it.

これらの4種類の音データは、電子書籍の著作者がこのコンテンツの内容をより豊かな表現力で表現するために使い分けることができる。このような著作者の表現を読者に正確に伝えるために、図1に示す電子書籍装置100は音データの再生に関して種別に応じて様々な制御を実施する。この制御の概要が一覧として次の表1及び表2に示されている。   These four types of sound data can be used properly for the author of the electronic book to express the contents of the content with richer expressive power. In order to accurately convey such an expression of the author to the reader, the electronic book device 100 shown in FIG. 1 performs various controls according to the type regarding the reproduction of the sound data. A summary of this control is shown in the following Tables 1 and 2 as a list.

Figure 2011233047
Figure 2011233047
Figure 2011233047
Figure 2011233047

表1及び表2に示したように、音データの再生に関しては、「停止制御」、「位置の推定への影響」、「音の重畳」、「音量調整」、「ページ戻し」、「ページめくり」について、それぞれ音の種別に応じて特別な制御を実施する。   As shown in Tables 1 and 2, regarding the reproduction of sound data, “stop control”, “influence on position estimation”, “sound superposition”, “volume adjustment”, “page return”, “page” For “turning”, special control is performed according to the type of sound.

表1中の「停止制御」は、該当する音データの再生をどのような条件で停止するのか(再生停止条件)に関する制御である。「位置の推定への影響」は、該当する音データの再生が注目位置推定部40の位置の推定に及ぼす影響を考慮するための制御である。「音の重畳」は、複数の種別の音データの再生が重なったタイミングで出力する場合にどのように処理するかを決定する制御である。「音量調整」は、該当する音データをどのような音量で再生するか、つまり再生音量を決定する制御である。表2中の「ページ戻し」は、ページ戻しが発生した場合に再生中の音データをどのように処理するかを決定する制御である。「ページめくり」は、ページめくり(次ページに進める動作)が発生した場合に再生中の音データをどのように処理するかを決定する制御である。   “Stop control” in Table 1 is control related to under what conditions (reproduction stop condition) the reproduction of the corresponding sound data is stopped. “Influence on position estimation” is control for taking into account the influence of reproduction of corresponding sound data on the position estimation of the target position estimation unit 40. “Sound superposition” is control for determining how to process a plurality of types of sound data when they are output at the timing when they are overlapped. “Volume adjustment” is control for determining the sound volume at which the corresponding sound data is reproduced, that is, the reproduction sound volume. “Page return” in Table 2 is control for determining how to process the sound data being played back when page return occurs. “Page turning” is control for determining how to process the sound data being played back when page turning (operation to advance to the next page) occurs.

次に、電子書籍装置100が再生対象とする電子書籍の構成に関する具体例について説明する。この具体例が図2、図3にそれぞれ示されている。図2、図3においては、電子書籍中の1ページ内の内容について、文章の本文とそれの各箇所に対応付けけられた音データとの関係が示されている。   Next, a specific example regarding the configuration of an electronic book to be played back by the electronic book device 100 will be described. Specific examples are shown in FIGS. 2 and 3, respectively. FIGS. 2 and 3 show the relationship between the text of a sentence and sound data associated with each part of the content of one page in an electronic book.

図2に示された電子書籍においては、文章の本文の他に、それと関連付けられた「背景音1」、「背景音2」、「効果音」、「セリフ1」、「セリフ2」が含まれている。「背景音1」は、この音を再生するための文章中の開始位置と終了位置、つまり図2中の点線で囲まれた範囲を特定する情報が、文章の本文データの中に埋め込まれている背景音である。「背景音2」は、この音を再生するための文章中の開始位置と再生回数(再生繰り返し回数)とが、文章の本文データの中に埋め込まれている背景音である。「セリフ1」、「セリフ2」は、それぞれ文章中の1行の中に関連付けられたセリフである。「セリフ1」、「セリフ2」がある行には、カギ括弧(「」)でくくられた文字列がある。なお、ここでは括弧のみを例示しているが、 “”(英語)や<<>>(フランス語)等のような引用符号でもよい。「効果音」は、図2中では文章中の擬声語に関連づけられた効果音である。   The electronic book shown in FIG. 2 includes “background sound 1”, “background sound 2”, “sound effect”, “line 1”, and “line 2” in addition to the text of the sentence. It is. In “background sound 1”, information specifying the start position and end position in the sentence for reproducing this sound, that is, the range surrounded by the dotted line in FIG. 2, is embedded in the body data of the sentence. There is a background sound. “Background sound 2” is a background sound in which the start position in the sentence for reproducing this sound and the number of reproductions (number of reproduction repetitions) are embedded in the text data of the sentence. “Serif 1” and “Serif 2” are words associated with one line in the sentence. In a line with “Serif 1” and “Serif 2”, there is a character string enclosed in square brackets (“”). Although only parentheses are illustrated here, quotation marks such as “” (English) and << >> (French) may be used. “Sound effect” is a sound effect associated with an onomatopoeia in a sentence in FIG.

図3に示された電子書籍においては、文章の本文の他に、それと関連付けられた「背景音」が含まれている。この「背景音」に関するリンク情報については、音の再生開始位置と、音再生開始後に位置の推定を一時停止(例えば10秒間)するための指定も含まれている。この指定がある場合、電子書籍装置100は、リンクされている背景音を通常の音量で再生を開始してから、位置の推定を一時停止して10秒間を経過した後で、位置の推定を再開すると共に、音量を小さく変更する。   In the electronic book shown in FIG. 3, in addition to the text of the sentence, “background sound” associated therewith is included. The link information related to the “background sound” includes a sound reproduction start position and designation for temporarily stopping (for example, 10 seconds) the position estimation after the sound reproduction is started. When this designation is made, the electronic book device 100 starts reproduction of the linked background sound at a normal volume, pauses position estimation, passes 10 seconds, and then estimates the position. Restart and change the volume to a lower level.

電子書籍装置100の文章・音データ解析部30は、再生する電子書籍中の音データを管理するために、例えば図4に示すような音データ管理テーブルを利用する。図4を参照すると、この音データ管理テーブルには、「音ファイル保存場所」、「音ファイル名」、「再生時間」、「音の分類」、「再生回数」、「再生開始後注目位置の推定を一時停止する時間」、「再生停止位置」の各項目の情報を管理する領域が設けてある。音データ管理テーブルは、例えば文章・音データ解析部30の内部に記憶される。   The sentence / sound data analysis unit 30 of the electronic book apparatus 100 uses, for example, a sound data management table as shown in FIG. 4 in order to manage sound data in the electronic book to be reproduced. Referring to FIG. 4, this sound data management table includes “sound file storage location”, “sound file name”, “reproduction time”, “sound classification”, “number of times of reproduction”, “position of interest after starting reproduction”. An area is provided for managing information of each item of “time to pause estimation” and “reproduction stop position”. The sound data management table is stored in the sentence / sound data analysis unit 30, for example.

これらの項目の中で、「音ファイル保存場所(フォルダ名やアドレスなど)」と「音ファイル名」は、該当する音のデータを特定するために文章中のリンク情報に必ず含まれている。「再生時間」、「音の分類」、「再生回数」、「再生開始後注目位置の推定を一時停止する時間」、「再生停止位置」の各項目の情報については、文章中のリンク情報に含めても良いが、それらの内容を後述するように電子書籍装置100が決定することもできる。   Among these items, “sound file storage location (folder name, address, etc.)” and “sound file name” are always included in the link information in the text in order to identify the corresponding sound data. For information on each item of “Playback time”, “Sound classification”, “Number of playbacks”, “Time to pause the estimation of the target position after starting playback”, and “Playback stop position” items, please refer to the link information in the text. The electronic book device 100 may determine the contents as described later.

また、文章・音データ解析部30は、音データ管理テーブルの他に、レジューム用データ管理テーブルを利用することができる。レジューム用データ管理テーブルは、後述するページめくり、ページ戻しの操作があった場合に、ページめくり前、ページ戻し前の情報を記憶するために利用される。図4を参照すると、レジューム用データ管理テーブルには、「読んでいた位置」、「再生していた背景音」、「再生していた背景音の停止位置」、「再生していた効果音」、「再生していた効果音の停止位置」、「再生していたセリフ」、「再生していたセリフの停止位置」の各項目の情報を管理する領域が設けてある。レジューム用データ管理テーブルは、例えば位置記憶部90に記憶される。   The sentence / sound data analyzing unit 30 can use a resume data management table in addition to the sound data management table. The resume data management table is used to store information before and after page turning when a page turning and page returning operation described later is performed. Referring to FIG. 4, the resume data management table includes “reading position”, “reproducing background sound”, “reproducing background sound stop position”, and “reproducing sound effect”. , An area is provided for managing information of each item of “the stop position of the sound effect being played”, “the line being played”, and “the stop position of the line being played”. The resume data management table is stored in the position storage unit 90, for example.

図1に示した電子書籍装置100の動作に関する概要(メインルーチン)が図5に示されている。図5に示す動作について以下に説明する。   FIG. 5 shows an outline (main routine) regarding the operation of the electronic book apparatus 100 shown in FIG. The operation shown in FIG. 5 will be described below.

電子書籍の再生動作を開始した後、ページ切り替え入力があった場合に電子書籍装置100の動作はステップS11からS12に進む。すなわち、最初のページを表示する場合や、読者の入力操作によりページめくりが行われた場合である。   After starting the electronic book reproduction operation, when there is a page switching input, the operation of the electronic book device 100 proceeds from step S11 to step S12. That is, the first page is displayed or the page is turned by the input operation of the reader.

ステップS12では、ページ切り替え処理部60が、ページ切り替えを行う。すなわち、電子書籍のコンテンツ上で再生すべき次のページの位置を特定する。   In step S12, the page switching processing unit 60 performs page switching. That is, the position of the next page to be reproduced on the content of the electronic book is specified.

ステップS13では、文章・音データ解析部30は、ページ切り替え処理部60が選択した特定ページの文章データ全体を文章データ記憶部10から読み込む。ここで読み込まれた1ページ分の文章データは、例えば図2に示すような文章の文字列情報(可視情報)として出力部70の表示画面上に表示(再生)される。   In step S <b> 13, the sentence / sound data analysis unit 30 reads the entire sentence data of the specific page selected by the page switching processing unit 60 from the sentence data storage unit 10. The text data for one page read here is displayed (reproduced) on the display screen of the output unit 70 as text string information (visible information) as shown in FIG.

ステップS14では、文章・音データ解析部30は、読み込まれた文章データの内容を順番に解析し、リンク情報により関連付けられている音データの有無をチェックする。リンクされている音データが見つかった場合には、これを管理するために音データ管理テーブルに必要な情報(音ファイルの保存場所、ファイル名、再生回数、再生開始後注目位置の推定を一時停止する時間、など)を書き込む。   In step S14, the sentence / sound data analysis unit 30 sequentially analyzes the contents of the read sentence data, and checks whether or not there is sound data associated with the link information. When linked sound data is found, information necessary for managing the sound data management table (sound file storage location, file name, number of playbacks, and estimation of the position of interest after playback is paused) Write time, etc.).

ステップS15では、文章・音データ解析部30はステップS14でリンクされている音データが見つかった場合に、該当する音データの種別(「背景音」、「効果音」「セリフ」、「本文の朗読用音声」の区分)を分類する。具体的な処理の内容については後述する。また、一般的なリンク情報には音データの種別を表す情報は含まれていないが、リンク情報自体に音データの種別を表す情報が含まれている場合には、特別な分類処理は不要なのでステップS15の処理は省略される。この分類処理の結果が、音データ管理テーブルの内容に反映される。   In step S15, when the sound data linked in step S14 is found, the sentence / sound data analysis unit 30 determines the type of sound data (“background sound”, “sound effect”, “serif”, “text”). Categorization of “speech for reading”). Details of the processing will be described later. In addition, general link information does not include information indicating the type of sound data, but if the link information itself includes information indicating the type of sound data, a special classification process is unnecessary. The process of step S15 is omitted. The result of this classification process is reflected in the contents of the sound data management table.

ステップS16では、文章・音データ解析部30は、音データ再生を停止する位置を推定する。具体的な処理の内容については後述する。また、もしもリンク情報自体に音データの再生停止位置を表す情報が含まれている場合には、ステップS16の処理は不要なので、この処理の実行は省略される。該当する音データの再生回数として、1回再生や複数回再生の指定がある場合に、ステップS16で音データ再生を停止する位置を推定する。この推定処理の結果は、音データ管理テーブルの内容に反映される。   In step S16, the sentence / sound data analysis unit 30 estimates a position where the sound data reproduction is stopped. Details of the processing will be described later. Also, if the link information itself includes information indicating the reproduction stop position of the sound data, the process of step S16 is unnecessary, so the execution of this process is omitted. When the reproduction of the corresponding sound data is designated to be reproduced once or reproduced a plurality of times, the position where the sound data reproduction is stopped is estimated in step S16. The result of this estimation process is reflected in the contents of the sound data management table.

ステップS17では、文章・音データ解析部30は、1ページの文章データにリンクされている全ての音データについて上記の処理が終了したか否かを識別する。未処理の音データが残っている場合はステップS14に戻り、処理が完了した場合はステップS18に進む。   In step S <b> 17, the sentence / sound data analysis unit 30 identifies whether or not the above processing has been completed for all sound data linked to one page of sentence data. If unprocessed sound data remains, the process returns to step S14, and if the process is completed, the process proceeds to step S18.

ステップS18では、注目位置推定部40が時計部45の出力する時刻情報を利用して、再生中のページ内における読者の現在の注目位置を推定する。つまり、ページを切り替えてからの経過時間等に基づいて注目位置(ページ内の行番号や行中で何番目の文字であるかを示す位置情報)を推定する。   In step S <b> 18, the attention position estimation unit 40 estimates the current attention position of the reader in the page being reproduced using the time information output from the clock unit 45. That is, the position of interest (position information indicating the line number in the page and the number of the character in the line) is estimated based on the elapsed time since the page was switched.

ステップS19では、音データ再生制御部50は、注目位置推定部40がステップS18で推定した最新の注目位置の文章に、リンク情報により関連付けられた音データが存在するか否かを識別する。存在する場合はステップS20に進み、存在しなければステップS21に進む。   In step S19, the sound data reproduction control unit 50 identifies whether or not the sound data associated with the link information exists in the sentence of the latest target position estimated by the target position estimation unit 40 in step S18. When it exists, it progresses to step S20, and when it does not exist, it progresses to step S21.

ステップS20では、音データ再生制御部50は、現在の注目位置の文章に関連付けられた音データを再生(音響出力)するための処理を行う。この処理の詳細については後述する。   In step S20, the sound data reproduction control unit 50 performs a process for reproducing (sound output) the sound data associated with the sentence at the current position of interest. Details of this processing will be described later.

ステップS21では、音データ再生制御部50は、注目位置推定部40が推定した最新の注目位置が、特定の条件を満たしたか否かを音データ再生制御部50が識別する。特定の条件を満たした場合はステップS22に進み、満たしていない場合はステップS23に進む。特定の条件とは、例えば、「注目位置が文章の章を跨いだ」あるいは「場面が切り替わった(例えば1行の空行で区切られた箇所を跨いだ)」かどうか、の条件である。   In step S21, the sound data reproduction control unit 50 identifies whether or not the latest attention position estimated by the attention position estimation unit 40 satisfies a specific condition. When the specific condition is satisfied, the process proceeds to step S22, and when not satisfied, the process proceeds to step S23. The specific condition is, for example, a condition indicating whether “the position of interest straddles a chapter of a sentence” or “a scene has been switched (for example, straddles a portion separated by one blank line)”.

ステップS22では、音データ再生制御部50は、現在「背景音」の音データを再生中かどうかを識別し、再生中であればその音データの再生(音響出力)を停止する。   In step S22, the sound data reproduction control unit 50 identifies whether or not the sound data of the “background sound” is currently being reproduced, and stops reproducing the sound data (sound output) if the sound data is being reproduced.

ステップS23では、音データ再生制御部50は、注目位置推定部40の推定した注目位置がページの終端に到達したか否かを識別する。終端に到達してなければステップS18に戻って同じページ内で音データの処理を繰り返し、終端に到達した場合はステップS12に戻って再生するページを切り替える。   In step S23, the sound data reproduction control unit 50 identifies whether the target position estimated by the target position estimation unit 40 has reached the end of the page. If the end has not been reached, the process returns to step S18 to repeat the sound data processing within the same page. If the end has been reached, the process returns to step S12 to switch the page to be reproduced.

次に、図5のステップS15に示した音データの分類に関する処理の詳細について説明する。この処理の内容が図6、図7に示されている。また、図6に示す処理の対象になる電子書籍データの具体例が図8に示されており、図7に示す処理の対象になる電子書籍データの具体例が図9に示されている。   Next, details of the processing related to the classification of sound data shown in step S15 of FIG. 5 will be described. The contents of this processing are shown in FIGS. A specific example of the electronic book data to be processed in FIG. 6 is shown in FIG. 8, and a specific example of the electronic book data to be processed in FIG. 7 is shown in FIG.

図6に示すステップS31では、文章・音データ解析部30は、検出されたリンク情報(文章と音データを関連付けるもの)が含まれている文章中の段落の範囲を表す段落開始位置と段落終了位置を検出する。図8に示した例では、点線で示した枠で囲まれた範囲が該当する段落の範囲として検出される。   In step S31 shown in FIG. 6, the sentence / sound data analysis unit 30 sets the paragraph start position and the paragraph end representing the range of the paragraph in the sentence including the detected link information (which associates the sentence with the sound data). Detect position. In the example shown in FIG. 8, a range surrounded by a frame indicated by a dotted line is detected as the range of the corresponding paragraph.

ステップS32では、文章・音データ解析部30は、ステップS31で検出した段落の範囲内で、リンク情報が存在する位置の文章が1対のカギ括弧(「」)で囲まれているか否かを識別する。囲まれている場合はステップS33からS34に進み、囲まれていない場合は図7のステップS35に進む。   In step S32, the sentence / sound data analysis unit 30 determines whether or not the sentence at the position where the link information exists is surrounded by a pair of square brackets (“”) within the range of the paragraph detected in step S31. Identify. If it is surrounded, the process proceeds from step S33 to S34. If it is not surrounded, the process proceeds to step S35 in FIG.

図8に示した例では、下線で示した文章の範囲内にリンク情報が存在する場合を想定しており、この範囲の文章がカギ括弧(「」)で囲まれているので、ステップS34に進む。   In the example shown in FIG. 8, it is assumed that the link information exists within the range of the underlined text, and the text in this range is surrounded by square brackets (“”). move on.

ステップS34では、文章・音データ解析部30は、該当するリンク情報の音データの種別が「セリフ」である、に判定する。そして、文章・音データ解析部30は、その判定結果の情報を音データ管理テーブルの該当する項目に書き込む。これにより、セリフを再生する場合には、この音データに適した所望の再生形態で再生を行うことができる。   In step S34, the sentence / sound data analysis unit 30 determines that the type of the sound data of the corresponding link information is “serif”. Then, the sentence / sound data analysis unit 30 writes the information of the determination result in the corresponding item of the sound data management table. As a result, when the lines are reproduced, the reproduction can be performed in a desired reproduction form suitable for the sound data.

ステップS35では、文章・音データ解析部30は、検出されたリンク情報(文章と音データを関連付けるもの)が含まれている文章中の一節を抽出する。具体的には、句点である「。」から「。」までの範囲を一節として抽出する。   In step S35, the sentence / sound data analysis unit 30 extracts a passage in the sentence that includes the detected link information (what associates the sentence with the sound data). Specifically, the range from “.” To “.”, Which is a punctuation mark, is extracted as one passage.

図9に示す例では、「効果音1」で示す位置(「ギー」の文字列の範囲)に該当するリンク情報が存在する場合を想定しているので、ステップS35を実行すると、これを含む「。」から「。」までの範囲、つまり「ギー、ドアがきしむ音が突然聞こえた。」の1行が一節として抽出される。   In the example shown in FIG. 9, since it is assumed that link information corresponding to the position indicated by “sound effect 1” (the range of the character string “Gee”) exists, this is included when step S35 is executed. The range from “.” To “.”, That is, “Ghee, a squeaking sound of the door suddenly” was extracted as one passage.

ステップS36では、ステップS35で抽出した一節の文章の中に予め定めた説明文が含まれているか否かをチェックする。具体的には、「xxの音」、「xxの声」(xxは任意の文字列を表す)のいずれかが含まれているか否かをチェックする。含まれている場合はステップS37に進み、含まれていない場合はステップS38に進む。   In step S36, it is checked whether or not a predetermined explanation is included in the passage of text extracted in step S35. Specifically, it is checked whether or not “sound of xx” or “voice of xx” (xx represents an arbitrary character string) is included. If it is included, the process proceeds to step S37, and if it is not included, the process proceeds to step S38.

ステップS37では、文章・音データ解析部30は、該当するリンク情報の音データの種別が「効果音」である、と判定する。そして、文章・音データ解析部30は、その判定結果の情報を音データ管理テーブルの該当する項目に書き込む。これにより、具体的な音または声を示す情報が本文データに含まれるときには、効果音であると判定し、効果音を再生する場合には、この音データに適した所望の再生形態で再生を行うことができる。なお、この場合の判定精度を更に上げるために、ステップS37の後にステップS38以降の処理を行ってから最終的な判定を行っても良い。   In step S <b> 37, the sentence / sound data analysis unit 30 determines that the type of sound data of the corresponding link information is “sound effect”. Then, the sentence / sound data analysis unit 30 writes the information of the determination result in the corresponding item of the sound data management table. Thus, when the text data includes information indicating a specific sound or voice, it is determined that the sound is a sound effect. When the sound effect is reproduced, the reproduction is performed in a desired reproduction form suitable for the sound data. It can be carried out. In addition, in order to further improve the determination accuracy in this case, the final determination may be performed after performing the processing after step S38 after step S37.

ステップS38では、文章・音データ解析部30は、該当するリンク情報の音データが関連付けられている文章の文字数を算出する。リンク情報に開始位置と終了位置が含まれている場合は、これにより該当する文字列を特定できる。   In step S38, the sentence / sound data analysis unit 30 calculates the number of characters of the sentence associated with the sound data of the corresponding link information. When the link information includes a start position and an end position, the corresponding character string can be specified thereby.

図9に示す「効果音2」のリンク情報については、下線を付けて示した文字列「バタン」の範囲に音データが関連付けてあるので、この範囲内の文字数(この場合は3)がステップS38で算出される。   For the link information of “sound effect 2” shown in FIG. 9, since the sound data is associated with the range of the character string “batan” shown with an underline, the number of characters in this range (in this case, 3) is the step. Calculated in S38.

ステップS39では、文章・音データ解析部30は、該当するリンク情報の音データを実際に音響として再生する場合に、どれだけの時間の長さに渡って音が出力されるのかを表す再生時間を算出する。図9に示す「効果音2」の場合は、例えば2秒として算出される。   In step S39, the sentence / sound data analysis unit 30 indicates how long the sound is output when the sound data of the corresponding link information is actually reproduced as sound. Is calculated. In the case of “sound effect 2” shown in FIG. 9, for example, it is calculated as 2 seconds.

ステップS40では、文章・音データ解析部30は、該当するリンク情報に対応付けられた範囲の文字列を読者が読む場合にどれだけの長さの時間が必要なのかを表す所要時間(読書時間)を、該当する文字数等に基づいて算出する。図9に示す「効果音2」の場合は、例えば1秒として算出される。   In step S40, the sentence / sound data analysis unit 30 indicates a required time (reading time) indicating how much time is required when the reader reads a character string in a range associated with the corresponding link information. ) Is calculated based on the number of characters. In the case of “sound effect 2” shown in FIG. 9, for example, it is calculated as 1 second.

ステップS41では、文章・音データ解析部30は、ステップS39で算出された再生時間とステップS40で算出された所要時間とを比較する。具体的には、再生時間と所要時間との差分の絶対値を予め定めた閾値と比較し、差が数秒程度(再生時間が所要時間と同等)以内ならステップS42に進み、それよりも差が大きい場合はステップS43に進む。   In step S41, the sentence / sound data analysis unit 30 compares the reproduction time calculated in step S39 with the required time calculated in step S40. Specifically, the absolute value of the difference between the reproduction time and the required time is compared with a predetermined threshold value. If the difference is within about several seconds (the reproduction time is equal to the required time), the process proceeds to step S42, and the difference is larger than that. If larger, the process proceeds to step S43.

ステップS42では、文章・音データ解析部30は、該当するリンク情報の音データの種別が「効果音」である、と判定する。そして、文章・音データ解析部30は、その判定結果の情報を音データ管理テーブルの該当する項目に書き込む。   In step S42, the sentence / sound data analysis unit 30 determines that the type of the sound data of the corresponding link information is “sound effect”. Then, the sentence / sound data analysis unit 30 writes the information of the determination result in the corresponding item of the sound data management table.

ステップS43では、文章・音データ解析部30は、該当するリンク情報の音データの種別が「背景音」である、と判定する。そして、文章・音データ解析部30は、その判定結果の情報を音データ管理テーブルの該当する項目に書き込む。   In step S43, the sentence / sound data analysis unit 30 determines that the type of the sound data of the corresponding link information is “background sound”. Then, the sentence / sound data analysis unit 30 writes the information of the determination result in the corresponding item of the sound data management table.

このように、読書時間と音データの再生時間を考慮して効果音か背景音かを判定可能であるので、その音データを適した再生形態で再生を行うことができる。   In this way, since it is possible to determine whether the sound effect or the background sound in consideration of the reading time and the reproduction time of the sound data, it is possible to reproduce the sound data in a suitable reproduction form.

次に、図5のステップS16に示した「音データ再生停止位置の推定」に関する処理の詳細について説明する。この処理の内容が図10に示されている。   Next, details of the processing relating to “estimation of the sound data reproduction stop position” shown in step S16 of FIG. 5 will be described. The contents of this process are shown in FIG.

図10のステップS51では、文章・音データ解析部30は、音データ管理テーブルを参照し、該当するリンク情報の音データを再生する場合の再生時間の長さを特定する。   In step S51 of FIG. 10, the sentence / sound data analysis unit 30 refers to the sound data management table, and specifies the length of the reproduction time when the sound data of the corresponding link information is reproduced.

ステップS52では、文章・音データ解析部30は、ステップS51で特定した再生時間の長さに渡って該当する音データを再生した場合に、読者が読んでいる文章中の位置がどこまで進むのか(再生停止位置)を算出する。つまり、文章中の読者の注目位置が音データのリンクされている箇所の先頭にある状態から、再生時間が経過した時に、読者が注目する位置が到達する推定位置を読者の読む速度(推定値など)と再生時間とに基づいて算出する。   In step S52, when the sound / sound data analysis unit 30 reproduces the corresponding sound data over the length of the reproduction time specified in step S51, how far the position in the sentence being read by the reader advances ( (Playback stop position) is calculated. In other words, from the state where the reader's attention position in the text is at the beginning of the linked portion of the sound data, the estimated position where the reader's attention position arrives when the playback time has passed is the reader's reading speed (estimated value) Etc.) and the playback time.

ステップS53では、文章・音データ解析部30は、ステップS52で算出した再生停止位置の情報を、音データ管理テーブルに書き込む。図4に示した音データ管理テーブルの例では、再生停止位置として、「先頭より10段落目の20文字目」が書き込まれている。   In step S53, the sentence / sound data analysis unit 30 writes the reproduction stop position information calculated in step S52 into the sound data management table. In the example of the sound data management table shown in FIG. 4, “20th character of the 10th paragraph from the beginning” is written as the playback stop position.

次に、図5のステップS20に示した「コンテンツ(音データ)の再生」に関する処理の詳細について説明する。この処理の内容が図11に示されている。つまり、電子書籍を再生し、ある1ページの文章等を出力部70の表示画面に表示した状態で、注目位置推定部40が推定した現在の読者の注目位置に、リンク情報で関連付けられた音データが存在する場合に、図11の処理が実行される。   Next, details of the processing relating to “reproduction of content (sound data)” shown in step S20 of FIG. 5 will be described. The contents of this processing are shown in FIG. That is, the sound associated with the current reader's attention position estimated by the attention position estimation unit 40 in the state in which the electronic book is reproduced and a certain page of text or the like is displayed on the display screen of the output unit 70. When data exists, the process of FIG. 11 is executed.

まず、ステップS61では、音データ再生制御部50は、音データ管理テーブルの内容に基づき、該当する音データの種別が「背景音」か否かを識別する。「背景音」であればステップS62に進み、それ以外ならステップS69に進む。   First, in step S61, the sound data reproduction control unit 50 identifies whether the type of the corresponding sound data is “background sound” based on the contents of the sound data management table. If it is “background sound”, the process proceeds to step S62; otherwise, the process proceeds to step S69.

ステップS62では、音データ再生制御部50は、現在の音の再生状況をチェックし、「背景音」が既に鳴動中(再生中)か否かを識別する。既に鳴動中ならステップS63に進み、鳴動中でなければステップS64に進む。   In step S62, the sound data reproduction control unit 50 checks the reproduction state of the current sound and identifies whether the “background sound” is already sounding (reproducing). If it is already ringing, it will progress to step S63, and if it is not ringing, it will progress to step S64.

ステップS63では、音データ再生制御部50は、現在鳴動中の(先に再生を開始した)他の「背景音」の再生を停止する。従って、文章中の同じ領域に複数の「背景音」が割り当てられた場合には、先に再生を開始した「背景音」が停止してから次の「背景音」が再生され、複数の「背景音」が重なって同時に鳴動することはない。ここでは、先に再生を開始した背景音よりも、これから再生する背景音の方が、優先順位が高くなっている。   In step S63, the sound data reproduction control unit 50 stops the reproduction of the other “background sound” that is currently ringing (reproduction is started first). Therefore, when a plurality of “background sounds” are assigned to the same area in the sentence, the “background sound” that was started first is stopped, and then the next “background sound” is reproduced. “Background sounds” do not overlap at the same time. Here, the priority of the background sound to be reproduced from now on is higher than that of the background sound that has been reproduced first.

ステップS64では、音データ再生制御部50は、現在の推定注目位置にリンク情報で関連付けられた該当する音データの本体を、音データ記憶部20から取得する。   In step S <b> 64, the sound data reproduction control unit 50 acquires from the sound data storage unit 20 the body of the corresponding sound data associated with the current estimated position of interest by link information.

ステップS65では、音データ再生制御部50は、音データ管理テーブルの内容に基づき、該当する音データに「注目位置の推定を一時停止する指定」(図4の音データ管理テーブルの上から6番目の項目の内容)があるか否かを識別する。指定がなければステップS66に進み、指定がある場合はステップS67に進む。   In step S65, the sound data reproduction control unit 50 adds “designation to pause the estimation of the target position” to the corresponding sound data based on the contents of the sound data management table (the sixth from the top of the sound data management table in FIG. 4). Whether or not there is an item content). If not specified, the process proceeds to step S66, and if specified, the process proceeds to step S67.

ステップS66では、音データ再生制御部50は、ステップS64で取得した音データの本体を「背景音」として比較的小さい音量(通常より小さい音量)で再生開始する。   In step S66, the sound data reproduction control unit 50 starts reproduction of the sound data body acquired in step S64 as a “background sound” at a relatively low volume (volume lower than normal).

ステップS67では、音データ再生制御部50は、ステップS64で取得した音データの本体を通常の音量で再生開始する。更に、ここで注目位置推定部40における注目位置の推定を一時停止する。一時停止している間は、注目位置は変化しない。一時停止する時間の長さは、音データ管理テーブルの内容により指定される。これにより、推定される注目位置における本文データによる観念と背景音による観念とで、ずれが生じることを防止できる。   In step S67, the sound data reproduction control unit 50 starts reproducing the main body of the sound data acquired in step S64 at a normal volume. Furthermore, here, the estimation of the target position in the target position estimation unit 40 is temporarily stopped. The attention position does not change during the pause. The length of the pause time is specified by the contents of the sound data management table. Thereby, it is possible to prevent a deviation between the concept based on the text data and the concept based on the background sound at the estimated position of interest.

ステップS68では、音データ再生制御部50は、ステップS67で注目位置の推定を一時停止してから指定時間を経過した時に、現在再生している「背景音」の音量を比較的小さい音量(通常より小さい音量)に変更し、注目位置推定部40による注目位置の推定を一時停止した位置から再開する。   In step S68, the sound data reproduction control unit 50 sets the volume of the “background sound” currently being reproduced to a relatively small volume (normally) after a specified time has elapsed since the estimation of the target position was temporarily stopped in step S67. The target position estimation unit 40 resumes the target position estimation from the position where it was temporarily stopped.

ステップS69では、音データ再生制御部50は、音データ管理テーブルの内容に基づき、該当する音データの種別が「効果音」か「セリフ」かを識別する。「効果音」であればステップS70に進み、「セリフ」ならステップS74に進む。   In step S69, the sound data reproduction control unit 50 identifies whether the type of the corresponding sound data is “sound effect” or “line” based on the contents of the sound data management table. If it is “sound effect”, the process proceeds to step S70, and if it is “line”, the process proceeds to step S74.

ステップS70では、音データ再生制御部50は、現在の推定注目位置にリンク情報で関連付けられた該当する音データの本体を音データ記憶部20から取得する。   In step S <b> 70, the sound data reproduction control unit 50 acquires the body of the corresponding sound data associated with the current estimated attention position by the link information from the sound data storage unit 20.

ステップS71では、音データ再生制御部50は、現在の音の再生状況をチェックし、「セリフ」が既に鳴動中(再生中)か否かを識別する。既に鳴動中ならステップS72に進み、鳴動中でなければステップS73に進む。   In step S71, the sound data reproduction control unit 50 checks the reproduction state of the current sound and identifies whether or not “line” is already ringing (reproducing). If it is already ringing, it will progress to step S72, and if it is not ringing, it will progress to step S73.

ステップS72では、音データ再生制御部50は、これから再生する「効果音」の音量を比較的小さい音量(通常より小さい音量)に定める。なお、ステップS72を実行しない場合は再生音量として通常の音量が選択される。ここでは、効果音よりもセリフの方が優先順位が高い。   In step S72, the sound data playback control unit 50 sets the volume of the “sound effect” to be played back to a relatively low volume (volume lower than normal). If step S72 is not executed, a normal volume is selected as the playback volume. Here, serif has higher priority than sound effect.

ステップS73では、音データ再生制御部50は、ステップS70で取得した音データの本体を「効果音」として再生する。   In step S73, the sound data reproduction control unit 50 reproduces the main body of the sound data acquired in step S70 as “sound effect”.

ステップS74では、音データ再生制御部50は、現在の音の再生状況をチェックし、「効果音」が既に鳴動中(再生中)か否かを識別する。既に鳴動中ならステップS75に進み、鳴動中でなければステップS76に進む。   In step S74, the sound data reproduction control unit 50 checks the reproduction state of the current sound, and identifies whether the “sound effect” is already sounding (reproducing). If it is already ringing, it will progress to step S75, and if it is not ringing, it will progress to step S76.

ステップS75では、音データ再生制御部50は、再生中の効果音の音量を比較的小さい音量(通常より小さい音量)に定める。ここでは、効果音よりもセリフの方が優先順位が高い。   In step S75, the sound data reproduction control unit 50 sets the volume of the sound effect being reproduced to a relatively low volume (volume smaller than normal). Here, serif has higher priority than sound effect.

ステップS76では、音データ再生制御部50は、現在の推定注目位置にリンク情報で関連付けられた該当する音データの本体を音データ記憶部20から取得する。   In step S76, the sound data reproduction control unit 50 acquires from the sound data storage unit 20 the main body of the corresponding sound data associated with the current estimated position of interest by link information.

ステップS77では、音データ再生制御部50は、ステップS76で取得した音データの本体を「セリフ」として再生する。   In step S77, the sound data reproduction control unit 50 reproduces the main body of the sound data acquired in step S76 as “line”.

ステップS78では、音データ再生制御部50は、注目位置推定部40の推定に関する一時停止/再開を制御する。具体的には、推定した注目位置が音データに対応付けられた文章位置の最後に到達しても、ステップS77で再生を開始した「セリフ」の出力が継続している場合には、ここで注目位置の推定を一時停止する。そして、「セリフ」の出力が完了した時に注目位置の推定を一時停止した位置から再開する。注目位置の推定を一時停止することで、推定される注目位置における本文データによる観念とセリフによる観念とで、ずれが生じることを防止できる。   In step S <b> 78, the sound data reproduction control unit 50 controls suspension / resumption regarding the estimation of the attention position estimation unit 40. Specifically, even if the estimated position of interest reaches the end of the sentence position associated with the sound data, if the output of “Serif” started to be reproduced in step S77 is continued, Pause the estimation of the position of interest. Then, when the output of “Serif” is completed, the estimation of the position of interest is resumed from the position where it was temporarily stopped. By temporarily stopping the estimation of the attention position, it is possible to prevent a deviation between the concept based on the text data and the concept based on the serif at the estimated attention position.

このように、複数の音データを同時に再生する必要がある場合には、優先順位の低い種別の音データの再生を制限することで、好適な音データの再生を行うことができる。   As described above, when it is necessary to reproduce a plurality of sound data at the same time, it is possible to reproduce suitable sound data by limiting the reproduction of the low-priority type sound data.

次に、「ページめくり」、「ページ戻し」の場合の動作について説明する。「ページめくり」の場合の動作が図12に示されており、「ページ戻し」の場合の動作が図13に示されている。   Next, operations in the case of “page turning” and “page returning” will be described. The operation in the case of “page turning” is shown in FIG. 12, and the operation in the case of “page return” is shown in FIG.

入力部80に対する読者の入力操作により、再生(表示)するページを現在の次のページ又は前のページに移動するための指示、すなわち「ページめくり」が発生すると、ステップS81以降の処理を実施する。   When an instruction for moving the page to be reproduced (displayed) to the current next page or the previous page, that is, “page turning” is generated by the input operation of the reader on the input unit 80, the processing after step S81 is performed. .

ステップS81では、音データ再生制御部50は、手動で指示された「ページめくり」の周期を自動ページめくりの周期と比較して、すばやい「ページめくり」か否かを識別する。   In step S81, the sound data reproduction control unit 50 compares the manually designated “page turning” cycle with the automatic page turning cycle to identify whether or not the page turning is quick.

手動で「ページめくり」を行わない場合には、注目位置推定部40が推定した注目位置の進み具合に応じてページの終端に到達した時に自動的にページめくりが実行される。従って、自動ページめくりの周期(時間の長さ)は、読者が文字を読む速度の推定値とページ内の文字数とに応じて定まり、大きく変化することはない。一方、読者が手動で「ページめくり」を指示する時には、様々な状況が考えられる。例えば、自動ページめくりが実行される前に読者がページの最後まで読み終えた場合や、読者が各ページの内容をほとんど読まずにぱらぱらとページをめくる操作を繰り返す場合などが考えられる。このような違いを区別するために、手動ページめくりがすばやいかどうかを識別する。具体的には、前回のページめくりのタイミングから今回のページめくりのタイミングまでの経過時間を手動ページめくりの周期として検出する。そして、手動ページめくりの周期が自動ページめくりの周期と比べて所定以内(例えば1/5以内)であればステップS89に進み、それより長い場合はステップS82に進む。   When the “page turning” is not performed manually, the page turning is automatically executed when the end of the page is reached according to the progress of the target position estimated by the target position estimation unit 40. Therefore, the automatic page turning cycle (the length of time) is determined according to the estimated value of the speed at which the reader reads the characters and the number of characters in the page, and does not change greatly. On the other hand, when the reader manually instructs “turning pages”, various situations can be considered. For example, there may be a case where the reader has read all the way to the end of the page before automatic page turning is performed, or a case where the reader repeatedly flips through the pages without reading the contents of each page. To distinguish these differences, we identify whether manual page turning is quick. Specifically, the elapsed time from the previous page turning timing to the current page turning timing is detected as the manual page turning cycle. If the manual page turning cycle is within a predetermined period (for example, within 1/5) of the automatic page turning cycle, the process proceeds to step S89, and if longer, the process proceeds to step S82.

ステップS82では、音データ再生制御部50は、自動再生停止中か否かを識別する。自動再生停止中とは、注目位置推定部40による注目位置の推定が停止している状態である。停止中であればステップS83に進み、停止中でなければステップS84に進む。   In step S82, the sound data reproduction control unit 50 identifies whether or not automatic reproduction is stopped. Stopping automatic playback is a state in which the estimation of the target position by the target position estimation unit 40 is stopped. If stopped, the process proceeds to step S83, and if not stopped, the process proceeds to step S84.

ステップS83では、音データ再生制御部50は、注目位置推定部40による注目位置の推定を再開する。つまり、手動ページめくりにより開いた新しいページの先頭の位置から読者が内容を読む状態を想定した再生制御を再開する。   In step S83, the sound data reproduction control unit 50 resumes the estimation of the target position by the target position estimation unit 40. That is, the reproduction control is resumed assuming that the reader reads the content from the top position of a new page opened by manual page turning.

ステップS84では、音データ再生制御部50は、手動ページめくりを行う直前のタイミングで読者が読んでいた位置、つまり注目位置推定部40が最後に推定した注目位置の情報(ページ番号も含む)を、位置記憶部90のレジューム用データ管理テーブルに記録する。また、音データ再生制御部50は、同時に音データの再生を実行していた場合には、該当する音データを特定する情報とその再生状況(位置や時間など)を表す情報についても、位置記憶部90のレジューム用データ管理テーブルに記録する。   In step S84, the sound data reproduction control unit 50 reads the position (including the page number) of the position that the reader was reading at the timing immediately before the manual page turning, that is, the position of interest estimated last by the position of interest estimation unit 40. The data is recorded in the resume data management table of the position storage unit 90. In addition, when the sound data reproduction control unit 50 is simultaneously reproducing the sound data, the position data is also stored with respect to information specifying the corresponding sound data and information indicating the reproduction state (position, time, etc.). The data is recorded in the resume data management table of the unit 90.

ステップS85では、音データ再生制御部50は、音データの再生を実行していた場合に該当する音データの種別をチェックする。そして、この音データの種別が「背景音」の場合には、推定した注目位置がこの音データの再生停止位置を超えたか否かを識別する。再生停止位置を超えた場合はステップS87に進み、超えていなければステップS86に進む。   In step S85, the sound data reproduction control unit 50 checks the type of sound data corresponding to the reproduction of sound data. When the type of the sound data is “background sound”, it is identified whether or not the estimated position of interest exceeds the reproduction stop position of the sound data. If the reproduction stop position is exceeded, the process proceeds to step S87, and if not, the process proceeds to step S86.

ステップS86では、音データ再生制御部50は、音データの再生を実行していた場合に該当する音データの種別をチェックする。そして、これが「効果音」又は「セリフ」の場合には、音データのリンクの位置の範囲がページを跨っているか否かを識別する。ページを跨っている場合はステップS88に進み、跨っていない場合はステップS87に進む。   In step S86, the sound data reproduction control unit 50 checks the type of sound data corresponding to the reproduction of sound data. If this is “sound effect” or “serif”, it is identified whether or not the range of the link position of the sound data straddles the page. When straddling the page, the process proceeds to step S88, and when not straddling, the process proceeds to step S87.

ステップS87では、音データ再生制御部50は、再生中の音データの再生を停止する。つまり、ページの移動によって「背景音」の再生停止位置を超えた場合や、ページを跨っていない「効果音」又は「セリフ」の再生中にページが移動した場合には、音の再生を停止する。   In step S87, the sound data reproduction control unit 50 stops reproduction of the sound data being reproduced. In other words, if the “background sound” playback stop position is exceeded due to page movement, or if the page moves during playback of “sound effects” or “lines” that do not straddle the page, sound playback stops. To do.

ステップS88では、音データ再生制御部50は、再生中の音データの再生をそのまま継続する。   In step S88, the sound data reproduction control unit 50 continues the reproduction of the sound data being reproduced as it is.

ステップS89では、音データ再生制御部50は、自動再生停止中か否かを識別する。停止中であればステップS92に進み、停止中でなければステップS90に進む。   In step S89, the sound data reproduction control unit 50 identifies whether or not automatic reproduction is stopped. If it is stopped, the process proceeds to step S92, and if not stopped, the process proceeds to step S90.

ステップS90では、音データ再生制御部50は、ページ飛ばしの状態(読者がぱらぱらとページを連続的にめくっている状態)であると判定する。そして、音データ再生制御部50は、再生中の音データがあれば、その再生を停止する。この場合、読者が読んでいた位置(推定した注目位置)の記録は不要なので省略される。   In step S90, the sound data reproduction control unit 50 determines that the page skipping state (a state in which the reader is flipping pages continuously). If there is sound data being reproduced, the sound data reproduction control unit 50 stops the reproduction. In this case, recording of the position read by the reader (estimated attention position) is unnecessary and is omitted.

ステップS91では、音データ再生制御部50は、注目位置推定部40による注目位置の推定動作を停止する。これにより、「自動再生停止中」になる。   In step S91, the sound data reproduction control unit 50 stops the target position estimation operation by the target position estimation unit 40. As a result, “automatic playback is stopped”.

ステップS92では、音データ再生制御部50は、今回のページめくりにより開いたページが、ステップS84で記録したページ(前に読んでいたページ)と一致するか否かを識別する。一致する場合はステップS93に進み、一致しない場合はステップS94に進む。   In step S92, the sound data reproduction control unit 50 identifies whether or not the page opened by the current page turning matches the page recorded in step S84 (the page read before). If they match, the process proceeds to step S93, and if they do not match, the process proceeds to step S94.

ステップS93では、音データ再生制御部50は、ステップS84で位置記憶部90に記録した情報に基づき、前に読んでいたページ内の読んでいた位置から、注目位置推定部40の位置の推定を再開する。また、その位置で音データの再生を行っていた場合には、該当する音データの再生も再開する。   In step S93, the sound data reproduction control unit 50 estimates the position of the attention position estimation unit 40 from the previously read position in the page based on the information recorded in the position storage unit 90 in step S84. Resume. If the sound data is being reproduced at that position, the corresponding sound data is also resumed.

ステップS94では、音データ再生制御部50は、次のページめくりの操作を待つ。   In step S94, the sound data reproduction control unit 50 waits for the next page turning operation.

入力部80に対する読者の入力操作により、再生(表示)するページを現在の前のページに移動するための指示、すなわち「ページ戻し」が発生すると、図13のステップS101以降の処理を実施する。   When an instruction to move the page to be reproduced (displayed) to the current previous page, that is, “page return” is generated by an input operation of the reader by the input unit 80, the processing after step S101 in FIG. 13 is performed.

まず、ステップS101では、音データ再生制御部50は、音データの再生を実行している場合に該当する音データの種別をチェックする。そして「背景音」、「効果音」のいずれかを再生中の場合にはステップS102に進み、「背景音」、「効果音」のいずれも再生中でなければステップS104に進む。   First, in step S101, the sound data reproduction control unit 50 checks the type of sound data corresponding to the case where sound data is being reproduced. If either “background sound” or “sound effect” is being reproduced, the process proceeds to step S102. If neither “background sound” nor “sound effect” is being reproduced, the process proceeds to step S104.

ステップS102では、音データ再生制御部50は、再生中の「背景音」又は「効果音」の再生開始位置が存在するページに今回の「ページ戻し」により到達したか否かを識別する。到達した場合はステップS103に進み、到達していない場合はステップS104に進む。   In step S102, the sound data reproduction control unit 50 identifies whether or not the current “page return” has reached the page where the reproduction start position of the “background sound” or “sound effect” being reproduced exists. If reached, the process proceeds to step S103, and if not reached, the process proceeds to step S104.

ステップS103では、音データ再生制御部50は、再生中の「背景音」又は「効果音」に関する再生(鳴動)動作を直ちに停止する。   In step S103, the sound data reproduction control unit 50 immediately stops the reproduction (sounding) operation regarding the “background sound” or “sound effect” being reproduced.

ステップS104では、音データ再生制御部50は、音データの再生を実行している場合に該当する音データの種別をチェックし、それが「セリフ」である場合にはこの音データの再生を停止する。   In step S104, the sound data reproduction control unit 50 checks the type of sound data when the sound data is being reproduced, and stops the reproduction of the sound data if it is “Serif”. To do.

このように、ページめくりやページ戻しが発生した場合には、再生中の音データの種別毎に異なる条件で音データの再生を停止することで、ページ変更後の場面に適した音データの再生を行うことができる。   In this way, when page turning or page reversion occurs, sound data playback is stopped under different conditions for each type of sound data being played back, so that sound data suitable for the scene after the page change is played back. It can be performed.

つまり、図1に示した電子書籍装置100においては、音データ再生形態決定部を含む音データ再生制御部50が、音データの再生形態を、音データの種別、すなわち「背景音」、「効果音」、「セリフ」、「本文の朗読用音声」の区分に応じて決定し、注目位置推定部40により推定された注目位置の文章データに対応する音データを、決定された再生形態で再生するよう制御する。   In other words, in the electronic book device 100 shown in FIG. 1, the sound data reproduction control unit 50 including the sound data reproduction form determining unit determines the sound data reproduction form according to the type of sound data, that is, “background sound”, “effect”. Sound data corresponding to the sentence data at the target position estimated by the target position estimation unit 40 is determined according to the classification of “sound”, “serif”, and “speech for reading the text”, and is reproduced in the determined reproduction form. Control to do.

従って、電子書籍装置100は、音データの種別毎に最適な条件で音を再生することができ、電子書籍の著作者は、様々な状況において複数種類の音データを使い分けることにより、音を用いて意図している状況を豊かに表現することができる。   Therefore, the electronic book device 100 can reproduce the sound under the optimum conditions for each type of sound data, and the author of the electronic book uses the sound by properly using a plurality of types of sound data in various situations. Can express the intended situation in a rich manner.

つまり、表1に示したように、音データの種別に合わせて停止制御を行うことにより、場面の状況と一致しない音が出力されるのを防ぐことができる。また、音の再生中に、音データの種別に合わせて注目位置の推定動作を一時停止したり推定動作を再開したりすることにより、読者が実際に注目する位置と推定した位置との誤差が小さくなる。また、複数の音の重畳を行うか否かを音データの種別に応じて決定することにより、複数の音データを同時に再生する場合でも場面の状況に適した音を出力することができる。更に、音データの種別に応じて音量を調整することにより、セリフの内容を聞き取りやすくしたり、場面の状況に適した音量で音を出力することが可能になる。また、読者のページめくりやページ戻しの操作に対して、音データを再生している時には、音データの種別に応じて停止位置等を制御することにより、場面の状況と一致しない音が出力されるのを防ぐことができる。   That is, as shown in Table 1, by performing stop control according to the type of sound data, it is possible to prevent a sound that does not match the situation of the scene from being output. In addition, during playback of sound, by pausing or resuming the estimation operation of the target position according to the type of sound data, the error between the position actually observed by the reader and the estimated position can be reduced. Get smaller. Further, by determining whether or not to superimpose a plurality of sounds according to the type of sound data, it is possible to output a sound suitable for the situation of the scene even when a plurality of sound data is reproduced simultaneously. Furthermore, by adjusting the volume according to the type of the sound data, it becomes possible to make it easy to hear the contents of the speech or to output the sound at a volume suitable for the situation of the scene. In addition, when sound data is being played in response to a user's page turning or page back operation, a sound that does not match the situation of the scene is output by controlling the stop position according to the type of sound data. Can be prevented.

本発明は、著者が意図するよう表現力豊かに音データを再生することが可能な電子書籍装置、電子書籍方法、及び電子書籍プログラムに有用である。   The present invention is useful for an electronic book device, an electronic book method, and an electronic book program capable of reproducing sound data with rich expressiveness as intended by the author.

10 文章データ記憶部
20 音データ記憶部
25 データ通信部
30 文章・音データ解析部
40 注目位置推定部
45 時計部
50 音データ再生制御部
60 ページ切り替え処理部
70 出力部
80 入力部
90 位置記憶部
100 電子書籍装置
DESCRIPTION OF SYMBOLS 10 Text data memory | storage part 20 Sound data memory | storage part 25 Data communication part 30 Text / sound data analysis part 40 Attention position estimation part 45 Clock part 50 Sound data reproduction | regeneration control part 60 Page switching process part 70 Output part 80 Input part 90 Position memory part 100 Electronic book device

Claims (12)

文章を構成する文字列の情報を含む本文データと、前記本文データに対応する音データと、を含む電子書籍のデータを読み込んで再生する電子書籍装置であって、
前記本文データ中の注目位置を推定する注目位置推定部と、
前記音データの種別に基づいて、前記音データの再生形態を決定する音データ再生形態決定部と、
前記注目位置推定部により推定された注目位置の前記本文データに対応する前記音データを、前記音データ再生形態決定部により決定された再生形態で再生するよう制御する音データ再生制御部と、
を備える電子書籍装置。
An electronic book device that reads and reproduces data of an electronic book including text data including character string information constituting a sentence and sound data corresponding to the text data,
An attention position estimation unit for estimating an attention position in the text data;
A sound data reproduction form determination unit for determining a reproduction form of the sound data based on the type of the sound data;
A sound data reproduction control unit that controls to reproduce the sound data corresponding to the text data of the attention position estimated by the attention position estimation unit in a reproduction form determined by the sound data reproduction form determination unit;
An electronic book device comprising:
請求項1に記載の電子書籍装置であって、
前記音データ再生形態決定部は、
前記音データの種別として、背景音、効果音、台詞の音声、本文の朗読用音声のうち少なくとも1種類を認識し、
前記音データの再生形態として、再生停止条件、再生繰り返し回数、再生音量、前記注目位置の推定への音データ再生の影響、の少なくとも1つを決定する電子書籍装置。
The electronic book device according to claim 1,
The sound data reproduction form determination unit
As the type of the sound data, at least one of background sound, sound effect, speech speech, and text reading speech is recognized,
An electronic book device that determines at least one of a reproduction stop condition, a reproduction repetition count, a reproduction volume, and an influence of reproduction of sound data on the estimation of the target position as a reproduction form of the sound data.
請求項2に記載の電子書籍装置であって、
前記音データ再生形態決定部は、前記音データが対応する前記本文データに引用符号を示す文字が含まれている場合、前記音データは台詞の音声であると判定する電子書籍装置。
The electronic book device according to claim 2,
The sound data reproduction form determination unit is an electronic book device that determines that the sound data is speech of speech when the text data corresponding to the sound data includes a character indicating a quotation mark.
請求項2に記載の電子書籍装置であって、
前記音データ再生形態決定部は、前記音データが対応する前記本文データに擬声語が含まれている場合、前記音データが効果音であると判定する電子書籍装置。
The electronic book device according to claim 2,
The sound data reproduction form determination unit is an electronic book device that determines that the sound data is a sound effect when the text data corresponding to the sound data includes an onomatopoeia.
請求項2に記載の電子書籍装置であって、
前記音データ再生形態決定部は、前記音データが対応する前記本文データの文字数に基づく読書時間と前記音データの再生時間とに基づいて、前記音データが背景音および効果音のいずれであるかを判定する電子書籍装置。
The electronic book device according to claim 2,
The sound data reproduction form determination unit determines whether the sound data is a background sound or a sound effect based on a reading time based on the number of characters of the body data corresponding to the sound data and a reproduction time of the sound data An electronic book device for determining
請求項2に記載の電子書籍装置であって、
前記音データ再生制御部は、前記注目位置推定部により推定された注目位置の前記本文データに対応する前記音データが背景音であり、管理テーブルに前記注目位置の推定を停止する旨が記憶されている場合、前記注目位置推定部による前記注目位置の推定を中断させる電子書籍装置。
The electronic book device according to claim 2,
The sound data reproduction control unit stores that the sound data corresponding to the text data of the target position estimated by the target position estimation unit is a background sound, and stops estimating the target position in the management table. An electronic book device that interrupts the estimation of the target position by the target position estimation unit.
請求項2に記載の電子書籍装置であって、
前記音データ再生制御部は、前記注目位置推定部により推定された注目位置の前記本文データに対応する前記音データが台詞である場合、前記注目位置推定部による前記注目位置の推定を中断させる電子書籍装置。
The electronic book device according to claim 2,
When the sound data corresponding to the body data of the target position estimated by the target position estimation unit is a dialogue, the sound data reproduction control unit interrupts the estimation of the target position by the target position estimation unit. Book device.
請求項1に記載の電子書籍装置であって、
前記音データ再生制御部は、前記注目位置推定部により推定された同一の注目位置に対応する前記音データが複数割り当てられている場合には、複数の前記音データのうち優先順位の低い種別の音データの再生を制限する電子書籍装置。
The electronic book device according to claim 1,
When the sound data reproduction control unit is assigned a plurality of the sound data corresponding to the same target position estimated by the target position estimation unit, the sound data reproduction control unit An electronic book device that restricts playback of sound data.
請求項1に記載の電子書籍装置であって、
前記音データ再生制御部は、ページめくり指示を受け付けた場合、再生中の前記音データの種別に基づく異なる条件で、前記音データの再生を停止する電子書籍装置。
The electronic book device according to claim 1,
When the sound data reproduction control unit receives a page turning instruction, the sound data reproduction control unit stops reproduction of the sound data under different conditions based on the type of the sound data being reproduced.
請求項1に記載の電子書籍装置であって、更に
外部装置から前記音データを受信するデータ通信部を備える電子書籍装置。
The electronic book device according to claim 1, further comprising a data communication unit that receives the sound data from an external device.
文章を構成する文字列の情報を含む本文データと、前記本文データに対応する音データと、を含む電子書籍のデータを読み込んで再生する電子書籍再生方法であって、
前記本文データ中の注目位置を推定するステップと、
前記音データの種別に基づいて、前記音データの再生形態を決定するステップと、
前記推定された注目位置の前記本文データに対応する前記音データを、前記決定された再生形態で再生するよう制御するステップと、
を有する電子書籍再生方法。
An electronic book reproducing method for reading and reproducing electronic book data including text data including character string information constituting a sentence and sound data corresponding to the text data,
Estimating a position of interest in the text data;
Determining a reproduction form of the sound data based on a type of the sound data;
Controlling to reproduce the sound data corresponding to the body data of the estimated position of interest in the determined reproduction form;
An electronic book reproducing method comprising:
請求項11に記載の電子書籍再生方法の各ステップを実行させるための電子書籍プログラム。
The electronic book program for performing each step of the electronic book reproduction | regenerating method of Claim 11.
JP2010104493A 2010-04-28 2010-04-28 Electronic book apparatus and electronic book reproducing method Expired - Fee Related JP5213273B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010104493A JP5213273B2 (en) 2010-04-28 2010-04-28 Electronic book apparatus and electronic book reproducing method
PCT/JP2011/001128 WO2011135770A1 (en) 2010-04-28 2011-02-25 Electronic book device, electronic book reproduction method, and electronic book reproduction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010104493A JP5213273B2 (en) 2010-04-28 2010-04-28 Electronic book apparatus and electronic book reproducing method

Publications (2)

Publication Number Publication Date
JP2011233047A true JP2011233047A (en) 2011-11-17
JP5213273B2 JP5213273B2 (en) 2013-06-19

Family

ID=44861099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010104493A Expired - Fee Related JP5213273B2 (en) 2010-04-28 2010-04-28 Electronic book apparatus and electronic book reproducing method

Country Status (2)

Country Link
JP (1) JP5213273B2 (en)
WO (1) WO2011135770A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021565A (en) * 2012-07-12 2014-02-03 Canon Inc Electronic device, and control method therefor
WO2017158640A1 (en) * 2016-03-15 2017-09-21 株式会社ハイスピードボーイズ Information processing system, program and information processing method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4996750B1 (en) * 2011-01-31 2012-08-08 株式会社東芝 Electronics
US9141257B1 (en) * 2012-06-18 2015-09-22 Audible, Inc. Selecting and conveying supplemental content
CN103605468A (en) * 2013-11-14 2014-02-26 武汉虹翼信息有限公司 Electronic book control device and control interaction method thereof
JP7340784B2 (en) * 2018-06-08 2023-09-08 博樹 市川 Line practice system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07219951A (en) * 1994-01-28 1995-08-18 Matsushita Electric Ind Co Ltd Specific range extracting device and sentence extracting device
JP2006331257A (en) * 2005-05-30 2006-12-07 Sharp Corp Electronic book device
JP2010049406A (en) * 2008-08-20 2010-03-04 Kawai Musical Instr Mfg Co Ltd Picture book image playback device, picture book image playback method, picture book image playback program and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07219951A (en) * 1994-01-28 1995-08-18 Matsushita Electric Ind Co Ltd Specific range extracting device and sentence extracting device
JP2006331257A (en) * 2005-05-30 2006-12-07 Sharp Corp Electronic book device
JP2010049406A (en) * 2008-08-20 2010-03-04 Kawai Musical Instr Mfg Co Ltd Picture book image playback device, picture book image playback method, picture book image playback program and recording medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNB200800914001; James BOER: 'リアルタイム ミキシング バス' Game Programming Gems 6 日本語版 第1版, 20070801, P.515-520, 株式会社ボーンデジタル *
JPN6012046042; James BOER: 'リアルタイム ミキシング バス' Game Programming Gems 6 日本語版 第1版, 20070801, P.515-520, 株式会社ボーンデジタル *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021565A (en) * 2012-07-12 2014-02-03 Canon Inc Electronic device, and control method therefor
WO2017158640A1 (en) * 2016-03-15 2017-09-21 株式会社ハイスピードボーイズ Information processing system, program and information processing method
JPWO2017158640A1 (en) * 2016-03-15 2019-01-31 株式会社ハイスピードボーイズ Information processing system, program, and information processing method

Also Published As

Publication number Publication date
JP5213273B2 (en) 2013-06-19
WO2011135770A1 (en) 2011-11-03

Similar Documents

Publication Publication Date Title
KR101826714B1 (en) Foreign language learning system and foreign language learning method
JP5213273B2 (en) Electronic book apparatus and electronic book reproducing method
EP3430613B1 (en) Controlling playback of speech-containing audio data
US20150279347A1 (en) Text-to-Speech for Digital Literature
JP5698457B2 (en) Interactive storyteller system
US11651157B2 (en) Filler word detection through tokenizing and labeling of transcripts
JP7036015B2 (en) Dialogue control device and method
JP2009524105A (en) Learner-driven foreign language learning progress method and system
EP4191562A1 (en) Algorithmic determination of a story readers discontinuation of reading
JP5083155B2 (en) Electronic device and program with dictionary function
JP4622728B2 (en) Audio reproduction device and audio reproduction processing program
JP2005321706A (en) Method for reproducing digital book and apparatus for the same
Thompson Media player accessibility: Summary of insights from interviews & focus groups
JP2008175851A (en) Recording time calculator, device for pronunciation practice, method of calculating recording time, processing method for pronunciation practice, its program, and electronic dictionary
JP2018146961A (en) Voice reproduction device and voice reproduction program
JP2004325905A (en) Device and program for learning foreign language
KR100383061B1 (en) A learning method using a digital audio with caption data
JP6712511B2 (en) Voice learning system, voice learning method, and storage medium
CN112424853A (en) Text-to-speech interface featuring visual content that supplements audio playback of text documents
JP6535999B2 (en) Language learning apparatus, language learning method and program
JP2007248750A (en) Speech reproduction device
JPH0728384A (en) Language study training machine
JP2023131648A (en) System and program
CN113314092A (en) Method and device for model training and voice interaction
JP2005148307A (en) Device and method for speaking speed conversion, program, and recording medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130225

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees