JP2011203859A - Device and method for outputting voice - Google Patents
Device and method for outputting voice Download PDFInfo
- Publication number
- JP2011203859A JP2011203859A JP2010068738A JP2010068738A JP2011203859A JP 2011203859 A JP2011203859 A JP 2011203859A JP 2010068738 A JP2010068738 A JP 2010068738A JP 2010068738 A JP2010068738 A JP 2010068738A JP 2011203859 A JP2011203859 A JP 2011203859A
- Authority
- JP
- Japan
- Prior art keywords
- content
- display
- audio
- audio output
- progress
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、表示コンテンツに対応した音声を出力する音声出力装置、および音声出力方法に関する。 The present invention relates to an audio output device and an audio output method for outputting audio corresponding to display content.
絵本をはじめとする書籍等は、絵や文字等による視覚情報を通じて観察者に情報を提供している。こうした視覚情報と同時に音声情報を観察者に提供する、いわゆる読み聞かせは、幼児教育や高齢者の脳の活性化などの目的において有用であるとされている。 Books such as picture books provide information to viewers through visual information such as pictures and characters. So-called storytelling that provides the observer with audio information simultaneously with such visual information is said to be useful for purposes such as early childhood education and activation of the elderly's brain.
読み聞かせの態様は、紙媒体を用いた読み聞かせが広く知られているが、他にも電子制御装置を用いて絵本コンテンツを読み聞かせる電子絵本システム(たとえば、特許文献1参照)が提案されている。 As a mode of reading aloud, reading using a paper medium is widely known, but an electronic picture book system (for example, refer to Patent Document 1) that reads picture book contents using an electronic control device has been proposed. ing.
しかしながら、マンツーマンでの読み聞かせは、話者の都合で読み聞かせタイミングの制約を受けることが避けられない。また、デイケアサービスなど介護福祉の現場でのマンツーマンでの読み聞かせは、人的コストの制約を受ける。そのため、聴取者は、自由に読み聞かせてもらえないという不満が生じる。 However, it is inevitable that one-on-one reading is restricted by the timing of the reading for the convenience of the speaker. In addition, one-on-one reading in the field of nursing care and welfare such as day care services is subject to human cost constraints. As a result, the listener is dissatisfied with not being able to read it freely.
本発明は、このような点に鑑みてなされたものであり、話者を必要とせずに表示コンテンツに対応した音声を出力する音声出力装置、および音声出力方法の提供を目的とする。 The present invention has been made in view of these points, and an object thereof is to provide an audio output device and an audio output method for outputting audio corresponding to display content without requiring a speaker.
上記課題を解決するために、音声出力装置は、通信制御部と、音声コンテンツ記憶部と、音声出力部と、進行情報取得部と、音声出力進行制御部とを備える。
通信制御部は、表示コンテンツを記憶する表示コンテンツ記憶部を有して表示コンテンツを表示出力する表示装置との通信を制御する。音声コンテンツ記憶部は、表示コンテンツに対応する音声コンテンツを記憶する。音声出力部は、音声コンテンツを音声出力する。進行情報取得部は、音声コンテンツの音声出力の進行の判断に用いる進行情報を取得する。音声出力進行制御部は、表示装置が表示出力する表示内容に対応する音声コンテンツの音声出力の進行を、進行情報にもとづいて制御する。
In order to solve the above problem, the audio output device includes a communication control unit, an audio content storage unit, an audio output unit, a progress information acquisition unit, and an audio output progress control unit.
The communication control unit has a display content storage unit that stores display content, and controls communication with a display device that displays and outputs the display content. The audio content storage unit stores audio content corresponding to the display content. The audio output unit outputs audio content as audio. The progress information acquisition unit acquires progress information used to determine the progress of the audio output of the audio content. The audio output progress control unit controls the progress of the audio output of the audio content corresponding to the display content displayed and output by the display device based on the progress information.
また、上記課題を解決するために、表示コンテンツを記憶する表示コンテンツ記憶部を有して表示コンテンツを表示出力する表示装置との通信を制御する通信制御部と、表示コンテンツに対応する音声コンテンツを記憶する音声コンテンツ記憶部と、音声コンテンツを音声出力する音声出力部と、を備える音声出力装置の音声出力方法は、音声コンテンツの音声出力の進行の判断に用いる進行情報を取得するステップと、表示装置が表示出力する表示内容に対応する音声コンテンツの音声出力の進行を、進行情報にもとづいて制御するステップと、を含む。 In order to solve the above problems, a communication control unit that has a display content storage unit that stores display content and controls communication with a display device that displays and outputs the display content, and audio content corresponding to the display content are provided. An audio output method of an audio output device comprising an audio content storage unit for storing and an audio output unit for outputting audio content as audio, the step of acquiring progress information used to determine the progress of audio output of the audio content, and display Controlling the progress of the audio output of the audio content corresponding to the display content displayed and output by the apparatus based on the progress information.
上記の音声出力装置、および音声出力方法によれば、話者を必要とせずに表示コンテンツに対応した音声を出力する。 According to the audio output device and the audio output method, the audio corresponding to the display content is output without requiring a speaker.
以下、実施形態を図面を参照して説明する。
図1は、第1の実施形態の表示装置および音声出力装置のブロック図である。
第1の実施形態の表示装置1と音声出力装置2は、通信可能に接続することで、表示コンテンツの表示出力と、音声コンテンツの音声出力とを協働しておこなう。表示装置1は、たとえば、書籍を表示コンテンツとして文字や絵などの視覚情報を表示する。より具体的には、表示装置1は、電子書籍である。音声出力装置2は、表示装置1が表示する表示コンテンツに対応する音声コンテンツを音声出力する。音声出力装置2は、表示装置1と通信可能に接続することで、たとえば、読み聞かせ装置を構成する。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a block diagram of a display device and an audio output device according to the first embodiment.
The
表示装置1は、通信制御部1aと、表示出力部1bと、表示切替制御部1cと、表示コンテンツ記憶部1dを備える。通信制御部1aは、音声出力装置2との通信を制御する。表示出力部1bは、文字や絵などの視覚情報を表示出力する。表示出力部1bは、たとえば、液晶ディスプレイである。表示コンテンツ記憶部1dは、表示コンテンツを記憶する。表示コンテンツは、所定単位(たとえば、書籍単位)のテキストデータやイメージデータなどである。
The
表示切替制御部1cは、表示コンテンツ記憶部1dが記憶する表示コンテンツを所定単位(たとえば、ページ単位)で表示するために、表示出力部1bに表示する表示内容を切替制御する。
The display
音声出力装置2は、通信制御部2aと、音声出力部2cと、進行情報取得部2dと、音声コンテンツ記憶部2eと、音声出力進行制御部2bを備える。通信制御部2aは、表示装置1との通信を制御する。音声出力部2cは、音声(音楽などを含む)を出力する。音声出力部2cは、たとえば、スピーカであり、ヘッドホンやイヤホンを含む。音声コンテンツ記憶部2eは、表示装置1の表示コンテンツ記憶部1dが記憶する表示コンテンツに対応する音声コンテンツを記憶する。音声コンテンツは、所定単位(たとえば、書籍単位)の音声データなどである。
The
進行情報取得部2dは、音声コンテンツの音声出力の進行の判断に用いる進行情報を取得する。進行情報は、音声コンテンツの音声出力の継続を判断するための情報であり、たとえば、利用者の意思表示入力、利用可能時間、連続利用時間、聴取状態などがある。音声出力進行制御部2bは、表示装置1が表示出力する表示内容に対応する音声コンテンツの音声出力の進行を、進行情報にもとづいて制御する。音声出力進行制御部2bは、音声コンテンツの音声出力の進行を表示内容に対応させるため、通信制御部を介して表示装置1が表示する表示内容を示す情報を取得する。あるいは、音声出力進行制御部2bは、音声コンテンツの音声出力の進行を表示内容に対応させるため、通信制御部を介して表示内容の切替を表示装置1に指示する。
The progress
これにより、音声出力装置は、話者を必要とせずに表示コンテンツに対応した音声を出力することができる。
次に、第2の実施形態を用いてより具体的な説明をする。まず、第2の実施形態の表示装置および音声出力装置の概観について図2を用いて説明する。図2は、第2の実施形態の表示装置および音声出力装置の概観を示す図である。
Thereby, the voice output device can output the voice corresponding to the display content without requiring a speaker.
Next, a more specific description will be given using the second embodiment. First, an overview of the display device and the audio output device of the second embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an overview of the display device and the audio output device according to the second embodiment.
音声出力装置10は、たとえば、クマのようなキャラクタを模したロボットの形態であり、載置台に表示装置20を載置する。音声出力装置10は、表示装置20を載置台に載置した状態で読み聞かせ装置(読み聞かせロボット)として機能する。
The
音声出力装置10は、マイク11、カメラ12、スピーカ13、通信部14、演出駆動部15、RFID(Radio Frequency IDentification:電波による個体識別)タグリーダ16、およびコンテンツメモリリーダ17を備える。マイク11は、キャラクタの耳に相当する部位に左右一対が設けられ、利用者の音声等を入力する。カメラ12は、キャラクタの目に相当する部位に左右一対が設けられ、撮影画像を入力する。スピーカ13は、キャラクタの口に相当する部位に設けられ、音声を出力する。
The
通信部14は、載置台に載置された表示装置20に近接する位置であって、キャラクタの体幹部に相当する部位に設けられ、表示装置20の通信部22と通信をおこなう。通信部14と通信部22は、たとえば、近距離無線通信や赤外線通信により、または電気的に接続して通信をおこなう。演出駆動部15は、キャラクタの腕に相当する部位に設けられ、腕を動かして、表示装置20の表示内容のページ捲り動作を演出する。RFIDタグリーダ16は、近傍に位置するRFIDタグからデータを入力する。コンテンツメモリリーダ17は、コンテンツメモリ30に記録されたコンテンツデータを入力する。音声出力装置10は、ネットワーク通信部を備え、コンテンツサーバからネットワーク経由でコンテンツデータを取得することもできる。ネットワーク通信部は、たとえば、キャラクタの耳に相当する部位にアンテナを設けて、無線LAN(Local Area Network)で通信をおこなうようにしてもよい。
The
表示装置20は、ディスプレイ21と通信部22を備える。ディスプレイ21は、画素ごとに色の異なるカラー液晶層を重ねたカラー電子ペーパである。通信部22は、音声出力装置10の通信部14と通信をおこなう。
The
コンテンツデータは、表示コンテンツと、表示コンテンツに対応する音声コンテンツとがある。表示コンテンツと音声コンテンツは、コンテンツメモリ30、あるいはコンテンツサーバから取得可能である。この場合、表示装置20は、音声出力装置10を介して表示コンテンツを取得する。
The content data includes display content and audio content corresponding to the display content. Display content and audio content can be acquired from the
また、コンテンツメモリ30、あるいはコンテンツサーバは、表示コンテンツに対応する音声コンテンツのみを格納するようにしてもよい。この場合、表示装置20は、音声出力装置10から独立して表示コンテンツを取得する。音声出力装置10は、表示装置20が表示する表示コンテンツを識別する情報を表示装置20から取得して、コンテンツメモリ30、あるいはコンテンツサーバから表示コンテンツに対応する音声コンテンツを取得する。
Further, the
次に、第2の実施形態の音声出力装置10を制御する音声出力制御装置、および表示装置20を制御する表示制御装置のハードウェア構成例について図3を用いて説明する。図3は、第2の実施形態の音声出力制御装置および表示制御装置のハードウェア構成例を示す図である。
Next, a hardware configuration example of the audio output control device that controls the
音声出力装置10は、音声出力制御装置100を備える。音声出力制御装置100は、マイク11、カメラ12、スピーカ13、演出駆動部15、RFIDタグリーダ16、コンテンツメモリリーダ17など、複数の周辺機器が接続される。
The
音声出力制御装置100は、CPU(Central Processing Unit)101によって装置全体が制御されている。CPU101には、バス106を介してROM(Read Only Memory)102、RAM(Random Access Memory)103、入出力インタフェース104、および通信インタフェース105が接続されている。なお、CPU101には、ROM102に加えて、あるいはROM102に代えて図示しないHDD(Hard Disk Drive)を接続することもできる。
The entire audio
RAM103には、CPU101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM103には、CPU101による処理に必要な各種データが格納される。ROM102には、OSやアプリケーションプログラムが格納される。
The
入出力インタフェース104には、マイク11、カメラ12、スピーカ13、演出駆動部15、RFIDタグリーダ16、コンテンツメモリリーダ17などが接続されている。入出力インタフェース104は、マイク11、カメラ12、スピーカ13、演出駆動部15、RFIDタグリーダ16、コンテンツメモリリーダ17から送られてくる信号を、バス106を介してCPU101に送信する。
The input /
通信インタフェース105は、表示制御装置200との間でデータの送受信をおこなう。また、通信インタフェース105は、ネットワークを介してコンテンツサーバ3との間でデータの送受信をおこなう。
The
表示装置20は、表示制御装置200を備える。表示制御装置200は、ディスプレイ21などの周辺機器が接続される。
表示制御装置200は、CPU201によって装置全体が制御されている。CPU201には、バス207を介してROM202、RAM203、グラフィック処理装置204、入出力インタフェース205、および通信インタフェース206が接続されている。なお、CPU101には、ROM102に加えて、あるいはROM102に代えて図示しないHDDを接続することもできる。
The
The entire
RAM203には、CPU201に実行させるOSのプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM203には、CPU201による処理に必要な各種データが格納される。ROM202には、OSやアプリケーションプログラムが格納される。
The
グラフィック処理装置204には、ディスプレイ21が接続されている。グラフィック処理装置204は、CPU201からの命令にしたがって、画像をディスプレイ21の画面に表示させる。
A
入出力インタフェース205には、図示しない操作スイッチや、タッチパネルなどが接続されている。入出力インタフェース205は、図示しない操作スイッチや、タッチパネルなどから送られてくる信号を、バス207を介してCPU201に送信する。
The input /
通信インタフェース206は、音声出力制御装置100との間でデータの送受信をおこなう。
以上のようなハードウェア構成によって、本実施の形態の処理機能を実現することができる。
The
With the hardware configuration as described above, the processing functions of the present embodiment can be realized.
なお、音声出力制御装置100および表示制御装置200は、それぞれFPGA(Field Programmable Gate Array)やDSP(Digital Signal Processer)などからなるモジュールを含んで構成することもでき、それぞれCPU101、CPU201を有しない構成とすることもできる。その場合、音声出力制御装置100および表示制御装置200は、それぞれ不揮発性メモリ(たとえば、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ、フラッシュメモリ型メモリカードなど)を備え、モジュールのファームウェアを記憶する。不揮発性メモリは、可搬型記録媒体、あるいは通信インタフェース105、通信インタフェース206を介してファームウェアを書き込むことができる。可搬型記録媒体を接続する場合、入出力インタフェース104および入出力インタフェース205は、可搬型記録媒体への情報の書込み、および可搬型記録媒体への情報の読出しが可能な可搬型記録媒体インタフェースと接続可能になっている。
Note that the audio
このように音声出力制御装置100および表示制御装置200は、不揮発性メモリに記憶されているファームウェアを書き換えることにより、ファームウェアの更新をすることもできる。
As described above, the audio
なお、音声出力装置10と表示装置20とを別体にして備えず、音声出力装置が表示装置を一体にして備えるようにしてもよい。その場合、音声出力制御装置100は、グラフィック処理装置を備え、表示制御をおこなう。
Note that the
次に、第2の実施形態の読み聞かせ処理を図4を用いて説明する。読み聞かせ処理は、音声出力制御装置100により実行される。図4は、第2の実施形態の読み聞かせ処理のフローチャートである。
Next, the story-telling process of the second embodiment will be described with reference to FIG. The storytelling process is executed by the audio
[ステップS11]音声出力制御装置100は、ユーザ認証処理により利用ユーザの特定と、利用の可否を判定するユーザ認証処理を実行する。ユーザ認証処理の詳細は、図5、図6を用いて後述する。
[Step S11] The audio
[ステップS12]音声出力制御装置100は、ユーザ認証処理により利用ユーザが特定され、利用が許可された場合に、コンテンツ選択処理を実行する。コンテンツ選択処理は、読み聞かせをおこなうコンテンツの選択と、選択したコンテンツの開始位置の決定をおこなう。コンテンツ選択処理の詳細は、図7から図10を用いて後述する。
[Step S12] The audio
[ステップS13]音声出力制御装置100は、読み聞かせを連続して実行するタイマ値を設定する。タイマ値は、たとえば、「10分」が設定される。
このように、タイマ値を用いたタイマ監視は、ユーザが読み聞かせを継続しておこなう意思がなくなったときに、意図せずコンテンツの再生が進んでしまうことを防止する。たとえば、ユーザが寝てしまったときなどに、音声出力制御装置100は、適当な位置で再生を停止するため、次回の再生位置の確認が容易である。また、タイマ監視は、ユーザが無制限に音声出力制御装置100を利用することを制限するので、保護者の監督下で子どもが利用する場合などに有効である。
[Step S13] The audio
As described above, the timer monitoring using the timer value prevents the reproduction of content from proceeding unintentionally when the user's intention to continue reading is lost. For example, when the user falls asleep, the audio
[ステップS14]音声出力制御装置100は、コンテンツのタイトルの読み上げを制御するとともに、ユーザに対応した導入メッセージの再生を制御する。これにより、たとえば、ユーザが子どもの場合、音声出力装置10は、読み聞かせの導入として、演出駆動部15による本の開き動作演出をおこない、「(コンテンツのタイトル)だね。はじまりはじまり〜。」と導入メッセージを音声出力する。
[Step S14] The audio
[ステップS15]音声出力制御装置100は、コンテンツの一単位(たとえば、章、段落、文章、再生時間などの再生単位)での読み聞かせの進行を制御する。一単位読み聞かせ処理の詳細は、図11を用いて後述する。
[Step S15] The audio
[ステップS16]音声出力制御装置100は、1つのコンテンツの読み聞かせが終了したか否かを判定する。音声出力制御装置100は、1つのコンテンツの読み聞かせが終了した場合、コンテンツの読み聞かせの終了を表示装置20に通知し、ステップS20にすすむ。一方、音声出力制御装置100は、1つのコンテンツの読み聞かせが終了していない場合、ステップS17にすすむ。
[Step S16] The audio
[ステップS17]音声出力制御装置100は、コンテンツの読み聞かせを継続するか否かを判定する継続条件判定処理を実行する。継続条件判定処理の詳細は、図12を用いて後述する。
[Step S17] The audio
[ステップS18]音声出力制御装置100は、継続条件判定処理に実行の結果が継続である場合、ステップS15にすすみ、コンテンツの読み聞かせを継続する。一方、音声出力制御装置100は、継続条件判定処理に実行の結果が継続でない場合、ステップS19にすすむ。
[Step S18] If the execution result of the continuation condition determination process is continuation, the audio
[ステップS19]音声出力制御装置100は、コンテンツの読み聞かせを中途(中断)終了する中途終了処理を実行する。中途終了処理は、コンテンツの読み聞かせ再生位置をしおりデータとして記録する。しおりデータの詳細は、図10を用いて後述する。
[Step S <b> 19] The audio
また、音声出力制御装置100は、コンテンツの読み聞かせの中途終了を表示装置20に通知する。
表示装置20は、コンテンツの読み聞かせの中途終了の通知を受けて、メニューのしおりリストを更新する。更新されたしおりリストは、ユーザに読み始めのきっかけとなる案内情報としてディスプレイ21に表示する。ディスプレイ21は、電源未投入時でも表示を保持する。
Further, the audio
The
[ステップS20]音声出力制御装置100は、コンテンツの読み聞かせを終了する終了処理を実行する。表示装置20は、コンテンツの読み聞かせの終了の通知を受けて、メニューの最近の読み終わりリスト、ユーザの興味の傾向を分析したおすすめ本リストを更新する。更新されたリストは、ユーザに読み始めのきっかけとなる案内情報としてディスプレイ21に表示する。ディスプレイ21は、電源未投入時でも表示を保持する。終了処理は、演出駆動部15による本の閉じ動作演出をおこない、ユーザに対応した終了メッセージを再生して、読み聞かせ処理を終了する。たとえば、ユーザが子どもの場合、音声出力装置10は、読み聞かせの終了として、「おしまい。また読もうね。」と終了メッセージを音声出力する。
[Step S20] The audio
次に、第2の実施形態のユーザ認証処理を図5、図6を用いて説明する。ユーザ認証処理は、音声出力制御装置100により実行される。ユーザ認証処理は、利用ユーザの特定と、利用の可否を判定する。図5は、第2の実施形態のユーザ認証処理のフローチャートである。図6は、第2の実施形態のユーザ登録情報テーブルの一例を示す図である。
Next, user authentication processing according to the second embodiment will be described with reference to FIGS. The user authentication process is executed by the audio
[ステップS21]音声出力制御装置100は、カメラ12から入力する撮影画像にもとづいて音声出力制御装置100の前にいるユーザの有無を判定してユーザの検出をおこなう。音声出力制御装置100は、ユーザを検出するまでユーザ検出を反復し、ユーザの検出によりステップS22にすすむ。なお、音声出力制御装置100は、カメラ12でのユーザ検出に加えて、あるいはカメラ12でのユーザの検出に代えて、マイク11から入力する音声入力にもとづいて音声出力制御装置100の近傍にいるユーザの有無を判定してもよい。
[Step S <b> 21] The audio
[ステップS22]音声出力制御装置100は、検出したユーザが登録したユーザであるか否かを判定する。音声出力制御装置100は、検出したユーザが登録したユーザでない場合は、あらためてユーザ検出をおこなうためステップS21にすすむ。
[Step S22] The audio
なお、このとき、音声出力制御装置100は、新規ユーザ登録をおこなう処理を実行するようにしてもよい。これにより、たとえば、音声出力装置10は、「はじめまして、お名前を教えてくれるかな?」と新規登録案内メッセージを音声出力し、「山田太郎だよ」と音声入力を受け付ける。音声出力制御装置100は、受け付けた音声入力について、文字解析、意味解析を経てユーザ名を特定する。そして、たとえば、音声出力装置10は、「山田太郎さんだね?合ってるかな?」と登録情報確認メッセージを音声出力する。音声出力制御装置100は、ユーザからの「合ってる」などの肯定的回答の入力を確認後、新規ユーザとしてユーザ名と顔データを登録する。また、音声出力制御装置100は、音声入力にもとづいてユーザの特定をおこなう場合に音声データを登録する。
At this time, the audio
音声出力制御装置100は、検出したユーザが登録したユーザである場合は、登録ユーザ検出メッセージを音声出力してからステップS23にすすむ。たとえば、音声出力装置10は、検出したユーザが登録したユーザである場合に「(ユーザ名)さんだね、ご本を読もうか?」と登録ユーザ検出メッセージを音声出力する。
If the detected user is a registered user, the voice
検出したユーザが登録したユーザであるか否かの判定は、撮影画像にもとづく場合は、あらかじめ登録した顔との比較によりおこなうことができる。また、音声入力にもとづく場合は、あらかじめ登録した音声との比較によりおこなうことができる。 The determination as to whether or not the detected user is a registered user can be made by comparison with a pre-registered face, based on a captured image. In addition, when it is based on voice input, it can be performed by comparing with voices registered in advance.
ユーザ(使用者)の登録情報は、ユーザ登録時にユーザ登録情報テーブル40に記録される。ユーザ登録情報テーブル40は、ユーザID、指令優先度、ユーザ名、ユーザ認証情報、利用条件1、利用条件2、・・・を登録情報として含む。ユーザIDは、ユーザを一意に識別する識別情報である。指令優先度は、ユーザごとの指令の優先度であり、値が小さいほど優先度が高い。たとえば、指令優先度「1」のユーザの指令は、指令優先度「2」のユーザの指令に優先する。ユーザ名は、ユーザが設定する。たとえば、ユーザID「1」のユーザは、ユーザ名が「お母さん」である。ユーザ認証情報は、ユーザを認証する情報である。ユーザを認証する情報は、たとえば、顔情報や、音声情報である。利用条件1、利用条件2、・・・は、ユーザが音声出力装置10を利用する条件である。利用条件は、複数設定可能であり、複数設定があった場合、小さい番号を付した利用条件は、大きい番号を付した利用条件に優先する強い条件である。たとえば、利用条件1は、利用条件2に優先する強い条件である。
The registration information of the user (user) is recorded in the user registration information table 40 at the time of user registration. The user registration information table 40 includes a user ID, a command priority, a user name, user authentication information, a
[ステップS23]音声出力制御装置100は、ユーザ登録情報テーブル40からユーザの利用条件を取得する。
[ステップS24]音声出力制御装置100は、ユーザの利用条件から現時刻がユーザの利用可能時間であるか否かを判定する。音声出力制御装置100は、現時刻がユーザの利用可能時間である場合、ステップS25にすすむ。一方、音声出力制御装置100は、現時刻がユーザの利用可能時間でない場合、ステップS26にすすむ。
[Step S <b> 23] The audio
[Step S24] The audio
[ステップS25]音声出力制御装置100は、ユーザによる音声出力装置10の利用を許可してユーザ認証処理を終了する。
[ステップS26]音声出力制御装置100は、ユーザより指令優先度の高いユーザの利用許可があるか否かを判定する。音声出力制御装置100は、ユーザより指令優先度の高いユーザの利用許可がある場合、ステップS25にすすむ。一方、音声出力制御装置100は、ユーザより指令優先度の高いユーザの利用許可がない場合、ステップS27にすすむ。
[Step S25] The voice
[Step S26] The audio
音声出力制御装置100は、指令優先度の高いユーザの検出と、指令優先度の高いユーザの肯定的回答の検出とにより指令優先度の高いユーザの利用許可があったと判断する。
[ステップS27]音声出力制御装置100は、ユーザによる音声出力装置10の利用を不可(不許可)としてユーザ認証処理を終了する。
The sound
[Step S27] The audio
次に、第2の実施形態のコンテンツ選択処理を図7を用いて説明する。コンテンツ選択処理は、音声出力制御装置100により実行される。コンテンツ選択処理は、読み聞かせをおこなうコンテンツの選択と、選択したコンテンツの開始位置の決定をおこなう。図7は、第2の実施形態のコンテンツ選択処理のフローチャートである。
Next, content selection processing according to the second embodiment will be described with reference to FIG. The content selection process is executed by the audio
[ステップS31]音声出力制御装置100は、ユーザがコンテンツを自由に選択可能か否かを判定する。音声出力制御装置100は、ユーザがコンテンツを自由に選択可能と判定した場合、ステップS36にすすむ。音声出力制御装置100は、ユーザがコンテンツを自由に選択不可と判定した場合、ステップS32にすすむ。
[Step S31] The audio
[ステップS32]音声出力制御装置100は、ユーザの利用条件で制限する利用コンテンツの範囲に、コンテンツの選択範囲を制限する。音声出力制御装置100は、コンテンツの選択範囲のうち、ユーザに提案可能なコンテンツがあるか否かを判定する。音声出力制御装置100は、ユーザに提案可能なコンテンツがある場合、ステップS34にすすむ。一方、音声出力制御装置100は、ユーザに提案可能なコンテンツがない場合、ステップS33にすすむ。
[Step S32] The audio
[ステップS33]音声出力制御装置100は、ユーザにとって選択肢がない場合に、音声出力制御装置100が選択するデフォルトコンテンツを選択する。
[ステップS34]音声出力制御装置100は、ユーザの選択肢から推奨するコンテンツを選択して提案する。音声出力制御装置100は、たとえば、しおりデータの有無や、ユーザの過去のコンテンツ選択履歴から推奨するコンテンツの提案をおこなう。このとき、音声出力装置10は、たとえば、「(コンテンツのタイトル)にしようか。」と提案メッセージを音声出力する。
[Step S33] The audio
[Step S34] The audio
[ステップS35]音声出力制御装置100は、ユーザの肯定的回答の検出により受け入れ応答があったと判断する。また、音声出力制御装置100は、ユーザの否定的回答の検出、または応答受付時間内にユーザの肯定的回答の検出がなかったことにより受け入れ応答がないと判断する。音声出力制御装置100は、受け入れ応答があると判断した場合に、ステップS36にすすむ。一方、音声出力制御装置100は、受け入れ応答がないと判断した場合に、ステップS32にすすむ。
[Step S35] The audio
[ステップS36]音声出力制御装置100は、ユーザが受け入れ応答をおこなったコンテンツを選択する。
[ステップS37]音声出力制御装置100は、コンテンツをダウンロードするコンテンツダウンロード処理を実行後、コンテンツ選択処理を終了する。コンテンツダウンロード処理の詳細は、図8を用いて後述する。
[Step S36] The audio
[Step S37] The audio
次に、第2の実施形態のコンテンツダウンロード処理を図8から図10を用いて説明する。コンテンツダウンロード処理は、音声出力制御装置100により実行される。図8は、第2の実施形態のコンテンツダウンロード処理のフローチャートである。図9は、第2の実施形態のコンテンツデータの一例を示す図である。図10は、第2の実施形態のしおりデータの一例を示す図である。
Next, content download processing according to the second embodiment will be described with reference to FIGS. The content download process is executed by the audio
[ステップS41]音声出力制御装置100は、読み取り可能なメモリにコンテンツデータがあるか否かを判定する。読み取り可能なメモリは、たとえば、RAM103、コンテンツメモリ30である。音声出力制御装置100は、読み取り可能なメモリにコンテンツデータがある場合、ステップS43にすすむ。一方、音声出力制御装置100は、読み取り可能なメモリにコンテンツデータがない場合、ステップS42にすすむ。
[Step S41] The audio
[ステップS42]音声出力制御装置100は、コンテンツデータをコンテンツサーバ3から通信により取得する。
コンテンツデータは、たとえば、コンテンツデータ50のように、コンテンツ識別情報と、表示コンテンツデータと、音声コンテンツデータを含む。コンテンツ識別情報は、コンテンツを一意に識別する情報である。表示コンテンツデータは、コンテンツを所定単位で区切った表示部分データ(表示PART001、表示PART002、・・・)と、各表示部分データに対応する表示ページデータ(表示PAGE001、表示PAGE002、・・・)の集合である。表示ページデータは、対応する表示部分データのページデータ(文字サイズごとのページデータを含む)である。音声コンテンツデータは、コンテンツを所定単位で区切った音声部分データ(音声PART001、音声PART002、・・・)の集合である。
[Step S42] The audio
The content data includes content identification information, display content data, and audio content data as content data 50, for example. The content identification information is information that uniquely identifies the content. The display content data includes display partial data (display PART001, display PART002,...) Obtained by dividing the content in predetermined units, and display page data (display PAGE001, display PAGE002,...) Corresponding to each display partial data. It is a set. The display page data is the page data of the corresponding display partial data (including page data for each character size). The audio content data is a set of audio partial data (audio PART001, audio PART002,...) Obtained by dividing the content by a predetermined unit.
表示コンテンツデータと、音声コンテンツデータは、互いの通し番号で関連付けされている。たとえば、音声出力装置10が音声PART001を音声出力しているとき、表示装置20は、表示PART001を表示する。なお、音声出力制御装置100は、表示コンテンツデータを記憶保持しなくてもよい。同様に、表示制御装置200は、音声コンテンツデータを記憶保持しなくてもよい。
The display content data and the audio content data are associated with each other by a serial number. For example, when the
[ステップS43]音声出力制御装置100は、読み取り可能なメモリにしおりデータがあるか否かを判定する。音声出力制御装置100は、しおりデータがある場合、ステップS44にすすむ。一方、音声出力制御装置100は、しおりデータがない場合、ステップS45にすすむ。
[Step S43] The audio
[ステップS44]音声出力制御装置100は、しおりデータを取得する。しおりデータは、前回までのコンテンツの読み聞かせで中途終了した位置を記録する。しおりデータは、たとえば、しおりデータ60のように、ユーザ名と、コンテンツ識別情報と、表示コンテンツ開始位置と、音声コンテンツ開始位置を含む。表示コンテンツ開始位置は、表示出力を開始する表示部分データを特定する。音声コンテンツ開始位置は、音声出力を開始する音声部分データを特定する。たとえば、ユーザ名「たろう」は、コンテンツ識別情報「CODE001」のコンテンツを、表示について表示ページ「表示PAGE001」で「表示PART003」から、音声について「音声PART003」から開始するしおりデータがある。
[Step S44] The audio
次に、第2の実施形態の一単位読み聞かせ処理を図11を用いて説明する。一単位読み聞かせ処理は、音声出力制御装置100により実行される。図11は、第2の実施形態の一単位読み聞かせ処理のフローチャートである。
Next, a unit reading process according to the second embodiment will be described with reference to FIG. The one-unit reading process is executed by the audio
[ステップS51]音声出力制御装置100は、表示制御装置200とコンテンツ出力の開始位置を同期するため、表示制御装置200に表示コンテンツの開始位置を通知する。
[Step S51] The audio
なお、表示制御装置200が表示装置20の操作入力にもとづいて表示コンテンツを切り替えた場合は、音声出力制御装置100は、表示制御装置200からの通知を受けて音声コンテンツの開始位置を変更するようにしてもよい。
When the
[ステップS52]音声出力制御装置100は、音声部分データの範囲で音声コンテンツを再生する。なお、このとき表示装置20の表示は、読み聞かせ中の文章にあわせて表示されている文章の文字色を変更する。
[Step S52] The audio
[ステップS53]音声出力制御装置100は、ユーザが聴取状態であるか否かを判定する。ユーザが聴取状態であるか否かの判定は、あらかじめ定義した聴取状態判定基準にしたがい判定する。聴取状態判定基準は、たとえば、ユーザ離脱の検出(カメラ12の入力する撮影画像から所定時間以上の間、ユーザが確認できなくなった)や、ユーザの睡眠検出(撮影画像からユーザが所定時間以上の間、目を閉じている状態の検出)によりおこなう。
[Step S53] The audio
音声出力制御装置100は、ユーザが聴取状態でないと判定した場合は、終了メッセージを音声出力した後、ステップS55にすすみ、音声コンテンツの再生を終了する。一方、音声出力制御装置100は、ユーザが聴取状態であると判定した場合は、ステップS54にすすみ、音声コンテンツの再生を継続する。たとえば、音声出力装置10は、終了メッセージとして「きょうはここまでにするね」と音声出力する。
If the audio
なお、音声出力制御装置100は、ユーザが聴取状態でないと判定する場合、確認メッセージを音声出力してもよい。たとえば、音声出力装置10は、確認メッセージとして「もういいの?」と音声出力する。
Note that the audio
[ステップS54]音声出力制御装置100は、音声部分データの範囲(一単位)で音声コンテンツの再生が終了したか否かを判定する。音声出力制御装置100は、音声コンテンツの再生が終了した場合、ステップS55にすすむ。一方、音声出力制御装置100は、音声コンテンツの再生が終了していない場合、ステップS52にすすむ。
[Step S54] The audio
[ステップS55]音声出力制御装置100は、改ページがあるか否かを判定する。改ページの有無は、音声部分データに対応する表示ページデータを参照しておこなう。音声出力制御装置100は、改ページがある場合、ステップS56にすすみ、改ページがない場合、ステップS57にすすむ。
[Step S55] The audio
[ステップS56]音声出力制御装置100は、演出駆動部15によるページの捲り動作演出をおこなう。
[ステップS57]音声出力制御装置100は、しおりデータ60を更新して一単位読み聞かせ処理を終了する。
[Step S56] The audio
[Step S57] The voice
次に、第2の実施形態の継続条件判定処理を図12を用いて説明する。継続条件判定処理は、音声出力制御装置100により実行される。継続条件判定処理は、音声コンテンツの音声出力の継続の是非を判定する。図12は、第2の実施形態の継続条件判定処理のフローチャートである。
Next, the continuation condition determination process of the second embodiment will be described with reference to FIG. The continuation condition determination process is executed by the audio
[ステップS61]音声出力制御装置100は、ユーザの利用条件で制限する利用可能時間であるか否かを判定する。音声出力制御装置100は、利用可能時間である場合、ステップS62にすすみ、利用可能時間でない場合、ステップS67にすすむ。
[Step S61] The audio
[ステップS62]音声出力制御装置100は、読み聞かせを連続して実行するタイマ値がタイムアップしたか否かを判定する。音声出力制御装置100は、タイムアップした場合、ステップS63にすすみ、タイムアップしていない場合、ステップS66にすすむ。
[Step S62] The audio
[ステップS63]音声出力制御装置100は、継続意思確認メッセージの音声出力をおこない、ユーザの継続意思を確認するため所定期間の音声入力を待つ。たとえば、音声出力装置10は、継続意思確認メッセージとして「きょうはここまでにしておく?」と音声出力する。
[Step S63] The voice
[ステップS64]音声出力制御装置100は、ユーザの肯定的回答の検出により継続意思の表明があったと判断する。また、音声出力制御装置100は、ユーザの否定的回答の検出、または応答受付時間内にユーザの肯定的回答の検出がなかったことにより継続意思の表明がないと判断する。音声出力制御装置100は、継続意思の表明があると判断した場合に、ステップS65にすすむ。一方、音声出力制御装置100は、継続意思の表明がないと判断した場合に、ステップS67にすすむ。
[Step S64] The audio
[ステップS65]音声出力制御装置100は、読み聞かせを連続して実行するタイマ値を再設定する。タイマ値は、たとえば、初期設定時より短い「5分」が設定される。
[ステップS66]音声出力制御装置100は、読み聞かせの継続を判定して継続条件判定処理を終了する。
[Step S65] The audio
[Step S66] The voice
[ステップS67]音声出力制御装置100は、読み聞かせの終了を判定して継続条件判定処理を終了する。
このように、音声出力制御装置100は、利用者の意思表示入力、利用可能時間、連続利用時間などを取得し、音声コンテンツの音声出力の進行の判断をおこなう。ユーザ登録情報テーブル40は、利用可能時間、連続利用時間などのようにユーザごとの利用条件に優先度を定義できるほか、ユーザ間の指令優先度を定義できる。そのため、たとえば、保護者は、子どもの音声出力制御装置100の利用を管理できる。また、保護者がユーザ登録情報テーブル40により詳細な利用条件の定義をおこなうことで、音声出力制御装置100が自然な形で子どもの生活管理に関与することができる。
[Step S67] The audio
As described above, the audio
また、音声出力制御装置100のメッセージ出力パターンを複数通り用意し、ユーザや環境に応じてメッセージ出力パターンを選択することで、使用者の生活や健康のためのリズムなどの行動を自然な発話で誘導することができる。たとえば、音声出力制御装置100は、じろう(指令優先度「2」)に対して19時(利用可能時間終了)になると「もう寝ようか」とメッセージを出力する。また、音声出力制御装置100は、18時(利用可能時間内)であっても、お母さん(指令優先度「1」)の「もう寝なさい」との音声を認識したら、指令優先度の低いじろうの読み聞かせを終了する。音声出力装置10は、たとえば、読み聞かせを終了する時に、読み聞かせ中のじろうに「もう寝ようか」と音声出力する。
In addition, a plurality of message output patterns of the voice
また、ユーザ登録情報テーブル40には、例示した家庭での利用のほかにも、さまざまな環境に応じた定義をおこなうことができる。たとえば、保育園での利用の場合は、ユーザ登録情報テーブル40は、指令優先度順に、保母、年長児、年少児をユーザ登録する。また、介護施設での利用の場合は、ユーザ登録情報テーブル40は、指令優先度順に、介護者、要介護度の高い利用者、要介護度の低い利用者をユーザ登録する。 The user registration information table 40 can be defined according to various environments in addition to the exemplified use at home. For example, in the case of use at a nursery school, the user registration information table 40 registers a nursery mother, an older child, and a younger child in the order of command priority. In the case of use at a care facility, the user registration information table 40 registers a caregiver, a user with a high degree of care required, and a user with a low degree of care required in order of command priority.
次に、双方向コンテンツを利用可能とする第3の実施形態を図13、図14を用いて説明する。図13は、第3の実施形態の双方向コンテンツ利用例を示す図である。図14は、第3の実施形態のサブコンテンツデータの一例を示す図である。 Next, a third embodiment in which interactive content can be used will be described with reference to FIGS. FIG. 13 is a diagram illustrating an example of using interactive content according to the third embodiment. FIG. 14 is a diagram illustrating an example of sub-content data according to the third embodiment.
表示装置20が表示する表示コンテンツ、または音声出力制御装置100が音声出力する音声コンテンツに対応するユーザからの応答を受け付ける双方向コンテンツ利用例70を示す。
An interactive content usage example 70 for receiving a response from a user corresponding to display content displayed on the
双方向コンテンツ利用例70は、生物の幼児教育向け双方向コンテンツ例である。双方向コンテンツは、キャラクタブロックを用いてユーザからの応答を入力する。キャラクタブロック(回答用コンテンツ媒体)は、絵や写真を印刷したブロック形状、またはカード形状であり、音声出力制御装置100がキャラクタブロックを識別するためのRFIDタグを備える。キャラクタブロック71は、「おたまじゃくし」の文字と絵が印刷され、RFIDタグ72を備える。キャラクタブロック73は、「ひよこ」の文字と絵が印刷され、RFIDタグ74を備える。キャラクタブロック75は、図示されない文字と絵が印刷され、RFIDタグ76を備える。
The interactive content usage example 70 is an interactive content example for preschool education of living things. In the interactive content, a response from the user is input using a character block. The character block (response content medium) has a block shape in which a picture or a photograph is printed or a card shape, and includes an RFID tag for the audio
表示装置20が「かえるさんのこどもは?」という表示コンテンツを表示し、音声出力装置10が「かえるさんのこどもはだーれ?」と音声コンテンツを音声出力した状態で、音声出力制御装置100は、ユーザの応答を待つ。
In a state where the
ユーザが選択したキャラクタブロックをディスプレイ21上に置くと、RFIDタグリーダ16がキャラクタブロックの備えるRFIDタグから識別情報を取得し、音声出力制御装置100は、あらかじめ設定される正誤判定データにもとづいて正誤を判定する。
When the character block selected by the user is placed on the
音声出力制御装置100は、判定結果に対応する音声サブコンテンツを選択する。たとえば、音声出力装置10は、正解の時は、正解時に選択される音声サブコンテンツである「正解〜。そう、かえるさんのこどもは、おたまじゃくしなんだ」を音声出力する。また、音声出力装置10は、不正解の時は、不正解時に選択される音声サブコンテンツである「うーん残念。ひよこではなくて、おたまじゃくしなんだ」を音声出力する。音声出力制御装置100は、選択した音声サブコンテンツを表示内容に対応させるため、通信制御部を介して表示する表示内容の切替を表示装置20に指示する。表示装置20は、正解を赤丸つきで表示する表示サブコンテンツを表示する。
The audio
音声サブコンテンツと表示サブコンテンツは、サブコンテンツデータから取得する。サブコンテンツデータは、たとえば、サブコンテンツデータ80のように、表示コンテンツデータと、表示サブコンテンツデータと、音声コンテンツデータと、音声サブコンテンツデータを含む。表示サブコンテンツデータは、表示コンテンツデータを表示するときに選択可能なコンテンツデータである。 The audio sub-content and the display sub-content are acquired from the sub-content data. Sub-content data includes display content data, display sub-content data, audio content data, and audio sub-content data, for example, like sub-content data 80. The display sub content data is content data that can be selected when displaying the display content data.
たとえば、音声コンテンツデータ「音声PART002」を音声出力するとき、実際に音声出力する音声コンテンツデータは、音声サブコンテンツデータ「SPS002001」、「SPS002002」、「SPS002003」のうちから選択される。たとえば、「SPS002001」は正解時の音声出力、「SPS002002」は不正解時の音声出力、「SPS002003」は、入力を促す音声出力である。 For example, when audio content data “audio PART002” is output as audio, the audio content data that is actually output as audio is selected from audio subcontent data “SPS002001”, “SPS002002”, and “SPS002003”. For example, “SPS002001” is an audio output when the answer is correct, “SPS002002” is an audio output when the answer is incorrect, and “SPS002003” is an audio output that prompts input.
たとえば、表示コンテンツデータ「表示PART002」を表示するとき、実際に表示する表示コンテンツデータは、表示サブコンテンツデータ「DPS002001」、「DPS002002」、「DPS002003」のうちから選択される。たとえば、「DPS002001」は正解時の表示、「DPS002002」は不正解時の表示、「DPS002003」は、入力を促す表示である。 For example, when displaying the display content data “display PART002”, the display content data to be actually displayed is selected from the display sub-content data “DPS002001”, “DPS002002”, and “DPS002003”. For example, “DPS002001” is a correct answer display, “DPS002002” is an incorrect answer display, and “DPS002003” is an input prompting input.
音声出力制御装置100は、音声出力と表示内容とに食い違いが生じないように、選択した音声サブコンテンツに対応した表示サブコンテンツの切替を表示装置20に指示する。
The audio
なお、双方向コンテンツは、生物の幼児教育向け双方向コンテンツに限らない。たとえば、双方向コンテンツは、算数の双方向コンテンツ(足し算、数字の学習)などであってもよい。 The interactive content is not limited to the interactive content for biological infant education. For example, the interactive content may be arithmetic interactive content (addition, learning of numbers) or the like.
次に、サブコンテンツの読み聞かせをおこなう第4の実施形態を図15を用いて説明する。図15は、第4の実施形態のサブコンテンツ表示例を示す図である。
図15(a)は、サブコンテンツ表示例91を示す。表示装置20が「きょうはだれがあそびにくるのかな?とんとん」という文字表示と、扉の絵を表示し、音声出力装置10が「きょうはだれがあそびにくるのかな?とんとん」と音声出力する。
Next, a fourth embodiment for reading a sub-content will be described with reference to FIG. FIG. 15 is a diagram illustrating a sub-content display example according to the fourth embodiment.
FIG. 15A shows a sub-content display example 91. The
図15(b)は、サブコンテンツ表示例92を示す。表示装置20が「しろくてながいみみがみえます。だれかわかるかな?」という文字表示と、白くて長い耳の絵を表示し、音声出力装置10が「しろくてながいみみがみえます。だれかわかるかな?」と音声出力する。
FIG. 15B shows a sub-content display example 92. The
図15(c)は、サブコンテンツ表示例93を示す。表示装置20が「うさぎさん、でした」という文字表示と、うさぎの絵を表示し、音声出力装置10が「うさぎさん、でした」と音声出力する。
FIG. 15C shows a sub content display example 93. The
このコンテンツでは、遊びにくるキャラクタがコンテンツ再生ごとに変動し、サブコンテンツ表示例92とサブコンテンツ表示例93の内容が変更可能になっている。たとえば、サブコンテンツ表示例92の変更態様として、表示装置20が「きいろくて、ながいくびがみえます。だれかわかるかな?」という文字表示と、黄色くて長い首の絵を表示し、音声出力装置10が「きいろくて、ながいくびがみえます。だれかわかるかな?」と音声出力する。この変更態様に対応するサブコンテンツ表示例93の変更態様では、表示装置20が「きりんさん、でした」という文字表示と、きりんの絵を表示し、音声出力装置10が「きりんさん、でした」と音声出力する。
In this content, the character that comes to play fluctuates each time the content is played, and the contents of the sub-content display example 92 and the sub-content display example 93 can be changed. For example, as a change mode of the sub-content display example 92, the
また、サブコンテンツ表示例92のさらなる変更態様として、表示装置20が「はいいろの、ながいはながみえます。だれかわかるかな?」という文字表示と、灰色の長い鼻の絵を表示し、音声出力装置10が「はいいろの、ながいはながみえます。だれかわかるかな?」と音声出力する。この変更態様に対応するサブコンテンツ表示例93の変更態様では、表示装置20が「ぞうさん、でした」という文字表示と、ぞうの絵を表示し、音声出力装置10が「ぞうさん、でした」と音声出力する。
In addition, as a further modification of the sub-content display example 92, the
このような読み聞かせの進行制御は、第3の実施形態と同様に、音声出力制御装置100が音声出力と表示内容とに食い違いが生じないように、選択した音声サブコンテンツに対応した表示サブコンテンツの切替を表示装置20に指示することで実現する。さらに、前段の変更態様(サブコンテンツ表示例92の変更態様)に対応して、後段の変更態様(サブコンテンツ表示例93の変更態様)を選択するために、前段のサブコンテンツの選択結果は、後段のサブコンテンツの選択を制限する。
As in the case of the third embodiment, such a reading progress control is performed so that the audio
サブコンテンツデータ80を用いてサブコンテンツデータの選択を具体的に説明する。たとえば、「表示PART002」、「音声PART002」が前段で、「表示PART003」、「音声PART003」が後段にあるとする。このとき、前段で「DSP002002」、「SPS002002」を選択した場合、後段ではデータの識別番号の下3桁が一致する「DSP003002」、「SPS003002」を選択することとなる。 The selection of the sub content data will be specifically described using the sub content data 80. For example, it is assumed that “display PART002” and “voice PART002” are in the previous stage and “display PART003” and “voice PART003” are in the subsequent stage. At this time, when “DSP002002” and “SPS002002” are selected in the preceding stage, “DSP003002” and “SPS003002” in which the last three digits of the data identification numbers match are selected in the subsequent stage.
なお、音声出力制御装置100は、前段のサブコンテンツデータの選択をユーザの過去の選択履歴にもとづいておこなうようにしてもよい。たとえば、音声出力制御装置100は、累計選択回数の少ないサブコンテンツデータを選択する。
Note that the audio
次に、第5の実施形態の表示装置について図16、図17を用いて説明する。図16は、第5の実施形態の表示装置の概観を示す図である。図17は、第5の実施形態の表示コンテンツ割当表の一例を示す図である。 Next, a display device according to a fifth embodiment will be described with reference to FIGS. FIG. 16 is a diagram illustrating an overview of a display device according to the fifth embodiment. FIG. 17 is a diagram illustrating an example of a display content allocation table according to the fifth embodiment.
表示装置4は、複数枚のディスプレイ21を結合部5で綴じ、物理的なページ捲りが可能な電子書籍である。ディスプレイ21は、裏表に表示部を有し、各ページを識別するためのRFIDタグ23を各ページに備える。したがって、音声出力制御装置は、RFIDタグリーダ16により、ユーザに提示しているページを特定可能である。結合部5は、各ディスプレイ21と表示制御装置とを接続する信号線を内蔵する。
The
ユーザは、所望のページを開いて音声出力装置10の載置台に表示装置4をセットすることでページ捲りをおこなう。なお、音声出力装置10に物理的なページ捲り機構を備えるようにしてもよい。
The user turns the page by opening a desired page and setting the
表示装置4が備えるページ数は、実際の書籍に比較して十分なページ数を確保できない(たとえば、8ページ)ことから、各ディスプレイ21が表示する表示内容は、随時切替がおこなわれる。図17(a)に示す表示コンテンツ割当表41は、ディスプレイID(RFIDタグ23に記録)が「EP04」、「EP05」をユーザに提示中(ユーザ提示中42)に、各ディスプレイIDの表示コンテンツデータは、図示のようになる。ここで、表示装置4のページ捲りがおこなわれると、ユーザに提示中のディスプレイID(ユーザ提示中44)は、「EP06」、「EP07」となる。音声出力制御装置100は、ページ捲りを検出し、ディスプレイID「EP01」、「EP02」、「EP03」の表示コンテンツデータを更新する(図17(a)に示す表示コンテンツ割当表41)。
Since the
これにより、ユーザは、前後所定範囲のページについて、ページ切替操作を必要としない。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、表示制御装置、音声出力制御装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(可搬型記録媒体を含む)に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
As a result, the user does not need to perform a page switching operation for the predetermined range of pages.
The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the display control device and the audio output control device should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (including a portable recording medium). Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic recording device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Optical discs include DVD (Digital Versatile Disc), DVD-RAM, CD-ROM, CD-R (Recordable) / RW (ReWritable), and the like. Magneto-optical recording media include MO (Magneto-Optical disk).
プログラムを流通させる場合には、たとえば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When distributing the program, for example, portable recording media such as a DVD and a CD-ROM in which the program is recorded are sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
プログラムを実行するコンピュータは、たとえば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムにしたがった処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムにしたがった処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムにしたがった処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.
なお、上述の実施の形態は、実施の形態の要旨を逸脱しない範囲内において種々の変更を加えることができる。
さらに、上述の実施の形態は、多数の変形、変更が当業者にとって可能であり、説明した正確な構成および応用例に限定されるものではない。
Note that various modifications can be made to the above-described embodiment without departing from the gist of the embodiment.
Further, the above-described embodiments can be modified and changed by those skilled in the art, and are not limited to the exact configurations and application examples described.
10 音声出力装置
11 マイク
12 カメラ
13 スピーカ
14 通信部
15 演出駆動部
16 RFIDタグリーダ
17 コンテンツメモリリーダ
20 表示装置
21 ディスプレイ
22 通信部
30 コンテンツメモリ
100 音声出力制御装置
200 表示制御装置
DESCRIPTION OF
Claims (8)
前記表示コンテンツに対応する音声コンテンツを記憶する音声コンテンツ記憶部と、
前記音声コンテンツを音声出力する音声出力部と、
前記音声コンテンツの音声出力の進行の判断に用いる進行情報を取得する進行情報取得部と、
前記表示装置が表示出力する表示内容に対応する前記音声コンテンツの音声出力の進行を、前記進行情報にもとづいて制御する音声出力進行制御部と、
を備えることを特徴とする音声出力装置。 A communication control unit that has a display content storage unit that stores display content and controls communication with a display device that displays and outputs the display content;
An audio content storage unit for storing audio content corresponding to the display content;
An audio output unit for outputting the audio content as audio;
A progress information acquisition unit that acquires progress information used to determine the progress of audio output of the audio content;
An audio output progress control unit for controlling the progress of the audio output of the audio content corresponding to the display content displayed and output by the display device based on the progress information;
An audio output device comprising:
前記音声出力進行制御部は、ユーザが聴取状態でない場合に、前記音声コンテンツの音声出力の進行を停止することを特徴とする請求項1記載の音声出力装置。 The progress information includes a determination result of a user's listening state,
The audio output device according to claim 1, wherein the audio output progress control unit stops the progress of audio output of the audio content when the user is not in a listening state.
前記音声出力進行制御部は、前記利用条件を満たさない場合に、前記音声コンテンツの音声出力の進行を停止することを特徴とする請求項1記載の音声出力装置。 The progress information includes usage conditions for each user registered in advance,
The audio output device according to claim 1, wherein the audio output progress control unit stops the progress of audio output of the audio content when the use condition is not satisfied.
前記音声出力進行制御部は、再生を中断した前記音声コンテンツがある場合に、前記音声コンテンツの音声出力の進行を前記再生位置から開始することを特徴とする請求項1記載の音声出力装置。 The progress information includes a reproduction position of the interrupted audio content,
The audio output apparatus according to claim 1, wherein the audio output progress control unit starts the audio output of the audio content from the reproduction position when there is the audio content whose reproduction is interrupted.
前記音声出力進行制御部は、複数の選択肢から一の前記音声コンテンツを再生している場合に、次に再生する前記音声コンテンツの選択を制限することを特徴とする請求項1記載の音声出力装置。 The progress information includes a playback history of the audio content,
The audio output device according to claim 1, wherein the audio output progress control unit restricts selection of the audio content to be reproduced next when reproducing the one audio content from a plurality of options. .
前記進行情報取得部は、前記識別情報を取得することを特徴とすることを特徴とする請求項1記載の音声出力装置。 The display device comprises a plurality of pages, each page is provided with identification information for identifying each page,
The audio output device according to claim 1, wherein the progress information acquisition unit acquires the identification information.
前記音声コンテンツの音声出力の進行の判断に用いる進行情報を取得するステップと、
前記表示装置が表示出力する表示内容に対応する前記音声コンテンツの音声出力の進行を、前記進行情報にもとづいて制御するステップと、
を含むことを特徴とする音声出力方法。 A communication control unit that has a display content storage unit that stores display content and controls communication with a display device that displays and outputs the display content; an audio content storage unit that stores audio content corresponding to the display content; An audio output method of an audio output device comprising: an audio output unit that outputs the audio content as audio;
Obtaining progress information used to determine the progress of audio output of the audio content;
Controlling the progress of audio output of the audio content corresponding to the display content displayed and output by the display device based on the progress information;
An audio output method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010068738A JP2011203859A (en) | 2010-03-24 | 2010-03-24 | Device and method for outputting voice |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010068738A JP2011203859A (en) | 2010-03-24 | 2010-03-24 | Device and method for outputting voice |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011203859A true JP2011203859A (en) | 2011-10-13 |
Family
ID=44880462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010068738A Pending JP2011203859A (en) | 2010-03-24 | 2010-03-24 | Device and method for outputting voice |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011203859A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102842247A (en) * | 2012-07-30 | 2012-12-26 | 无锡同春新能源科技有限公司 | Children early education machine with solar photovoltaic power generation as power supply |
JP2020502571A (en) * | 2016-12-14 | 2020-01-23 | グーグル エルエルシー | Facilitate the generation and playback of user-recorded audio |
WO2023017732A1 (en) * | 2021-08-10 | 2023-02-16 | 本田技研工業株式会社 | Storytelling information creation device, storytelling robot, storytelling information creation method, and program |
-
2010
- 2010-03-24 JP JP2010068738A patent/JP2011203859A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102842247A (en) * | 2012-07-30 | 2012-12-26 | 无锡同春新能源科技有限公司 | Children early education machine with solar photovoltaic power generation as power supply |
JP2020502571A (en) * | 2016-12-14 | 2020-01-23 | グーグル エルエルシー | Facilitate the generation and playback of user-recorded audio |
US11238854B2 (en) | 2016-12-14 | 2022-02-01 | Google Llc | Facilitating creation and playback of user-recorded audio |
WO2023017732A1 (en) * | 2021-08-10 | 2023-02-16 | 本田技研工業株式会社 | Storytelling information creation device, storytelling robot, storytelling information creation method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220111300A1 (en) | Educational device | |
JP4996750B1 (en) | Electronics | |
WO2003081414A1 (en) | Gui and support hardware for maintaining long-term personal access to the world | |
JP2019154066A (en) | Reproduction device and output device | |
JP2011203859A (en) | Device and method for outputting voice | |
JP2005244942A (en) | Motion picture transmitter and method of mobile communication terminal | |
CN202976538U (en) | Image touch-read playing system | |
CN103888623B (en) | Voice prompt setting device, system and method | |
JP4382045B2 (en) | DATA OUTPUT DEVICE, DATA OUTPUT METHOD, DATA OUTPUT PROGRAM, AND RECORDING MEDIUM | |
WO2015088173A1 (en) | Smart device having a teaching material reproduction app installed therein, which reproduces information of book-type teaching material using code recognition pen capable of performing bluetooth communication | |
CN102075814A (en) | Television system for recording growth process of baby | |
KR101356880B1 (en) | Interactive toy for audio communication with physical interface | |
KR100653867B1 (en) | Mp3 player of infant mobile | |
KR101288543B1 (en) | Story telling type reading guide system and reading guide method thereof | |
JP2009253749A (en) | Image processing system, content playback apparatus and image processing method | |
JP2001331088A (en) | Multiple hearing training device and recording medium for multiple hearing training | |
KR20020038284A (en) | The multimedia eudcation method and system using projector | |
KR100312352B1 (en) | Apparatus for producing an audio signal having a function of displaying a moving picture and method for displaying the moving picture using the same | |
KR100714177B1 (en) | Sound output apparatus of book contents | |
WO2010129377A1 (en) | A baby bottle holder | |
CN108877327A (en) | A kind of intelligent point-reading identifying system | |
JP2011139143A (en) | Display device, television receiver, display method, program, and recording medium | |
KR20090072576A (en) | Multimedia contents playback apparatus with internet phone for internet connectivity and multimedia contents service system using it | |
JPH0822239A (en) | Information equipment for education | |
JP2002277577A (en) | Electronic time reporting clock |