JP2011203859A - Device and method for outputting voice - Google Patents

Device and method for outputting voice Download PDF

Info

Publication number
JP2011203859A
JP2011203859A JP2010068738A JP2010068738A JP2011203859A JP 2011203859 A JP2011203859 A JP 2011203859A JP 2010068738 A JP2010068738 A JP 2010068738A JP 2010068738 A JP2010068738 A JP 2010068738A JP 2011203859 A JP2011203859 A JP 2011203859A
Authority
JP
Japan
Prior art keywords
content
display
audio
audio output
progress
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010068738A
Other languages
Japanese (ja)
Inventor
Shinno Yamaguchi
信乃 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Frontech Ltd filed Critical Fujitsu Frontech Ltd
Priority to JP2010068738A priority Critical patent/JP2011203859A/en
Publication of JP2011203859A publication Critical patent/JP2011203859A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To output voice corresponding to a display content without needing a speaker.SOLUTION: A display device 1 and this voice output device 2 are communicably connected, and respectively perform display output of the display content and voice output of a voice content. A progress information acquisition part 2d of the voice output device 2 obtains progress information used for decision of progress of the voice output of the voice content such as a listening state, a continuous utilization time, a utilizable time, or intention indication input of a user. A voice output progress control part 2b controls the progress of the voice output of the voice content corresponding to display contents display-output by the display device 1 based on the progress information. The voice output progress control part 2b instructs the display device 1 about acquisition of information indicating the display contents displayed by the display device 1 through a communication control part or a changeover of the display contents through the communication control part.

Description

本発明は、表示コンテンツに対応した音声を出力する音声出力装置、および音声出力方法に関する。   The present invention relates to an audio output device and an audio output method for outputting audio corresponding to display content.

絵本をはじめとする書籍等は、絵や文字等による視覚情報を通じて観察者に情報を提供している。こうした視覚情報と同時に音声情報を観察者に提供する、いわゆる読み聞かせは、幼児教育や高齢者の脳の活性化などの目的において有用であるとされている。   Books such as picture books provide information to viewers through visual information such as pictures and characters. So-called storytelling that provides the observer with audio information simultaneously with such visual information is said to be useful for purposes such as early childhood education and activation of the elderly's brain.

読み聞かせの態様は、紙媒体を用いた読み聞かせが広く知られているが、他にも電子制御装置を用いて絵本コンテンツを読み聞かせる電子絵本システム(たとえば、特許文献1参照)が提案されている。   As a mode of reading aloud, reading using a paper medium is widely known, but an electronic picture book system (for example, refer to Patent Document 1) that reads picture book contents using an electronic control device has been proposed. ing.

特開2009−119769号公報JP 2009-119769 A

しかしながら、マンツーマンでの読み聞かせは、話者の都合で読み聞かせタイミングの制約を受けることが避けられない。また、デイケアサービスなど介護福祉の現場でのマンツーマンでの読み聞かせは、人的コストの制約を受ける。そのため、聴取者は、自由に読み聞かせてもらえないという不満が生じる。   However, it is inevitable that one-on-one reading is restricted by the timing of the reading for the convenience of the speaker. In addition, one-on-one reading in the field of nursing care and welfare such as day care services is subject to human cost constraints. As a result, the listener is dissatisfied with not being able to read it freely.

本発明は、このような点に鑑みてなされたものであり、話者を必要とせずに表示コンテンツに対応した音声を出力する音声出力装置、および音声出力方法の提供を目的とする。   The present invention has been made in view of these points, and an object thereof is to provide an audio output device and an audio output method for outputting audio corresponding to display content without requiring a speaker.

上記課題を解決するために、音声出力装置は、通信制御部と、音声コンテンツ記憶部と、音声出力部と、進行情報取得部と、音声出力進行制御部とを備える。
通信制御部は、表示コンテンツを記憶する表示コンテンツ記憶部を有して表示コンテンツを表示出力する表示装置との通信を制御する。音声コンテンツ記憶部は、表示コンテンツに対応する音声コンテンツを記憶する。音声出力部は、音声コンテンツを音声出力する。進行情報取得部は、音声コンテンツの音声出力の進行の判断に用いる進行情報を取得する。音声出力進行制御部は、表示装置が表示出力する表示内容に対応する音声コンテンツの音声出力の進行を、進行情報にもとづいて制御する。
In order to solve the above problem, the audio output device includes a communication control unit, an audio content storage unit, an audio output unit, a progress information acquisition unit, and an audio output progress control unit.
The communication control unit has a display content storage unit that stores display content, and controls communication with a display device that displays and outputs the display content. The audio content storage unit stores audio content corresponding to the display content. The audio output unit outputs audio content as audio. The progress information acquisition unit acquires progress information used to determine the progress of the audio output of the audio content. The audio output progress control unit controls the progress of the audio output of the audio content corresponding to the display content displayed and output by the display device based on the progress information.

また、上記課題を解決するために、表示コンテンツを記憶する表示コンテンツ記憶部を有して表示コンテンツを表示出力する表示装置との通信を制御する通信制御部と、表示コンテンツに対応する音声コンテンツを記憶する音声コンテンツ記憶部と、音声コンテンツを音声出力する音声出力部と、を備える音声出力装置の音声出力方法は、音声コンテンツの音声出力の進行の判断に用いる進行情報を取得するステップと、表示装置が表示出力する表示内容に対応する音声コンテンツの音声出力の進行を、進行情報にもとづいて制御するステップと、を含む。   In order to solve the above problems, a communication control unit that has a display content storage unit that stores display content and controls communication with a display device that displays and outputs the display content, and audio content corresponding to the display content are provided. An audio output method of an audio output device comprising an audio content storage unit for storing and an audio output unit for outputting audio content as audio, the step of acquiring progress information used to determine the progress of audio output of the audio content, and display Controlling the progress of the audio output of the audio content corresponding to the display content displayed and output by the apparatus based on the progress information.

上記の音声出力装置、および音声出力方法によれば、話者を必要とせずに表示コンテンツに対応した音声を出力する。   According to the audio output device and the audio output method, the audio corresponding to the display content is output without requiring a speaker.

第1の実施形態の表示装置および音声出力装置のブロック図である。It is a block diagram of the display apparatus and audio | voice output apparatus of 1st Embodiment. 第2の実施形態の表示装置および音声出力装置の概観を示す図である。It is a figure which shows the external appearance of the display apparatus and audio | voice output apparatus of 2nd Embodiment. 第2の実施形態の音声出力制御装置および表示制御装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the audio | voice output control apparatus and display control apparatus of 2nd Embodiment. 第2の実施形態の読み聞かせ処理のフローチャートである。It is a flowchart of the story-telling process of 2nd Embodiment. 第2の実施形態のユーザ認証処理のフローチャートである。It is a flowchart of the user authentication process of 2nd Embodiment. 第2の実施形態のユーザ登録情報テーブルの一例を示す図である。It is a figure which shows an example of the user registration information table of 2nd Embodiment. 第2の実施形態のコンテンツ選択処理のフローチャートである。It is a flowchart of the content selection process of 2nd Embodiment. 第2の実施形態のコンテンツダウンロード処理のフローチャートである。It is a flowchart of the content download process of 2nd Embodiment. 第2の実施形態のコンテンツデータの一例を示す図である。It is a figure which shows an example of the content data of 2nd Embodiment. 第2の実施形態のしおりデータの一例を示す図である。It is a figure which shows an example of the bookmark data of 2nd Embodiment. 第2の実施形態の一単位読み聞かせ処理のフローチャートである。It is a flowchart of the 1 unit storytelling process of 2nd Embodiment. 第2の実施形態の継続条件判定処理のフローチャートである。It is a flowchart of the continuation condition determination process of 2nd Embodiment. 第3の実施形態の双方向コンテンツ利用例を示す図である。It is a figure which shows the interactive content utilization example of 3rd Embodiment. 第3の実施形態のサブコンテンツデータの一例を示す図である。It is a figure which shows an example of the sub content data of 3rd Embodiment. 第4の実施形態のサブコンテンツ表示例を示す図である。It is a figure which shows the example of a sub content display of 4th Embodiment. 第5の実施形態の表示装置の概観を示す図である。It is a figure which shows the external appearance of the display apparatus of 5th Embodiment. 第5の実施形態の表示コンテンツ割当表の一例を示す図である。It is a figure which shows an example of the display content allocation table | surface of 5th Embodiment.

以下、実施形態を図面を参照して説明する。
図1は、第1の実施形態の表示装置および音声出力装置のブロック図である。
第1の実施形態の表示装置1と音声出力装置2は、通信可能に接続することで、表示コンテンツの表示出力と、音声コンテンツの音声出力とを協働しておこなう。表示装置1は、たとえば、書籍を表示コンテンツとして文字や絵などの視覚情報を表示する。より具体的には、表示装置1は、電子書籍である。音声出力装置2は、表示装置1が表示する表示コンテンツに対応する音声コンテンツを音声出力する。音声出力装置2は、表示装置1と通信可能に接続することで、たとえば、読み聞かせ装置を構成する。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a block diagram of a display device and an audio output device according to the first embodiment.
The display device 1 and the audio output device 2 of the first embodiment are connected so as to be communicable to perform display output of display content and audio output of audio content in cooperation. For example, the display device 1 displays visual information such as characters and pictures using a book as display content. More specifically, the display device 1 is an electronic book. The audio output device 2 outputs audio content corresponding to the display content displayed on the display device 1 as audio. The audio output device 2 is connected to the display device 1 so as to be communicable, thereby constituting, for example, a storytelling device.

表示装置1は、通信制御部1aと、表示出力部1bと、表示切替制御部1cと、表示コンテンツ記憶部1dを備える。通信制御部1aは、音声出力装置2との通信を制御する。表示出力部1bは、文字や絵などの視覚情報を表示出力する。表示出力部1bは、たとえば、液晶ディスプレイである。表示コンテンツ記憶部1dは、表示コンテンツを記憶する。表示コンテンツは、所定単位(たとえば、書籍単位)のテキストデータやイメージデータなどである。   The display device 1 includes a communication control unit 1a, a display output unit 1b, a display switching control unit 1c, and a display content storage unit 1d. The communication control unit 1 a controls communication with the audio output device 2. The display output unit 1b displays and outputs visual information such as characters and pictures. The display output unit 1b is, for example, a liquid crystal display. The display content storage unit 1d stores display content. The display content is text data or image data in a predetermined unit (for example, book unit).

表示切替制御部1cは、表示コンテンツ記憶部1dが記憶する表示コンテンツを所定単位(たとえば、ページ単位)で表示するために、表示出力部1bに表示する表示内容を切替制御する。   The display switching control unit 1c performs switching control of display content displayed on the display output unit 1b in order to display the display content stored in the display content storage unit 1d in a predetermined unit (for example, page unit).

音声出力装置2は、通信制御部2aと、音声出力部2cと、進行情報取得部2dと、音声コンテンツ記憶部2eと、音声出力進行制御部2bを備える。通信制御部2aは、表示装置1との通信を制御する。音声出力部2cは、音声(音楽などを含む)を出力する。音声出力部2cは、たとえば、スピーカであり、ヘッドホンやイヤホンを含む。音声コンテンツ記憶部2eは、表示装置1の表示コンテンツ記憶部1dが記憶する表示コンテンツに対応する音声コンテンツを記憶する。音声コンテンツは、所定単位(たとえば、書籍単位)の音声データなどである。   The audio output device 2 includes a communication control unit 2a, an audio output unit 2c, a progress information acquisition unit 2d, an audio content storage unit 2e, and an audio output progress control unit 2b. The communication control unit 2a controls communication with the display device 1. The audio output unit 2c outputs audio (including music). The audio output unit 2c is, for example, a speaker and includes headphones and earphones. The audio content storage unit 2e stores audio content corresponding to the display content stored in the display content storage unit 1d of the display device 1. The audio content is audio data of a predetermined unit (for example, a book unit).

進行情報取得部2dは、音声コンテンツの音声出力の進行の判断に用いる進行情報を取得する。進行情報は、音声コンテンツの音声出力の継続を判断するための情報であり、たとえば、利用者の意思表示入力、利用可能時間、連続利用時間、聴取状態などがある。音声出力進行制御部2bは、表示装置1が表示出力する表示内容に対応する音声コンテンツの音声出力の進行を、進行情報にもとづいて制御する。音声出力進行制御部2bは、音声コンテンツの音声出力の進行を表示内容に対応させるため、通信制御部を介して表示装置1が表示する表示内容を示す情報を取得する。あるいは、音声出力進行制御部2bは、音声コンテンツの音声出力の進行を表示内容に対応させるため、通信制御部を介して表示内容の切替を表示装置1に指示する。   The progress information acquisition unit 2d acquires progress information used to determine the progress of audio output of audio content. The progress information is information for determining the continuation of the audio output of the audio content, and includes, for example, a user's intention display input, an available time, a continuous usage time, and a listening state. The audio output progress control unit 2b controls the progress of the audio output of the audio content corresponding to the display content displayed and output by the display device 1 based on the progress information. The audio output progress control unit 2b acquires information indicating the display content displayed on the display device 1 via the communication control unit in order to make the progress of the audio output of the audio content correspond to the display content. Alternatively, the audio output progress control unit 2b instructs the display device 1 to switch the display content via the communication control unit in order to make the progress of the audio output of the audio content correspond to the display content.

これにより、音声出力装置は、話者を必要とせずに表示コンテンツに対応した音声を出力することができる。
次に、第2の実施形態を用いてより具体的な説明をする。まず、第2の実施形態の表示装置および音声出力装置の概観について図2を用いて説明する。図2は、第2の実施形態の表示装置および音声出力装置の概観を示す図である。
Thereby, the voice output device can output the voice corresponding to the display content without requiring a speaker.
Next, a more specific description will be given using the second embodiment. First, an overview of the display device and the audio output device of the second embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an overview of the display device and the audio output device according to the second embodiment.

音声出力装置10は、たとえば、クマのようなキャラクタを模したロボットの形態であり、載置台に表示装置20を載置する。音声出力装置10は、表示装置20を載置台に載置した状態で読み聞かせ装置(読み聞かせロボット)として機能する。   The audio output device 10 is in the form of a robot that imitates a character such as a bear, for example, and places the display device 20 on a placing table. The audio output device 10 functions as a reading device (a reading robot) in a state where the display device 20 is mounted on the mounting table.

音声出力装置10は、マイク11、カメラ12、スピーカ13、通信部14、演出駆動部15、RFID(Radio Frequency IDentification:電波による個体識別)タグリーダ16、およびコンテンツメモリリーダ17を備える。マイク11は、キャラクタの耳に相当する部位に左右一対が設けられ、利用者の音声等を入力する。カメラ12は、キャラクタの目に相当する部位に左右一対が設けられ、撮影画像を入力する。スピーカ13は、キャラクタの口に相当する部位に設けられ、音声を出力する。   The audio output device 10 includes a microphone 11, a camera 12, a speaker 13, a communication unit 14, an effect driving unit 15, an RFID (Radio Frequency IDentification) tag reader 16, and a content memory reader 17. The microphone 11 is provided with a pair of left and right portions corresponding to the ears of the character, and inputs a user's voice and the like. The camera 12 is provided with a pair of left and right portions corresponding to the eyes of the character, and inputs a captured image. The speaker 13 is provided in a part corresponding to the mouth of the character and outputs sound.

通信部14は、載置台に載置された表示装置20に近接する位置であって、キャラクタの体幹部に相当する部位に設けられ、表示装置20の通信部22と通信をおこなう。通信部14と通信部22は、たとえば、近距離無線通信や赤外線通信により、または電気的に接続して通信をおこなう。演出駆動部15は、キャラクタの腕に相当する部位に設けられ、腕を動かして、表示装置20の表示内容のページ捲り動作を演出する。RFIDタグリーダ16は、近傍に位置するRFIDタグからデータを入力する。コンテンツメモリリーダ17は、コンテンツメモリ30に記録されたコンテンツデータを入力する。音声出力装置10は、ネットワーク通信部を備え、コンテンツサーバからネットワーク経由でコンテンツデータを取得することもできる。ネットワーク通信部は、たとえば、キャラクタの耳に相当する部位にアンテナを設けて、無線LAN(Local Area Network)で通信をおこなうようにしてもよい。   The communication unit 14 is provided at a position close to the display device 20 mounted on the mounting table and corresponding to the trunk of the character, and communicates with the communication unit 22 of the display device 20. The communication unit 14 and the communication unit 22 perform communication by, for example, short-range wireless communication, infrared communication, or electrical connection. The effect drive unit 15 is provided in a portion corresponding to the character's arm, and moves the arm to produce a page turning operation of the display content of the display device 20. The RFID tag reader 16 inputs data from an RFID tag located in the vicinity. The content memory reader 17 inputs content data recorded in the content memory 30. The audio output device 10 includes a network communication unit, and can also acquire content data from the content server via the network. For example, the network communication unit may be provided with an antenna at a part corresponding to the ear of the character and perform communication via a wireless local area network (LAN).

表示装置20は、ディスプレイ21と通信部22を備える。ディスプレイ21は、画素ごとに色の異なるカラー液晶層を重ねたカラー電子ペーパである。通信部22は、音声出力装置10の通信部14と通信をおこなう。   The display device 20 includes a display 21 and a communication unit 22. The display 21 is color electronic paper in which color liquid crystal layers having different colors are superimposed on each pixel. The communication unit 22 communicates with the communication unit 14 of the audio output device 10.

コンテンツデータは、表示コンテンツと、表示コンテンツに対応する音声コンテンツとがある。表示コンテンツと音声コンテンツは、コンテンツメモリ30、あるいはコンテンツサーバから取得可能である。この場合、表示装置20は、音声出力装置10を介して表示コンテンツを取得する。   The content data includes display content and audio content corresponding to the display content. Display content and audio content can be acquired from the content memory 30 or the content server. In this case, the display device 20 acquires display content via the audio output device 10.

また、コンテンツメモリ30、あるいはコンテンツサーバは、表示コンテンツに対応する音声コンテンツのみを格納するようにしてもよい。この場合、表示装置20は、音声出力装置10から独立して表示コンテンツを取得する。音声出力装置10は、表示装置20が表示する表示コンテンツを識別する情報を表示装置20から取得して、コンテンツメモリ30、あるいはコンテンツサーバから表示コンテンツに対応する音声コンテンツを取得する。   Further, the content memory 30 or the content server may store only the audio content corresponding to the display content. In this case, the display device 20 acquires display content independently from the audio output device 10. The audio output device 10 acquires information for identifying the display content displayed on the display device 20 from the display device 20, and acquires audio content corresponding to the display content from the content memory 30 or the content server.

次に、第2の実施形態の音声出力装置10を制御する音声出力制御装置、および表示装置20を制御する表示制御装置のハードウェア構成例について図3を用いて説明する。図3は、第2の実施形態の音声出力制御装置および表示制御装置のハードウェア構成例を示す図である。   Next, a hardware configuration example of the audio output control device that controls the audio output device 10 of the second embodiment and the display control device that controls the display device 20 will be described with reference to FIG. 3. FIG. 3 is a diagram illustrating a hardware configuration example of the audio output control device and the display control device according to the second embodiment.

音声出力装置10は、音声出力制御装置100を備える。音声出力制御装置100は、マイク11、カメラ12、スピーカ13、演出駆動部15、RFIDタグリーダ16、コンテンツメモリリーダ17など、複数の周辺機器が接続される。   The audio output device 10 includes an audio output control device 100. The audio output control device 100 is connected to a plurality of peripheral devices such as a microphone 11, a camera 12, a speaker 13, an effect driving unit 15, an RFID tag reader 16, and a content memory reader 17.

音声出力制御装置100は、CPU(Central Processing Unit)101によって装置全体が制御されている。CPU101には、バス106を介してROM(Read Only Memory)102、RAM(Random Access Memory)103、入出力インタフェース104、および通信インタフェース105が接続されている。なお、CPU101には、ROM102に加えて、あるいはROM102に代えて図示しないHDD(Hard Disk Drive)を接続することもできる。   The entire audio output control apparatus 100 is controlled by a CPU (Central Processing Unit) 101. A ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an input / output interface 104, and a communication interface 105 are connected to the CPU 101 via a bus 106. An HDD (Hard Disk Drive) (not shown) can be connected to the CPU 101 in addition to the ROM 102 or instead of the ROM 102.

RAM103には、CPU101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM103には、CPU101による処理に必要な各種データが格納される。ROM102には、OSやアプリケーションプログラムが格納される。   The RAM 103 temporarily stores at least part of an OS (Operating System) program and application programs to be executed by the CPU 101. The RAM 103 stores various data necessary for processing by the CPU 101. The ROM 102 stores an OS and application programs.

入出力インタフェース104には、マイク11、カメラ12、スピーカ13、演出駆動部15、RFIDタグリーダ16、コンテンツメモリリーダ17などが接続されている。入出力インタフェース104は、マイク11、カメラ12、スピーカ13、演出駆動部15、RFIDタグリーダ16、コンテンツメモリリーダ17から送られてくる信号を、バス106を介してCPU101に送信する。   The input / output interface 104 is connected to a microphone 11, a camera 12, a speaker 13, an effect drive unit 15, an RFID tag reader 16, a content memory reader 17, and the like. The input / output interface 104 transmits signals sent from the microphone 11, camera 12, speaker 13, presentation drive unit 15, RFID tag reader 16, and content memory reader 17 to the CPU 101 via the bus 106.

通信インタフェース105は、表示制御装置200との間でデータの送受信をおこなう。また、通信インタフェース105は、ネットワークを介してコンテンツサーバ3との間でデータの送受信をおこなう。   The communication interface 105 transmits / receives data to / from the display control device 200. The communication interface 105 transmits and receives data to and from the content server 3 via the network.

表示装置20は、表示制御装置200を備える。表示制御装置200は、ディスプレイ21などの周辺機器が接続される。
表示制御装置200は、CPU201によって装置全体が制御されている。CPU201には、バス207を介してROM202、RAM203、グラフィック処理装置204、入出力インタフェース205、および通信インタフェース206が接続されている。なお、CPU101には、ROM102に加えて、あるいはROM102に代えて図示しないHDDを接続することもできる。
The display device 20 includes a display control device 200. The display control apparatus 200 is connected to peripheral devices such as the display 21.
The entire display control apparatus 200 is controlled by the CPU 201. A ROM 202, a RAM 203, a graphic processing device 204, an input / output interface 205, and a communication interface 206 are connected to the CPU 201 via a bus 207. Note that an HDD (not shown) can be connected to the CPU 101 in addition to the ROM 102 or instead of the ROM 102.

RAM203には、CPU201に実行させるOSのプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM203には、CPU201による処理に必要な各種データが格納される。ROM202には、OSやアプリケーションプログラムが格納される。   The RAM 203 temporarily stores at least a part of OS programs and application programs to be executed by the CPU 201. The RAM 203 stores various data necessary for processing by the CPU 201. The ROM 202 stores an OS and application programs.

グラフィック処理装置204には、ディスプレイ21が接続されている。グラフィック処理装置204は、CPU201からの命令にしたがって、画像をディスプレイ21の画面に表示させる。   A display 21 is connected to the graphic processing device 204. The graphic processing device 204 displays an image on the screen of the display 21 in accordance with a command from the CPU 201.

入出力インタフェース205には、図示しない操作スイッチや、タッチパネルなどが接続されている。入出力インタフェース205は、図示しない操作スイッチや、タッチパネルなどから送られてくる信号を、バス207を介してCPU201に送信する。   The input / output interface 205 is connected to an operation switch (not shown), a touch panel, and the like. The input / output interface 205 transmits a signal sent from an operation switch (not shown) or a touch panel to the CPU 201 via the bus 207.

通信インタフェース206は、音声出力制御装置100との間でデータの送受信をおこなう。
以上のようなハードウェア構成によって、本実施の形態の処理機能を実現することができる。
The communication interface 206 transmits and receives data to and from the audio output control device 100.
With the hardware configuration as described above, the processing functions of the present embodiment can be realized.

なお、音声出力制御装置100および表示制御装置200は、それぞれFPGA(Field Programmable Gate Array)やDSP(Digital Signal Processer)などからなるモジュールを含んで構成することもでき、それぞれCPU101、CPU201を有しない構成とすることもできる。その場合、音声出力制御装置100および表示制御装置200は、それぞれ不揮発性メモリ(たとえば、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ、フラッシュメモリ型メモリカードなど)を備え、モジュールのファームウェアを記憶する。不揮発性メモリは、可搬型記録媒体、あるいは通信インタフェース105、通信インタフェース206を介してファームウェアを書き込むことができる。可搬型記録媒体を接続する場合、入出力インタフェース104および入出力インタフェース205は、可搬型記録媒体への情報の書込み、および可搬型記録媒体への情報の読出しが可能な可搬型記録媒体インタフェースと接続可能になっている。   Note that the audio output control device 100 and the display control device 200 can also be configured to include modules each composed of an FPGA (Field Programmable Gate Array), a DSP (Digital Signal Processor), and the like, and have no CPU 101 and CPU 201, respectively. It can also be. In that case, the audio output control device 100 and the display control device 200 each include a nonvolatile memory (for example, an EEPROM (Electrically Erasable and Programmable Read Only Memory), a flash memory, a flash memory type memory card, etc.), and a module firmware. Remember. The nonvolatile memory can write firmware via a portable recording medium or the communication interface 105 and the communication interface 206. When connecting a portable recording medium, the input / output interface 104 and the input / output interface 205 are connected to a portable recording medium interface capable of writing information to the portable recording medium and reading information from the portable recording medium. It is possible.

このように音声出力制御装置100および表示制御装置200は、不揮発性メモリに記憶されているファームウェアを書き換えることにより、ファームウェアの更新をすることもできる。   As described above, the audio output control device 100 and the display control device 200 can update the firmware by rewriting the firmware stored in the nonvolatile memory.

なお、音声出力装置10と表示装置20とを別体にして備えず、音声出力装置が表示装置を一体にして備えるようにしてもよい。その場合、音声出力制御装置100は、グラフィック処理装置を備え、表示制御をおこなう。   Note that the audio output device 10 and the display device 20 may not be provided separately, and the audio output device may be provided with the display device integrally. In that case, the audio output control device 100 includes a graphic processing device and performs display control.

次に、第2の実施形態の読み聞かせ処理を図4を用いて説明する。読み聞かせ処理は、音声出力制御装置100により実行される。図4は、第2の実施形態の読み聞かせ処理のフローチャートである。   Next, the story-telling process of the second embodiment will be described with reference to FIG. The storytelling process is executed by the audio output control device 100. FIG. 4 is a flowchart of the reading process according to the second embodiment.

[ステップS11]音声出力制御装置100は、ユーザ認証処理により利用ユーザの特定と、利用の可否を判定するユーザ認証処理を実行する。ユーザ認証処理の詳細は、図5、図6を用いて後述する。   [Step S11] The audio output control apparatus 100 executes a user authentication process for identifying a user and determining whether or not the user can be used by a user authentication process. Details of the user authentication process will be described later with reference to FIGS.

[ステップS12]音声出力制御装置100は、ユーザ認証処理により利用ユーザが特定され、利用が許可された場合に、コンテンツ選択処理を実行する。コンテンツ選択処理は、読み聞かせをおこなうコンテンツの選択と、選択したコンテンツの開始位置の決定をおこなう。コンテンツ選択処理の詳細は、図7から図10を用いて後述する。   [Step S12] The audio output control device 100 executes a content selection process when a user is identified by the user authentication process and the use is permitted. In the content selection process, the content to be read is selected and the start position of the selected content is determined. Details of the content selection processing will be described later with reference to FIGS.

[ステップS13]音声出力制御装置100は、読み聞かせを連続して実行するタイマ値を設定する。タイマ値は、たとえば、「10分」が設定される。
このように、タイマ値を用いたタイマ監視は、ユーザが読み聞かせを継続しておこなう意思がなくなったときに、意図せずコンテンツの再生が進んでしまうことを防止する。たとえば、ユーザが寝てしまったときなどに、音声出力制御装置100は、適当な位置で再生を停止するため、次回の再生位置の確認が容易である。また、タイマ監視は、ユーザが無制限に音声出力制御装置100を利用することを制限するので、保護者の監督下で子どもが利用する場合などに有効である。
[Step S13] The audio output control device 100 sets a timer value for continuously executing the reading aloud. For example, “10 minutes” is set as the timer value.
As described above, the timer monitoring using the timer value prevents the reproduction of content from proceeding unintentionally when the user's intention to continue reading is lost. For example, when the user falls asleep, the audio output control device 100 stops the reproduction at an appropriate position, so that it is easy to confirm the next reproduction position. In addition, the timer monitoring restricts the user's unlimited use of the audio output control device 100, and thus is effective when used by a child under the supervision of a guardian.

[ステップS14]音声出力制御装置100は、コンテンツのタイトルの読み上げを制御するとともに、ユーザに対応した導入メッセージの再生を制御する。これにより、たとえば、ユーザが子どもの場合、音声出力装置10は、読み聞かせの導入として、演出駆動部15による本の開き動作演出をおこない、「(コンテンツのタイトル)だね。はじまりはじまり〜。」と導入メッセージを音声出力する。   [Step S14] The audio output control device 100 controls reading of the title of the content and also controls the reproduction of the introduction message corresponding to the user. Thereby, for example, when the user is a child, the audio output device 10 performs a book opening operation effect by the effect drive unit 15 as introduction of a storytelling, and “(title of content). And an introduction message are output by voice.

[ステップS15]音声出力制御装置100は、コンテンツの一単位(たとえば、章、段落、文章、再生時間などの再生単位)での読み聞かせの進行を制御する。一単位読み聞かせ処理の詳細は、図11を用いて後述する。   [Step S15] The audio output control apparatus 100 controls the progress of reading aloud in one unit of content (for example, a playback unit such as a chapter, paragraph, sentence, or playback time). Details of the one-unit storytelling process will be described later with reference to FIG.

[ステップS16]音声出力制御装置100は、1つのコンテンツの読み聞かせが終了したか否かを判定する。音声出力制御装置100は、1つのコンテンツの読み聞かせが終了した場合、コンテンツの読み聞かせの終了を表示装置20に通知し、ステップS20にすすむ。一方、音声出力制御装置100は、1つのコンテンツの読み聞かせが終了していない場合、ステップS17にすすむ。   [Step S16] The audio output control apparatus 100 determines whether reading of one content has been completed. When the reading of one content is completed, the audio output control device 100 notifies the display device 20 of the end of reading of the content, and proceeds to step S20. On the other hand, the audio output control apparatus 100 proceeds to step S17 when the reading of one content is not completed.

[ステップS17]音声出力制御装置100は、コンテンツの読み聞かせを継続するか否かを判定する継続条件判定処理を実行する。継続条件判定処理の詳細は、図12を用いて後述する。   [Step S17] The audio output control device 100 executes a continuation condition determination process for determining whether or not to continue reading the content. Details of the continuation condition determination process will be described later with reference to FIG.

[ステップS18]音声出力制御装置100は、継続条件判定処理に実行の結果が継続である場合、ステップS15にすすみ、コンテンツの読み聞かせを継続する。一方、音声出力制御装置100は、継続条件判定処理に実行の結果が継続でない場合、ステップS19にすすむ。   [Step S18] If the execution result of the continuation condition determination process is continuation, the audio output control apparatus 100 proceeds to step S15 and continues reading the content. On the other hand, if the result of execution in the continuation condition determination process is not continuation, the audio output control device 100 proceeds to step S19.

[ステップS19]音声出力制御装置100は、コンテンツの読み聞かせを中途(中断)終了する中途終了処理を実行する。中途終了処理は、コンテンツの読み聞かせ再生位置をしおりデータとして記録する。しおりデータの詳細は、図10を用いて後述する。   [Step S <b> 19] The audio output control device 100 executes a halfway termination process of terminating (interrupting) content reading aloud. In the midway termination processing, the content reading / reproducing position is recorded as bookmark data. Details of the bookmark data will be described later with reference to FIG.

また、音声出力制御装置100は、コンテンツの読み聞かせの中途終了を表示装置20に通知する。
表示装置20は、コンテンツの読み聞かせの中途終了の通知を受けて、メニューのしおりリストを更新する。更新されたしおりリストは、ユーザに読み始めのきっかけとなる案内情報としてディスプレイ21に表示する。ディスプレイ21は、電源未投入時でも表示を保持する。
Further, the audio output control device 100 notifies the display device 20 of the end of the content reading aloud.
The display device 20 updates the bookmark list of the menu in response to the notification that the content is being read aloud. The updated bookmark list is displayed on the display 21 as guidance information that triggers the user to start reading. The display 21 holds the display even when the power is not turned on.

[ステップS20]音声出力制御装置100は、コンテンツの読み聞かせを終了する終了処理を実行する。表示装置20は、コンテンツの読み聞かせの終了の通知を受けて、メニューの最近の読み終わりリスト、ユーザの興味の傾向を分析したおすすめ本リストを更新する。更新されたリストは、ユーザに読み始めのきっかけとなる案内情報としてディスプレイ21に表示する。ディスプレイ21は、電源未投入時でも表示を保持する。終了処理は、演出駆動部15による本の閉じ動作演出をおこない、ユーザに対応した終了メッセージを再生して、読み聞かせ処理を終了する。たとえば、ユーザが子どもの場合、音声出力装置10は、読み聞かせの終了として、「おしまい。また読もうね。」と終了メッセージを音声出力する。   [Step S20] The audio output control apparatus 100 executes an end process for ending content reading. The display device 20 receives the notification of the end of the reading of the content, and updates the recent reading end list of the menu and the recommended book list analyzing the tendency of the user's interest. The updated list is displayed on the display 21 as guidance information that triggers the user to start reading. The display 21 holds the display even when the power is not turned on. In the end process, a book closing operation effect is performed by the effect drive unit 15, an end message corresponding to the user is reproduced, and the story-telling process ends. For example, when the user is a child, the voice output device 10 outputs a voice message of “End”.

次に、第2の実施形態のユーザ認証処理を図5、図6を用いて説明する。ユーザ認証処理は、音声出力制御装置100により実行される。ユーザ認証処理は、利用ユーザの特定と、利用の可否を判定する。図5は、第2の実施形態のユーザ認証処理のフローチャートである。図6は、第2の実施形態のユーザ登録情報テーブルの一例を示す図である。   Next, user authentication processing according to the second embodiment will be described with reference to FIGS. The user authentication process is executed by the audio output control device 100. The user authentication process determines the use user and whether or not use is possible. FIG. 5 is a flowchart of user authentication processing according to the second embodiment. FIG. 6 is a diagram illustrating an example of a user registration information table according to the second embodiment.

[ステップS21]音声出力制御装置100は、カメラ12から入力する撮影画像にもとづいて音声出力制御装置100の前にいるユーザの有無を判定してユーザの検出をおこなう。音声出力制御装置100は、ユーザを検出するまでユーザ検出を反復し、ユーザの検出によりステップS22にすすむ。なお、音声出力制御装置100は、カメラ12でのユーザ検出に加えて、あるいはカメラ12でのユーザの検出に代えて、マイク11から入力する音声入力にもとづいて音声出力制御装置100の近傍にいるユーザの有無を判定してもよい。   [Step S <b> 21] The audio output control device 100 detects the user by determining whether or not there is a user in front of the audio output control device 100 based on the captured image input from the camera 12. The sound output control apparatus 100 repeats the user detection until the user is detected, and proceeds to Step S22 by the user detection. The audio output control device 100 is in the vicinity of the audio output control device 100 based on the audio input input from the microphone 11 in addition to the user detection by the camera 12 or instead of the user detection by the camera 12. You may determine the presence or absence of a user.

[ステップS22]音声出力制御装置100は、検出したユーザが登録したユーザであるか否かを判定する。音声出力制御装置100は、検出したユーザが登録したユーザでない場合は、あらためてユーザ検出をおこなうためステップS21にすすむ。   [Step S22] The audio output control device 100 determines whether or not the detected user is a registered user. If the detected user is not a registered user, the audio output control device 100 proceeds to step S21 to perform user detection again.

なお、このとき、音声出力制御装置100は、新規ユーザ登録をおこなう処理を実行するようにしてもよい。これにより、たとえば、音声出力装置10は、「はじめまして、お名前を教えてくれるかな?」と新規登録案内メッセージを音声出力し、「山田太郎だよ」と音声入力を受け付ける。音声出力制御装置100は、受け付けた音声入力について、文字解析、意味解析を経てユーザ名を特定する。そして、たとえば、音声出力装置10は、「山田太郎さんだね?合ってるかな?」と登録情報確認メッセージを音声出力する。音声出力制御装置100は、ユーザからの「合ってる」などの肯定的回答の入力を確認後、新規ユーザとしてユーザ名と顔データを登録する。また、音声出力制御装置100は、音声入力にもとづいてユーザの特定をおこなう場合に音声データを登録する。   At this time, the audio output control apparatus 100 may execute a process for performing new user registration. Thus, for example, the voice output device 10 outputs a new registration guidance message as “Nice to tell you your name?” And accepts a voice input as “Taro Yamada”. The voice output control apparatus 100 specifies a user name through character analysis and semantic analysis for the received voice input. Then, for example, the audio output device 10 outputs a registration information confirmation message as “Taro Yamada? The audio output control apparatus 100 registers the user name and face data as a new user after confirming the input of an affirmative answer such as “appropriate” from the user. The voice output control apparatus 100 registers voice data when specifying a user based on voice input.

音声出力制御装置100は、検出したユーザが登録したユーザである場合は、登録ユーザ検出メッセージを音声出力してからステップS23にすすむ。たとえば、音声出力装置10は、検出したユーザが登録したユーザである場合に「(ユーザ名)さんだね、ご本を読もうか?」と登録ユーザ検出メッセージを音声出力する。   If the detected user is a registered user, the voice output control apparatus 100 outputs a registered user detection message as a voice and proceeds to step S23. For example, when the detected user is a registered user, the voice output device 10 outputs a voice of a registered user detection message “(User name), read the book?”.

検出したユーザが登録したユーザであるか否かの判定は、撮影画像にもとづく場合は、あらかじめ登録した顔との比較によりおこなうことができる。また、音声入力にもとづく場合は、あらかじめ登録した音声との比較によりおこなうことができる。   The determination as to whether or not the detected user is a registered user can be made by comparison with a pre-registered face, based on a captured image. In addition, when it is based on voice input, it can be performed by comparing with voices registered in advance.

ユーザ(使用者)の登録情報は、ユーザ登録時にユーザ登録情報テーブル40に記録される。ユーザ登録情報テーブル40は、ユーザID、指令優先度、ユーザ名、ユーザ認証情報、利用条件1、利用条件2、・・・を登録情報として含む。ユーザIDは、ユーザを一意に識別する識別情報である。指令優先度は、ユーザごとの指令の優先度であり、値が小さいほど優先度が高い。たとえば、指令優先度「1」のユーザの指令は、指令優先度「2」のユーザの指令に優先する。ユーザ名は、ユーザが設定する。たとえば、ユーザID「1」のユーザは、ユーザ名が「お母さん」である。ユーザ認証情報は、ユーザを認証する情報である。ユーザを認証する情報は、たとえば、顔情報や、音声情報である。利用条件1、利用条件2、・・・は、ユーザが音声出力装置10を利用する条件である。利用条件は、複数設定可能であり、複数設定があった場合、小さい番号を付した利用条件は、大きい番号を付した利用条件に優先する強い条件である。たとえば、利用条件1は、利用条件2に優先する強い条件である。   The registration information of the user (user) is recorded in the user registration information table 40 at the time of user registration. The user registration information table 40 includes a user ID, a command priority, a user name, user authentication information, a use condition 1, a use condition 2,. The user ID is identification information that uniquely identifies the user. The command priority is a command priority for each user, and the smaller the value, the higher the priority. For example, a user command having a command priority “1” has priority over a user command having a command priority “2”. The user name is set by the user. For example, a user with a user ID “1” has a user name “Mom”. The user authentication information is information for authenticating the user. The information for authenticating the user is, for example, face information or voice information. Usage conditions 1, usage conditions 2,... Are conditions under which the user uses the audio output device 10. A plurality of usage conditions can be set, and when there are a plurality of settings, the usage conditions with a small number are strong conditions that have priority over the usage conditions with a large number. For example, the use condition 1 is a strong condition that has priority over the use condition 2.

[ステップS23]音声出力制御装置100は、ユーザ登録情報テーブル40からユーザの利用条件を取得する。
[ステップS24]音声出力制御装置100は、ユーザの利用条件から現時刻がユーザの利用可能時間であるか否かを判定する。音声出力制御装置100は、現時刻がユーザの利用可能時間である場合、ステップS25にすすむ。一方、音声出力制御装置100は、現時刻がユーザの利用可能時間でない場合、ステップS26にすすむ。
[Step S <b> 23] The audio output control apparatus 100 acquires the user usage conditions from the user registration information table 40.
[Step S24] The audio output control device 100 determines whether or not the current time is the user available time based on the user usage conditions. If the current time is the user's available time, the audio output control device 100 proceeds to step S25. On the other hand, if the current time is not the user's available time, the audio output control device 100 proceeds to step S26.

[ステップS25]音声出力制御装置100は、ユーザによる音声出力装置10の利用を許可してユーザ認証処理を終了する。
[ステップS26]音声出力制御装置100は、ユーザより指令優先度の高いユーザの利用許可があるか否かを判定する。音声出力制御装置100は、ユーザより指令優先度の高いユーザの利用許可がある場合、ステップS25にすすむ。一方、音声出力制御装置100は、ユーザより指令優先度の高いユーザの利用許可がない場合、ステップS27にすすむ。
[Step S25] The voice output control device 100 allows the user to use the voice output device 10 and ends the user authentication process.
[Step S26] The audio output control apparatus 100 determines whether or not there is a use permission of a user having a higher command priority than the user. The voice output control device 100 proceeds to step S25 when there is a use permission of the user having a higher command priority than the user. On the other hand, the voice output control device 100 proceeds to step S27 when there is no use permission of the user having a higher command priority than the user.

音声出力制御装置100は、指令優先度の高いユーザの検出と、指令優先度の高いユーザの肯定的回答の検出とにより指令優先度の高いユーザの利用許可があったと判断する。
[ステップS27]音声出力制御装置100は、ユーザによる音声出力装置10の利用を不可(不許可)としてユーザ認証処理を終了する。
The sound output control device 100 determines that the use of the user with the high command priority has been permitted by the detection of the user with the high command priority and the detection of the positive answer of the user with the high command priority.
[Step S27] The audio output control device 100 disables (disallows) the use of the audio output device 10 by the user and ends the user authentication process.

次に、第2の実施形態のコンテンツ選択処理を図7を用いて説明する。コンテンツ選択処理は、音声出力制御装置100により実行される。コンテンツ選択処理は、読み聞かせをおこなうコンテンツの選択と、選択したコンテンツの開始位置の決定をおこなう。図7は、第2の実施形態のコンテンツ選択処理のフローチャートである。   Next, content selection processing according to the second embodiment will be described with reference to FIG. The content selection process is executed by the audio output control device 100. In the content selection process, the content to be read is selected and the start position of the selected content is determined. FIG. 7 is a flowchart of content selection processing according to the second embodiment.

[ステップS31]音声出力制御装置100は、ユーザがコンテンツを自由に選択可能か否かを判定する。音声出力制御装置100は、ユーザがコンテンツを自由に選択可能と判定した場合、ステップS36にすすむ。音声出力制御装置100は、ユーザがコンテンツを自由に選択不可と判定した場合、ステップS32にすすむ。   [Step S31] The audio output control device 100 determines whether or not the user can freely select content. If the audio output control apparatus 100 determines that the user can freely select content, the audio output control apparatus 100 proceeds to step S36. If the user determines that the content cannot be freely selected, the audio output control device 100 proceeds to step S32.

[ステップS32]音声出力制御装置100は、ユーザの利用条件で制限する利用コンテンツの範囲に、コンテンツの選択範囲を制限する。音声出力制御装置100は、コンテンツの選択範囲のうち、ユーザに提案可能なコンテンツがあるか否かを判定する。音声出力制御装置100は、ユーザに提案可能なコンテンツがある場合、ステップS34にすすむ。一方、音声出力制御装置100は、ユーザに提案可能なコンテンツがない場合、ステップS33にすすむ。   [Step S32] The audio output control apparatus 100 limits the content selection range to the range of usage content that is restricted by the usage conditions of the user. The audio output control apparatus 100 determines whether there is content that can be proposed to the user in the content selection range. If there is content that can be proposed to the user, the audio output control device 100 proceeds to step S34. On the other hand, if there is no content that can be proposed to the user, the audio output control apparatus 100 proceeds to step S33.

[ステップS33]音声出力制御装置100は、ユーザにとって選択肢がない場合に、音声出力制御装置100が選択するデフォルトコンテンツを選択する。
[ステップS34]音声出力制御装置100は、ユーザの選択肢から推奨するコンテンツを選択して提案する。音声出力制御装置100は、たとえば、しおりデータの有無や、ユーザの過去のコンテンツ選択履歴から推奨するコンテンツの提案をおこなう。このとき、音声出力装置10は、たとえば、「(コンテンツのタイトル)にしようか。」と提案メッセージを音声出力する。
[Step S33] The audio output control device 100 selects a default content that the audio output control device 100 selects when there is no option for the user.
[Step S34] The audio output control apparatus 100 selects and proposes recommended content from user options. For example, the audio output control apparatus 100 proposes content recommended based on the presence / absence of bookmark data and the user's past content selection history. At this time, the audio output device 10 outputs, for example, a proposal message “Is it going to be (title of content)?”.

[ステップS35]音声出力制御装置100は、ユーザの肯定的回答の検出により受け入れ応答があったと判断する。また、音声出力制御装置100は、ユーザの否定的回答の検出、または応答受付時間内にユーザの肯定的回答の検出がなかったことにより受け入れ応答がないと判断する。音声出力制御装置100は、受け入れ応答があると判断した場合に、ステップS36にすすむ。一方、音声出力制御装置100は、受け入れ応答がないと判断した場合に、ステップS32にすすむ。   [Step S35] The audio output control device 100 determines that there is an acceptance response by detecting a positive response from the user. Also, the audio output control device 100 determines that there is no acceptance response because the user's negative answer is detected or the user's positive answer is not detected within the response reception time. When the audio output control apparatus 100 determines that there is an acceptance response, the audio output control apparatus 100 proceeds to step S36. On the other hand, if the audio output control apparatus 100 determines that there is no acceptance response, it proceeds to step S32.

[ステップS36]音声出力制御装置100は、ユーザが受け入れ応答をおこなったコンテンツを選択する。
[ステップS37]音声出力制御装置100は、コンテンツをダウンロードするコンテンツダウンロード処理を実行後、コンテンツ選択処理を終了する。コンテンツダウンロード処理の詳細は、図8を用いて後述する。
[Step S36] The audio output control apparatus 100 selects content for which the user has made an acceptance response.
[Step S37] The audio output control apparatus 100 ends the content selection process after executing the content download process for downloading the content. Details of the content download processing will be described later with reference to FIG.

次に、第2の実施形態のコンテンツダウンロード処理を図8から図10を用いて説明する。コンテンツダウンロード処理は、音声出力制御装置100により実行される。図8は、第2の実施形態のコンテンツダウンロード処理のフローチャートである。図9は、第2の実施形態のコンテンツデータの一例を示す図である。図10は、第2の実施形態のしおりデータの一例を示す図である。   Next, content download processing according to the second embodiment will be described with reference to FIGS. The content download process is executed by the audio output control device 100. FIG. 8 is a flowchart of content download processing according to the second embodiment. FIG. 9 is a diagram illustrating an example of content data according to the second embodiment. FIG. 10 is a diagram illustrating an example of bookmark data according to the second embodiment.

[ステップS41]音声出力制御装置100は、読み取り可能なメモリにコンテンツデータがあるか否かを判定する。読み取り可能なメモリは、たとえば、RAM103、コンテンツメモリ30である。音声出力制御装置100は、読み取り可能なメモリにコンテンツデータがある場合、ステップS43にすすむ。一方、音声出力制御装置100は、読み取り可能なメモリにコンテンツデータがない場合、ステップS42にすすむ。   [Step S41] The audio output control apparatus 100 determines whether there is content data in a readable memory. The readable memory is, for example, the RAM 103 and the content memory 30. If there is content data in the readable memory, the audio output control device 100 proceeds to step S43. On the other hand, if there is no content data in the readable memory, the audio output control apparatus 100 proceeds to step S42.

[ステップS42]音声出力制御装置100は、コンテンツデータをコンテンツサーバ3から通信により取得する。
コンテンツデータは、たとえば、コンテンツデータ50のように、コンテンツ識別情報と、表示コンテンツデータと、音声コンテンツデータを含む。コンテンツ識別情報は、コンテンツを一意に識別する情報である。表示コンテンツデータは、コンテンツを所定単位で区切った表示部分データ(表示PART001、表示PART002、・・・)と、各表示部分データに対応する表示ページデータ(表示PAGE001、表示PAGE002、・・・)の集合である。表示ページデータは、対応する表示部分データのページデータ(文字サイズごとのページデータを含む)である。音声コンテンツデータは、コンテンツを所定単位で区切った音声部分データ(音声PART001、音声PART002、・・・)の集合である。
[Step S42] The audio output control apparatus 100 acquires content data from the content server 3 by communication.
The content data includes content identification information, display content data, and audio content data as content data 50, for example. The content identification information is information that uniquely identifies the content. The display content data includes display partial data (display PART001, display PART002,...) Obtained by dividing the content in predetermined units, and display page data (display PAGE001, display PAGE002,...) Corresponding to each display partial data. It is a set. The display page data is the page data of the corresponding display partial data (including page data for each character size). The audio content data is a set of audio partial data (audio PART001, audio PART002,...) Obtained by dividing the content by a predetermined unit.

表示コンテンツデータと、音声コンテンツデータは、互いの通し番号で関連付けされている。たとえば、音声出力装置10が音声PART001を音声出力しているとき、表示装置20は、表示PART001を表示する。なお、音声出力制御装置100は、表示コンテンツデータを記憶保持しなくてもよい。同様に、表示制御装置200は、音声コンテンツデータを記憶保持しなくてもよい。   The display content data and the audio content data are associated with each other by a serial number. For example, when the audio output device 10 outputs audio PART001, the display device 20 displays the display PART001. Note that the audio output control apparatus 100 may not store and hold display content data. Similarly, the display control apparatus 200 may not store and hold audio content data.

[ステップS43]音声出力制御装置100は、読み取り可能なメモリにしおりデータがあるか否かを判定する。音声出力制御装置100は、しおりデータがある場合、ステップS44にすすむ。一方、音声出力制御装置100は、しおりデータがない場合、ステップS45にすすむ。   [Step S43] The audio output control device 100 determines whether bookmark data exists in the readable memory. If there is bookmark data, the audio output control device 100 proceeds to step S44. On the other hand, if there is no bookmark data, the audio output control apparatus 100 proceeds to step S45.

[ステップS44]音声出力制御装置100は、しおりデータを取得する。しおりデータは、前回までのコンテンツの読み聞かせで中途終了した位置を記録する。しおりデータは、たとえば、しおりデータ60のように、ユーザ名と、コンテンツ識別情報と、表示コンテンツ開始位置と、音声コンテンツ開始位置を含む。表示コンテンツ開始位置は、表示出力を開始する表示部分データを特定する。音声コンテンツ開始位置は、音声出力を開始する音声部分データを特定する。たとえば、ユーザ名「たろう」は、コンテンツ識別情報「CODE001」のコンテンツを、表示について表示ページ「表示PAGE001」で「表示PART003」から、音声について「音声PART003」から開始するしおりデータがある。   [Step S44] The audio output control apparatus 100 acquires bookmark data. In the bookmark data, a position where the content has been interrupted by reading the content up to the previous time is recorded. The bookmark data includes, for example, a user name, content identification information, a display content start position, and an audio content start position as in the bookmark data 60. The display content start position specifies display partial data for starting display output. The audio content start position specifies audio partial data for starting audio output. For example, the user name “Taro” has bookmark data starting from “display PART 003” on the display page “display PAGE 001” for display and “speech PART 003” for audio for the content of the content identification information “CODE001”.

次に、第2の実施形態の一単位読み聞かせ処理を図11を用いて説明する。一単位読み聞かせ処理は、音声出力制御装置100により実行される。図11は、第2の実施形態の一単位読み聞かせ処理のフローチャートである。   Next, a unit reading process according to the second embodiment will be described with reference to FIG. The one-unit reading process is executed by the audio output control apparatus 100. FIG. 11 is a flowchart of a unit reading process according to the second embodiment.

[ステップS51]音声出力制御装置100は、表示制御装置200とコンテンツ出力の開始位置を同期するため、表示制御装置200に表示コンテンツの開始位置を通知する。   [Step S51] The audio output control apparatus 100 notifies the display control apparatus 200 of the start position of display content in order to synchronize the display control apparatus 200 and the start position of content output.

なお、表示制御装置200が表示装置20の操作入力にもとづいて表示コンテンツを切り替えた場合は、音声出力制御装置100は、表示制御装置200からの通知を受けて音声コンテンツの開始位置を変更するようにしてもよい。   When the display control device 200 switches the display content based on the operation input of the display device 20, the audio output control device 100 receives the notification from the display control device 200 and changes the start position of the audio content. It may be.

[ステップS52]音声出力制御装置100は、音声部分データの範囲で音声コンテンツを再生する。なお、このとき表示装置20の表示は、読み聞かせ中の文章にあわせて表示されている文章の文字色を変更する。   [Step S52] The audio output control apparatus 100 reproduces audio content in the range of the audio partial data. At this time, the display of the display device 20 changes the character color of the displayed text in accordance with the text being read aloud.

[ステップS53]音声出力制御装置100は、ユーザが聴取状態であるか否かを判定する。ユーザが聴取状態であるか否かの判定は、あらかじめ定義した聴取状態判定基準にしたがい判定する。聴取状態判定基準は、たとえば、ユーザ離脱の検出(カメラ12の入力する撮影画像から所定時間以上の間、ユーザが確認できなくなった)や、ユーザの睡眠検出(撮影画像からユーザが所定時間以上の間、目を閉じている状態の検出)によりおこなう。   [Step S53] The audio output control device 100 determines whether or not the user is in a listening state. Whether or not the user is in the listening state is determined according to a predetermined listening state determination criterion. The listening state determination criteria are, for example, detection of user detachment (the user can no longer check for a predetermined time or longer from the captured image input by the camera 12) or sleep detection of the user (from the captured image that the user has exceeded the predetermined time or longer). (Detection of closed eyes).

音声出力制御装置100は、ユーザが聴取状態でないと判定した場合は、終了メッセージを音声出力した後、ステップS55にすすみ、音声コンテンツの再生を終了する。一方、音声出力制御装置100は、ユーザが聴取状態であると判定した場合は、ステップS54にすすみ、音声コンテンツの再生を継続する。たとえば、音声出力装置10は、終了メッセージとして「きょうはここまでにするね」と音声出力する。   If the audio output control device 100 determines that the user is not in the listening state, the audio output control device 100 outputs an end message as audio, and then proceeds to step S55 to end the reproduction of the audio content. On the other hand, if the audio output control apparatus 100 determines that the user is in the listening state, the audio output control apparatus 100 proceeds to step S54 and continues to reproduce the audio content. For example, the voice output device 10 outputs voice as “End of today” as the end message.

なお、音声出力制御装置100は、ユーザが聴取状態でないと判定する場合、確認メッセージを音声出力してもよい。たとえば、音声出力装置10は、確認メッセージとして「もういいの?」と音声出力する。   Note that the audio output control device 100 may output a confirmation message as audio when determining that the user is not in the listening state. For example, the voice output device 10 outputs a voice message “Are you sure?” As a confirmation message.

[ステップS54]音声出力制御装置100は、音声部分データの範囲(一単位)で音声コンテンツの再生が終了したか否かを判定する。音声出力制御装置100は、音声コンテンツの再生が終了した場合、ステップS55にすすむ。一方、音声出力制御装置100は、音声コンテンツの再生が終了していない場合、ステップS52にすすむ。   [Step S54] The audio output control apparatus 100 determines whether or not the reproduction of the audio content is completed within the range (one unit) of the audio partial data. The audio output control device 100 proceeds to step S55 when the reproduction of the audio content is completed. On the other hand, if the reproduction of the audio content has not ended, the audio output control apparatus 100 proceeds to step S52.

[ステップS55]音声出力制御装置100は、改ページがあるか否かを判定する。改ページの有無は、音声部分データに対応する表示ページデータを参照しておこなう。音声出力制御装置100は、改ページがある場合、ステップS56にすすみ、改ページがない場合、ステップS57にすすむ。   [Step S55] The audio output control device 100 determines whether there is a page break. The presence / absence of a page break is determined with reference to display page data corresponding to the audio partial data. If there is a page break, the audio output control device 100 proceeds to step S56, and if there is no page break, proceeds to step S57.

[ステップS56]音声出力制御装置100は、演出駆動部15によるページの捲り動作演出をおこなう。
[ステップS57]音声出力制御装置100は、しおりデータ60を更新して一単位読み聞かせ処理を終了する。
[Step S56] The audio output control apparatus 100 performs a page turning operation effect by the effect drive unit 15.
[Step S57] The voice output control apparatus 100 updates the bookmark data 60 and ends the one-unit reading process.

次に、第2の実施形態の継続条件判定処理を図12を用いて説明する。継続条件判定処理は、音声出力制御装置100により実行される。継続条件判定処理は、音声コンテンツの音声出力の継続の是非を判定する。図12は、第2の実施形態の継続条件判定処理のフローチャートである。   Next, the continuation condition determination process of the second embodiment will be described with reference to FIG. The continuation condition determination process is executed by the audio output control device 100. The continuation condition determination process determines whether to continue the audio output of the audio content. FIG. 12 is a flowchart of continuation condition determination processing according to the second embodiment.

[ステップS61]音声出力制御装置100は、ユーザの利用条件で制限する利用可能時間であるか否かを判定する。音声出力制御装置100は、利用可能時間である場合、ステップS62にすすみ、利用可能時間でない場合、ステップS67にすすむ。   [Step S61] The audio output control device 100 determines whether or not it is an available time limited by the usage conditions of the user. The voice output control device 100 proceeds to step S62 if it is the available time, and proceeds to step S67 if it is not the available time.

[ステップS62]音声出力制御装置100は、読み聞かせを連続して実行するタイマ値がタイムアップしたか否かを判定する。音声出力制御装置100は、タイムアップした場合、ステップS63にすすみ、タイムアップしていない場合、ステップS66にすすむ。   [Step S62] The audio output control device 100 determines whether or not the timer value for continuously executing the reading is up. The audio output control device 100 proceeds to step S63 when the time is up, and proceeds to step S66 when the time is not up.

[ステップS63]音声出力制御装置100は、継続意思確認メッセージの音声出力をおこない、ユーザの継続意思を確認するため所定期間の音声入力を待つ。たとえば、音声出力装置10は、継続意思確認メッセージとして「きょうはここまでにしておく?」と音声出力する。   [Step S63] The voice output control apparatus 100 outputs a voice of a continuation intention confirmation message, and waits for a voice input for a predetermined period to confirm the user's intention to continue. For example, the voice output device 10 outputs a voice as “Continue to here?” As a continuation intention confirmation message.

[ステップS64]音声出力制御装置100は、ユーザの肯定的回答の検出により継続意思の表明があったと判断する。また、音声出力制御装置100は、ユーザの否定的回答の検出、または応答受付時間内にユーザの肯定的回答の検出がなかったことにより継続意思の表明がないと判断する。音声出力制御装置100は、継続意思の表明があると判断した場合に、ステップS65にすすむ。一方、音声出力制御装置100は、継続意思の表明がないと判断した場合に、ステップS67にすすむ。   [Step S64] The audio output control device 100 determines that the intention to continue has been expressed by detecting a positive response from the user. Further, the audio output control device 100 determines that there is no representation of intention to continue due to the detection of the user's negative answer or the absence of the user's positive answer within the response reception time. If the sound output control apparatus 100 determines that there is an intention to continue, the sound output control apparatus 100 proceeds to step S65. On the other hand, when the voice output control apparatus 100 determines that there is no statement of intention to continue, the voice output control apparatus 100 proceeds to step S67.

[ステップS65]音声出力制御装置100は、読み聞かせを連続して実行するタイマ値を再設定する。タイマ値は、たとえば、初期設定時より短い「5分」が設定される。
[ステップS66]音声出力制御装置100は、読み聞かせの継続を判定して継続条件判定処理を終了する。
[Step S65] The audio output control device 100 resets a timer value for continuously executing the reading aloud. For example, the timer value is set to “5 minutes” which is shorter than the initial setting.
[Step S66] The voice output control device 100 determines the continuation of the storytelling and ends the continuation condition determination process.

[ステップS67]音声出力制御装置100は、読み聞かせの終了を判定して継続条件判定処理を終了する。
このように、音声出力制御装置100は、利用者の意思表示入力、利用可能時間、連続利用時間などを取得し、音声コンテンツの音声出力の進行の判断をおこなう。ユーザ登録情報テーブル40は、利用可能時間、連続利用時間などのようにユーザごとの利用条件に優先度を定義できるほか、ユーザ間の指令優先度を定義できる。そのため、たとえば、保護者は、子どもの音声出力制御装置100の利用を管理できる。また、保護者がユーザ登録情報テーブル40により詳細な利用条件の定義をおこなうことで、音声出力制御装置100が自然な形で子どもの生活管理に関与することができる。
[Step S67] The audio output control device 100 determines the end of reading and ends the continuation condition determination process.
As described above, the audio output control apparatus 100 acquires the user's intention display input, the available time, the continuous usage time, and the like, and determines the progress of the audio output of the audio content. The user registration information table 40 can define priorities for use conditions for each user such as available time and continuous use time, and can also define command priorities between users. Therefore, for example, the guardian can manage the use of the child's voice output control device 100. In addition, when the guardian defines the detailed usage conditions using the user registration information table 40, the sound output control device 100 can be involved in the child life management in a natural manner.

また、音声出力制御装置100のメッセージ出力パターンを複数通り用意し、ユーザや環境に応じてメッセージ出力パターンを選択することで、使用者の生活や健康のためのリズムなどの行動を自然な発話で誘導することができる。たとえば、音声出力制御装置100は、じろう(指令優先度「2」)に対して19時(利用可能時間終了)になると「もう寝ようか」とメッセージを出力する。また、音声出力制御装置100は、18時(利用可能時間内)であっても、お母さん(指令優先度「1」)の「もう寝なさい」との音声を認識したら、指令優先度の低いじろうの読み聞かせを終了する。音声出力装置10は、たとえば、読み聞かせを終了する時に、読み聞かせ中のじろうに「もう寝ようか」と音声出力する。   In addition, a plurality of message output patterns of the voice output control device 100 are prepared, and by selecting a message output pattern according to the user and the environment, actions such as rhythms for the user's life and health can be naturally spoken. Can be guided. For example, the voice output control device 100 outputs a message “Let's go to sleep” at 19:00 (end of available time) for Jiro (command priority “2”). Also, the voice output control device 100 recognizes that the mother (command priority “1”) “sleeps already” even at 18:00 (within the available time), the command priority is low. Stop reading aloud. The voice output device 10 outputs, for example, a voice “Let's go to sleep” to Jiro who is reading aloud when the storytelling is finished.

また、ユーザ登録情報テーブル40には、例示した家庭での利用のほかにも、さまざまな環境に応じた定義をおこなうことができる。たとえば、保育園での利用の場合は、ユーザ登録情報テーブル40は、指令優先度順に、保母、年長児、年少児をユーザ登録する。また、介護施設での利用の場合は、ユーザ登録情報テーブル40は、指令優先度順に、介護者、要介護度の高い利用者、要介護度の低い利用者をユーザ登録する。   The user registration information table 40 can be defined according to various environments in addition to the exemplified use at home. For example, in the case of use at a nursery school, the user registration information table 40 registers a nursery mother, an older child, and a younger child in the order of command priority. In the case of use at a care facility, the user registration information table 40 registers a caregiver, a user with a high degree of care required, and a user with a low degree of care required in order of command priority.

次に、双方向コンテンツを利用可能とする第3の実施形態を図13、図14を用いて説明する。図13は、第3の実施形態の双方向コンテンツ利用例を示す図である。図14は、第3の実施形態のサブコンテンツデータの一例を示す図である。   Next, a third embodiment in which interactive content can be used will be described with reference to FIGS. FIG. 13 is a diagram illustrating an example of using interactive content according to the third embodiment. FIG. 14 is a diagram illustrating an example of sub-content data according to the third embodiment.

表示装置20が表示する表示コンテンツ、または音声出力制御装置100が音声出力する音声コンテンツに対応するユーザからの応答を受け付ける双方向コンテンツ利用例70を示す。   An interactive content usage example 70 for receiving a response from a user corresponding to display content displayed on the display device 20 or audio content output from the audio output control device 100 is shown.

双方向コンテンツ利用例70は、生物の幼児教育向け双方向コンテンツ例である。双方向コンテンツは、キャラクタブロックを用いてユーザからの応答を入力する。キャラクタブロック(回答用コンテンツ媒体)は、絵や写真を印刷したブロック形状、またはカード形状であり、音声出力制御装置100がキャラクタブロックを識別するためのRFIDタグを備える。キャラクタブロック71は、「おたまじゃくし」の文字と絵が印刷され、RFIDタグ72を備える。キャラクタブロック73は、「ひよこ」の文字と絵が印刷され、RFIDタグ74を備える。キャラクタブロック75は、図示されない文字と絵が印刷され、RFIDタグ76を備える。   The interactive content usage example 70 is an interactive content example for preschool education of living things. In the interactive content, a response from the user is input using a character block. The character block (response content medium) has a block shape in which a picture or a photograph is printed or a card shape, and includes an RFID tag for the audio output control device 100 to identify the character block. The character block 71 is printed with a character and a picture of “Otamajakushi” and includes an RFID tag 72. The character block 73 is printed with a character and a picture of “chick” and includes an RFID tag 74. The character block 75 is printed with characters and pictures (not shown) and includes an RFID tag 76.

表示装置20が「かえるさんのこどもは?」という表示コンテンツを表示し、音声出力装置10が「かえるさんのこどもはだーれ?」と音声コンテンツを音声出力した状態で、音声出力制御装置100は、ユーザの応答を待つ。   In a state where the display device 20 displays the display content “What is the child of Kaeru?” And the audio output device 10 outputs the audio content as “Who is the child of Kaeru?”, The audio output control device 100. Waits for the user's response.

ユーザが選択したキャラクタブロックをディスプレイ21上に置くと、RFIDタグリーダ16がキャラクタブロックの備えるRFIDタグから識別情報を取得し、音声出力制御装置100は、あらかじめ設定される正誤判定データにもとづいて正誤を判定する。   When the character block selected by the user is placed on the display 21, the RFID tag reader 16 acquires identification information from the RFID tag included in the character block, and the audio output control device 100 performs correct / incorrect based on the correctness determination data set in advance. judge.

音声出力制御装置100は、判定結果に対応する音声サブコンテンツを選択する。たとえば、音声出力装置10は、正解の時は、正解時に選択される音声サブコンテンツである「正解〜。そう、かえるさんのこどもは、おたまじゃくしなんだ」を音声出力する。また、音声出力装置10は、不正解の時は、不正解時に選択される音声サブコンテンツである「うーん残念。ひよこではなくて、おたまじゃくしなんだ」を音声出力する。音声出力制御装置100は、選択した音声サブコンテンツを表示内容に対応させるため、通信制御部を介して表示する表示内容の切替を表示装置20に指示する。表示装置20は、正解を赤丸つきで表示する表示サブコンテンツを表示する。   The audio output control apparatus 100 selects the audio sub-content corresponding to the determination result. For example, when the answer is correct, the sound output device 10 outputs a sound “Subsequent answer. Yes, Kaeru-san's child is a tadpole” which is an audio sub-content selected at the correct answer. In addition, when the answer is incorrect, the sound output device 10 outputs the sound “Sorry. Not a chick, but a tadpole” which is the sound sub-content selected at the time of the incorrect answer. The audio output control device 100 instructs the display device 20 to switch the display content to be displayed via the communication control unit in order to make the selected audio sub-content correspond to the display content. The display device 20 displays the display sub-content that displays the correct answer with a red circle.

音声サブコンテンツと表示サブコンテンツは、サブコンテンツデータから取得する。サブコンテンツデータは、たとえば、サブコンテンツデータ80のように、表示コンテンツデータと、表示サブコンテンツデータと、音声コンテンツデータと、音声サブコンテンツデータを含む。表示サブコンテンツデータは、表示コンテンツデータを表示するときに選択可能なコンテンツデータである。   The audio sub-content and the display sub-content are acquired from the sub-content data. Sub-content data includes display content data, display sub-content data, audio content data, and audio sub-content data, for example, like sub-content data 80. The display sub content data is content data that can be selected when displaying the display content data.

たとえば、音声コンテンツデータ「音声PART002」を音声出力するとき、実際に音声出力する音声コンテンツデータは、音声サブコンテンツデータ「SPS002001」、「SPS002002」、「SPS002003」のうちから選択される。たとえば、「SPS002001」は正解時の音声出力、「SPS002002」は不正解時の音声出力、「SPS002003」は、入力を促す音声出力である。   For example, when audio content data “audio PART002” is output as audio, the audio content data that is actually output as audio is selected from audio subcontent data “SPS002001”, “SPS002002”, and “SPS002003”. For example, “SPS002001” is an audio output when the answer is correct, “SPS002002” is an audio output when the answer is incorrect, and “SPS002003” is an audio output that prompts input.

たとえば、表示コンテンツデータ「表示PART002」を表示するとき、実際に表示する表示コンテンツデータは、表示サブコンテンツデータ「DPS002001」、「DPS002002」、「DPS002003」のうちから選択される。たとえば、「DPS002001」は正解時の表示、「DPS002002」は不正解時の表示、「DPS002003」は、入力を促す表示である。   For example, when displaying the display content data “display PART002”, the display content data to be actually displayed is selected from the display sub-content data “DPS002001”, “DPS002002”, and “DPS002003”. For example, “DPS002001” is a correct answer display, “DPS002002” is an incorrect answer display, and “DPS002003” is an input prompting input.

音声出力制御装置100は、音声出力と表示内容とに食い違いが生じないように、選択した音声サブコンテンツに対応した表示サブコンテンツの切替を表示装置20に指示する。   The audio output control device 100 instructs the display device 20 to switch the display sub content corresponding to the selected audio sub content so that there is no discrepancy between the audio output and the display content.

なお、双方向コンテンツは、生物の幼児教育向け双方向コンテンツに限らない。たとえば、双方向コンテンツは、算数の双方向コンテンツ(足し算、数字の学習)などであってもよい。   The interactive content is not limited to the interactive content for biological infant education. For example, the interactive content may be arithmetic interactive content (addition, learning of numbers) or the like.

次に、サブコンテンツの読み聞かせをおこなう第4の実施形態を図15を用いて説明する。図15は、第4の実施形態のサブコンテンツ表示例を示す図である。
図15(a)は、サブコンテンツ表示例91を示す。表示装置20が「きょうはだれがあそびにくるのかな?とんとん」という文字表示と、扉の絵を表示し、音声出力装置10が「きょうはだれがあそびにくるのかな?とんとん」と音声出力する。
Next, a fourth embodiment for reading a sub-content will be described with reference to FIG. FIG. 15 is a diagram illustrating a sub-content display example according to the fourth embodiment.
FIG. 15A shows a sub-content display example 91. The display device 20 displays a character display “Who is coming today?” And a picture of the door, and the audio output device 10 outputs a sound “Who is coming today?

図15(b)は、サブコンテンツ表示例92を示す。表示装置20が「しろくてながいみみがみえます。だれかわかるかな?」という文字表示と、白くて長い耳の絵を表示し、音声出力装置10が「しろくてながいみみがみえます。だれかわかるかな?」と音声出力する。   FIG. 15B shows a sub-content display example 92. The display device 20 displays a character display “I can see who is white and long. Do you know who is?” And a picture of a white and long ear, and the voice output device 10 displays “White and long are you. "Do you understand?"

図15(c)は、サブコンテンツ表示例93を示す。表示装置20が「うさぎさん、でした」という文字表示と、うさぎの絵を表示し、音声出力装置10が「うさぎさん、でした」と音声出力する。   FIG. 15C shows a sub content display example 93. The display device 20 displays a character display of “It was a rabbit” and a picture of a rabbit, and the voice output device 10 outputs a voice saying “It was a rabbit”.

このコンテンツでは、遊びにくるキャラクタがコンテンツ再生ごとに変動し、サブコンテンツ表示例92とサブコンテンツ表示例93の内容が変更可能になっている。たとえば、サブコンテンツ表示例92の変更態様として、表示装置20が「きいろくて、ながいくびがみえます。だれかわかるかな?」という文字表示と、黄色くて長い首の絵を表示し、音声出力装置10が「きいろくて、ながいくびがみえます。だれかわかるかな?」と音声出力する。この変更態様に対応するサブコンテンツ表示例93の変更態様では、表示装置20が「きりんさん、でした」という文字表示と、きりんの絵を表示し、音声出力装置10が「きりんさん、でした」と音声出力する。   In this content, the character that comes to play fluctuates each time the content is played, and the contents of the sub-content display example 92 and the sub-content display example 93 can be changed. For example, as a change mode of the sub-content display example 92, the display device 20 displays a character display “Is it clear and look like it? Who knows?” And a yellow and long neck picture, The voice output device 10 outputs a voice saying, “I can see a long-awaited look. In the change mode of the sub-content display example 93 corresponding to this change mode, the display device 20 displays a character display of “It was Kirin-san,” and a picture of the giraffe, and the audio output device 10 is “Kirin-san”. ”Is output.

また、サブコンテンツ表示例92のさらなる変更態様として、表示装置20が「はいいろの、ながいはながみえます。だれかわかるかな?」という文字表示と、灰色の長い鼻の絵を表示し、音声出力装置10が「はいいろの、ながいはながみえます。だれかわかるかな?」と音声出力する。この変更態様に対応するサブコンテンツ表示例93の変更態様では、表示装置20が「ぞうさん、でした」という文字表示と、ぞうの絵を表示し、音声出力装置10が「ぞうさん、でした」と音声出力する。   In addition, as a further modification of the sub-content display example 92, the display device 20 displays a character display “Let's see what's happening. Who knows?” And a gray long nose picture, The output device 10 outputs a voice saying "Yes, I can see the long. Who knows?" In the change mode of the sub-content display example 93 corresponding to this change mode, the display device 20 displays a character display of “It was Elephant” and a picture of the elephant, and the audio output device 10 is “Elephant” ”Is output.

このような読み聞かせの進行制御は、第3の実施形態と同様に、音声出力制御装置100が音声出力と表示内容とに食い違いが生じないように、選択した音声サブコンテンツに対応した表示サブコンテンツの切替を表示装置20に指示することで実現する。さらに、前段の変更態様(サブコンテンツ表示例92の変更態様)に対応して、後段の変更態様(サブコンテンツ表示例93の変更態様)を選択するために、前段のサブコンテンツの選択結果は、後段のサブコンテンツの選択を制限する。   As in the case of the third embodiment, such a reading progress control is performed so that the audio output control device 100 does not cause a discrepancy between the audio output and the display content, and the display subcontent corresponding to the selected audio subcontent. This is realized by instructing the display device 20 to switch between. Furthermore, in order to select the subsequent change mode (change mode of the sub-content display example 93) corresponding to the previous change mode (change mode of the sub-content display example 92), the selection result of the previous sub-content is: Limit selection of sub-contents in the subsequent stage.

サブコンテンツデータ80を用いてサブコンテンツデータの選択を具体的に説明する。たとえば、「表示PART002」、「音声PART002」が前段で、「表示PART003」、「音声PART003」が後段にあるとする。このとき、前段で「DSP002002」、「SPS002002」を選択した場合、後段ではデータの識別番号の下3桁が一致する「DSP003002」、「SPS003002」を選択することとなる。   The selection of the sub content data will be specifically described using the sub content data 80. For example, it is assumed that “display PART002” and “voice PART002” are in the previous stage and “display PART003” and “voice PART003” are in the subsequent stage. At this time, when “DSP002002” and “SPS002002” are selected in the preceding stage, “DSP003002” and “SPS003002” in which the last three digits of the data identification numbers match are selected in the subsequent stage.

なお、音声出力制御装置100は、前段のサブコンテンツデータの選択をユーザの過去の選択履歴にもとづいておこなうようにしてもよい。たとえば、音声出力制御装置100は、累計選択回数の少ないサブコンテンツデータを選択する。   Note that the audio output control device 100 may select the sub-content data in the previous stage based on the user's past selection history. For example, the audio output control apparatus 100 selects sub-content data with a small cumulative selection count.

次に、第5の実施形態の表示装置について図16、図17を用いて説明する。図16は、第5の実施形態の表示装置の概観を示す図である。図17は、第5の実施形態の表示コンテンツ割当表の一例を示す図である。   Next, a display device according to a fifth embodiment will be described with reference to FIGS. FIG. 16 is a diagram illustrating an overview of a display device according to the fifth embodiment. FIG. 17 is a diagram illustrating an example of a display content allocation table according to the fifth embodiment.

表示装置4は、複数枚のディスプレイ21を結合部5で綴じ、物理的なページ捲りが可能な電子書籍である。ディスプレイ21は、裏表に表示部を有し、各ページを識別するためのRFIDタグ23を各ページに備える。したがって、音声出力制御装置は、RFIDタグリーダ16により、ユーザに提示しているページを特定可能である。結合部5は、各ディスプレイ21と表示制御装置とを接続する信号線を内蔵する。   The display device 4 is an electronic book in which a plurality of displays 21 are bound by the combining unit 5 and physical page turning is possible. The display 21 has display portions on the front and back sides, and includes an RFID tag 23 for identifying each page on each page. Therefore, the audio output control device can specify the page presented to the user by the RFID tag reader 16. The coupling unit 5 incorporates a signal line that connects each display 21 and the display control device.

ユーザは、所望のページを開いて音声出力装置10の載置台に表示装置4をセットすることでページ捲りをおこなう。なお、音声出力装置10に物理的なページ捲り機構を備えるようにしてもよい。   The user turns the page by opening a desired page and setting the display device 4 on the mounting table of the audio output device 10. The audio output device 10 may be provided with a physical page turning mechanism.

表示装置4が備えるページ数は、実際の書籍に比較して十分なページ数を確保できない(たとえば、8ページ)ことから、各ディスプレイ21が表示する表示内容は、随時切替がおこなわれる。図17(a)に示す表示コンテンツ割当表41は、ディスプレイID(RFIDタグ23に記録)が「EP04」、「EP05」をユーザに提示中(ユーザ提示中42)に、各ディスプレイIDの表示コンテンツデータは、図示のようになる。ここで、表示装置4のページ捲りがおこなわれると、ユーザに提示中のディスプレイID(ユーザ提示中44)は、「EP06」、「EP07」となる。音声出力制御装置100は、ページ捲りを検出し、ディスプレイID「EP01」、「EP02」、「EP03」の表示コンテンツデータを更新する(図17(a)に示す表示コンテンツ割当表41)。   Since the display device 4 has a sufficient number of pages as compared to an actual book (for example, 8 pages), the display contents displayed on each display 21 are switched as needed. The display content allocation table 41 shown in FIG. 17A shows the display content of each display ID when the display ID (recorded in the RFID tag 23) is presenting “EP04” and “EP05” to the user (during user presentation 42). The data is as shown. Here, when page turning of the display device 4 is performed, the display IDs being presented to the user (user presenting 44) are “EP06” and “EP07”. The audio output control apparatus 100 detects page turning and updates the display content data of the display IDs “EP01”, “EP02”, and “EP03” (display content allocation table 41 shown in FIG. 17A).

これにより、ユーザは、前後所定範囲のページについて、ページ切替操作を必要としない。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、表示制御装置、音声出力制御装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(可搬型記録媒体を含む)に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
As a result, the user does not need to perform a page switching operation for the predetermined range of pages.
The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the display control device and the audio output control device should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (including a portable recording medium). Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic recording device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Optical discs include DVD (Digital Versatile Disc), DVD-RAM, CD-ROM, CD-R (Recordable) / RW (ReWritable), and the like. Magneto-optical recording media include MO (Magneto-Optical disk).

プログラムを流通させる場合には、たとえば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When distributing the program, for example, portable recording media such as a DVD and a CD-ROM in which the program is recorded are sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、たとえば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムにしたがった処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムにしたがった処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムにしたがった処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

なお、上述の実施の形態は、実施の形態の要旨を逸脱しない範囲内において種々の変更を加えることができる。
さらに、上述の実施の形態は、多数の変形、変更が当業者にとって可能であり、説明した正確な構成および応用例に限定されるものではない。
Note that various modifications can be made to the above-described embodiment without departing from the gist of the embodiment.
Further, the above-described embodiments can be modified and changed by those skilled in the art, and are not limited to the exact configurations and application examples described.

10 音声出力装置
11 マイク
12 カメラ
13 スピーカ
14 通信部
15 演出駆動部
16 RFIDタグリーダ
17 コンテンツメモリリーダ
20 表示装置
21 ディスプレイ
22 通信部
30 コンテンツメモリ
100 音声出力制御装置
200 表示制御装置
DESCRIPTION OF SYMBOLS 10 Audio | voice output apparatus 11 Microphone 12 Camera 13 Speaker 14 Communication part 15 Effect drive part 16 RFID tag reader 17 Content memory reader 20 Display apparatus 21 Display 22 Communication part 30 Content memory 100 Audio | voice output control apparatus 200 Display control apparatus

Claims (8)

表示コンテンツを記憶する表示コンテンツ記憶部を有して前記表示コンテンツを表示出力する表示装置との通信を制御する通信制御部と、
前記表示コンテンツに対応する音声コンテンツを記憶する音声コンテンツ記憶部と、
前記音声コンテンツを音声出力する音声出力部と、
前記音声コンテンツの音声出力の進行の判断に用いる進行情報を取得する進行情報取得部と、
前記表示装置が表示出力する表示内容に対応する前記音声コンテンツの音声出力の進行を、前記進行情報にもとづいて制御する音声出力進行制御部と、
を備えることを特徴とする音声出力装置。
A communication control unit that has a display content storage unit that stores display content and controls communication with a display device that displays and outputs the display content;
An audio content storage unit for storing audio content corresponding to the display content;
An audio output unit for outputting the audio content as audio;
A progress information acquisition unit that acquires progress information used to determine the progress of audio output of the audio content;
An audio output progress control unit for controlling the progress of the audio output of the audio content corresponding to the display content displayed and output by the display device based on the progress information;
An audio output device comprising:
前記進行情報は、ユーザの聴取状態の判定結果を含み、
前記音声出力進行制御部は、ユーザが聴取状態でない場合に、前記音声コンテンツの音声出力の進行を停止することを特徴とする請求項1記載の音声出力装置。
The progress information includes a determination result of a user's listening state,
The audio output device according to claim 1, wherein the audio output progress control unit stops the progress of audio output of the audio content when the user is not in a listening state.
前記進行情報は、あらかじめ登録したユーザごとの利用条件を含み、
前記音声出力進行制御部は、前記利用条件を満たさない場合に、前記音声コンテンツの音声出力の進行を停止することを特徴とする請求項1記載の音声出力装置。
The progress information includes usage conditions for each user registered in advance,
The audio output device according to claim 1, wherein the audio output progress control unit stops the progress of audio output of the audio content when the use condition is not satisfied.
前記進行情報は、中断した前記音声コンテンツの再生位置を含み、
前記音声出力進行制御部は、再生を中断した前記音声コンテンツがある場合に、前記音声コンテンツの音声出力の進行を前記再生位置から開始することを特徴とする請求項1記載の音声出力装置。
The progress information includes a reproduction position of the interrupted audio content,
The audio output apparatus according to claim 1, wherein the audio output progress control unit starts the audio output of the audio content from the reproduction position when there is the audio content whose reproduction is interrupted.
前記進行情報は、前記音声コンテンツの再生履歴を含み、
前記音声出力進行制御部は、複数の選択肢から一の前記音声コンテンツを再生している場合に、次に再生する前記音声コンテンツの選択を制限することを特徴とする請求項1記載の音声出力装置。
The progress information includes a playback history of the audio content,
The audio output device according to claim 1, wherein the audio output progress control unit restricts selection of the audio content to be reproduced next when reproducing the one audio content from a plurality of options. .
前記表示装置は、複数ページから構成され、各ページを識別するための識別情報を各ページに備え、
前記進行情報取得部は、前記識別情報を取得することを特徴とすることを特徴とする請求項1記載の音声出力装置。
The display device comprises a plurality of pages, each page is provided with identification information for identifying each page,
The audio output device according to claim 1, wherein the progress information acquisition unit acquires the identification information.
前記音声出力進行制御部は、前記識別情報にもとづいて、前記表示装置に表示内容の切替を指示することを特徴とする請求項6記載の音声出力装置。   The voice output device according to claim 6, wherein the voice output progress control unit instructs the display device to switch display contents based on the identification information. 表示コンテンツを記憶する表示コンテンツ記憶部を有して前記表示コンテンツを表示出力する表示装置との通信を制御する通信制御部と、前記表示コンテンツに対応する音声コンテンツを記憶する音声コンテンツ記憶部と、前記音声コンテンツを音声出力する音声出力部と、を備える音声出力装置の音声出力方法において、
前記音声コンテンツの音声出力の進行の判断に用いる進行情報を取得するステップと、
前記表示装置が表示出力する表示内容に対応する前記音声コンテンツの音声出力の進行を、前記進行情報にもとづいて制御するステップと、
を含むことを特徴とする音声出力方法。
A communication control unit that has a display content storage unit that stores display content and controls communication with a display device that displays and outputs the display content; an audio content storage unit that stores audio content corresponding to the display content; An audio output method of an audio output device comprising: an audio output unit that outputs the audio content as audio;
Obtaining progress information used to determine the progress of audio output of the audio content;
Controlling the progress of audio output of the audio content corresponding to the display content displayed and output by the display device based on the progress information;
An audio output method comprising:
JP2010068738A 2010-03-24 2010-03-24 Device and method for outputting voice Pending JP2011203859A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010068738A JP2011203859A (en) 2010-03-24 2010-03-24 Device and method for outputting voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010068738A JP2011203859A (en) 2010-03-24 2010-03-24 Device and method for outputting voice

Publications (1)

Publication Number Publication Date
JP2011203859A true JP2011203859A (en) 2011-10-13

Family

ID=44880462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010068738A Pending JP2011203859A (en) 2010-03-24 2010-03-24 Device and method for outputting voice

Country Status (1)

Country Link
JP (1) JP2011203859A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102842247A (en) * 2012-07-30 2012-12-26 无锡同春新能源科技有限公司 Children early education machine with solar photovoltaic power generation as power supply
JP2020502571A (en) * 2016-12-14 2020-01-23 グーグル エルエルシー Facilitate the generation and playback of user-recorded audio
WO2023017732A1 (en) * 2021-08-10 2023-02-16 本田技研工業株式会社 Storytelling information creation device, storytelling robot, storytelling information creation method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102842247A (en) * 2012-07-30 2012-12-26 无锡同春新能源科技有限公司 Children early education machine with solar photovoltaic power generation as power supply
JP2020502571A (en) * 2016-12-14 2020-01-23 グーグル エルエルシー Facilitate the generation and playback of user-recorded audio
US11238854B2 (en) 2016-12-14 2022-02-01 Google Llc Facilitating creation and playback of user-recorded audio
WO2023017732A1 (en) * 2021-08-10 2023-02-16 本田技研工業株式会社 Storytelling information creation device, storytelling robot, storytelling information creation method, and program

Similar Documents

Publication Publication Date Title
US20220111300A1 (en) Educational device
JP4996750B1 (en) Electronics
WO2003081414A1 (en) Gui and support hardware for maintaining long-term personal access to the world
JP2019154066A (en) Reproduction device and output device
JP2011203859A (en) Device and method for outputting voice
JP2005244942A (en) Motion picture transmitter and method of mobile communication terminal
CN202976538U (en) Image touch-read playing system
CN103888623B (en) Voice prompt setting device, system and method
JP4382045B2 (en) DATA OUTPUT DEVICE, DATA OUTPUT METHOD, DATA OUTPUT PROGRAM, AND RECORDING MEDIUM
WO2015088173A1 (en) Smart device having a teaching material reproduction app installed therein, which reproduces information of book-type teaching material using code recognition pen capable of performing bluetooth communication
CN102075814A (en) Television system for recording growth process of baby
KR101356880B1 (en) Interactive toy for audio communication with physical interface
KR100653867B1 (en) Mp3 player of infant mobile
KR101288543B1 (en) Story telling type reading guide system and reading guide method thereof
JP2009253749A (en) Image processing system, content playback apparatus and image processing method
JP2001331088A (en) Multiple hearing training device and recording medium for multiple hearing training
KR20020038284A (en) The multimedia eudcation method and system using projector
KR100312352B1 (en) Apparatus for producing an audio signal having a function of displaying a moving picture and method for displaying the moving picture using the same
KR100714177B1 (en) Sound output apparatus of book contents
WO2010129377A1 (en) A baby bottle holder
CN108877327A (en) A kind of intelligent point-reading identifying system
JP2011139143A (en) Display device, television receiver, display method, program, and recording medium
KR20090072576A (en) Multimedia contents playback apparatus with internet phone for internet connectivity and multimedia contents service system using it
JPH0822239A (en) Information equipment for education
JP2002277577A (en) Electronic time reporting clock