JP6151112B2 - REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, SERVER, AND SYSTEM - Google Patents

REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, SERVER, AND SYSTEM Download PDF

Info

Publication number
JP6151112B2
JP6151112B2 JP2013143948A JP2013143948A JP6151112B2 JP 6151112 B2 JP6151112 B2 JP 6151112B2 JP 2013143948 A JP2013143948 A JP 2013143948A JP 2013143948 A JP2013143948 A JP 2013143948A JP 6151112 B2 JP6151112 B2 JP 6151112B2
Authority
JP
Japan
Prior art keywords
user
information
voice
audio
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013143948A
Other languages
Japanese (ja)
Other versions
JP2015018344A (en
Inventor
佳世 森長
佳世 森長
良典 西岡
良典 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013143948A priority Critical patent/JP6151112B2/en
Publication of JP2015018344A publication Critical patent/JP2015018344A/en
Application granted granted Critical
Publication of JP6151112B2 publication Critical patent/JP6151112B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、音声として記録されたコンテンツをユーザに提示する再生装置等に関するものである。   The present invention relates to a playback device or the like that presents content recorded as audio to a user.

音声情報に含まれる音声を再生することによって、当該音声として当該音声情報に記録されたコンテンツをユーザに提示する装置が、広く研究されている。例えば、下記の特許文献1には、コンテンツ情報を情報利用者と情報提供者間で効率よく配信するための再生方法が開示されている。   An apparatus that presents the content recorded in the audio information as the audio to the user by reproducing the audio included in the audio information has been widely studied. For example, Patent Document 1 below discloses a playback method for efficiently distributing content information between an information user and an information provider.

特許第4389206号(2009年12月24日発行)Patent No. 4389206 (issued December 24, 2009)

上記の特許文献1に開示された再生方法に代表される上記従来の技術は、ユーザにかかわらず所定の音声を再生するに過ぎないため、上記コンテンツを提示可能なユーザの変化に適応して当該コンテンツを提示することができない。これにより、ユーザが好ましいコンテンツを能動的に選択することを、当該ユーザは強制されるため、上記従来の技術はユーザの利便性を大きく損なっていた。   Since the conventional technique represented by the reproduction method disclosed in Patent Document 1 only reproduces predetermined audio regardless of the user, it adapts to changes in users who can present the content. The content cannot be presented. As a result, the user is forced to actively select the preferred content, and thus the conventional technology has greatly impaired the user's convenience.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザの変化に適応してコンテンツを提示することによって、ユーザの利便性を改善できる再生装置等を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a playback device and the like that can improve user convenience by presenting content in accordance with user changes. is there.

上記の課題を解決するために、本発明の一態様に係る再生装置は、音声情報に含まれる音声を再生することによって、当該音声として当該音声情報に記録されたコンテンツをユーザに提示する再生装置であって、前記コンテンツを提示可能なユーザが変化した場合、当該変化した後のユーザに応じて前記音声情報を少なくとも1つ選択する選択手段と、前記選択手段によって選択された前記音声情報に前記音声として記録された前記コンテンツを、前記ユーザに提示する提示手段とを備えている。   In order to solve the above problem, a playback device according to one aspect of the present invention plays back audio included in audio information, thereby presenting the content recorded in the audio information as the audio to the user When a user who can present the content changes, a selection unit that selects at least one of the audio information according to the changed user, and the audio information selected by the selection unit Presenting means for presenting the content recorded as sound to the user.

また、上記の課題を解決するために、本発明の一態様に係る再生装置の制御方法は、音声情報に含まれる音声を再生することによって、当該音声として当該音声情報に記録されたコンテンツをユーザに提示する再生装置の制御方法であって、前記コンテンツを提示可能なユーザが変化した場合、当該変化した後のユーザに応じて前記音声情報を少なくとも1つ選択する選択ステップと、前記選択ステップにおいて選択した前記音声情報に前記音声として記録された前記コンテンツを、前記ユーザに提示する提示ステップを含んでいる。   In addition, in order to solve the above-described problem, a control method for a playback device according to one embodiment of the present invention reproduces audio included in audio information, thereby allowing content recorded in the audio information to be recorded as audio. And a selection step of selecting at least one of the audio information according to the user after the change when the user who can present the content changes, and in the selection step, A presentation step of presenting the content recorded as the sound in the selected sound information to the user.

本発明の一態様によれば、再生装置および当該再生装置の制御方法は、ユーザの変化に適応するように、コンテンツを動的に変更してユーザに提示できるため、ユーザの利便性を改善できるという効果を奏する。   According to one aspect of the present invention, the playback device and the control method for the playback device can dynamically change content to be presented to the user so as to adapt to the change of the user, thus improving user convenience. There is an effect.

本発明の第1の実施の形態に係るロボット掃除機の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the robot cleaner which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るサーバの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the server which concerns on the 1st Embodiment of this invention. 図1に示されるロボット掃除機が動作する状況例を示す模式図であり、(a)は、お母さんが当該ロボット掃除機に朝の挨拶をするシーンを示す模式図であり、(b)は、お父さんが当該ロボット掃除機に朝の挨拶をするシーンを示す模式図であり、(c)は、お母さんが当該ロボット掃除機に外出の挨拶をするシーンを示す模式図である。It is a schematic diagram which shows the example of a situation where the robot cleaner shown by FIG. 1 operate | moves, (a) is a schematic diagram which shows the scene where a mother gives a morning greeting to the said robot cleaner, (b), It is a schematic diagram which shows the scene where a father greets the said robot vacuum cleaner in the morning, (c) is a schematic diagram which shows the scene where a mother greets the robot vacuum cleaner. (a)は、情報カテゴリおよび視聴メンバーの優先順位をそれぞれ規定するテーブルとしてデータ管理ファイルに含まれる優先テーブルの一例を示す表であり、(b)は「経済ニュース」のデータ管理ファイルの一例を示す表であり、(c)は「政治ニュース」のデータ管理ファイルの一例を示す表であり、(d)は「天気情報」のデータ管理ファイルの一例を示す表であり、(e)は「路線情報」のデータ管理ファイルの一例を示す表であり、(f)は「地域情報」のデータ管理ファイルの一例を示す表である。(A) is a table | surface which shows an example of the priority table contained in a data management file as a table which each prescribes | regulates an information category and a viewing member's priority, (b) is an example of the data management file of "economic news". (C) is a table showing an example of a data management file of “political news”, (d) is a table showing an example of a data management file of “weather information”, and (e) is a table showing “ 4 is a table showing an example of a data management file of “route information”, and (f) is a table showing an example of a data management file of “region information”. (a)は、順序決定ポリシーが設定されていない場合に決定された再生順序を表すタイムチャートであり、(b)は、順序決定ポリシーが「緊急」である場合に決定された再生順序を表すタイムチャートであり、(c)は、順序決定ポリシーが「最新のみ」である場合に決定された再生順序を表すタイムチャートであり、(d)は、順序決定ポリシーが「視聴期限優先」である場合に決定された再生順序を表すタイムチャートであり、(e)は、順序決定ポリシーが「最新配信時刻優先」である場合に決定された再生順序を表すタイムチャートであり、(f)は、新しいジャンルが追加された場合に決定された再生順序を表すタイムチャートである。(A) is a time chart showing the playback order determined when the order determination policy is not set, and (b) shows the playback order determined when the order determination policy is “emergency”. It is a time chart, (c) is a time chart showing the playback order determined when the order determination policy is “latest only”, and (d) is the order determination policy “viewing time limit priority”. (E) is a time chart showing the playback order determined when the order determination policy is “latest distribution time priority”, and (f) is a time chart showing the playback order determined in this case. It is a time chart showing the reproduction | regeneration order determined when a new genre is added. 図1に示されるロボット掃除機が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the robot cleaner shown by FIG. 1 performs. 本発明の第2の実施の形態に係るロボット掃除機の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the robot cleaner which concerns on the 2nd Embodiment of this invention. 図7に示されるロボット掃除機が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the robot cleaner shown by FIG. 7 performs.

〔実施形態1〕
図1〜図6に基づいて、本発明の第1の実施の形態(実施形態1)を説明する。
Embodiment 1
Based on FIGS. 1-6, the 1st Embodiment (Embodiment 1) of this invention is described.

〔ロボット掃除機10の概要〕
図3に基づいて、ロボット掃除機10の概要を説明する。図3は、ロボット掃除機10が動作する状況例を示す模式図である。図3の(a)は、お母さんが上記ロボット掃除機10に朝の挨拶をするシーンを示す模式図であり、(b)は、お父さんが上記ロボット掃除機10に朝の挨拶をするシーンを示す模式図であり、(c)は、お母さんが上記ロボット掃除機10に外出時の挨拶をするシーンを示す模式図である。
[Outline of robot cleaner 10]
Based on FIG. 3, the outline | summary of the robot cleaner 10 is demonstrated. FIG. 3 is a schematic diagram illustrating an example of a situation in which the robot cleaner 10 operates. FIG. 3A is a schematic diagram showing a scene in which a mother gives a morning greeting to the robot cleaner 10, and FIG. 3B shows a scene in which a father gives a morning greeting to the robot cleaner 10. It is a schematic diagram, (c) is a schematic diagram showing a scene in which a mother greets the robot cleaner 10 when going out.

ロボット掃除機(再生装置)10は、自動で床の掃除を行う自走式の掃除機である。特に、ロボット掃除機10は、音声データ(音声情報)1に含まれる音声を再生することによって、当該音声として当該音声データ1に記録されたコンテンツ7をユーザに提示する。ここで、上記「コンテンツ」は、ニュース、天気情報、路線情報、地域情報など、任意の情報源(インターネット、テレビジョン放送、衛星放送、ケーブルテレビ、ラジオ放送など)から提供される個々の情報をいい、映像、画像、音楽、音声、文章、文字、数式、数字、記号、またはこれらの組み合わせによって構成されるものである。   The robot cleaner (reproducing device) 10 is a self-propelled cleaner that automatically cleans the floor. In particular, the robot cleaner 10 presents the content 7 recorded in the audio data 1 as the audio to the user by reproducing the audio included in the audio data (audio information) 1. Here, the above “content” includes individual information provided from an arbitrary information source (Internet, television broadcast, satellite broadcast, cable television, radio broadcast, etc.) such as news, weather information, route information, and regional information. It is composed of video, images, music, audio, text, characters, mathematical formulas, numbers, symbols, or combinations thereof.

また、ロボット掃除機10は、サーバ15(図2を参照して後で詳述する)と通信する機能、動作ログを記録する機能、充電の残量を検出する機能および出力する機能、画像を撮影する機能、音声を認識する機能、音声を出力する機能などを備えている。さらに、ロボット掃除機10は、家庭内機器(テレビジョン受像機、空調装置、照明装置、録画装置、全自動洗濯機など、家庭内に配置された機器をいう)に制御信号を送信し、当該家庭内機器を制御する機能も備えている。   The robot cleaner 10 also has a function of communicating with the server 15 (which will be described in detail later with reference to FIG. 2), a function of recording an operation log, a function of detecting the remaining charge level, a function of outputting, and an image. It has a shooting function, a voice recognition function, a voice output function, and the like. Further, the robot cleaner 10 transmits a control signal to a home device (refers to a device placed in the home such as a television receiver, an air conditioner, a lighting device, a recording device, a fully automatic washing machine), and It also has a function to control household devices.

なお、ロボット掃除機10が備えた機能と同等の機能(特に、以下で説明するような、音声データ1に含まれる音声を再生することにより、当該音声として当該音声データ1に記録された上記コンテンツ7をユーザに提示する機能)は、携帯電話、パーソナルコンピュータ、タブレット型端末などでも実現できる。すなわち、必要な情報を入出力可能な装置でありさえすれば、当該装置はロボット掃除機10でなくともよい。   It should be noted that functions equivalent to the functions provided by the robot cleaner 10 (particularly, the content recorded in the audio data 1 as the audio by reproducing the audio included in the audio data 1 as described below) 7) can also be realized by a mobile phone, a personal computer, a tablet terminal, or the like. That is, the device need not be the robot cleaner 10 as long as the device can input and output necessary information.

図3の(a)に示されるように、お母さん(ユーザ)がロボット掃除機10に「おはよう」と挨拶すると、当該ロボット掃除機10は、お母さんがコミュニケーションを開始したことを認識し(ユーザが「お母さん」であることを特定し)、「お母さん、おはよう」と挨拶を返す。そして、「今日のニュースをお知らせするよ。今日のニュースは、経済ニュース1−1、経済ニュース1−2、経済ニュース1−3、天気情報1−1、路線情報1−1、地域情報1−1、地域情報1−2です」のように、ロボット掃除機10は、特定した当該ユーザ(お母さん)に対して、所定の順序で提示しようとする上記コンテンツ7の目次(当該コンテンツ7のタイトルを列挙するもの)を提示する。   As shown in FIG. 3A, when the mother (user) greets the robot cleaner 10 with “Good morning”, the robot cleaner 10 recognizes that the mother has started communication (the user has ) "And return a greeting saying" Mom, good morning ". And "Today's news is announced. Today's news is economic news 1-1, economic news 1-2, economic news 1-3, weather information 1-1, route information 1-1, regional information 1- 1, “Regional information 1-2”, the robot cleaner 10 provides a table of contents (title of the content 7) of the content 7 to be presented to the identified user (mother) in a predetermined order. To list).

図3の(b)に示されるように、ロボット掃除機10が音声データ1に含まれる音声を再生することによって、当該音声として当該音声データ1に記録された上記コンテンツ7をお母さんに提示している場合に、お父さん(ユーザ)が当該ロボット掃除機10に「おはよう」と挨拶すると、当該ロボット掃除機10は、お父さんがコミュニケーションを開始したことを認識する(新たなユーザが「お父さん」であることを特定する)。すなわち、当該ロボット掃除機10は、上記ユーザ(お母さん)とは異なる他のユーザ(お父さん)にも上記コンテンツ7を提示可能となったことを認識する。   As shown in FIG. 3B, the robot cleaner 10 reproduces the sound included in the sound data 1, thereby presenting the content 7 recorded in the sound data 1 as the sound to the mother. When the father (user) greets the robot cleaner 10 with “Good morning”, the robot cleaner 10 recognizes that the father has started communication (the new user is “dad”. To identify). That is, the robot cleaner 10 recognizes that the content 7 can be presented to another user (dad) different from the user (mother).

そして、ロボット掃除機10は、所定のタイミング(再生を中断してもユーザに不自然な印象を与えないタイミング、再生を中断可能な音声データの位置まで当該再生を終了したタイミング、または、その他任意のタイミングをいう)において「お父さん、おはよう」と挨拶を返した後、「今日のニュースに、政治ニュース2−1を追加するね」のように、先に特定したユーザ(お母さん)と新たに特定した他のユーザ(お父さん)とに対して、新たなコンテンツ7を追加し、上記所定の順序を変更したことを報告する。   Then, the robot cleaner 10 performs a predetermined timing (a timing that does not give an unnatural impression to the user even if the playback is interrupted, a timing that the playback is ended up to the position of the audio data that can interrupt the playback, or any other arbitrary timing) After returning a greeting saying “Dad, good morning”, “New political user 2-1 will be added to today ’s news” and a new user (mother) will be specified. The new content 7 is added to the other user (dad) who has made the change and the predetermined order is changed.

ここで、ロボット掃除機10を利用可能なユーザとして、当該ロボット掃除機10にあらかじめ登録されたユーザ(お父さん、お母さん、および、娘)には、優先順位が付けられている。例えば、図3の(b)に示される例においては、お母さんよりも高い優先順位がお父さんに付けられている(図4の(a)を参照して後で詳述する)。したがって、上記コンテンツ7をお母さんに提示している場合に、お母さんよりも優先順位の高いお父さんにも当該コンテンツ7を提示可能となった(上記音声を聴取可能な範囲に、お父さんが存在することを新たに認識した)場合、ロボット掃除機10は、優先順位の高いユーザ(お父さん)に合わせて新たなコンテンツ7(政治ニュース2−1)を提示する。また、ロボット掃除機10は、優先順位の高いユーザが興味を有する新たなコンテンツ7が先に提示されるように、上記所定の順序を変更する。   Here, as a user who can use the robot cleaner 10, a user (a father, a mother, and a daughter) registered in advance in the robot cleaner 10 is given priority. For example, in the example shown in FIG. 3B, a higher priority is given to the father than the mother (detailed later with reference to FIG. 4A). Accordingly, when the content 7 is presented to the mother, the content 7 can be presented to a father having a higher priority than the mother (the father is present in the range where the audio can be heard). When newly recognized), the robot cleaner 10 presents new content 7 (political news 2-1) in accordance with the user (dad) with a high priority. Further, the robot cleaner 10 changes the predetermined order so that the new content 7 in which the user with higher priority is interested is presented first.

なお、ロボット掃除機10は、お父さんもお母さんも共通して興味を有するコンテンツ7(経済ニュース1−3および天気情報1−1)が先に提示されるように、上記所定の順序を変更してもよい。また、上記所定の順序を変更する時点において、上記新たなコンテンツ7が記録された音声データ1が未だ取得されていない場合、ロボット掃除機10は、当該新たなコンテンツ7をサーバ15から取得する。   The robot cleaner 10 changes the predetermined order so that the contents 7 (economic news 1-3 and weather information 1-1) that both the father and the mother are interested in are presented first. Also good. If the audio data 1 in which the new content 7 is recorded has not yet been acquired at the time when the predetermined order is changed, the robot cleaner 10 acquires the new content 7 from the server 15.

図3の(c)に示されるように、お母さんがロボット掃除機10に「行ってきます」と挨拶すると、当該ロボット掃除機10は、お母さんがコミュニケーションを終了させたことを認識し(「お母さん」が音声を聴取可能な範囲に存在するユーザから外れたことを認識し)、上記所定のタイミングにおいて「お母さん、行ってらっしゃい」と挨拶を返す。そして、ロボット掃除機10は、お父さんのみが興味を有するコンテンツ7が提示されるように、当該コンテンツ7を提示する順序を再度変更する。例えば、ロボット掃除機10は、お母さんのみが興味を有するコンテンツ7(地域情報1−1など)を、ユーザに提示すべきコンテンツ7の候補から外す、または、上記コンテンツ7が他のすべてのコンテンツ7が提示された後に提示されるように、上記所定の順序を変更する。   As shown in FIG. 3C, when the mother greets the robot cleaner 10 “I will go”, the robot cleaner 10 recognizes that the mother has finished communication (“mom”). Recognizes that the user has deviated from the user who is within the range where the voice can be heard), and returns a greeting saying “Mom, please go” at the predetermined timing. Then, the robot cleaner 10 changes the order of presenting the content 7 again so that the content 7 in which only the father is interested is presented. For example, the robot cleaner 10 removes the content 7 (regional information 1-1 or the like) that only the mother is interested in from the candidates for the content 7 that should be presented to the user, or the content 7 is all other content 7. The predetermined order is changed so as to be presented after being presented.

上記のように、ユーザにかかわらず所定の音声を再生するに過ぎない従来の装置と異なり、ロボット掃除機10は、ユーザの変化(例えば、上記コンテンツ7をお母さんに提示している場合に、お父さんが存在することを新たに認識したことなど)に適応するように、提示するコンテンツ7を動的に取得できる。また、ロボット掃除機10は、動的に取得したコンテンツ7に応じて、当該コンテンツ7を提示する順序を変更できる。したがって、ロボット掃除機10は、ユーザの利便性を改善することができる。   As described above, unlike the conventional device that only reproduces a predetermined sound regardless of the user, the robot cleaner 10 changes the user (for example, when the content 7 is presented to the mother, the dad The content 7 to be presented can be dynamically acquired so as to adapt to the newly recognized presence of the. Moreover, the robot cleaner 10 can change the order of presenting the content 7 according to the dynamically acquired content 7. Therefore, the robot cleaner 10 can improve user convenience.

〔ロボット掃除機10の構成〕
図1に基づいて、ロボット掃除機10の構成を説明する。図1は、ロボット掃除機10の要部構成を示すブロック図である。なお、記載の簡潔性を担保するため、本実施の形態に直接関係のない構成は、説明およびブロック図から省略されている。ただし、実施の実情に則して、ロボット掃除機10は、当該省略された構成を備えてもよい(他のブロック図においても同様である)。図1に示されるように、ロボット掃除機10は、通信部30a、受信部31a、送信部32a、記憶部40a、制御部20a、音声取得部21、順序変更部22、音声再生部23、ユーザ識別部24、マイク部60、および、スピーカ部50を備えている。
[Configuration of the robot cleaner 10]
Based on FIG. 1, the structure of the robot cleaner 10 is demonstrated. FIG. 1 is a block diagram showing a main configuration of the robot cleaner 10. In addition, in order to ensure the conciseness of description, the structure which is not directly related to this Embodiment is abbreviate | omitted from description and a block diagram. However, in accordance with the actual situation of implementation, the robot cleaner 10 may have the omitted configuration (the same applies to other block diagrams). As shown in FIG. 1, the robot cleaner 10 includes a communication unit 30a, a reception unit 31a, a transmission unit 32a, a storage unit 40a, a control unit 20a, a voice acquisition unit 21, a sequence change unit 22, a voice reproduction unit 23, and a user. An identification unit 24, a microphone unit 60, and a speaker unit 50 are provided.

通信部30aは、所定の通信方式にしたがう通信網を介して外部と通信する。外部の機器(サーバ15など)との通信を実現する本質的な機能が備わってさえいればよく、通信回線、通信方式、または通信媒体などは限定されない。また、通信部30aは、例えばIEEE802.11無線通信、Bluetooth(登録商標)などの通信方式や通信媒体を利用できる。通信部30aは、受信部31aと送信部32aとを含む。   The communication unit 30a communicates with the outside via a communication network according to a predetermined communication method. It is only necessary to have an essential function for realizing communication with an external device (such as the server 15), and a communication line, a communication method, a communication medium, and the like are not limited. The communication unit 30a can use a communication method or a communication medium such as IEEE802.11 wireless communication or Bluetooth (registered trademark). The communication unit 30a includes a reception unit 31a and a transmission unit 32a.

受信部31aは、所定の通信方式にしたがう通信網を介してサーバ15と通信することによって、音声データ1およびデータ管理ファイル2を受信する。受信部31aは、受信した音声データ1およびデータ管理ファイル2を音声取得部21に出力する。送信部32aは、音声取得部21からデータ送信要求8(所定のデータを送信するように、サーバ15に対して要求する情報をいう)が入力された場合、所定の通信方式にしたがう通信網を介して、当該データ送信要求8をサーバ15に送信する。   The receiving unit 31a receives the audio data 1 and the data management file 2 by communicating with the server 15 via a communication network according to a predetermined communication method. The receiving unit 31a outputs the received audio data 1 and data management file 2 to the audio acquiring unit 21. When the data transmission request 8 (referred to as information requesting the server 15 to transmit predetermined data) is input from the voice acquisition unit 21, the transmission unit 32a sets a communication network according to a predetermined communication method. Then, the data transmission request 8 is transmitted to the server 15.

記憶部40aは、音声データ1およびデータ管理ファイル2を格納可能な記憶機器である。記憶部40aは、例えばハードディスク、SSD(silicon state drive)、半導体メモリ、DVDなどで構成できる。   The storage unit 40 a is a storage device that can store the audio data 1 and the data management file 2. The storage unit 40a can be configured by, for example, a hard disk, an SSD (silicon state drive), a semiconductor memory, a DVD, or the like.

制御部20aは、ロボット掃除機10の各種機能を統括的に制御するものである。制御部20aは、音声取得部21、順序変更部22、音声再生部23、および、ユーザ識別部24を含む。   The control unit 20a controls the various functions of the robot cleaner 10 in an integrated manner. The control unit 20 a includes an audio acquisition unit 21, an order change unit 22, an audio reproduction unit 23, and a user identification unit 24.

音声取得部(選択手段)21は、コンテンツ7を提示可能なユーザが変化した場合、当該変化した後のユーザに応じて音声データ1を少なくとも1つ選択する。ここで、上記「ユーザが変化した場合」とは、コンテンツ7を提示可能なユーザが増加した場合、減少した場合、および/または、入れ替わった場合をいう。例えば、図3の(a)および(b)に示される例のように、コンテンツ7がお母さんに提示されている場合に、お父さんにも当該コンテンツ7を提示可能となった場合(以下、「ケースA」と称する)が該当する。または、図3の(b)および(c)に示される例のように、コンテンツ7がお父さんとお母さんとに提示されている場合に、お父さんにのみ当該コンテンツ7を提示可能となった場合(以下、「ケースB」と称する)が該当する。   When the user who can present the content 7 changes, the audio acquisition unit (selection unit) 21 selects at least one audio data 1 according to the changed user. Here, “when the user has changed” refers to a case where the number of users who can present the content 7 has increased, has decreased, and / or has been replaced. For example, as in the example shown in FIGS. 3A and 3B, when the content 7 is presented to the mother, the content 7 can be presented to the father (hereinafter referred to as “case”). A)). Alternatively, as in the example shown in FIGS. 3B and 3C, when the content 7 is presented to the father and the mother, the content 7 can be presented only to the father (hereinafter referred to as the following). , Referred to as “Case B”).

具体的には、ユーザ識別部24からユーザ識別情報3(ユーザを一意に識別可能な情報をいう)が入力された場合、音声取得部21は、データ管理ファイル2を取得する。次に、音声取得部21は、取得した当該データ管理ファイル2を参照し、上記ユーザ識別情報3が対応付けられた音声データ1を取得(選択)する。例えば、上記ケースAの場合、音声取得部21は上記データ管理ファイル2を参照し、「お父さん」を識別するユーザ識別情報(他のユーザ識別情報)3が対応付けられた音声データ1を選択する(あるいは、「お母さん」を識別するユーザ識別情報3と、「お父さん」を識別するユーザ識別情報3とが両方対応付けられた音声データ1を選択してもよい)。または、上記ケースBの場合、音声取得部21は、上記データ管理ファイル2を参照し、「お父さん」を識別するユーザ識別情報3のみが対応付けられた音声データ1を選択する。すなわち、音声取得部21は、変化した後のユーザに含まれる少なくとも1人のユーザに提示すべきコンテンツ7が記録された音声データ1を選択する。   Specifically, when user identification information 3 (referred to as information that can uniquely identify a user) is input from the user identification unit 24, the voice acquisition unit 21 acquires the data management file 2. Next, the voice acquisition unit 21 refers to the acquired data management file 2 and acquires (selects) the voice data 1 associated with the user identification information 3. For example, in the case A, the voice acquisition unit 21 refers to the data management file 2 and selects the voice data 1 associated with the user identification information (other user identification information) 3 for identifying “dad”. (Alternatively, voice data 1 in which user identification information 3 for identifying “mother” and user identification information 3 for identifying “dad” are both associated may be selected). Alternatively, in the case B, the voice acquisition unit 21 refers to the data management file 2 and selects the voice data 1 associated with only the user identification information 3 that identifies “dad”. That is, the sound acquisition unit 21 selects the sound data 1 in which the content 7 to be presented to at least one user included in the changed user is recorded.

なお、上記音声データ1または上記データ管理ファイル2が、サーバ15から既に受信され、記憶部40aに格納されている場合、音声取得部21は当該音声データ1または当該データ管理ファイル2を当該記憶部40aから選択する。サーバ15から未だ受信されておらず、記憶部40aに格納されていない場合、音声取得部21は送信部32aを介してデータ送信要求8をサーバ15に送信することによって、当該音声データ1または当該データ管理ファイル2を、受信部30を介してサーバ15から選択する。   When the voice data 1 or the data management file 2 is already received from the server 15 and stored in the storage unit 40a, the voice acquisition unit 21 stores the voice data 1 or the data management file 2 in the storage unit. Select from 40a. When not yet received from the server 15 and stored in the storage unit 40a, the audio acquisition unit 21 transmits the data transmission request 8 to the server 15 via the transmission unit 32a, thereby the audio data 1 or the The data management file 2 is selected from the server 15 via the receiving unit 30.

音声取得部21は、選択した上記音声データ1を音声再生部23に出力し、取得した上記データ管理ファイル2を順序変更部22に出力する。また、音声取得部21は、選択した上記音声データ1に合わせて上記データ管理ファイル2を更新し、上記音声データ1および更新後の上記データ管理ファイル2を、記憶部40aに格納する。   The audio acquisition unit 21 outputs the selected audio data 1 to the audio reproduction unit 23, and outputs the acquired data management file 2 to the order change unit 22. The voice acquisition unit 21 updates the data management file 2 according to the selected voice data 1, and stores the voice data 1 and the updated data management file 2 in the storage unit 40a.

なお、音声取得部21は、コンテンツ7を提示する時間帯に、サーバ15において管理されるデータ管理ファイル2と、記憶部40aに格納されたデータ管理ファイル2とを比較し、前者の音声データリスト(図4を参照して後述)と後者の音声データリストとが同一になるように、不足している音声データ1をサーバ15から取得し、不要な音声データ1を記憶部40aから削除してよい(ミラーリングダウンロード)。   The voice acquisition unit 21 compares the data management file 2 managed in the server 15 with the data management file 2 stored in the storage unit 40a during the time period when the content 7 is presented, and the former voice data list. The missing voice data 1 is acquired from the server 15 and the unnecessary voice data 1 is deleted from the storage unit 40a so that the latter voice data list is the same (described later with reference to FIG. 4). Good (mirroring download).

順序変更部(変更手段)22は、音声取得部21によって選択された音声データ1にそれぞれ含まれる音声の再生順序4を、当該音声データ1に対応する順序決定ポリシー(所定の方針)にしたがって変更する。具体的には、音声取得部21からデータ管理ファイル2が入力された場合、順序変更部22は、上記更新後のデータ管理ファイル2に含まれる順序決定フラグを参照し、当該順序決定フラグによって示される順序決定ポリシーに基づいて、上記音声データ1に含まれる音声の再生順序4を変更する。そして、順序変更部22は、当該再生順序4を音声再生部23に出力する。上記順序決定ポリシーの詳細は、後で詳述する。   The order changing unit (changing unit) 22 changes the reproduction order 4 of the audio included in the audio data 1 selected by the audio acquiring unit 21 according to the order determination policy (predetermined policy) corresponding to the audio data 1. To do. Specifically, when the data management file 2 is input from the voice acquisition unit 21, the order changing unit 22 refers to the order determination flag included in the updated data management file 2 and indicates the order determination flag. The reproduction order 4 of the audio included in the audio data 1 is changed based on the order determination policy. Then, the order changing unit 22 outputs the playback order 4 to the audio playback unit 23. Details of the order determination policy will be described later.

音声再生部(提示手段)23は、順序変更部22によって変更された再生順序4にしたがって、音声として記録されたコンテンツ7をユーザおよび他のユーザに提示する。具体的には、音声取得部21から音声データ1が入力され、順序変更部22から再生順序4が入力された場合、音声再生部23は、当該再生順序4にしたがって、当該音声データ1に含まれる音声を再生するように音声信号5aを生成し、当該音声信号5aをスピーカ部50に出力する。これにより、ロボット掃除機10は、上記音声をユーザに聴取させることができる。   The audio reproducing unit (presenting means) 23 presents the content 7 recorded as audio to the user and other users according to the reproduction order 4 changed by the order changing unit 22. Specifically, when the audio data 1 is input from the audio acquisition unit 21 and the reproduction order 4 is input from the order changing unit 22, the audio reproduction unit 23 is included in the audio data 1 according to the reproduction order 4. The audio signal 5 a is generated so as to reproduce the sound to be reproduced, and the audio signal 5 a is output to the speaker unit 50. Thereby, the robot cleaner 10 can make a user listen to the said audio | voice.

なお、音声再生部23が上記音声を再生する時間帯(ユーザが当該音声を聴取可能な時間帯)を、ユーザは任意に設定できる。また、所定のライフログまたはHEMS(家庭内エネルギー監視システム)の情報に基づいて、上記音声を再生するのに適した時間帯を、音声再生部23は推定できる。さらに、ロボット掃除機10が照度センサー(図1において図示せず)を備えている場合に、部屋の電気が点灯したことを検知した場合、音声再生部23が上記音声の再生を開始してもよい。   Note that the user can arbitrarily set a time period during which the sound reproduction unit 23 reproduces the sound (a time period during which the user can listen to the sound). Moreover, the audio | voice reproduction | regeneration part 23 can estimate the time slot | zone suitable for reproducing | regenerating the said audio | voice based on the information of a predetermined | prescribed life log or HEMS (home energy monitoring system). Further, when the robot cleaner 10 is provided with an illuminance sensor (not shown in FIG. 1), if it is detected that the electricity in the room is turned on, even if the sound reproduction unit 23 starts reproducing the sound, Good.

ユーザ識別部(特定手段)24は、音声を聴取可能な範囲に存在するユーザを特定する。具体的には、マイク部60から音声信号5bが入力された場合、ユーザ識別部24は、当該音声信号5bを解析することによって、当該マイク部60に対して音声を発したユーザ(図3の(b)に示される例においては、ロボット掃除機10に「おはよう」と声をかけた「お父さん」)を識別し、当該ユーザを識別可能なユーザ識別情報3を音声取得部21に出力する。   The user identification unit (identification means) 24 identifies a user who exists in a range where sound can be heard. Specifically, when the audio signal 5b is input from the microphone unit 60, the user identification unit 24 analyzes the audio signal 5b, thereby generating a user who uttered the microphone unit 60 (in FIG. 3). In the example shown in (b), the robot cleaner 10 is identified as “Dad” who says “Good morning” to the robot cleaner 10, and the user identification information 3 that can identify the user is output to the voice acquisition unit 21.

なお、音声からユーザを識別するためにユーザ識別部24が利用する手法は、公知の音声認識技術でよい。また、ユーザ識別部24は、音声認識技術に基づいてユーザを識別する以外の手法を利用して、ユーザを識別してもよい。例えば、ロボット掃除機10が所定の入力インターフェース(図1において図示せず)を備えている場合、ユーザ識別部24は、当該入力インターフェースからユーザを一意に識別可能な入力を受け付けることによって、当該ユーザを識別してもよい。さらに、ユーザ識別部24は、家庭内機器と連携することによって、ユーザを識別してもよい。例えば、ロボット掃除機10と同じ部屋に位置する所定の家庭内機器の電源が投入されたことを検知することにより、ユーザ識別部24はユーザを識別することができる。   The method used by the user identification unit 24 to identify the user from the voice may be a known voice recognition technique. Moreover, the user identification part 24 may identify a user using methods other than identifying a user based on a speech recognition technique. For example, when the robot cleaner 10 includes a predetermined input interface (not shown in FIG. 1), the user identification unit 24 receives the input that can uniquely identify the user from the input interface, thereby May be identified. Furthermore, the user identification part 24 may identify a user by cooperating with a domestic device. For example, the user identifying unit 24 can identify the user by detecting that a predetermined household device located in the same room as the robot cleaner 10 is turned on.

マイク部60は、周囲の音声を集めて音声信号5bに変換し、当該音声信号5bをユーザ識別部24に出力するマイクである。また、スピーカ部50は、音声再生部23から入力された音声信号5aに基づいて、当該音声信号5aによって表される音声を出力するスピーカである。なお、スピーカ部50を構成するスピーカが多重音声を出力可能である場合、ロボット掃除機10は、音声の再生に重ねるように、ユーザに対して音声によって返答することができる。例えば、図3の(c)に示される例において、ロボット掃除機10は「お母さん、行ってらっしゃい」という返答を、上記音声の再生に重ねて出力することができる。   The microphone unit 60 is a microphone that collects ambient sounds, converts them into audio signals 5 b, and outputs the audio signals 5 b to the user identification unit 24. The speaker unit 50 is a speaker that outputs the sound represented by the audio signal 5 a based on the audio signal 5 a input from the audio reproduction unit 23. In addition, when the speaker which comprises the speaker part 50 can output multiplexed audio | voice, the robot cleaner 10 can reply with a voice | voice with respect to a user so that it may overlap with reproduction | regeneration of an audio | voice. For example, in the example shown in FIG. 3C, the robot cleaner 10 can output a reply “Mother, please go” superimposed on the reproduction of the sound.

〔サーバ15の構成〕
図2に基づいて、サーバ15の構成を説明する。図2は、サーバ15の要部構成を示すブロック図である。図2に示されるように、サーバ15は、通信部30b、受信部31b、送信部32b、制御部20b、データ取得部71、データ生成部72、管理ファイル生成部73、情報送出部74、および、記憶部40bを備えている。
[Configuration of Server 15]
Based on FIG. 2, the structure of the server 15 is demonstrated. FIG. 2 is a block diagram illustrating a main configuration of the server 15. As shown in FIG. 2, the server 15 includes a communication unit 30b, a reception unit 31b, a transmission unit 32b, a control unit 20b, a data acquisition unit 71, a data generation unit 72, a management file generation unit 73, an information transmission unit 74, and The storage unit 40b is provided.

サーバ15は、ロボット掃除機10と通信可能に接続され、当該ロボット掃除機10からのデータ送信要求8に応じて、所定のデータ(音声データ1およびデータ管理ファイル2)を当該ロボット掃除機10に送信するものである。   The server 15 is communicably connected to the robot cleaner 10 and sends predetermined data (voice data 1 and data management file 2) to the robot cleaner 10 in response to a data transmission request 8 from the robot cleaner 10. To be sent.

通信部30bは、所定の通信方式にしたがう通信網を介して外部と通信する。外部の機器(ロボット掃除機10など)との通信を実現する本質的な機能が備わってさえいればよく、通信回線、通信方式、または通信媒体などは限定されない。また、通信部30bは、例えばIEEE802.11無線通信、Bluetooth(登録商標)などの通信方式や通信媒体を利用できる。通信部30bは、受信部31bと送信部32bとを含む。   The communication unit 30b communicates with the outside via a communication network according to a predetermined communication method. It is only necessary to have an essential function for realizing communication with an external device (such as the robot cleaner 10), and a communication line, a communication method, a communication medium, and the like are not limited. The communication unit 30b can use a communication method or a communication medium such as IEEE802.11 wireless communication or Bluetooth (registered trademark). The communication unit 30b includes a reception unit 31b and a transmission unit 32b.

受信部31bは、上記所定の通信方式にしたがう通信網を介してロボット掃除機10と通信することによって、当該ロボット掃除機10からデータ送信要求8を受信し、当該データ送信要求8をデータ取得部71に出力する。また、受信部31bは、外部の装置(例えば、他のサーバ)からコンテンツ7を受信し、当該コンテンツ7をデータ取得部71に出力する。送信部32bは、情報送出部74から音声データ1およびデータ管理ファイル2が入力された場合、上記所定の通信方式にしたがう通信網を介してロボット掃除機10と通信することによって、当該ロボット掃除機10に当該音声データ1および当該データ管理ファイル2を送信する。   The reception unit 31b receives the data transmission request 8 from the robot cleaner 10 by communicating with the robot cleaner 10 via the communication network according to the predetermined communication method, and receives the data transmission request 8 from the data acquisition unit. To 71. In addition, the receiving unit 31 b receives the content 7 from an external device (for example, another server) and outputs the content 7 to the data acquisition unit 71. When the voice data 1 and the data management file 2 are input from the information transmission unit 74, the transmission unit 32b communicates with the robot cleaner 10 via the communication network according to the predetermined communication method, thereby the robot cleaner The audio data 1 and the data management file 2 are transmitted to 10.

制御部20bは、サーバ15の各種機能を統括的に制御するものである。制御部20bは、データ取得部71、データ生成部72、管理ファイル生成部73、および、情報送出部74を含む。   The control unit 20b controls the various functions of the server 15 in an integrated manner. The control unit 20b includes a data acquisition unit 71, a data generation unit 72, a management file generation unit 73, and an information transmission unit 74.

データ取得部71は、受信部31bを介してロボット掃除機10からデータ送信要求8を取得した場合、当該受信部31bを介して上記外部の装置からコンテンツ7を取得する。データ取得部71は、取得した当該コンテンツ7をデータ生成部72および管理ファイル生成部73に出力する。ここで、前述したように、データ取得部71によって取得されるコンテンツ7は、任意の情報源から提供される個々の情報である。例えば、インターネットを介して所定のニュースサイトから取得された記事であってもよいし、所定のコンテンツ配信サーバから配信された音声データであってもよい。また、情報入稿者がサーバ15に対して、随時コンテンツ7を供給してもよい。   When the data acquisition unit 71 acquires the data transmission request 8 from the robot cleaner 10 via the reception unit 31b, the data acquisition unit 71 acquires the content 7 from the external device via the reception unit 31b. The data acquisition unit 71 outputs the acquired content 7 to the data generation unit 72 and the management file generation unit 73. Here, as described above, the content 7 acquired by the data acquisition unit 71 is individual information provided from an arbitrary information source. For example, it may be an article acquired from a predetermined news site via the Internet, or may be audio data distributed from a predetermined content distribution server. In addition, the information submitter may supply the content 7 to the server 15 at any time.

データ生成部(第1の生成手段)72は、コンテンツ7が音声によって記録された音声データ1を生成する。例えば、所定のニュースサイトから取得された記事が、データ取得部71からコンテンツ7として入力された場合、データ生成部72は、当該記事を読み上げる(文字情報を音声情報に変換する、公知の音声合成に関する技術を利用してよい)ことによって音声データ1を生成し、当該音声データ1を情報送出部74に出力する。または、所定のコンテンツ配信サーバから配信された音声データが、データ取得部71からコンテンツ7として入力された場合、データ生成部72は、当該音声データを情報送出部74に出力する。   The data generation unit (first generation unit) 72 generates audio data 1 in which the content 7 is recorded by audio. For example, when an article acquired from a predetermined news site is input as the content 7 from the data acquisition unit 71, the data generation unit 72 reads out the article (a known speech synthesis method that converts character information into speech information). The voice data 1 is generated, and the voice data 1 is output to the information transmission unit 74. Alternatively, when the audio data distributed from a predetermined content distribution server is input as the content 7 from the data acquisition unit 71, the data generation unit 72 outputs the audio data to the information transmission unit 74.

管理ファイル生成部(第2の生成手段)73は、データ取得部71からコンテンツ7が入力された場合、ユーザを一意に識別可能なユーザ識別情報3を音声データ1に少なくとも1つ対応付けたデータ管理ファイル(対応情報)2を生成する。管理ファイル生成部73は、生成したデータ管理ファイル2を情報送出部74に出力する。   When the content 7 is input from the data acquisition unit 71, the management file generation unit (second generation unit) 73 is data in which at least one user identification information 3 that can uniquely identify a user is associated with the audio data 1. A management file (corresponding information) 2 is generated. The management file generation unit 73 outputs the generated data management file 2 to the information transmission unit 74.

情報送出部(送信手段)74は、データ生成部72から音声データ1が入力され、管理ファイル生成部73からデータ管理ファイル2が入力された場合、送信部32bを介して、当該音声データ1および当該データ管理ファイル2をロボット掃除機10に送信する。なお、管理ファイル生成部73が定期的に(所定の間隔で)データ管理ファイル2を生成する場合、情報送出部74は、当該所定の間隔で当該データ管理ファイル2をロボット掃除機10に送信してよい。   When the audio data 1 is input from the data generation unit 72 and the data management file 2 is input from the management file generation unit 73, the information transmission unit (transmission means) 74 receives the audio data 1 and the data via the transmission unit 32b. The data management file 2 is transmitted to the robot cleaner 10. When the management file generation unit 73 periodically generates the data management file 2 (at a predetermined interval), the information transmission unit 74 transmits the data management file 2 to the robot cleaner 10 at the predetermined interval. It's okay.

記憶部40bは、音声データ1およびデータ管理ファイル2を格納可能な記憶機器である。記憶部40bは、前述した記憶部40aと同様に、例えばハードディスク、SSD(silicon state drive)、半導体メモリ、DVDなどで構成できる。   The storage unit 40 b is a storage device that can store the audio data 1 and the data management file 2. The storage unit 40b can be configured by, for example, a hard disk, an SSD (silicon state drive), a semiconductor memory, a DVD, or the like, similar to the storage unit 40a described above.

〔データ管理ファイル2の構成〕
図4に基づいて、データ管理ファイル2の構成を説明する。図4の(a)は、情報カテゴリおよび視聴メンバーの優先順位をそれぞれ規定するテーブルとして上記データ管理ファイル2に含まれる優先テーブルの一例を示す表であり、(b)は「経済ニュース」のデータ管理ファイル2の一例を示す表であり、(c)は「政治ニュース」のデータ管理ファイル2の一例を示す表である。(d)は「天気情報」のデータ管理ファイル2の一例を示す表であり、(e)は「路線情報」のデータ管理ファイル2の一例を示す表であり、(f)は「地域情報」のデータ管理ファイル2の一例を示す表である。
[Configuration of data management file 2]
The configuration of the data management file 2 will be described with reference to FIG. FIG. 4A is a table showing an example of a priority table included in the data management file 2 as a table for defining information categories and viewing member priorities, and FIG. 4B is data of “economic news”. 5 is a table showing an example of a management file 2, and FIG. 6C is a table showing an example of a data management file 2 of “political news”. (D) is a table showing an example of the data management file 2 of “weather information”, (e) is a table showing an example of the data management file 2 of “route information”, and (f) is “region information”. It is a table | surface which shows an example of the data management file 2 of.

図4の(a)に示されるように、データ管理ファイル2は、「情報カテゴリ」(所定の基準にしたがってコンテンツを分類したラベルをいう)および「視聴メンバー」(ロボット掃除機10を利用可能なユーザとして、当該ロボット掃除機10にあらかじめ登録されたユーザをいう)の優先順位をそれぞれ規定する優先テーブルを含む。ここで、当該優先テーブルには、「情報カテゴリ」欄に、優先順位の高いカテゴリから順に「ニュース1」(経済ニュース1−1、経済ニュース1−2、経済ニュース1−3を含むカテゴリ、図4の(b)参照)、「ニュース2」(政治ニュース2−1を含むカテゴリ、図4の(c)参照)、「天気情報1」(図4の(d)参照)、「路線情報1」(図4の(e)参照)が設定されれている。また、当該優先テーブルには、「視聴メンバー」欄に、優先順位の高いメンバーから順に「お父さん」(父)、「お母さん」(母)、「娘」が設定されている。   As shown in FIG. 4A, the data management file 2 includes an “information category” (refers to a label that classifies content according to a predetermined standard) and a “viewing member” (the robot cleaner 10 can be used). As a user, a priority table that defines the priority order of each of the robot cleaners 10 (referred to as users registered in advance) is included. Here, in the priority table, in the “information category” column, “news 1” (category including economic news 1-1, economic news 1-2, economic news 1-3, FIG. 4 (see (b)), “news 2” (category including political news 2-1; see FIG. 4 (c)), “weather information 1” (see FIG. 4 (d)), “route information 1” (See (e) of FIG. 4) is set. In the priority table, “dad” (father), “mother” (mother), and “daughter” are set in the “viewing member” column in order from the member with the highest priority.

図4の(b)〜(f)に示されるように、データ管理ファイル(対応情報)2は、コンテンツ7が属する上記情報カテゴリごとに存在し、順序決定フラグと音声データリストとを少なくとも含む。上記「順序決定フラグ」は、順序変更部22が再生順序4を決定する場合に基づく順序決定ポリシーを示すフラグである(図5を参照して後で詳述する)。上記「音声データリスト」は、データ管理ファイル2で管理される音声データ1のリストであり、音声データの識別子、配信時刻、視聴期限、および、対象者(ユーザ識別情報3)を含む。   As shown in FIGS. 4B to 4F, the data management file (corresponding information) 2 exists for each information category to which the content 7 belongs, and includes at least an order determination flag and an audio data list. The “order determination flag” is a flag indicating an order determination policy based on the case where the order changing unit 22 determines the reproduction order 4 (which will be described in detail later with reference to FIG. 5). The “audio data list” is a list of audio data 1 managed by the data management file 2 and includes an identifier of audio data, a delivery time, a viewing time limit, and a target person (user identification information 3).

ここで、上記データ管理ファイル2は、ユーザを一意に識別可能なユーザ識別情報3を、音声データ1に少なくとも1つ対応付けている点に注意する。図4の(b)に示されるように、例えば、「経済ニュース1−1」の音声データ1には、「お母さん」を識別するユーザ識別情報3が対応付けられている。また、図4の(c)に示されるように、「政治ニュース2−1」の音声データ1には、「お父さん」を識別するユーザ識別情報3が対応付けられている。さらに、図4の(d)に示されるように、「天気情報1−1」の音声データ1には、「お父さん」、「お母さん」、および、「娘」を識別するユーザ識別情報3が対応付けられている。   Here, it should be noted that the data management file 2 associates at least one user identification information 3 that can uniquely identify a user with the audio data 1. As shown in FIG. 4B, for example, the voice data 1 of “Economic News 1-1” is associated with user identification information 3 that identifies “mom”. Also, as shown in FIG. 4C, the voice data 1 of “political news 2-1” is associated with user identification information 3 that identifies “dad”. Further, as shown in FIG. 4D, the voice data 1 of “weather information 1-1” corresponds to user identification information 3 for identifying “dad”, “mother”, and “daughter”. It is attached.

したがって、図3の(a)および(b)に例示されるように、コンテンツ7がお母さんに提示されているときに、お父さんにも当該コンテンツ7を提示可能となった場合(上記ケースA)、音声取得部21は、上記データ管理ファイル2に含まれる上記ユーザ識別情報3を参照し、上記優先テーブルにおいて優先順位の高いユーザ(お父さん)が興味を有しており(「お父さん」を識別するユーザ識別情報3が対応付けられており)、かつ、優先順位の高い情報カテゴリに含まれるコンテンツ7(政治ニュース2−1)が記録された音声データ1を選択する。または、音声取得部21は、前述したように、お父さん・お母さんの双方が共通して興味を有する(「お父さん」を識別するユーザ識別情報3と、「お母さん」を識別するユーザ識別情報3とが両方対応付けられた)コンテンツ7(経済ニュース1−3、天気情報1−1)を選択してもよい。この場合、「天気情報1−1」が含まれる情報カテゴリ(ニュース1)よりも「経済ニュース1−3」が含まれる情報カテゴリ(天気情報1)の方が優先順位は高いため、「天気情報1−1」よりも「経済ニュース1−3」の方が両者に先に提示されてよい(ただし、これに限られない)。   Therefore, as illustrated in FIGS. 3A and 3B, when the content 7 is presented to the mother, the content 7 can be presented to the father (case A). The voice acquisition unit 21 refers to the user identification information 3 included in the data management file 2 and is interested in a user (dad) having a high priority in the priority table (a user identifying “dad”). The audio data 1 in which the content 7 (political news 2-1) included in the information category having a high priority is recorded is selected. Or, as described above, the voice acquisition unit 21 is interested in both the father and the mother (user identification information 3 for identifying “dad” and user identification information 3 for identifying “mother”). You may select the content 7 (both matched) (economic news 1-3, weather information 1-1). In this case, the information category (weather information 1) including “economic news 1-3” has a higher priority than the information category (news 1) including “weather information 1-1”. “Economic news 1-3” may be presented to both parties earlier than “1-1” (but not limited to this).

〔再生順序4の決定方法〕
図5に基づいて、順序変更部22が再生順序4を決定する方法を説明する。図5の(a)は、順序決定ポリシーが設定されていない場合に決定された再生順序4を表すタイムチャートであり、(b)は、順序決定ポリシーが「緊急」である場合に決定された再生順序4を表すタイムチャートである。(c)は、順序決定ポリシーが「最新のみ」である場合に決定された再生順序4を表すタイムチャートであり、(d)は、順序決定ポリシーが「視聴期限優先」である場合に決定された再生順序4を表すタイムチャートである。(e)は、順序決定ポリシーが「最新配信時刻優先」である場合に決定された再生順序4を表すタイムチャートであり、(f)は、新しいジャンルが追加された場合に決定された再生順序4を表すタイムチャートである。
[Method for determining playback order 4]
Based on FIG. 5, a method in which the order changing unit 22 determines the playback order 4 will be described. FIG. 5A is a time chart showing the playback order 4 determined when the order determination policy is not set, and FIG. 5B is determined when the order determination policy is “emergency”. 6 is a time chart showing a reproduction order 4; (C) is a time chart showing the playback order 4 determined when the order determination policy is “latest only”, and (d) is determined when the order determination policy is “viewing time priority”. 6 is a time chart showing the reproduction order 4; (E) is a time chart showing the playback order 4 determined when the order determination policy is “priority for latest distribution time”, and (f) is the playback order determined when a new genre is added. 4 is a time chart representing 4. FIG.

図5の(a)に示されるように、データ管理ファイル2に含まれる順序決定フラグに何も設定されておらず、順序決定ポリシー(所定の方針)が「通常」である場合、順序変更部22は、コンテンツ7が配信された順序にしたがって、当該コンテンツ7が記録された音声データ1に含まれる音声を再生するように、再生順序4を決定する。すなわち、図5の(a)に示される例においては、「情報A」の後に「情報B」が提示される。   As shown in (a) of FIG. 5, when nothing is set in the order determination flag included in the data management file 2 and the order determination policy (predetermined policy) is “normal”, the order change unit 22 determines the reproduction order 4 so that the audio included in the audio data 1 in which the content 7 is recorded is reproduced according to the order in which the content 7 is distributed. That is, in the example shown in FIG. 5A, “information B” is presented after “information A”.

図5の(b)に示されるように、データ管理ファイル2に含まれる順序決定フラグに「緊急」の順序決定ポリシーが設定されている場合、順序変更部22は、コンテンツ7が配信された時刻(配信時刻)と、当該コンテンツ7を視聴する期限(視聴期限)との間隔(期間)が短いコンテンツ7を優先してユーザに提示するように、再生順序4を決定する。すなわち、図5の(b)に示される例においては、「情報B」の後に「情報A」が提示される。   As shown in (b) of FIG. 5, when the “emergency” order determination policy is set in the order determination flag included in the data management file 2, the order change unit 22 determines the time when the content 7 is distributed. The reproduction order 4 is determined so that the content 7 with a short interval (period) between the (delivery time) and the time limit (viewing time limit) for viewing the content 7 is preferentially presented to the user. That is, in the example shown in FIG. 5B, “Information A” is presented after “Information B”.

図5の(c)に示されるように、データ管理ファイル2に含まれる順序決定フラグに「最新のみ」の順序決定ポリシーが設定されている場合、順序変更部22は、最も新しく配信されたコンテンツ7のみをユーザに提示するように、再生順序4を決定する。すなわち、図5の(c)に示される例においては、「情報A」はユーザに提示されず、「情報B」のみが提示される。   As shown in (c) of FIG. 5, when the “latest only” order determination policy is set in the order determination flag included in the data management file 2, the order change unit 22 displays the most recently delivered content. The playback order 4 is determined so that only 7 is presented to the user. That is, in the example shown in FIG. 5C, “information A” is not presented to the user, but only “information B” is presented.

図5の(d)に示されるように、データ管理ファイル2に含まれる順序決定フラグに「視聴期限優先」の順序決定ポリシーが設定されている場合、順序変更部22は、視聴期限が最も近いコンテンツ7を優先してユーザに提示するように、再生順序4を決定する。すなわち、図5の(d)に示される例においては、「情報B」の後に「情報A」が提示される。   As shown in (d) of FIG. 5, when the order determination policy of “viewing time limit priority” is set in the order determination flag included in the data management file 2, the order changing unit 22 has the closest viewing time limit. The reproduction order 4 is determined so that the content 7 is preferentially presented to the user. That is, in the example shown in FIG. 5D, “Information A” is presented after “Information B”.

図5の(e)に示されるように、データ管理ファイル2に含まれる順序決定フラグに「最新配信時刻優先」の順序決定ポリシーが設定されている場合、順序変更部22は、新しいコンテンツ7(配信時刻の新しいコンテンツ7)から保存件数分を順にユーザに提示するように、再生順序4を決定する。すなわち、図5の(e)に示される例においては、「情報B」の後に「情報A」が提示される。   As shown in (e) of FIG. 5, when the order determination policy of “priority for latest distribution time” is set in the order determination flag included in the data management file 2, the order changing unit 22 selects the new content 7 ( The reproduction order 4 is determined so that the number of stored items is sequentially presented to the user from the new content 7) at the delivery time. That is, in the example shown in FIG. 5E, “Information A” is presented after “Information B”.

図5の(f)に示されるように、新しくジャンルが追加された場合、順序変更部22は、当該新しいジャンルに含まれるコンテンツ7を必ず提示するように、再生順序4を決定する。   As shown in (f) of FIG. 5, when a new genre is added, the order changing unit 22 determines the playback order 4 so as to always present the content 7 included in the new genre.

前述したように、コンテンツ7がお母さんに提示されている場合に、お父さんにも当該コンテンツ7を提示可能となった場合(上記ケースA、図3の(a)および(b)を参照)、音声取得部21は、上記データ管理ファイル2に含まれるユーザ識別情報3を参照し、上記優先テーブルにおいて優先順位の高いユーザ(お父さん)を識別するユーザ識別情報3が対応付けられており、かつ、優先順位の高い情報カテゴリに含まれるコンテンツ7が記録された音声データ1を選択する。順序変更部22は、音声取得部21によって新たに選択された上記音声データ1に応じて、当該音声データ1にそれぞれ含まれる音声の再生順序4を変更する。   As described above, when the content 7 is presented to the mother, when the content 7 can be presented to the father (see the above case A, (a) and (b) in FIG. 3), the audio The acquisition unit 21 refers to the user identification information 3 included in the data management file 2, is associated with the user identification information 3 for identifying the user (dad) having a high priority in the priority table, and has priority. The audio data 1 in which the content 7 included in the information category having a higher rank is recorded is selected. The order changing unit 22 changes the reproduction order 4 of the audio included in the audio data 1 according to the audio data 1 newly selected by the audio acquisition unit 21.

すなわち、図5の(a)〜(f)に示されるように、順序変更部22は、更新後の上記データ管理ファイル2に含まれる順序決定フラグを参照し、当該順序決定フラグによって示される順序決定ポリシーに基づいて、上記音声データ1に含まれる音声の再生順序4を変更する。これにより、順序変更部22は、コンテンツを視聴するユーザに適応するように再生順序4を変更できる。   That is, as shown in FIGS. 5A to 5F, the order changing unit 22 refers to the order determination flag included in the updated data management file 2 and the order indicated by the order determination flag. Based on the decision policy, the reproduction order 4 of the audio included in the audio data 1 is changed. Thereby, the order change part 22 can change the reproduction | regeneration order 4 so that it may adapt to the user who views and listens to a content.

〔再生順序4のさらなる変更〕
ロボット掃除機10が、お父さんとお母さんとに「政治ニュース2−1」をコンテンツ7として提示している場合に、お母さんが当該ロボット掃除機10に向かって「今日の路線情報を先に教えて」と声をかけた状況を考える。このとき、当該ロボット掃除機10は、公知の音声認識および自然言語解析を行うことによって、お母さんによる発話が意味する内容を抽出する。適切に内容を抽出できた場合、当該ロボット掃除機10は、上記所定のタイミングにおいて(または音声の再生に重ねるように)「わかった」とお母さんに返答する。
[Further changes to playback order 4]
When the robot cleaner 10 presents “political news 2-1” as content 7 to the father and the mother, the mother is directed to the robot cleaner 10 “Tell me today's route information first”. Think about the situation that calls out. At this time, the robot cleaner 10 extracts the contents meant by the utterance by the mother by performing known voice recognition and natural language analysis. When the content can be extracted appropriately, the robot cleaner 10 responds to the mother that “I understand” at the predetermined timing (or so as to overlap the audio reproduction).

音声取得部21は、「路線情報1−1」(図4の(d)参照)がコンテンツ7として記録された音声データ1が、記憶部40aに格納されているか否かを判定する。格納されている場合、音声取得部21は当該音声データ1を当該記憶部40aから読み出す。格納されていない場合、音声取得部21は、受信部31aを介して当該音声データ1をサーバ15から選択する。次に、順序変更部22は、現在提示されている「政治ニュース2−1」の直後に、「路線情報1−1」が提示されるように再生順序4を変更する。音声再生部23は、「政治ニュース2−1」の提示が終了した後、または、上記所定のタイミングで「政治ニュース2−1」の提示を打ち切った後、「路線情報1−1」をお母さんに提示する。   The voice acquisition unit 21 determines whether or not the voice data 1 in which “route information 1-1” (see FIG. 4D) is recorded as the content 7 is stored in the storage unit 40a. If stored, the voice acquisition unit 21 reads the voice data 1 from the storage unit 40a. If not stored, the voice acquisition unit 21 selects the voice data 1 from the server 15 via the reception unit 31a. Next, the order changing unit 22 changes the reproduction order 4 so that “route information 1-1” is presented immediately after “political news 2-1” currently presented. After the presentation of “Political News 2-1” is completed or after the presentation of “Political News 2-1” is terminated at the predetermined timing, the voice reproducing unit 23 sends “Route Information 1-1” to the mother. To present.

すなわち、順序変更部22は、音声再生部23によってコンテンツ7がユーザに提示されている場合に、当該コンテンツ7とは異なる他のコンテンツを提示することを、当該ユーザによって指示された場合、当該コンテンツ7の提示に割り込ませて当該他のコンテンツが提示されるように、音声が再生される順序(再生順序4)を変更できる。これにより、ロボット掃除機10は、ユーザの要望に合致するように上記音声が再生される順序を変更できるため、ユーザの利便性をより改善することができる。   That is, when the user is instructed to present another content different from the content 7 when the content 7 is presented to the user by the audio reproduction unit 23, the order changing unit 22 The order in which the audio is reproduced (reproduction order 4) can be changed so that the other content is presented by interrupting the presentation of No. 7. Thereby, since the robot cleaner 10 can change the order in which the said audio | voice is reproduced | regenerated so that a user's request may be met, it can improve a user's convenience more.

〔ロボット掃除機10が実行する処理〕
図6に基づいて、ロボット掃除機10が実行する処理の流れを説明する。図6は、ロボット掃除機10が実行する処理の一例を示すフローチャートである。なお、以下の説明において、カッコ書きの「〜ステップ」は、ロボット掃除機10の制御方法の各ステップを表す。
[Processes executed by the robot cleaner 10]
Based on FIG. 6, the flow of the process which the robot cleaner 10 performs is demonstrated. FIG. 6 is a flowchart illustrating an example of processing executed by the robot cleaner 10. In the following description, parenthesized “˜step” represents each step of the control method of the robot cleaner 10.

図3の(a)に例示されるように、音声再生部23は、音声データ1に含まれる音声を再生することによって、所定のコンテンツ7をユーザ(お母さん)に提示する(ステップ1、以下では「S1」のように略記する)。図3の(b)に例示されるように、コンテンツ7がユーザに提示されている場合に、ユーザ識別部24からユーザ識別情報3が入力されたことによって、当該ユーザとは異なる他のユーザ(お父さん)にも当該コンテンツ7を提示可能となったことが判明した場合(S2においてYES)、音声取得部21は、当該ユーザおよび当該他のユーザに応じて、音声データ1を少なくとも1つ選択する(S3、選択ステップ)。次に、順序変更部22は、当該音声データ1にそれぞれ含まれる音声の再生順序4を、当該音声データ1に対応する順序決定ポリシーにしたがって変更(S4、変更ステップ)する。最後に、音声再生部23は、変更した再生順序4にしたがって、音声として記録されたコンテンツ7をユーザおよび他のユーザに提示する(S5、提示ステップ)。   As illustrated in (a) of FIG. 3, the audio reproducing unit 23 presents predetermined content 7 to the user (mother) by reproducing the audio included in the audio data 1 (Step 1, hereinafter). Abbreviated as "S1"). As illustrated in (b) of FIG. 3, when the content 7 is presented to the user, the user identification information 3 is input from the user identification unit 24, so that another user ( If it is determined that the content 7 can also be presented to (dad) (YES in S2), the voice acquisition unit 21 selects at least one voice data 1 according to the user and the other users. (S3, selection step). Next, the order changing unit 22 changes the playback order 4 of the audio included in the audio data 1 according to the order determination policy corresponding to the audio data 1 (S4, change step). Finally, the audio reproduction unit 23 presents the content 7 recorded as audio to the user and other users according to the changed reproduction order 4 (S5, presentation step).

〔実施形態2〕
図7〜図8に基づいて、本発明の第2の実施の形態(実施形態2)を説明する。本実施の形態では、実施形態1に係るロボット掃除機10に追加される構成や、当該構成とは異なる構成のみを説明する。すなわち、実施形態1において説明された構成は、実施形態2にもすべて含まれ得る。また、実施形態1において定義した用語も同じである。
[Embodiment 2]
A second embodiment (Embodiment 2) of the present invention will be described with reference to FIGS. In the present embodiment, only a configuration added to the robot cleaner 10 according to the first embodiment and a configuration different from the configuration will be described. That is, all the configurations described in the first embodiment can be included in the second embodiment. The terms defined in the first embodiment are also the same.

〔ロボット掃除機11の構成〕
図7に基づいて、ロボット掃除機11の構成を説明する。図7は、ロボット掃除機11の要部構成を示すブロック図である。図7に示されるように、ロボット掃除機11は、ロボット掃除機10が備えた構成に加えて、音声削除部25をさらに備えている。
[Configuration of the robot cleaner 11]
Based on FIG. 7, the structure of the robot cleaner 11 is demonstrated. FIG. 7 is a block diagram showing a main configuration of the robot cleaner 11. As shown in FIG. 7, the robot cleaner 11 further includes a voice deleting unit 25 in addition to the configuration provided in the robot cleaner 10.

音声削除部(削除手段)25は、音声再生部23によってコンテンツ7を提示されたユーザを逐次記録し、当該コンテンツ7を提示すべき全てのユーザに対して当該コンテンツ7が提示された後、当該コンテンツ7を記録した音声データ1を削除する。   The audio deletion unit (deletion unit) 25 sequentially records the users who are presented with the content 7 by the audio reproduction unit 23, and after the content 7 is presented to all users who should present the content 7, The audio data 1 in which the content 7 is recorded is deleted.

具体的には、音声再生部23から削除指示6a(当該音声再生部23によって再生された音声を含む音声データ1を、一意に特定可能な情報をいう)が入力された場合、音声削除部25は、記憶部40aからデータ管理ファイル2を読み出して参照し、当該削除指示6aによって特定される音声データ1に対応付けられた全てのユーザ識別情報3を取得する。そして、当該ユーザ識別情報3によって識別される全てのユーザに、当該音声データ1に記録されたコンテンツ7が提示されたと判定される場合、音声削除部25は、削除指示6bを記憶部40aに出力することによって、当該記憶部40aに格納された当該音声データ1を削除する。   Specifically, when the deletion instruction 6a (referred to as information that can uniquely specify the audio data 1 including the audio reproduced by the audio reproduction unit 23) is input from the audio reproduction unit 23, the audio deletion unit 25 Reads out and refers to the data management file 2 from the storage unit 40a, and acquires all the user identification information 3 associated with the audio data 1 specified by the deletion instruction 6a. When it is determined that the content 7 recorded in the audio data 1 is presented to all users identified by the user identification information 3, the audio deletion unit 25 outputs a deletion instruction 6b to the storage unit 40a. As a result, the audio data 1 stored in the storage unit 40a is deleted.

なお、音声削除部25が音声データ1を削除するタイミングは任意である。例えば、上記判定が行われた後であって、所定の時間(例えば、24時間)が経過した後に、当該音声データ1を削除してもよい。   The timing at which the voice deleting unit 25 deletes the voice data 1 is arbitrary. For example, the audio data 1 may be deleted after a predetermined time (for example, 24 hours) has elapsed after the above determination has been made.

〔ロボット掃除機11が実行する処理〕
図8に基づいて、ロボット掃除機11が実行する処理の流れを説明する。図8は、ロボット掃除機11が実行する処理の一例を示すフローチャートである。図8に示されるフローチャートは、図6に示されるフローチャートにS7およびS8を追加している。
[Processes performed by the robot cleaner 11]
Based on FIG. 8, the flow of processing executed by the robot cleaner 11 will be described. FIG. 8 is a flowchart illustrating an example of processing executed by the robot cleaner 11. In the flowchart shown in FIG. 8, S7 and S8 are added to the flowchart shown in FIG.

音声再生部23が、変更した再生順序4にしたがって、音声として記録されたコンテンツ7をユーザおよび他のユーザに提示した後(S5)、音声削除部25は、全てのユーザに、音声データ1に記録されたコンテンツ7が提示されか否かを判定する(S6)。提示されたと判定される場合(S6においてYES)、音声削除部25は、記憶部40aに格納された当該音声データ1を削除する(S7)。   After the audio reproducing unit 23 presents the content 7 recorded as audio to the user and other users according to the changed reproduction order 4 (S5), the audio deleting unit 25 transmits the audio data 1 to all users. It is determined whether or not the recorded content 7 is presented (S6). When it is determined that it has been presented (YES in S6), the voice deleting unit 25 deletes the voice data 1 stored in the storage unit 40a (S7).

〔その他の変形例〕
ユーザは、ロボット掃除機(10、11)が備えた所定のインターフェースを操作することによって、音声削除部25によって削除されないジャンル、ジャンルの優先順位、音声が再生される時間帯、上記ロボット掃除機が発する応答の語尾、および/または、ユーザのプロフィールに応じた再生音量および再生スピードを、任意に設定できる。
[Other variations]
The user operates a predetermined interface provided in the robot cleaner (10, 11), so that the genre that is not deleted by the voice deletion unit 25, the priority order of the genre, the time period during which the voice is reproduced, and the robot cleaner It is possible to arbitrarily set the playback volume and playback speed according to the ending of the response to be issued and / or the user's profile.

〔実施形態3〕
ロボット掃除機10、ロボット掃除機11、および、サーバ15の制御ブロック(特に、制御部20aおよび制御部20b)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、ロボット掃除機10、ロボット掃除機11、およびサーバ15は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えばテープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
[Embodiment 3]
The control blocks (in particular, the control unit 20a and the control unit 20b) of the robot cleaner 10, the robot cleaner 11, and the server 15 are realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. Alternatively, it may be realized by software using a CPU (Central Processing Unit). In the latter case, the robot cleaner 10, the robot cleaner 11, and the server 15 can be read by a computer (or CPU) that executes a program command that is software that implements each function, and the program and various data. A ROM (Read Only Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) in which the above program is expanded, and the like are provided. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る再生装置は、音声情報(音声データ1)に含まれる音声を再生することによって、当該音声として当該音声情報に記録されたコンテンツ(7)をユーザに提示する再生装置(ロボット掃除機10、11)であって、前記コンテンツを提示可能なユーザが変化した場合、当該変化した後のユーザに応じて前記音声情報を少なくとも1つ選択する選択手段(音声取得部21)と、前記選択手段によって選択された前記音声情報に前記音声として記録された前記コンテンツを、前記ユーザに提示する提示手段(音声再生部23)とを備えている。
[Summary]
The playback device according to aspect 1 of the present invention plays back the audio included in the audio information (audio data 1), thereby presenting the content (7) recorded in the audio information as the audio to the user ( A robot cleaner 10, 11), and a selection unit (voice acquisition unit 21) that selects at least one of the voice information according to the changed user when the user who can present the content changes; And presenting means (sound reproduction unit 23) for presenting the content recorded as the sound in the sound information selected by the selecting means to the user.

上記の構成によれば、上記再生装置は、上記コンテンツを提示可能なユーザの変化に応じて、上記音声情報を少なくとも1つ選択する。例えば、コンテンツがユーザに提示されている場合に、当該ユーザとは異なる他のユーザにも当該コンテンツを提示可能となった場合(コンテンツを提示可能なユーザが増えた場合)、上記再生装置は、当該ユーザおよび当該他のユーザのうちの少なくとも一方が興味を有するコンテンツを記録した音声情報を選択する。あるいは、上記ユーザおよび上記他のユーザにコンテンツが提示されている場合に、当該他のユーザに当該コンテンツを提示不可能となった場合(コンテンツを提示可能なユーザが減った場合)、上記再生装置は、残された上記ユーザのみが興味を有するコンテンツを記録した音声情報を選択する。   According to said structure, the said reproducing | regenerating apparatus selects the said audio | voice information according to the change of the user who can present the said content. For example, when the content is presented to the user, when the content can be presented to another user different from the user (when the number of users who can present the content increases), the playback device Audio information that records content that is of interest to at least one of the user and the other user is selected. Alternatively, when the content is presented to the user and the other user, when the content cannot be presented to the other user (when the number of users who can present the content decreases), the playback device Selects audio information that records content that only the remaining user is interested in.

また、上記の構成によれば、上記再生装置は、選択された上記音声情報に音声として記録された上記コンテンツをユーザに提示する。すなわち、ユーザにかかわらず所定の音声を再生するに過ぎない従来の装置と異なり、上記再生装置は、ユーザの変化(上記コンテンツをユーザに提示している場合に、他のユーザが存在することを新たに認識したことなど)に適応するように、コンテンツおよび当該コンテンツを提示できる。したがって、上記再生装置は、ユーザの利便性を改善することができる。   Moreover, according to said structure, the said reproducing | regenerating apparatus presents the said content recorded as the audio | voice in the selected said audio | voice information to a user. In other words, unlike the conventional device that only plays a predetermined sound regardless of the user, the playback device is a user change (when the content is presented to the user, other users are present. The content and the content can be presented so as to adapt to newly recognized. Therefore, the playback device can improve user convenience.

なお、上記再生装置は、上記音声の再生順序を変更してもよい。例えば、音声情報に記録されたコンテンツが、上記ユーザおよび上記他のユーザに対して緊急に提示されるべきものである場合、上記再生装置は、当該コンテンツが他のコンテンツに優先して両者に提示されるように、上記再生される順序を変更する。あるいは、音声情報に記録されたコンテンツが、上記ユーザおよび上記他のユーザに対して当該コンテンツが取得された順に提示されるべきものである場合、上記再生装置は、当該コンテンツが順次両者に提示されるように、上記再生される順序を変更する。すなわち、前記取得手段によって取得された前記音声情報にそれぞれ含まれる音声が再生される順序を、当該音声情報に対応する所定の方針にしたがって変更する変更手段を、上記再生装置はさらに備えてよい。   The playback device may change the playback order of the audio. For example, if the content recorded in the audio information is to be urgently presented to the user and the other user, the playback device presents the content to both in preference to the other content. As described above, the playback order is changed. Alternatively, when the content recorded in the audio information is to be presented to the user and the other users in the order in which the content is acquired, the playback apparatus sequentially presents the content to both. As described above, the playback order is changed. That is, the playback apparatus may further include a changing unit that changes the order in which the sounds included in the audio information acquired by the acquiring unit are reproduced according to a predetermined policy corresponding to the audio information.

本発明の態様2に係る再生装置は、上記態様1において、前記選択手段は、ユーザを一意に識別可能なユーザ識別情報(3)を前記音声情報に少なくとも1つ対応付けた対応情報(データ管理ファイル2)を参照することによって、前記コンテンツを提示可能なユーザを識別するユーザ識別情報が対応付けられた前記音声情報を選択してよい。   The playback device according to aspect 2 of the present invention is the playback apparatus according to aspect 1, wherein the selection unit associates at least one piece of user identification information (3) that can uniquely identify a user with the audio information (data management). By referring to the file 2), the audio information associated with user identification information for identifying a user who can present the content may be selected.

上記の構成によれば、上記再生装置は、上記対応情報に含まれる上記音声情報と上記ユーザ識別情報との対応付けにしたがって、上記音声情報を選択する。例えば、コンテンツがユーザに提示されている場合に、他のユーザにも当該コンテンツを提示可能となった場合、両者が共通して興味を有するコンテンツを選択するために、上記再生装置は、当該ユーザを識別するユーザ識別情報、および、当該他のユーザを識別するユーザ識別情報が両方対応付けられた上記音声情報を選択する。   According to said structure, the said reproducing | regenerating apparatus selects the said audio | voice information according to matching with the said audio | voice information contained in the said corresponding | compatible information, and the said user identification information. For example, when the content is presented to the user, when the content can be presented to other users, the playback device uses the user to select the content that both are interested in The voice information in which both the user identification information for identifying the user and the user identification information for identifying the other user are associated is selected.

したがって、上記再生装置は、状況の変化に適応するようにコンテンツをユーザに提示できるため、ユーザの利便性を改善することができる。   Therefore, since the playback apparatus can present content to the user so as to adapt to changes in the situation, the convenience of the user can be improved.

本発明の態様3に係る再生装置は、上記態様1または上記態様2において、前記音声を聴取可能な範囲に存在するユーザを特定することによって、前記コンテンツを提示可能なユーザを識別する特定手段(ユーザ識別部24)をさらに備え、前記選択手段は、前記特定手段によって特定されたユーザが変化した場合、変化した後のユーザに含まれる少なくとも1人のユーザに提示すべきコンテンツが記録された前記音声情報を選択してよい。   The playback device according to aspect 3 of the present invention is the above-described aspect 1 or 2, wherein the specifying device (1) identifies a user who can present the content by specifying a user who exists in a range where the sound can be heard. A user identification unit 24), wherein the selection means records the content to be presented to at least one user included in the changed user when the user specified by the specifying means changes Audio information may be selected.

上記の構成によれば、上記再生装置は、上記音声を聴取可能な範囲に存在するユーザを特定することによって、上記コンテンツを提示可能なユーザを識別し、当該識別した結果に応じて、上記音声情報を選択する。したがって、上記再生装置は、状況の変化に適応するようにコンテンツをユーザに提示できるため、ユーザの利便性を改善することができる。   According to the above configuration, the playback device identifies a user who can present the content by specifying a user who is present in a range where the sound can be heard, and the sound according to the identified result. Select information. Therefore, since the playback apparatus can present content to the user so as to adapt to changes in the situation, the convenience of the user can be improved.

本発明の態様4に係る再生装置は、上記態様1から態様3のいずれか1つの態様において、上記提示手段は、前記選択手段によって選択された前記音声情報に対してそれぞれ設定された優先順位、または、ユーザに対してそれぞれ設定された優先順位に応じた順序で、当該音声情報に前記音声として記録された前記コンテンツを、前記ユーザに提示してよい。   The playback device according to aspect 4 of the present invention is the playback device according to any one of the aspects 1 to 3, wherein the presentation unit includes priority levels set for the audio information selected by the selection unit, Alternatively, the content recorded as the sound in the sound information may be presented to the user in an order corresponding to the priority order set for each user.

上記の構成によれば、上記再生装置は、上記優先順位に応じた順序で上記コンテンツをユーザに提示できる。したがって、上記再生装置は、状況の変化に適応するようにコンテンツをユーザに提示できるため、ユーザの利便性を改善することができる。   According to said structure, the said reproducing | regenerating apparatus can show the said content to a user in the order according to the said priority. Therefore, since the playback apparatus can present content to the user so as to adapt to changes in the situation, the convenience of the user can be improved.

本発明の態様5に係る再生装置は、上記態様1から態様4のいずれか1つの態様において、前記提示手段によって前記コンテンツを提示されたユーザを記録し、前記コンテンツを提示すべき全てのユーザに対して、当該コンテンツが提示された後に、当該コンテンツを記録した前記音声情報を削除する削除手段(音声削除部25)をさらに備えてよい。   The playback device according to aspect 5 of the present invention, in any one of the above aspects 1 to 4, records a user who has been presented with the content by the presenting means, to all users who are to present the content. On the other hand, after the content is presented, a deletion unit (sound deletion unit 25) may be provided that deletes the audio information recording the content.

上記の構成によれば、上記再生装置は、コンテンツを提示すべき全てのユーザに対して当該コンテンツが提示されると、当該コンテンツを記録した音声情報を削除する。例えば、上記音声情報に対応付けられたユーザ識別情報によって識別される全てのユーザに、当該音声情報に記録されたコンテンツが提示された場合、上記再生装置は、当該音声情報は不要であるとみなし、当該音声情報を削除できる。   According to said structure, the said reproducing | regenerating apparatus will delete the audio | voice information which recorded the said content, if the said content is shown with respect to all the users who should present a content. For example, when the content recorded in the audio information is presented to all users identified by the user identification information associated with the audio information, the playback device regards the audio information as unnecessary. The audio information can be deleted.

したがって、上記再生装置は、状況の変化に適応するようにコンテンツをユーザに提示できるため、ユーザの利便性を改善することができる。   Therefore, since the playback apparatus can present content to the user so as to adapt to changes in the situation, the convenience of the user can be improved.

本発明の態様6に係る再生装置の制御方法は、音声情報に含まれる音声を再生することによって、当該音声として当該音声情報に記録されたコンテンツをユーザに提示する再生装置の制御方法であって、前記コンテンツを提示可能なユーザが変化した場合、当該変化した後のユーザに応じて前記音声情報を少なくとも1つ選択する選択ステップ(S3)と、前記選択ステップにおいて選択した前記音声情報に前記音声として記録された前記コンテンツを、前記ユーザに提示する提示ステップ(S5)を含んでいる。   A control method for a playback apparatus according to aspect 6 of the present invention is a control method for a playback apparatus that presents content recorded in the audio information as the audio to the user by playing back the audio included in the audio information. When the user who can present the content changes, a selection step (S3) for selecting at least one of the audio information according to the user after the change, and the audio information selected in the selection step A presentation step (S5) for presenting the content recorded as, to the user.

上記の構成によれば、上記再生装置の制御方法は、上記態様1に係る再生装置と同様の構成を含むため、当該再生装置と同様の効果を奏する。   According to said structure, since the control method of the said reproducing | regenerating apparatus contains the structure similar to the reproducing | regenerating apparatus which concerns on the said aspect 1, there exists an effect similar to the said reproducing | regenerating apparatus.

また、本発明の別態様に係るサーバは、外部の再生装置と通信可能に接続されたサーバ(15)であって、コンテンツが音声によって記録された音声情報を生成する第1の生成手段(データ生成部72)と、ユーザを一意に識別可能なユーザ識別情報を前記音声情報に少なくとも1つ対応付けた対応情報を生成する第2の生成手段(管理ファイル生成部73)と、前記音声情報に含まれる前記音声を所定の順序にしたがって再生することによって、ユーザに前記コンテンツを提示可能な再生装置(ロボット掃除機10、11)に、当該音声情報および前記対応情報を送信する送信手段(情報送出部74)とを備えてよい。   The server according to another aspect of the present invention is a server (15) that is communicably connected to an external playback device, and is a first generation unit (data) that generates audio information in which content is recorded by audio. Generating section 72), second generating means (management file generating section 73) for generating correspondence information in which at least one user identification information capable of uniquely identifying a user is associated with the voice information, and the voice information Transmitting means (information transmission) for transmitting the audio information and the correspondence information to a playback device (robot cleaners 10 and 11) capable of presenting the content to the user by playing the included voices in a predetermined order. Part 74).

上記の構成によれば、上記サーバは、上記音声情報および上記対応情報を生成し、これらを上記再生装置に送信する。したがって、本発明の別態様に係るサーバは、状況の変化に適応するように、上記再生装置にコンテンツをユーザに提示させることができるため、ユーザの利便性を改善することができる。   According to said structure, the said server produces | generates the said audio | voice information and the said corresponding | compatible information, and transmits these to the said reproducing | regenerating apparatus. Therefore, since the server according to another aspect of the present invention can cause the playback device to present content to the user so as to adapt to changes in the situation, the convenience for the user can be improved.

本発明の各態様に係る再生装置およびサーバは、コンピュータによって実現されてもよく、この場合、コンピュータを上記再生装置または上記サーバが備えた各手段として動作させることにより、上記再生装置または上記サーバをコンピュータにおいて実現させる再生装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The playback device and the server according to each aspect of the present invention may be realized by a computer. In this case, the playback device or the server is operated by causing the computer to operate as each unit included in the playback device or the server. A control program for a playback apparatus implemented in a computer and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

本発明は上述したそれぞれの実施の形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施の形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施の形態についても、本発明の技術的範囲に含まれる。さらに、各実施の形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成できる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the technical means disclosed in different embodiments can be appropriately combined. Embodiments to be made are also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、音声情報に含まれる音声を再生することによって、当該音声として当該音声情報に記録されたコンテンツをユーザに提示する再生装置に広く適用することができる。具体的には、ロボット掃除機、携帯電話、パーソナルコンピュータ、タブレット型端末などに対して、好適に適用できる。   The present invention can be widely applied to a playback apparatus that presents the content recorded in the audio information as the audio to the user by reproducing the audio included in the audio information. Specifically, it can be suitably applied to robot cleaners, mobile phones, personal computers, tablet terminals, and the like.

1:音声データ(音声情報)、2:データ管理ファイル(対応情報)、3:ユーザ識別情報(ユーザ識別情報、他のユーザ識別情報)、4:再生順序(音声が再生される順序)、7:コンテンツ、10:ロボット掃除機(再生装置)、11:ロボット掃除機(再生装置)、15:サーバ、21:音声取得部(選択手段)、22:順序変更部(変更手段)、23:音声再生部(提示手段)、24:ユーザ識別部(特定手段)、25:音声削除部(削除手段)、72:データ生成部(第1の生成手段)、73:管理ファイル生成部(第2の生成手段)、74:情報送出部(送信手段)   1: audio data (audio information), 2: data management file (corresponding information), 3: user identification information (user identification information, other user identification information), 4: reproduction order (order in which audio is reproduced), 7 : Content, 10: Robot cleaner (reproducing device), 11: Robot cleaner (reproducing device), 15: Server, 21: Audio acquisition unit (selecting unit), 22: Order changing unit (changing unit), 23: Audio Playback unit (presentation unit), 24: user identification unit (specification unit), 25: voice deletion unit (deletion unit), 72: data generation unit (first generation unit), 73: management file generation unit (second Generating means), 74: information sending section (transmitting means)

Claims (6)

音声情報を再生することによって当該音声情報をユーザに提示する再生装置であって、
前記音声情報を聴取可能な範囲に存在するユーザを一意に識別する特定手段と、
ユーザ識別情報と音声情報とを対応付けた対応情報を参照することによって、前記特定手段によって識別されたユーザに応じた音声情報を選択する選択手段と、
前記特定手段によって識別されたユーザのユーザ名を、前記ユーザとの対話のための音声として出力すると共に、前記選択手段によって選択された前記音声情報を前記ユーザに提示する提示手段とを備え、
前記特定手段は、前記音声情報を前記ユーザに提示している際に他のユーザを識別し、
前記提示手段は、前記音声情報を前記ユーザに提示している際に前記特定手段によって識別された前記他のユーザのユーザ名を、前記他のユーザとの対話のための音声として出力すると共に、前記選択手段によって選択された前記他のユーザに対する音声情報を前記他のユーザに提示することを特徴とする再生装置。
A playback device for presenting audio information to a user by reproducing the audio information,
A specific means for uniquely identifying a user existing in a range where the audio information can be heard;
Selecting means for selecting voice information corresponding to the user identified by the specifying means by referring to correspondence information in which user identification information and voice information are associated;
A presentation unit that outputs the user name of the user identified by the specifying unit as a voice for dialogue with the user and presents the voice information selected by the selection unit to the user;
The specifying means identifies another user when presenting the audio information to the user,
The presenting means outputs the user name of the other user identified by the specifying means when presenting the voice information to the user as a voice for dialogue with the other user, A playback apparatus for presenting audio information for the other user selected by the selection means to the other user.
前記提示手段は、前記他のユーザのユーザ名の音声出力を、前記ユーザへの前記音声情報の提示を中断して行うか、または中断可能な位置まで前記音声情報を前記ユーザに提示した後に行うことを特徴とする請求項1に記載の再生装置。   The presenting means performs voice output of the user name of the other user by interrupting presentation of the voice information to the user or after presenting the voice information to the user to a position where it can be interrupted. The reproducing apparatus according to claim 1. 前記提示手段は、前記選択手段によって選択された前記音声情報に対してそれぞれ設定された優先順位、または、ユーザに対してそれぞれ設定された優先順位に応じた順序で、当該音声情報を前記ユーザに提示することを特徴とする請求項1または2に記載の再生装置。   The presenting means sends the audio information to the user in the order of priority set for the audio information selected by the selection means or the priority set for the user, respectively. The playback apparatus according to claim 1, wherein the playback apparatus is provided. 前記提示手段によって前記音声情報を提示されたユーザを記録し、当該音声情報を提示すべき全てのユーザに対して当該音声情報が提示された場合、当該音声情報を削除する削除手段をさらに備えたことを特徴とする請求項1から3のいずれか1項に記載の再生装置。   It further comprises deletion means for recording the user who is presented with the voice information by the presenting means and deleting the voice information when the voice information is presented to all users who should present the voice information. The reproduction apparatus according to claim 1, wherein the reproduction apparatus is a reproduction apparatus. 音声情報を再生することによって当該音声情報をユーザに提示する再生装置の制御方法であって、
前記音声情報を聴取可能な範囲に存在するユーザを一意に識別するステップと、
ユーザ識別情報と音声情報とを対応付けた対応情報を参照することによって、前記ステップで識別されたユーザに応じた音声情報を選択する選択ステップと、
前記識別するステップにて識別されたユーザのユーザ名を、前記ユーザとの対話のための音声を出力すると共に、前記選択ステップにおいて選択した前記音声情報を前記ユーザに提示する提示ステップと、を含み、
前記識別するステップでは、前記音声情報をあるユーザに提示している際に他のユーザを識別し、
前記提示ステップでは、前記音声情報を前記あるユーザに提示している際に前記識別するステップにて識別された前記他のユーザのユーザ名を、前記他のユーザとの対話のための音声として出力すると共に、前記他のユーザに対する音声情報を前記他のユーザに提示することを特徴とする再生装置の制御方法。
A method of controlling a playback device that presents audio information to a user by reproducing the audio information,
Uniquely identifying a user present in a range where the audio information can be heard;
A selection step of selecting voice information corresponding to the user identified in the step by referring to correspondence information in which user identification information and voice information are associated;
A step of presenting the user name of the user identified in the identifying step, outputting a voice for dialogue with the user, and presenting the voice information selected in the selecting step to the user. ,
The identifying step identifies other users when presenting the audio information to a user,
In the presenting step, the user name of the other user identified in the identifying step when the voice information is presented to the certain user is output as a voice for dialogue with the other user. And presenting the audio information for the other user to the other user.
音声情報を聴取可能な範囲に存在するユーザを一意に識別し、ユーザ識別情報と音声情報とを対応付けた対応情報を参照することによって、前記識別したユーザに応じた音声情報を選択し、前記識別したユーザのユーザ名を、前記ユーザとの対話のための音声として出力すると共に、前記選択した前記音声情報を前記ユーザに提示し、前記音声情報を前記ユーザに提示している際に他のユーザを識別し、前記音声情報を前記ユーザに提示している際に識別した他のユーザのユーザ名を、前記他のユーザとの対話のための音声として出力すると共に、前記他のユーザに対する音声情報を前記他のユーザに提示する再生装置と、
前記再生装置に前記対応情報および前記音声情報を送信するサーバと、を含むことを特徴とするシステム。
A user who is present in a range where audio information can be heard is uniquely identified, and by referring to correspondence information in which user identification information and audio information are associated, audio information corresponding to the identified user is selected, The user name of the identified user is output as a voice for dialogue with the user, the selected voice information is presented to the user, and the voice information is presented to the user while the voice information is presented to the user. The user name of the other user identified when the user is identified and the voice information is presented to the user is output as voice for interaction with the other user, and voice to the other user is output. A playback device for presenting information to the other users;
And a server for transmitting the correspondence information and the audio information to the playback device.
JP2013143948A 2013-07-09 2013-07-09 REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, SERVER, AND SYSTEM Expired - Fee Related JP6151112B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013143948A JP6151112B2 (en) 2013-07-09 2013-07-09 REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, SERVER, AND SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013143948A JP6151112B2 (en) 2013-07-09 2013-07-09 REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, SERVER, AND SYSTEM

Publications (2)

Publication Number Publication Date
JP2015018344A JP2015018344A (en) 2015-01-29
JP6151112B2 true JP6151112B2 (en) 2017-06-21

Family

ID=52439291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013143948A Expired - Fee Related JP6151112B2 (en) 2013-07-09 2013-07-09 REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, SERVER, AND SYSTEM

Country Status (1)

Country Link
JP (1) JP6151112B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6355797B1 (en) * 2017-05-16 2018-07-11 ヤフー株式会社 Determination apparatus, determination method, and determination program
JP2019066731A (en) * 2017-10-03 2019-04-25 東芝ライフスタイル株式会社 Control system
JP2019101766A (en) * 2017-12-03 2019-06-24 株式会社グランゲートジャパン User support system
US20240135924A1 (en) * 2021-04-07 2024-04-25 Panasonic Intellectual Property Management Co., Ltd. Method for controlling utterance of utterance device, server controlling utterance of utterance device, utterance device, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001314649A (en) * 2000-05-11 2001-11-13 Seta Corp Voice game method and apparatus, and recording medium
JP4024683B2 (en) * 2003-01-15 2007-12-19 株式会社国際電気通信基礎技術研究所 Communication robot
JP2010026991A (en) * 2008-07-24 2010-02-04 Fujitsu Ltd Email notification system, email notification method and mail notification program
JP5589426B2 (en) * 2010-02-18 2014-09-17 日本電気株式会社 Content providing system, content providing method, and content providing program
JP5405381B2 (en) * 2010-04-19 2014-02-05 本田技研工業株式会社 Spoken dialogue device
JP2012222585A (en) * 2011-04-08 2012-11-12 Hitachi Consumer Electronics Co Ltd Content recommendation system
JP2012242844A (en) * 2011-05-13 2012-12-10 Ntt Docomo Inc Recommendation information generation device and recommendation information generation method
WO2012169679A1 (en) * 2011-06-10 2012-12-13 엘지전자 주식회사 Display apparatus, method for controlling display apparatus, and voice recognition system for display apparatus

Also Published As

Publication number Publication date
JP2015018344A (en) 2015-01-29

Similar Documents

Publication Publication Date Title
JP6811758B2 (en) Voice interaction methods, devices, devices and storage media
CN104934048A (en) Sound effect regulation method and device
WO2018095219A1 (en) Media information processing method and device
JP6151112B2 (en) REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, SERVER, AND SYSTEM
US7454401B2 (en) Reproducing apparatus and method, information processing apparatus and method, recording medium, and program
CN107146608B (en) Playing control method and device and intelligent equipment
JP2014182307A (en) Voice recognition system and speech system
CN111294606A (en) Live broadcast processing method and device, live broadcast client and medium
CN104464743A (en) Method for playing background music in voice chatting room and mobile terminal
CN106257928A (en) Audio file acquisition methods, update notification sending method, equipment and system
US20070110397A1 (en) Playback apparatus and bookmark system
JP6051075B2 (en) A communication karaoke system that can continue duet singing in the event of a communication failure
CN108282678A (en) A kind of playback method of multi-medium data, apparatus and system
JP2014197045A (en) Advertisement reproduction device, advertisement reproduction program, and advertisement reproduction system
JP6351987B2 (en) Speech control device, speech device, speech control system, speech control method, speech device control method, and control program
CN108196817B (en) Audio recognition method, device and storage medium
JP2009130644A (en) Communication equipment, communication method, program, and storage medium
JP6367097B2 (en) Speech control device, speech device, speech control system, speech control device control method, speech device control method, control program
JP2009278481A (en) Video content reception device, video content distribution apparatus and video content distribution method
JP6552868B2 (en) Voice communication support device, voice communication support method and program
JP5973030B2 (en) Speech recognition system and speech processing apparatus
JP2014035783A (en) Remote controller, video recording and reproducing device, program and recording medium
CN104049758A (en) Information processing method and electronic device
KR20150033757A (en) A Karaoke TV system by the using of an application of a mobile device
WO2019017033A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160314

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160322

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170524

R150 Certificate of patent or registration of utility model

Ref document number: 6151112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees