JP7136606B2 - CONTENT CONTROL DEVICE, CONTROL METHOD AND CONTROL PROGRAM - Google Patents
CONTENT CONTROL DEVICE, CONTROL METHOD AND CONTROL PROGRAM Download PDFInfo
- Publication number
- JP7136606B2 JP7136606B2 JP2018122475A JP2018122475A JP7136606B2 JP 7136606 B2 JP7136606 B2 JP 7136606B2 JP 2018122475 A JP2018122475 A JP 2018122475A JP 2018122475 A JP2018122475 A JP 2018122475A JP 7136606 B2 JP7136606 B2 JP 7136606B2
- Authority
- JP
- Japan
- Prior art keywords
- audio content
- content
- user
- audio
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 45
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000009471 action Effects 0.000 claims description 53
- 238000006243 chemical reaction Methods 0.000 claims description 28
- 238000003780 insertion Methods 0.000 claims description 22
- 230000037431 insertion Effects 0.000 claims description 22
- 235000019640 taste Nutrition 0.000 claims description 7
- 238000010187 selection method Methods 0.000 claims 4
- 238000012545 processing Methods 0.000 description 50
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 238000005406 washing Methods 0.000 description 12
- 238000010411 cooking Methods 0.000 description 10
- 101150117600 msc1 gene Proteins 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000003542 behavioural effect Effects 0.000 description 7
- 230000002354 daily effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 241000556720 Manga Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 239000003599 detergent Substances 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明の実施形態は、コンテンツ制御装置、制御方法および制御プログラムに関する。 TECHNICAL FIELD Embodiments of the present invention relate to a content control device, a control method, and a control program.
近年、インターネットの普及に伴い、生活支援を行う各種サービスが提供されるようになってきている。例えば、ユーザに対して機器の操作支援を行う技術がある。 2. Description of the Related Art In recent years, with the spread of the Internet, various services for life support have been provided. For example, there is a technique for assisting a user in operating a device.
例えば、特許文献1には、視覚障害者等の利用者に負担をかけることなく操作を習得させる技術が開示されている。 For example, Japanese Patent Laid-Open No. 2002-200000 discloses a technique for allowing a user such as a visually impaired person to learn an operation without imposing a burden on the user.
しかしながら、上記の従来技術では、音声コンテンツがながら聴取されている場合であっても、当該音楽コンテンツを容易に制御させることができるとは限らない。例えば、上記の従来技術は、ファクシミリ装置、プリンタ装置、スキャナ装置やそれらのOA機器が提供する機能を1台に統合したデジタル複合機(MFP)を視覚障害者等の利用者でも容易に操作方法を習得できるよう、音声で提供される操作説明情報であってMPFに関する操作説明情報を利用者の宣言に応じて出力制御する。 However, with the conventional technology described above, even when audio content is being listened to, it is not always possible to easily control the music content. For example, the above-described prior art provides a method for easily operating a digital multi-function peripheral (MFP) that integrates the functions provided by a facsimile device, a printer device, a scanner device, and these OA devices into a single unit, even by a user such as a visually handicapped person. The operation explanation information provided by voice and related to the MPF is output-controlled in accordance with the declaration of the user so that the user can learn the operation explanation information.
このような上記の従来技術では、利用者は音声で提供される操作説明情報を注意して聞き取ろうとしていることが前提となっていると考えられるため、例えば、操作説明情報がながら聴取されているような場合、利用者に対して操作説明情報を容易に制御させることができるとは限らない。 In the conventional technology described above, it is assumed that the user is trying to listen carefully to the operation explanation information provided by voice. In such a case, it is not always possible to allow the user to easily control the operation explanation information.
本願は、上記に鑑みてなされたものであって、音声コンテンツがながら聴取されている場合であっても、当該音楽コンテンツを容易に制御させることを目的とする。 The present application has been made in view of the above, and an object of the present application is to easily control music content even when audio content is being listened to.
本願にかかるコンテンツ制御装置は、出力された音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付ける受付部と、前記受付部により受け付けられた音声指示に応じた操作を前記音声コンテンツに対して行うコンテンツ制御部とを有することを特徴とする。 A content control apparatus according to the present application includes a reception unit that receives a voice instruction from a user for instructing an operation to control reproduction of an output audio content, and an operation that corresponds to the voice instruction received by the reception unit. and a content control unit that performs operations on the content.
実施形態の一態様によれば、音声コンテンツがながら聴取されている場合であっても、当該音楽コンテンツを容易に制御させることができるといった効果を奏する。 According to one aspect of the embodiment, it is possible to easily control the music content even when the audio content is being listened to.
以下に、本願にかかるコンテンツ制御装置、制御方法および制御プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願にかかるコンテンツ制御装置、制御方法および制御プログラムが限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。 Embodiments (hereinafter referred to as "embodiments") for implementing the content control device, control method, and control program according to the present application will be described below with reference to the drawings. Note that the content control device, control method, and control program according to the present application are not limited to this embodiment. In addition, in the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.
〔1.コンテンツ制御処理〕
まず、図1を用いて、実施形態にかかるコンテンツ制御処理の一例について説明する。図1は、実施形態にかかるコンテンツ制御処理の一例を示す図である。実施形態にかかるコンテンツ制御処理は、コンテンツ制御装置100によって行われる。なお、実施形態にかかるコンテンツ制御処理には、第1の音声コンテンツに対する第2の音声コンテンツの挿入に関する処理(「挿入処理」とする)と、かかる処理により挿入された第2の音声コンテンツに対するユーザの音声指示を受け付けることにより音声指示に応じた操作を第2の音声コンテンツに対して行う処理といった2つの制御処理(「UI処理」とする)が含まれる。
[1. Content control processing]
First, an example of content control processing according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of content control processing according to an embodiment; Content control processing according to the embodiment is performed by the
図1の説明に先立って、図2を用いて、実施形態にかかる制御システムについて説明する。図2は、実施形態にかかる制御システム1の構成例を示す図である。実施形態にかかる制御システム1は、図2に示すように、端末装置10と、出力装置30と、外部装置60と、コンテンツ制御装置100とを含む。端末装置10、出力装置30、外部装置60、コンテンツ制御装置100は、ネットワークNを介して有線または無線により通信可能に接続される。なお、図1に示す制御システム1には、複数台の端末装置10や、複数台の出力装置30や、複数台の外部装置60や、複数台のコンテンツ制御装置100が含まれてよい。
Prior to the description of FIG. 1, the control system according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。例えば、端末装置10は、ユーザ操作に従い、各種のコンテンツ(例えば、記事コンテンツ、広告コンテンツ、ブログ、ショッピングコンテンツ、音楽コンテンツ等)を表示画面に表示する。
The
また、後述するが、端末装置10は、コンテンツ制御装置100から送信されたコンテンツを画面表示したり音声出力する。つまり、端末装置10は、コンテンツ制御装置100と連携して動作することができる。なお、このような連携が実現されるために、端末装置10には所定のアプリケーションが予めインストールされていてもよい。
Also, as will be described later, the
出力装置30は、例えば、スマートスピーカー、カーナビゲーション、可動式ロボット等である。本実施形態では、出力装置30は、スマートスピーカーであるものとする。したがって、以下の実施形態では、出力装置30を「スマートスピーカー30」と表記する場合がある。
The
外部装置60は、第1の音声コンテンツや第2の音声コンテンツをコンテンツ制御装置100に提供する提供元のサーバ装置である。外部装置60は、コンテンツ制御装置100を管理する事業主(「事業主Z」とする)に属するサーバ装置であってもよいし、事業主Zとは異なる事業主(つまり、事業主Zから見て他社)によって管理されるサーバ装置でもよい。
The external device 60 is a provider server device that provides the
ここで、実施形態にかかるコンテンツ制御処理の前提について説明する。本実施形態では、音声コンテンツを聞きたいというユーザの意志に応えて音声コンテンツを提供するのではなく、例えば、何か作業をしているユーザに対して「耳の端で捉えられる」程度に音声コンテンツを加工したり制御することを前提としている。つまり、本実施形態では、ながら聴取されるような音声コンテンツを加工および制御し、また、音声コンテンツがながら聴取されるような場合であってもユーザの指示に応じて音声コンテンツを制御できるようにすることを前提としている。 Here, the premise of the content control process according to the embodiment will be described. In the present embodiment, the audio content is not provided in response to the user's desire to listen to the audio content, but rather, for example, the user who is doing some work hears the audio to the extent that it can be "caught at the edge of the ear". It is premised on processing and controlling content. In other words, in the present embodiment, audio content that is listened to while listening is processed and controlled, and even if the audio content is listened to while listening, the audio content can be controlled according to the user's instruction. It is assumed that
ながら聴取のためのコンテンツ制御処理の一例を示す。一つの例としては、ユーザが起床して出勤準備をしている場面が考えられる。例えば、コンテンツ制御装置100は、ユーザが出勤準備をしている旨を検出すると、スマートスピーカー30から出力されているメインの音声コンテンツ(例えば、音楽チャンネル)の途中に、ユーザの勤務先付近の天気予報が音声コンテンツとして流れるよう制御する。また、コンテンツ制御装置100は、メインの音声コンテンツの途中に、ユーザが普段利用している路線の遅延情報が音声コンテンツとして流れるよう制御する。
An example of content control processing for listening while listening is shown. One example is a scene in which the user wakes up and prepares to go to work. For example, when the
また、コンテンツ制御装置100は、メインの音声コンテンツの途中に、ユーザが興味のあるニュースの見出しが音声コンテンツとして流れるよう制御する。また、コンテンツ制御装置100は、メインの音声コンテンツの途中に、ユーザの好みのジャンルの楽曲が音声コンテンツとして流れるよう制御する。また、コンテンツ制御装置100は、メインの音声コンテンツの途中に、ユーザの勤務先付近の飲食店に関するお得情報が音声コンテンツとして流れるよう制御する。
In addition, the
他の例としては、ユーザが洗濯をしている場面が考えられる。例えば、コンテンツ制御装置100は、ユーザが洗濯をしている旨を検出すると、スマートスピーカー30から出力されているメインの音声コンテンツ(例えば、音楽チャンネル)の途中に、洗剤や洗濯機に関するネットショッピングや広告コンテンツが音声コンテンツとして流れるよう制御する。また、コンテンツ制御装置100は、メインの音声コンテンツの途中に、ユーザの自宅付近の天気予報が音声コンテンツとして流れるよう制御する。また、コンテンツ制御装置100は、メインの音声コンテンツの途中に、ユーザの自宅付近のスーパーのお得情報が音声コンテンツとして流れるよう制御する。
Another example is a scene where the user is doing laundry. For example, when the
また、さらに他の例としては、ユーザが料理をしている場面が考えられる。例えば、コンテンツ制御装置100は、ユーザが料理をしている旨を検出すると、スマートスピーカー30から出力されているメインの音声コンテンツ(例えば、音楽チャンネル)の途中に、調理器具に関するラジオショッピングや広告コンテンツが音声コンテンツとして流れるよう制御する。
As yet another example, a scene in which the user is cooking can be considered. For example, when the
なお、上記例においてスマートスピーカー30から出力されているメインの音声コンテンツは、第1の音声コンテンツに相当する。また、メインの音声コンテンツの途中に流れるよう制御される音声コンテンツは、第2の音声コンテンツに相当する。
Note that the main audio content output from the
また、このような状態において、コンテンツ制御装置100は、ながら聴取される第2の音声コンテンツをユーザの目的指向に応じて操作することを前提とする。ユーザの目的指向とは、例えば、出力された第2の音声コンテンツを巻き戻したり、早送りしたりすること等である。
Also, in such a state, it is assumed that the
以上のような前提を踏まえて、コンテンツ制御装置100は、実施形態にかかるコンテンツ制御処理を行う。具体的には、コンテンツ制御装置100は、挿入処理として、第1の音声コンテンツに挿入される候補の第2の音声コンテンツを取得し、配信先のユーザに関するユーザ情報に基づいて、候補の第2の音声コンテンツのうち、第1の音声コンテンツに挿入される第2の音声コンテンツを選択する。より具体的には、コンテンツ制御装置100は、配信先のユーザに関するユーザ情報に基づいて、第1の音声コンテンツに挿入される対象の第2の音声コンテンツと、当該対象の第2の音声コンテンツが第1の音声コンテンツに挿入される時間位置であって第1の音声コンテンツにおける時間位置とを決定する。そして、コンテンツ制御装置100は、決定した第2の音声コンテンツを選択し、実際に第1の音声コンテンツに挿入する。
Based on the above assumptions, the
また、コンテンツ制御装置100は、UI処理として、第1の音声コンテンツに挿入された第2の音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付けると、受け付けた音声指示に応じた操作を音声コンテンツに対して行う。例えば、コンテンツ制御装置100は、再生を制御する操作として、巻き戻し、頭出し、クリップ(抽出)、早送り、スキップするよう指示する音声指示を受け付けることにより、第2の音声コンテンツに対してこの音声指示に応じた操作を行う。以下では、コンテンツ制御処理の一例を示す。図1の例では、ステップS1~S6が挿入処理に対応し、ステップS7~S8がUI処理に対応する。
Further, as UI processing, the
まず、コンテンツ制御装置100は、第1の音声コンテンツに挿入される候補の第2の音声コンテンツを取得する(ステップS1)。例えば、コンテンツ制御装置100は、外部装置60から候補の第2の音声コンテンツの元データ(例えば、テキスト)を取得することができる。また、コンテンツ制御装置100は、外部装置60から第1の音声コンテンツも取得してよい。図1の例では、コンテンツ制御装置100は、候補の第2の音声コンテンツの元データとして、ニュースコンテンツSC11、広告コンテンツSC21、路線情報SC31、天気情報SC41を取得する。
First, the
なお、ニュースコンテンツ、路線情報、天気情報にはリアルタイム性が求められる場合がある。したがって、コンテンツ制御装置100は、配信のタイムスケジュールが決められている第1の音声コンテンツについて、例えば、配信予定時刻の10分前の最新のニュースコンテンツSC11、路線情報SC31、天気情報SC41を取得し、上記配信予定時刻となるまでに以下の処理を行うようにしてもよい。
Note that news content, route information, and weather information may be required to be real-time. Therefore, the
コンテンツ制御装置100は、取得した元データを音声データに変換する(ステップS2)。コンテンツ制御装置100は、取得した元データをまず編成および編集する。例えば、コンテンツ制御装置100は、所定の文字数を超えている場合には、予め決められた文字数に収まるよう元データを編集する。また、例えば、コンテンツ制御装置100は、テキストを解析し、文章構成等に不具合がある場合には、元データを編成し直す。そして、コンテンツ制御装置100は、編成および編集した元データを音声データに変換する。この変換後の音声データが、第1の音声コンテンツに挿入される候補の第2の音声コンテンツである。
The
なお、コンテンツ制御装置100は、既に音声データに変換された候補の第2の音声コンテンツを外部装置60から取得してもよい。かかる場合、コンテンツ制御装置100は、例えば、編成および編集は行わず、取得した音声データを第2の音声コンテンツとして以下の処理に利用する。
Note that the
次に、コンテンツ制御装置100は、配信先のユーザに関するユーザ情報に基づいて、第1の音声コンテンツに挿入される対象の第2の音声コンテンツと、当該対象の第2の音声コンテンツが第1の音声コンテンツに挿入される時間位置であって第1の音声コンテンツにおける時間位置とを決定する(ステップS3)。
Next, the
まず、配信先のユーザに関するユーザ情報の一例について説明する。図1の例では、配信先のユーザは、ユーザU1である。そうすると、コンテンツ制御装置100は、ユーザU1のユーザ情報として、ユーザU1の行動履歴を取得する。例えば、コンテンツ制御装置100は、ユーザU1の端末装置10からユーザU1の行動履歴を取得する。1つの例では、コンテンツ制御装置100は、ユーザU1の行動履歴としてインターネット上の行動履歴を取得する。コンテンツ制御装置100は、インターネット上の行動履歴として、どのような行動履歴を取得するかは限定されないが、例えば、コンテンツに対する閲覧履歴、購買履歴、動画や音楽の視聴履歴を取得する。
First, an example of user information regarding users of delivery destinations will be described. In the example of FIG. 1, the user of the delivery destination is user U1. Then, the
また、他の1つの例では、コンテンツ制御装置100は、ユーザU1の行動履歴として、日常生活上での行動履歴を取得する。コンテンツ制御装置100は、日常生活上の行動履歴として、どのような行動履歴を取得するかは限定されないが、例えば、起床時刻、就寝時刻、利用路線、職場位置、移動履歴等を取得する。なお、コンテンツ制御装置100は、日常生活上の行動履歴からユーザU1の生活スタイルの傾向を特定し、この生活スタイルを行動履歴の一種としてもよい。
In another example, the
また、コンテンツ制御装置100は、ユーザU1の行動履歴として、ユーザU1がまさに現在行っている行動を示す行動情報を行動履歴として取得してもよい。例えば、コンテンツ制御装置100は、ユーザU1が現在洗濯を行っている場合には、ユーザU1が現在洗濯を行っている旨を行動履歴として取得する。また、コンテンツ制御装置100は、ユーザU1が現在料理を行っている場合には、ユーザU1が現在料理を行っている旨を行動履歴として取得する。
Also, the
さて、ユーザ情報として、ユーザU1の行動履歴を取得する例を示したが、コンテンツ制御装置100は、ユーザU1のユーザ情報として、ユーザU1の操作履歴を取得することもできる。具体的には、コンテンツ制御装置100は、スマートスピーカー30に対するユーザU1の操作履歴を取得する。例えば、コンテンツ制御装置100は、ユーザU1がスマートスピーカー30を操作してどのようなコンテンツを聞いたかを示す操作履歴を取得する。
Although an example of acquiring user U1's action history as user information has been described, the
ステップS3の説明に戻り、コンテンツ制御装置100は、ユーザ情報に基づいて、ユーザU1がどの時間にどのような音声コンテンツを聞く傾向にあるか、すなわちユーザU1における時間帯と当該時間帯に聞かれる音声コンテンツの内容との傾向を算出する。そして、コンテンツ制御装置100は、算出結果に基づいて、対象の第2の音声コンテンツと、対象の第2の音声コンテンツが挿入される時間位置とを決定する。
Returning to the description of step S3, based on the user information, the
図1の例では、コンテンツ制御装置100は、ユーザU1は毎朝、午前7時~8時の間にウェブニュースを閲覧する傾向にあることを算出するとともに、マンガが趣味であることを特定したものとする。このような状態において、午前7時~8時の間に配信予定の第1の音声コンテンツが音楽コンテンツMC1であるとする。かかる場合、コンテンツ制御装置100は、ニュースコンテンツSC11および広告コンテンツSC21を、第1の音声コンテンツである音楽コンテンツMC1に挿入される対象の第2の音声コンテンツとして決定する。広告コンテンツSC21は、例えば、ユーザU1の趣味に合わせてマンガの広告コンテンツである。
In the example of FIG. 1, the
また、コンテンツ制御装置100は、音楽コンテンツMC1の時間位置として再生時間5分の位置(午前7時05分に対応する時間位置)をニュースコンテンツSC11を挿入させる時間位置、音楽コンテンツMC1の時間位置として再生時間30分の位置(午前7時30分に対応する時間位置)を広告コンテンツSC21を挿入させる時間位置として決定する。
In addition, the
例えば、コンテンツ制御装置100は、ニュースコンテンツのようにリアルタイム性が求められるコンテンツについては、第1の音声コンテンツの配信が開始されてからなるべく早い段階で出力されるよう時間位置を決定する。天気情報についても同様である。一方、コンテンツ制御装置100は、広告コンテンツのように、あまりリアルタイム性が求められないコンテンツについては、第1の音声コンテンツの配信が開始されてから中盤辺りに出力されるよう時間位置を決定する。
For example, the
そして、コンテンツ制御装置100は、ステップS3で決定した情報に基づいて、第1の音声コンテンツである音楽コンテンツMC1に対して、ニュースコンテンツSC11および広告コンテンツSC21を挿入する(ステップS4)。ここで、ニュースコンテンツSC11および広告コンテンツSC21が挿入された音楽コンテンツMC1を音楽コンテンツMSC1とする。
Based on the information determined in step S3, the
このような状態において、コンテンツ制御装置100は、音楽コンテンツMSC1に対して所定の出力制御を行う(ステップS5)。例えば、ユーザU1は、出勤仕度を行っている場合、出勤仕度に気を取られて音楽コンテンツMSC1がほとんど耳に入らない可能性がある。したがって、コンテンツ制御装置100は、例えば、ユーザU1が出勤仕度を行っていると予測される場合には、音楽コンテンツMSC1が所定値より高い音量で出力されるよう音量を制御する。なお、コンテンツ制御装置100は、音楽コンテンツMSC1に含まれる第2の音声コンテンツであるニュースコンテンツSC11および広告コンテンツSC21だけ、所定値より高い音量で出力されるよう音量を制御してもよい。
In such a state, the
そして、コンテンツ制御装置100は、音楽コンテンツMSC1を配信するタイムスケジュール(例えば、午前7時から配信予定)に沿って、音楽コンテンツMSC1を配信する(ステップS6)。具体的には、コンテンツ制御装置100は、スマートスピーカー30に対して音楽コンテンツMSC1を送信することにより、スマートスピーカー30から音楽コンテンツMSC1を配信(出力または再生)させる。
Then, the
このような状態において、ユーザU1は、実際に出勤仕度をしながら、音楽コンテンツMSC1をながら聴取していたとする。ここで、ユーザU1は、ニュースコンテンツSC11が出力された後に、ニュースコンテンツSC11を再度聞き直したいと思い、スマートスピーカー30に対して「もう一度聞かせて」と音声指示したものとする。かかる音声指示は、第2の音声コンテンツであるニュースコンテンツSC11の再生を制御する操作を行うようコンテンツ制御装置100に対して指示するものである。
In such a state, assume that the user U1 listens to the music content MSC1 while actually getting ready for work. Here, it is assumed that the user U1 wants to listen to the news content SC11 again after the news content SC11 has been output, and has given a voice instruction to the
スマートスピーカー30は、このような音声指示を受け付けると、受け付けた音声指示をコンテンツ制御装置100に送信する。例えば、スマートスピーカー30は、音声指示に対応する音声データをコンテンツ制御装置100に送信する。これにより、コンテンツ制御装置100は、ユーザU1から音声指示を受け付ける(ステップS7)。
Upon receiving such a voice instruction, the
そして、コンテンツ制御装置100は、音声指示「もう一度聞かせて」は、ニュースコンテンツSC11を始めから聞かせる、すなわち頭出しすると判断し、ニュースコンテンツSC11を頭出しする(ステップS8)。例えば、コンテンツ制御装置100は、スマートスピーカー30に対して、ニュースコンテンツSC11を頭出しするよう指示する。
Then, the
これまで、図1を用いて、ユーザU1を例に、コンテンツ制御装置100が、ユーザU1のユーザ情報に合わせて、メインの音声コンテンツ(第1の音声コンテンツ)にサブの音声コンテンツ(第2の音声コンテンツ)を挿入したり、ユーザU1の音声指示に合わせて音声コンテンツを再生制御する例を示した。しかし、コンテンツ制御装置100は、実際には、各ユーザに合わせてこのようなコンテンツ制御処理を行う。つまり、コンテンツ制御装置100は、ユーザに合わせ音声コンテンツをパーソナライズ化する。
So far, using FIG. 1, the
また、コンテンツ制御装置100は、図1で説明したコンテンツ制御処理のうち、UI処理を行うことで、音声コンテンツがながら聴取されている場合であっても、当該音楽コンテンツを容易に制御させることができる。また、コンテンツ制御装置100は、図1で説明したコンテンツ制御処理のうち、挿入処理を行うことで、ユーザが「耳の端で捉えられる」程度に加工および制御した音声コンテンツをユーザに提供することができるため、ながら聴取の中でもユーザの欲する情報を効果的に提供することができる。
In addition, the
〔2.コンテンツ制御装置の構成〕
次に、図3を用いて、実施形態にかかるコンテンツ制御装置100について説明する。図3は、実施形態にかかるコンテンツ制御装置100の構成例を示す図である。図3に示すように、コンテンツ制御装置100は、通信部110と、記憶部120と、制御部130とを有する。
[2. Configuration of content control device]
Next, the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、端末装置10、スマートスピーカー30との間で情報の送受信を行う。
(Regarding communication unit 110)
The
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、コンテンツ記憶部121と、行動履歴記憶部122と、操作履歴記憶部123と、ユーザ情報記憶部124と、配信コンテンツ記憶部125とを有する。
(Regarding storage unit 120)
The
(コンテンツ記憶部121について)
コンテンツ記憶部121は、第1の音声コンテンツおよび第2の音声コンテンツに関する情報を記憶する。ここで、図4に実施形態にかかるコンテンツ記憶部121の一例を示す。図4の例では、コンテンツ記憶部121には、第1の音声コンテンツを記憶するコンテンツ記憶部121-1と、第2の音声コンテンツを記憶するコンテンツ記憶部121-2とを有する。
(Regarding the content storage unit 121)
The
図4の例では、コンテンツ記憶部121-1は、「カテゴリ」、「コンテンツID」、「第1の音声コンテンツ」、「配信日時」といった項目を有する。 In the example of FIG. 4, the content storage unit 121-1 has items such as "category", "content ID", "first audio content", and "delivery date and time".
「カテゴリ」は、「第1の音声コンテンツ」が属するカテゴリを示す。「第1の音声コンテンツ」が音楽コンテンツである場合には、「カテゴリ」として「音楽」が入力される。「コンテンツID」は、「第1の音声コンテンツ」を識別する識別情報を示す。「第1の音声コンテンツ」は、第1の音声コンテンツそのもの、つまり音声データを示す。「配信時刻」は、「第1の音声コンテンツ」が配信される配信日時(タイムスケジュール)を示す。以下、第1の音声コンテンツを区別して表記する場合には、「コンテンツID」を用いる。例えば、コンテンツID「MC1」によって識別される第1の音声コンテンツであれば、第1の音声コンテンツMC1と表記する。 "Category" indicates the category to which the "first audio content" belongs. If the "first audio content" is music content, "music" is entered as the "category." "Content ID" indicates identification information for identifying the "first audio content". "First audio content" indicates the first audio content itself, that is, audio data. "Distribution time" indicates the distribution date and time (time schedule) when the "first audio content" is distributed. In the following description, "content ID" is used when distinguishing the first audio contents. For example, if it is the first audio content identified by the content ID "MC1", it will be written as the first audio content MC1.
すなわち、図4の例では、コンテンツID「MC1」によって識別される第1の音声コンテンツ「MDA11」は、カテゴリ「音楽」に属し、配信日時「午前7時~午前8時」であることを示す。 That is, in the example of FIG. 4, the first audio content "MDA11" identified by the content ID "MC1" belongs to the category "music" and is distributed on a date and time of "7:00 am to 8:00 am". .
また、図4の例では、コンテンツ記憶部121-2は、「カテゴリ」、「コンテンツID」、「変換前コンテンツ」、「変換後コンテンツ」といった項目を有する。 In the example of FIG. 4, the content storage unit 121-2 has items such as "category", "content ID", "pre-conversion content", and "post-conversion content".
「カテゴリ」は、「第2の音声コンテンツ」が属するカテゴリを示す。「第2の音声コンテンツ」が広告コンテンツである場合には、「カテゴリ」として「広告」が入力される。「コンテンツID」は、「第2の音声コンテンツ」を識別する識別情報を示す。「変換前コンテンツ」は、編成・編集・音声データへの変換が行われる前のコンテンツであり、第2の音声コンテンツの元データに対応する。図1でも示したが、「変換前コンテンツ」は、例えば、テキストデータであり、外部装置60から取得される。 "Category" indicates the category to which the "second audio content" belongs. If the "second audio content" is advertisement content, "advertisement" is entered as the "category." "Content ID" indicates identification information for identifying the "second audio content". "Pre-conversion content" is content before being organized, edited, and converted into audio data, and corresponds to the original data of the second audio content. As shown in FIG. 1, the “pre-conversion content” is text data, for example, and is acquired from the external device 60 .
「変換後コンテンツ」は、「変換前コンテンツ」が編成および編集され、さらに音声データへの変換された後の音声コンテンツであり、第1の音声コンテンツに挿入される候補の第2の音声コンテンツに対応する。以下、第2の音声コンテンツを区別して表記する場合には、「コンテンツID」を用いる。例えば、コンテンツID「SC11」によって識別される第2の音声コンテンツであれば、第2の音声コンテンツSC11と表記する。 "Post-conversion content" is audio content after the "pre-conversion content" has been organized and edited and further converted into audio data, and is used as a candidate second audio content to be inserted into the first audio content. handle. In the following description, "content ID" is used when distinguishing the second audio contents. For example, the second audio content identified by the content ID "SC11" is expressed as the second audio content SC11.
すなわち、図4の例では、コンテンツID「SC11」によって識別される第2の音声コンテンツ「SDA11b」は、カテゴリ「ニュース」に属することを示す。なお、コンテンツ記憶部121-2に記憶される第2の音声コンテンツは、第1の音声コンテンツに挿入される候補の第2の音声コンテンツである。 That is, the example of FIG. 4 indicates that the second audio content "SDA11b" identified by the content ID "SC11" belongs to the category "news." The second audio content stored in the content storage unit 121-2 is a candidate second audio content to be inserted into the first audio content.
(行動履歴記憶部122について)
行動履歴記憶部122は、ユーザの行動履歴を記憶する。ここで、図5に実施形態にかかる行動履歴記憶部122の一例を示す。図5の例では、行動履歴記憶部122は、「ユーザID」、「カテゴリ」、「日時」、「行動履歴」といった項目を有する。
(Regarding the action history storage unit 122)
The action
「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「カテゴリ」は、対応する「行動履歴」がどのような状況下での行動履歴なのかを識別する識別情報を示す。例えば、対応する「行動履歴」がインターネット上での行動履歴である場合には、カテゴリ「ネット」が対応付けられる。また、例えば、対応する「行動履歴」が日常生活(生活導線上)での行動履歴である場合には、カテゴリ「日常生活」が対応付けられる。
“User ID” indicates identification information for identifying the user or the user's
「日時」は、「行動履歴」が示す行動が行われた日時を示す。「行動履歴」は、ユーザによって実際に行われた行動の履歴情報を示す。インターネット上の行動履歴としては、例えば、コンテンツに対する閲覧履歴、購買履歴、動画や音楽の視聴履歴等が挙げられる。また、日常生活上の行動履歴としては、起床時刻、就寝時刻、利用路線、職場位置、移動履歴等が挙げられる。 The "date and time" indicates the date and time when the action indicated by the "action history" was performed. “Action history” indicates history information of actions actually performed by the user. The action history on the Internet includes, for example, browsing history of contents, purchase history, viewing history of moving images and music, and the like. Also, the behavior history in daily life includes wake-up time, bedtime, used route, workplace location, movement history, and the like.
また、コンテンツ制御装置100は、ユーザがまさに現在行っている行動(例えば、洗濯や料理)を検知出来た場合には、この行動を示す行動情報を行動履歴として記憶してもよい。なお、コンテンツ制御装置100は、例えば、スマートスピーカー30を介して、ユーザがまさに現在行っている行動を検知することができる。例えば、コンテンツ制御装置100は、スマートスピーカー30が洗濯機の動作音を検出した場合には、ユーザは現在、洗濯をしていることを検知する。
Also, if the
また、コンテンツ制御装置100は、上記行動履歴から、ユーザの生活スタイルの傾向を特定し、傾向として特定した生活スタイルも記憶してよい。
Also, the
すなわち、図5の例では、ユーザID「U1」によって識別されるユーザ(ユーザU1)が、「2018年5月20日20時」に「化粧品サイト」にアクセスしたことを示す。 That is, the example of FIG. 5 indicates that the user (user U1) identified by the user ID "U1" accessed the "cosmetics site" at "20:00 on May 20, 2018".
(操作履歴記憶部123について)
操作履歴記憶部123は、ユーザの行動履歴を記憶する。本実施形態では、操作履歴記憶部123は、スマートスピーカー30に対するユーザの操作履歴を記憶するものとする。ここで、図6に実施形態にかかる操作履歴記憶部123の一例を示す。図6の例では、操作履歴記憶部123は、「ユーザID」、「日時」、「操作履歴」といった項目を有する。
(Regarding the operation history storage unit 123)
The operation
「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「日時」は、「操作履歴」が示す行動が行われた日時を示す。「操作履歴」は、ユーザがスマートスピーカー30を操作した操作履歴を示す。具体的には、「操作履歴」は、ユーザがスマートスピーカー30を操作し、どのようなコンテンツ(チャンネルまたは番組)を聞いたかを示す操作履歴を示す。
“User ID” indicates identification information for identifying the user or the user's
すなわち、図6の例では、ユーザID「U1」によって識別されるユーザ(ユーザU1)が、「2018年5月20日7時」に、ユーザがスマートスピーカー30を操作し、音楽コンテンツであるチャンネルCh1を流したことを示す。
That is, in the example of FIG. 6 , the user (user U1) identified by the user ID “U1” operates the
(ユーザ情報記憶部124について)
ユーザ情報記憶部124は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部124は、「行動履歴」や「操作履歴」から特定されたユーザの生活スタイルや行動傾向、趣味嗜好等を記憶する。ここで、図7に実施形態にかかるユーザ情報記憶部124の一例を示す。図7の例では、ユーザ情報記憶部124は、「ユーザID」、「属性情報」、「趣味嗜好」、「生活状況」、「傾向情報」といった項目を有する。
(Regarding the user information storage unit 124)
The user
「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「属性情報」は、ユーザの属性情報を示す。「属性情報」としては、例えば、ユーザの年齢や性別が挙げられる。「趣味嗜好」は、ユーザの趣味嗜好を示す。例えば、コンテンツ制御装置100は、ユーザの「行動履歴」や「操作履歴」に基づいて、ユーザの趣味嗜好を特定する。
“User ID” indicates identification information for identifying the user or the user's
「生活状況」は、ユーザの生活スタイル(生活の傾向)を示す。例えば、コンテンツ制御装置100は、ユーザの「行動履歴」や「操作履歴」に基づいて、ユーザの生活状況を特定する。「傾向情報」は、ユーザの行動傾向を示す。「傾向情報」は、例えば、ユーザがどの時間帯にどのような音声コンテンツを聞く傾向にあるかを示す情報である。
“Lifestyle” indicates the user's lifestyle (living tendency). For example, the
すなわち、図7の例では、ユーザID「U1」によって識別されるユーザ(ユーザU1)は、趣味嗜好「マンガ、ファッション」であり、生活状況「7時起床、六本木周辺で勤務」、傾向情報「7時台にニュースコンテンツを視聴、7時台に天気予報を視聴、20時台にネットショッピングを視聴」であることを示す。 That is, in the example of FIG. 7, the user (user U1) identified by the user ID "U1" has a hobby of "manga, fashion", a living situation of "waking up at 7 o'clock, working around Roppongi", and trend information of " View news content between 7:00, weather forecast between 7:00, and online shopping between 8:00."
(配信コンテンツ記憶部125について)
配信コンテンツ記憶部125は、ユーザに対して実際に配信される音声コンテンツ、すなわち第2の音声コンテンツが挿入された第1の音声コンテンツを記憶する。なお、以下の実施形態では、第2の音声コンテンツが挿入された第1の音声コンテンツを「配信コンテンツ」と表記する場合がある。ここで、図8に実施形態にかかる配信コンテンツ記憶部125の一例を示す。図8の例では、配信コンテンツ記憶部125は、「ユーザID」、「配信コンテンツID」、「配信コンテンツ」といった項目を有する。
(Regarding the distribution content storage unit 125)
The distribution
「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「配信コンテンツID」は、配信コンテンツを識別する識別情報を示す。「配信コンテンツ」は、配信コンテンツそのもの、つまり音声データを示す。
“User ID” indicates identification information for identifying the user or the user's
(制御部130について)
図3に戻り、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、コンテンツ制御装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Regarding the control unit 130)
Returning to FIG. 3, the control unit 130 executes various programs stored in the storage device inside the
図3に示すように、制御部130は、取得部131と、変換部132と、特定部133と、決定部134と、選択部135と、出力制御部136と、受付部137と、コンテンツ制御部138と、配信部139とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 3, the control unit 130 includes an acquisition unit 131, a conversion unit 132, an identification unit 133, a determination unit 134, a selection unit 135, an output control unit 136, a reception unit 137, and a content control unit. It has a unit 138 and a
(取得部131について)
取得部131は、第1の音声コンテンツに挿入される候補の第2の音声コンテンツを取得する。例えば、取得部131は、候補の第2の音声コンテンツの元データ(例えば、テキスト)を取得する。また、取得部131は、コンテンツ制御処理(挿入処理)が行われるタイミングになるとコンテンツ記憶部121-2から候補の第2の音声コンテンツを取得する。
(Regarding the acquisition unit 131)
The acquisition unit 131 acquires a second audio content candidate to be inserted into the first audio content. For example, the acquisition unit 131 acquires the original data (for example, text) of the candidate second audio content. Further, the acquisition unit 131 acquires the second candidate audio content from the content storage unit 121-2 at the timing when the content control process (insertion process) is performed.
なお、取得部131は、候補の第2の音声コンテンツとして、リアルタイム性が求められるような音声コンテンツの元データについては、第1の音声コンテンツに対して決められている配信のタイムスケジュールに基づいて、例えば、配信予定時刻の10分前(10分前に限定されない)の最新情報の元データを取得する。そして、取得部131は、この最新情報の元データを用いて、コンテンツ制御処理(挿入処理)を行わせる。
Note that the acquisition unit 131 obtains the original data of the audio content that requires real-time performance as the candidate second audio content based on the distribution time schedule determined for the first audio content. For example, the original data of the
例えば、取得部131は、元データを外部装置60から取得することができる。一方で、取得部131は、元データではなく、候補の第2の音声コンテンツそのもの(音声データに変換済)を外部装置60から取得してもよい。また、取得部131は、第1の音声データについても外部装置60から取得してよい。また、取得部131は、コンテンツ制御処理(挿入処理)が行われるタイミングになるとコンテンツ記憶部121-1から第1の音声コンテンツを取得する。 For example, the acquisition unit 131 can acquire original data from the external device 60 . On the other hand, the acquisition unit 131 may acquire the candidate second audio content itself (converted into audio data) from the external device 60 instead of the original data. The acquisition unit 131 may also acquire the first audio data from the external device 60 . Also, the acquisition unit 131 acquires the first audio content from the content storage unit 121-1 at the timing of performing the content control process (insertion process).
(変換部132について)
変換部132は、取得部131により取得された元データをまず編成および編集する。例えば、変換部132は、元データであるテキストの文字数が所定の文字数を超えている場合には、予め決められた文字数に収まるよう元データを編集する。また、例えば、変換部132は、元データであるテキストを解析し、文章構成等に不具合がある場合には、元データを編成し直す。そして、変換部132は、編成および編集した元データを音声データに変換する。
(Regarding the conversion unit 132)
The conversion unit 132 first organizes and edits the original data acquired by the acquisition unit 131 . For example, when the number of characters of the text, which is the original data, exceeds a predetermined number of characters, the conversion unit 132 edits the original data so that the number of characters is within the predetermined number of characters. Also, for example, the conversion unit 132 analyzes the text, which is the original data, and reorganizes the original data if there is a problem with the sentence structure or the like. Then, the conversion unit 132 converts the organized and edited original data into audio data.
(特定部133について)
特定部133は、配信コンテンツが配信される配信先のユーザについて、当該ユーザの行動傾向、生活スタイル(生活状況)、趣味嗜好を特定する。具体的には、特定部133は、ユーザ情報として、行動履歴記憶部122に記憶される行動履歴や、操作履歴記憶部123に記憶される操作履歴に基づいて、行動傾向、生活スタイル(生活状況)、趣味嗜好を特定する。
(Regarding the specifying unit 133)
The identifying unit 133 identifies behavioral tendencies, lifestyles (living conditions), and tastes and preferences of users to whom distribution content is distributed. Specifically, the identification unit 133 determines behavior trends, lifestyles (living situations) based on the behavior history stored in the behavior
一例を示すと、特定部133は、ユーザ情報に基づいて、ユーザがどの時間にどのような音声コンテンツを聞く傾向にあるか、といった行動傾向を特定(算出)する。また、特定部133は、ユーザ情報に基づいて、毎日どれくらいの時間に就寝起床するか、日常生活の中での移動エリアはどのエリアであるか、といった行動傾向を特定(算出)する。また、特定部133は、移動エリアの傾向から、例えば、ユーザの勤務先を特定することができる。なお、以下に示す決定部134が特定部133の処理を行ってもよい。かかる場合、コンテンツ制御装置100は、特定部133を有しない。
To give an example, the identifying unit 133 identifies (calculates) a behavioral tendency, such as what kind of audio content the user tends to listen to at what time, based on the user information. Based on the user information, the specifying unit 133 also specifies (calculates) behavioral tendencies such as what time the user goes to bed and wakes up every day, and which area the user moves to in daily life. Further, the specifying unit 133 can specify, for example, the place of work of the user from the movement area tendency. Note that the determination unit 134 described below may perform the processing of the identification unit 133 . In such a case, the
(決定部134について)
決定部134は、ユーザ情報に基づいて、第1の音声コンテンツに挿入される対象の第2の音声コンテンツと、当該対象の第2の音声コンテンツが第1の音声コンテンツに挿入される時間位置であって第1の音声コンテンツにおける時間位置とを決定する。かかるユーザ情報は、行動履歴記憶部122に記憶される行動履歴や、操作履歴記憶部123に記憶される操作履歴である。
(About decision unit 134)
Based on the user information, the determining unit 134 selects the second audio content to be inserted into the first audio content and the time position at which the second audio content is to be inserted into the first audio content. A time position in the first audio content is determined. Such user information is the action history stored in the action
そして、決定部134は、ユーザ情報に基づきユーザがどの時間にどのような音声コンテンツを聞く傾向にあるかが算出された算出結果に基づいて、対象の第2の音声コンテンツと時間位置とを決定する。また、決定部134は、ユーザ情報に基づいて、候補の第2の音声コンテンツのうち、ユーザの生活状況または趣味嗜好に応じた音声コンテンツを第1の音声コンテンツに挿入される対象の第2の音声コンテンツとして決定する。 Then, the determining unit 134 determines the target second audio content and the time position based on the result of calculating what kind of audio content the user tends to listen to at what time based on the user information. do. Further, based on the user information, the determining unit 134 selects the second audio content to be inserted into the first audio content, among the candidate second audio content, according to the user's living situation or hobbies and tastes. Determined as audio content.
(選択部135について)
選択部135は、配信先のユーザに関するユーザ情報に基づいて、候補の第2の音声コンテンツのうち、第1の音声コンテンツに挿入される第2の音声コンテンツを選択する。例えば、選択部135は、配信先のユーザに関するユーザ情報として、ユーザの行動履歴に基づいて、候補の第2の音声コンテンツのうち、第1の音声コンテンツに挿入される対象の第2の音声コンテンツを選択する。また、選択部135は、配信先のユーザに関するユーザ情報として、音声コンテンツを出力する所定の出力装置に対するユーザの操作履歴に基づいて、候補の第2の音声コンテンツのうち、第1の音声コンテンツに挿入される対象の第2の音声コンテンツを選択する。選択部135は、決定部134により決定された第2の音声コンテンツを対象の第2の音声コンテンツとして選択する。例えば、選択部135は、コンテンツ記憶部121-2から対象の第2の音声コンテンツを選択する。
(Regarding the selection unit 135)
The selection unit 135 selects the second audio content to be inserted into the first audio content from the second audio content candidates based on the user information about the user of the distribution destination. For example, the selection unit 135 selects the second audio content to be inserted into the first audio content among the candidate second audio content based on the action history of the user as the user information about the user of the delivery destination. to select. In addition, the selection unit 135 selects the first audio content among the second audio content candidates based on the user's operation history with respect to a predetermined output device that outputs the audio content as the user information about the user of the distribution destination. Selecting the second audio content to be inserted. The selection unit 135 selects the second audio content determined by the determination unit 134 as the target second audio content. For example, the selection unit 135 selects the target second audio content from the content storage unit 121-2.
また、選択部135は、決定部134により決定された時間位置に、選択した対象の第2の音声コンテンツを挿入する。すなわち、選択部135は、挿入部に対応する処理部でもある。 Also, the selection unit 135 inserts the selected second audio content at the time position determined by the determination unit 134 . That is, the selection unit 135 is also a processing unit corresponding to the insertion unit.
(出力制御部136について)
出力制御部136は、ユーザに関する情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツの出力を制御する。具体的には、出力制御部136は、ユーザに関する情報として、ユーザの周辺環境(周辺ノイズ)を示す環境情報またはユーザの属性情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツの出力を制御する。
(Regarding the output control unit 136)
The output control unit 136 controls output of the first audio content or the second audio content based on the information regarding the user. Specifically, the output control unit 136 outputs the first audio content or the second audio content based on the user attribute information or the environment information indicating the user's surrounding environment (surrounding noise) as the information about the user. to control.
一例を示すと、出力制御部136は、前記ユーザに関する情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツが出力される際の音量、音色またはピッチを制御する。他の一例を示すと、出力制御部136は、ユーザに関する情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツを巻き戻す。 As an example, the output control unit 136 controls the volume, timbre, or pitch when the first audio content or the second audio content is output, based on the information about the user. As another example, the output control unit 136 rewinds the first audio content or the second audio content based on information about the user.
なお、出力制御部136は、第1の音声コンテンツまたは第2の音声コンテンツがスマートスピーカー30から出力される前、すなわちスマートスピーカー30に配信コンテンツを配信する前の段階で、上記出力制御を行ってもよい。一方、出力制御部136は、配信コンテンツがスマートスピーカー30で再生されている最中に、配信コンテンツに対して、上記出力制御を行ってもよい。つまり、出力制御部136は、出力中の配信コンテンツについて動的に上記出力制御を行ってよい。
Note that the output control unit 136 performs the above output control before the first audio content or the second audio content is output from the
(受付部137について)
受付部137は、出力された音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付ける。例えば、受付部137は、スマートスピーカー30から出力された音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付ける。具体的には、受付部137は、出力された音声コンテンツとして、第1の音声コンテンツに挿入された第2の音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付ける。
(Regarding the reception unit 137)
The accepting unit 137 accepts a voice instruction from the user that instructs to perform an operation for controlling reproduction of the output audio content. For example, the reception unit 137 receives a voice instruction from the user that instructs to perform an operation to control reproduction of audio content output from the
例えば、受付部137は、音声コンテンツの再生を制御する操作として、音声コンテンツを巻き戻すよう指示する音声指示を受け付ける。かかる音声指示としては、巻き戻す操作をダイレクトに指示する「巻き戻し!あるいは巻き戻せ」といったワードがある。 For example, the receiving unit 137 receives a voice instruction to rewind the audio content as an operation for controlling reproduction of the audio content. Such voice instructions include words such as "rewind! Or rewind" that directly instruct the rewinding operation.
また、受付部137は、音声コンテンツの再生を制御する操作として、音声コンテンツを頭出しするよう指示する音声指示を受け付ける。かかる音声指示としては、頭出し操作をダイレクトに指示する「頭出し」といったワードの他に、音声コンテンツに対するユーザの反応を示す発話での音声指示がある。音声コンテンツに対するユーザの反応を示す発話には、例えば、図1で示すように「えっ?」等のワードがある。また、受付部137は、頭出し操作をダイレクトに指示する「頭出し」ではなく、これを言い換えた類義の音声指示、例えば、「もう一度聞かせて」等のワードを受け付けてもよい。 The accepting unit 137 also accepts a voice instruction for cueing the audio content as an operation for controlling the reproduction of the audio content. Examples of such voice instructions include a word such as "cue" that directly instructs a cue operation, as well as a voice instruction that indicates the user's reaction to the audio content. An utterance indicating a user's reaction to audio content includes, for example, words such as "Eh?" as shown in FIG. Further, the accepting unit 137 may accept a voice instruction with a similar meaning, for example, a word such as "Let me hear it again" instead of "cue" that directly instructs a cue operation.
なお、受付部137は、直前に再生された音声コンテンツに対する音声指示だけでなく、直前に再生された音声コンテンツよりもさらに過去に再生された音声コンテンツに対する音声指示も受け付けることができる。頭出し操作を例に挙げると、受付部137は、例えば、「2つ前まで戻して」等といったように、どの音声コンテンツを頭出しさせるかを指定する言葉(かかる例では「2つ前」)を含む音声指示を受け付ける。 Note that the reception unit 137 can receive not only the voice instruction for the audio content played immediately before, but also the audio instruction for the audio content played earlier than the audio content played immediately before. Taking a cueing operation as an example, the receiving unit 137 may select a word (in this example, "two before") that designates which audio content is to be cueed, such as "go back two places". ) is accepted.
また、受付部137は、音声コンテンツの再生を制御する操作として、音声コンテンツが挿入された第1の音声コンテンツから、第2の音声コンテンツを抽出するよう指示する音声指示を受け付ける。かかる音声指示としては、抽出操作をダイレクトに指示する「クリップ」といったワードを受け付ける。また、受付部137は、抽出操作をダイレクトに指示する「クリップ」ではなく、これを言い換えた類義の音声指示、例えば、「取っといて」や「後で聞きたい」等のワードを受け付けてもよい。 The accepting unit 137 also accepts a voice instruction to extract the second audio content from the first audio content into which the audio content is inserted, as an operation for controlling the reproduction of the audio content. As such a voice instruction, a word such as "clip" that directly instructs the extraction operation is accepted. Further, the receiving unit 137 receives not "clip" that directly instructs the extraction operation, but a voice instruction with a similar meaning, such as "take it" or "I want to hear it later". good too.
また、受付部137は、音声コンテンツの再生を制御する操作として、音声コンテンツを早送り、または、スキップするよう指示する音声指示を受け付ける。かかる音声指示としては、早送り操作をダイレクトに指示する「早送り」、スキップ操作をダイレクトに指示する「スキップ」といったワードを受け付ける。また、受付部137は、早送り操作、スキップ操作をダイレクトに指示するワードでの音声指示ではなく、これを言い換えた類義の音声指示、例えば、「早めて」や「次のやつ」等のワードを受け付けてもよい。 The accepting unit 137 also accepts a voice instruction to fast-forward or skip the audio content as an operation for controlling the reproduction of the audio content. As such voice instructions, words such as "fast forward" directly instructing a fast forward operation and "skip" directly instructing a skip operation are accepted. Further, the reception unit 137 does not provide a voice instruction in words directly instructing a fast-forward operation or a skip operation, but a voice instruction with a similar meaning, such as words such as "faster" or "next one". may be accepted.
例えば、スマートスピーカー30は上記のようなワードを含む音声指示を検出すると、この音声指示をテキストに変換し、変換したテキストをコンテンツ制御装置100に送信する。これにより、受付部137は、音声指示として、テキストに変換された音声指示を受け付ける。なお、スマートスピーカー30は上記のようなワードを含む音声指示を検出すると、この音声指示そのもの、つまり音声データをコンテンツ制御装置100に送信してもよい。
For example, when the
また、受付部137は、音声指示を受け付けると、受け付けた音声指示がどのような操作を指示するのかを判定する。図3では、不図示であるが、例えば、コンテンツ制御装置100は、音声指示を示す各ワードのテキスト(例えば、「巻き戻し」「頭出し」「え?」「早送り」等)と、そのワードが示す操作の内容とが対応付けられた記憶部を有する。かかる場合、受付部137は、音声指示に対応するテキストと、かかる記憶部とを照らし合わせて、音声指示がどのような操作を指示するのかを判定する。
Further, upon receiving a voice instruction, the receiving unit 137 determines what kind of operation the received voice instruction instructs. Although not shown in FIG. 3, for example, the
(コンテンツ制御部138について)
コンテンツ制御部138は、受付部137により受け付けられた音声指示に応じた操作を音声コンテンツに対して行う。例えば、コンテンツ制御部138は、受付部137により音声コンテンツを巻き戻すよう指示する音声指示が受け付けられた場合に、音声コンテンツを巻き戻す。例えば、コンテンツ制御部138は、スマートスピーカー30に対して、音声コンテンツを巻き戻すよう指示する。
(Regarding the content control unit 138)
The content control unit 138 performs an operation on the audio content according to the audio instruction accepted by the accepting unit 137 . For example, the content control unit 138 rewinds the audio content when the receiving unit 137 receives a voice instruction to rewind the audio content. For example, the content controller 138 instructs the
また、コンテンツ制御部138は、受付部137により音声コンテンツを頭出しするよう指示する音声指示が受け付けられた場合に、音声コンテンツを頭出しする。例えば、コンテンツ制御部138は、スマートスピーカー30に対して、音声コンテンツを巻き戻すよう指示する。
Further, the content control unit 138 cue the audio content when the reception unit 137 receives a voice instruction to cue the audio content. For example, the content controller 138 instructs the
また、コンテンツ制御部138は、受付部137により音声コンテンツが挿入された第1の音声コンテンツから音声コンテンツを抽出するよう指示する音声指示が受け付けられた場合に、音声コンテンツを第1の音声コンテンツから抽出する。かかる場合の音声指示は、上記の通り、「クリップ」、「取っといて」、「後で聞きたい」といった音声指示である。この場合、コンテンツ制御部138は、コンテンツ制御装置100とは異なる他の装置に対して、第1の音声コンテンツから抽出した音声コンテンツ、すなわち第2の音声コンテンツを送信(転送)する。コンテンツ制御装置100とは異なる他の装置は、例えば、ユーザの端末装置10である。これにより、ユーザは、自身の好きなタイミングで、端末装置10で第2の音声コンテンツを聞き直すことができるようになる。
Further, when the reception unit 137 receives a voice instruction to extract the audio content from the first audio content into which the audio content is inserted, the content control unit 138 extracts the audio content from the first audio content. Extract. The voice instructions in such a case are, as described above, voice instructions such as "clip", "take it", and "listen to it later". In this case, the content control unit 138 transmits (transfers) the audio content extracted from the first audio content, that is, the second audio content, to another device other than the
また、コンテンツ制御部138は、受付部137により音声コンテンツを早送り、または、スキップするよう指示する音声指示が受け付けられた場合に、音声コンテンツを早送り、または、スキップする。 Further, the content control unit 138 fast-forwards or skips the audio content when the receiving unit 137 receives a voice instruction to fast-forward or skip the audio content.
(配信部139)
配信部139は、第2の音声コンテンツが挿入された第1の音声コンテンツである配信コンテンツを配信する。例えば、配信部139は、スマートスピーカー30に配信コンテンツを配信する。
(Distribution unit 139)
The
〔3.処理手順〕
(挿入処理について)
次に、図9を用いて、実施形態にかかるコンテンツ制御装置100が実行するコンテンツ制御処理のうち、挿入処理の手順について説明する。図9は、実施形態にかかる挿入処理手順を示すフローチャートである。
[3. Processing procedure]
(About insert processing)
Next, with reference to FIG. 9, a procedure of insertion processing among content control processing executed by the
まず、特定部133は、配信コンテンツが配信される配信先のユーザについて、当該ユーザの行動傾向、生活スタイル(生活状況)、趣味嗜好を特定する(ステップS101)。具体的には、特定部133は、ユーザ情報として、行動履歴記憶部122に記憶される行動履歴や、操作履歴記憶部123に記憶される操作履歴に基づいて、行動傾向、生活スタイル(生活状況)、趣味嗜好を特定する。一例を示すと、特定部133は、ユーザ情報に基づいて、ユーザがどの時間にどのような音声コンテンツを聞く傾向にあるか、すなわち時間帯と当該時間帯に聞かれる音声コンテンツの内容との傾向を算出する。以下、ユーザU1を例に説明する。
First, the identification unit 133 identifies behavioral tendencies, lifestyles (living situations), and tastes and preferences of users to whom distribution content is distributed (step S101). Specifically, the identification unit 133 determines behavior trends, lifestyles (living situations) based on the behavior history stored in the behavior
図9では、特定部133は、ユーザU1は「7時台にニュースを視聴する傾向にある」、「20時台にラジオショッピングを視聴する傾向にある」、「マンガが趣味」、「勤務地六本木周辺」と特定したものとする。 In FIG. 9, the specifying unit 133 determines that the user U1 "tends to watch news between 7:00 and 20:00", "tends to watch radio shopping between 8:00 and 8:00", "comics are his hobby", and "work place "around Roppongi".
なお、図9の例では、特定部133は、初めにこのような特定処理を行っているが、特定処理を行うタイミングは限定されない。行動履歴や操作履歴は、ユーザの行動に応じて日に日に蓄積されてゆくものなので、特定部133は、例えば、所定期間毎に特定処理を繰り返し、その度に、ユーザ情報記憶部124に記憶される記憶情報(「趣味嗜好」「生活状況」「傾向情報」)を更新する。 Note that in the example of FIG. 9, the specifying unit 133 initially performs such specifying processing, but the timing of performing the specifying processing is not limited. Since the action history and the operation history are accumulated day by day in accordance with the actions of the user, the identification unit 133 repeats the identification process, for example, every predetermined period of time. The stored information (“hobbies and preferences”, “living situation”, and “tendency information”) is updated.
次に、取得部131は、挿入処理を行うタイミングであるか否かを判定する(ステップS102)。例えば、取得部131は、コンテンツ記憶部121-1に記憶される第1の音声コンテンツの配信日時(配信スケジュール)に基づいて、挿入処理を行うタイミングであるか否かを判定する。これまで説明してきた通り、第1の音声コンテンツに挿入される第2の音声コンテンツの中には、リアルタイム性が求められるようなものが存在するため、このことを考慮して、取得部131は、第1の音声コンテンツの配信日時の直前(例えば、10分前)になれば、挿入処理を行うタイミングであると判定する(ステップS102;Yes)。一方、取得部131は、挿入処理を行うタイミングでないと判定した場合には(ステップS102;No)、挿入処理を行うタイミングになるまで待機する。 Next, the acquisition unit 131 determines whether or not it is time to perform the insertion process (step S102). For example, the acquisition unit 131 determines whether or not it is time to perform the insertion process based on the delivery date and time (delivery schedule) of the first audio content stored in the content storage unit 121-1. As described above, some of the second audio content to be inserted into the first audio content requires real-time performance. , just before (for example, 10 minutes) before the distribution date and time of the first audio content, it is determined that it is time to perform the insertion process (step S102; Yes). On the other hand, when the obtaining unit 131 determines that it is not the timing to perform the insertion process (step S102; No), it waits until the timing to perform the insertion process.
なお、取得部131は、第2の音声コンテンツの中に、リアルタイム性が求められるものが存在しない場合には、必ずしもステップS102の処理を行う必要はない。また、例えば、天気情報として、単に外気温に関する天気情報を第2の音声コンテンツとして挿入するにとどめる場合には、コンテンツ制御装置100は、コンテンツ記憶部121-2において予め外気温毎の第2の音声コンテンツ(「変換後コンテンツ」)を予め有しておくことができる。このような場合、取得部131は、挿入処理を行う時点での外気温に応じた第2の音声コンテンツをコンテンツ記憶部121-2から取得すればよい。
Note that the acquisition unit 131 does not necessarily need to perform the process of step S102 when there is no second audio content that requires real-time performance. Further, for example, when only weather information related to the outside temperature is inserted as the second audio content as the weather information, the
次に、取得部131は、第1の音声コンテンツに挿入される候補の第2の音声コンテンツに対応する元データを取得する(ステップS103)。例えば、取得部131は、候補の第2の音声コンテンツの元データ(例えば、テキスト)として、ニュースコンテンツの元データ、広告コンテンツの元データ、路線情報の元データ、天気情報の元データ等を外部装置60から取得する。 Next, the acquisition unit 131 acquires original data corresponding to the second audio content that is a candidate to be inserted into the first audio content (step S103). For example, the acquisition unit 131 externally acquires source data of news content, source data of advertisement content, source data of route information, source data of weather information, etc. as source data (eg, text) of the second voice content of the candidate. Obtained from device 60 .
次に、変換部132は、取得部131により取得された元データを編成、編集、変換する(ステップS104)。例えば、変換部132は、取得部131により取得された元データを編成および編集したものを、音声データつまり候補の第2の音声コンテンツに変換する。 Next, the conversion unit 132 organizes, edits, and converts the original data acquired by the acquisition unit 131 (step S104). For example, the conversion unit 132 converts the organized and edited original data acquired by the acquisition unit 131 into audio data, that is, the candidate second audio content.
次に、決定部134は、ユーザ情報に基づいて、第1の音声コンテンツに挿入される対象の第2の音声コンテンツと、当該対象の第2の音声コンテンツが第1の音声コンテンツに挿入される時間位置であって第1の音声コンテンツにおける時間位置とを決定する(ステップS105)。例えば、決定部134は、ステップS101で特定部に特定された行動傾向、生活スタイル、趣味嗜好に基づいて、第1の音声コンテンツに挿入される対象の第2の音声コンテンツと、当該対象の第2の音声コンテンツが第1の音声コンテンツに挿入される時間位置とを決定する。 Next, based on the user information, the determining unit 134 determines the second audio content to be inserted into the first audio content, and the second audio content to be inserted into the first audio content. A time position in the first audio content is determined (step S105). For example, the determination unit 134 selects the second audio content to be inserted into the first audio content and the second audio content to be inserted into the first audio content based on the behavioral tendency, lifestyle, and tastes and preferences specified by the specifying unit in step S101. A time position at which the second audio content is to be inserted into the first audio content is determined.
図9の例では、決定部134は、ニュースコンテンツである第2の音声コンテンツSC11およびマンガに関する広告コンテンツである第2の音声コンテンツSC21を、午前7時~午前8時の間に配信予定の音楽コンテンツである第1の音声コンテンツMC1(1時間番組)に挿入される対象の第2の音声コンテンツとして決定したものとする。また、決定部134は、第1の音声コンテンツMC1の時間位置として再生時間5分の位置(午前7時05分に対応する時間位置)を第2の音声コンテンツSC11を挿入させる時間位置、第1の音声コンテンツMC1の時間位置として再生時間30分の位置(午前7時30分に対応する時間位置)を第2の音声コンテンツSC21を挿入させる時間位置として決定する。 In the example of FIG. 9, the determining unit 134 selects the second audio content SC11, which is news content, and the second audio content SC21, which is advertising content related to manga, as music content scheduled to be delivered between 7:00 am and 8:00 am. Assume that it is determined as a second audio content to be inserted into a certain first audio content MC1 (one-hour program). Further, the determination unit 134 sets the position of 5 minutes of the reproduction time (the time position corresponding to 7:05 am) as the time position of the first audio content MC1 to the time position where the second audio content SC11 is to be inserted. As the time position of the audio content MC1, the position of 30 minutes of playback time (time position corresponding to 7:30 am) is determined as the time position to insert the second audio content SC21.
また、図9の例では、決定部134は、天気情報である第2の音声コンテンツSC41およびユーザU1の勤務地周辺の店舗広告である第2の音声コンテンツSC22を、午後8時~午後9時の間に配信予定のネットショッピングである第1の音声コンテンツMC4(1時間番組)に挿入される対象の第2の音声コンテンツとして決定したものとする。特定部133は、ユーザU1は20時台にネットショッピングを視聴する傾向にあることから、この時間帯に流される第2の音声コンテンツはより聞かれる可能性が高い。したがって、決定部134は、午後8時~午後9時の間に配信予定の第1の音声コンテンツMC4に第2の音声コンテンツが挿入されるよう決定している。 Further, in the example of FIG. 9, the determination unit 134 selects the second audio content SC41, which is weather information, and the second audio content SC22, which is a store advertisement in the vicinity of user U1's place of work, between 8:00 pm and 9:00 pm. is determined as the second audio content to be inserted into the first audio content MC4 (one-hour program), which is an online shopping program scheduled to be distributed in 2010. Since the user U1 tends to watch online shopping around 20:00, the identification unit 133 has a high possibility that the second audio content played during this time period will be heard. Therefore, the determining unit 134 determines that the second audio content should be inserted into the first audio content MC4 scheduled to be delivered between 8:00 PM and 9:00 PM.
また、決定部134は、第1の音声コンテンツMC4の時間位置として再生時間5分の位置(午後8時05分に対応する時間位置)を第2の音声コンテンツSC41を挿入させる時間位置、第1の音声コンテンツMC4の時間位置として再生時間30分の位置(午後8時30分に対応する時間位置)を第2の音声コンテンツSC22を挿入させる時間位置として決定する。 Further, the determination unit 134 sets the position of 5 minutes of the reproduction time (the time position corresponding to 8:05 pm) as the time position of the first audio content MC4 to the time position where the second audio content SC41 is to be inserted. As the time position of the audio content MC4, the position of 30 minutes of playback time (time position corresponding to 8:30 pm) is determined as the time position to insert the second audio content SC22.
そして、選択部135は、決定部134により決定された対象の第2の音声コンテンツをコンテンツ記憶部121-1から選択し、決定部134により決定された時間位置に第2の音声コンテンツを挿入する(ステップS106)。ここで、ステップS105およびS106について図10を用いて説明する。図10は、実施形態にかかる挿入処理を模式的に示す図である。 Then, the selection unit 135 selects the target second audio content determined by the determination unit 134 from the content storage unit 121-1, and inserts the second audio content at the time position determined by the determination unit 134. (Step S106). Here, steps S105 and S106 will be described with reference to FIG. FIG. 10 is a diagram schematically illustrating insertion processing according to the embodiment;
図10に示すように、選択部135は、第1の音声コンテンツMC1を時間位置「再生時間5分の位置」および時間位置「再生時間30分の位置」それぞれで分割する。分割後の第1の音声コンテンツMC1は、図10のように3つになる。そして、選択部135は、分割された第1の音声コンテンツMC1の間に第2の音声コンテンツSC11および第2の音声コンテンツSC21をそれぞれ挿入する。 As shown in FIG. 10, the selection unit 135 divides the first audio content MC1 at the time position "5 minute reproduction time position" and the time position "30 minute reproduction time position". The first audio content MC1 after division becomes three as shown in FIG. Then, the selection unit 135 inserts the second audio content SC11 and the second audio content SC21 between the divided first audio contents MC1.
また、図10に示すように、選択部135は、第1の音声コンテンツMC4を時間位置「再生時間5分の位置」および時間位置「再生時間30分の位置」それぞれで分割する。分割後の第1の音声コンテンツMC4は、図10のように3つになる。そして、選択部135は、分割された第1の音声コンテンツMC1の間に第2の音声コンテンツSC41および第2の音声コンテンツSC22をそれぞれ挿入する。 Further, as shown in FIG. 10, the selection unit 135 divides the first audio content MC4 at the time position "5 minutes of playback time" and the time position of "30 minutes of playback time". The first audio content MC4 after division becomes three as shown in FIG. Then, the selection unit 135 inserts the second audio content SC41 and the second audio content SC22 respectively between the divided first audio contents MC1.
なお、図10では、選択部135が、第1の音声コンテンツの間に第2の音声コンテンツを挿入する例を示した。しかし、選択部135は、第1の音声コンテンツに対して第2の音声コンテンツを重畳してもよい。一例を示すと、選択部135は、第1の音声コンテンツMC1の時間位置「再生時間5分の位置」に、第2の音声コンテンツSC11の先頭を合わせるようにして、第1の音声コンテンツMC1に対して第2の音声コンテンツSC11を重畳させる。このようなことから、本実施形態では、「挿入する」とは「重畳する」の概念を含み得るものとする。 Note that FIG. 10 shows an example in which the selection unit 135 inserts the second audio content between the first audio contents. However, the selection unit 135 may superimpose the second audio content on the first audio content. To give an example, the selection unit 135 aligns the beginning of the second audio content SC11 with the time position “the position of 5 minutes of playback time” of the first audio content MC1 so as to match the first audio content MC1. The second audio content SC11 is superimposed on it. For this reason, in the present embodiment, "inserting" can include the concept of "overlapping."
次に、出力制御部136は、ユーザに関する情報として、ユーザの周辺環境を示す環境情報またはユーザの属性情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツの出力を制御する(ステップS107)。例えば、出力制御部136は、ユーザU1に関する情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツが出力される際の音量、音色またはピッチを制御する。また、出力制御部136は、ユーザに関する情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツを巻き戻す。 Next, the output control unit 136 controls the output of the first audio content or the second audio content based on the environment information indicating the surrounding environment of the user or the attribute information of the user as information about the user (step S107). ). For example, the output control unit 136 controls the volume, timbre, or pitch when the first audio content or the second audio content is output, based on the information regarding the user U1. Also, the output control unit 136 rewinds the first audio content or the second audio content based on the information about the user.
例えば、出力制御部136は、スマートスピーカー30を介して、ユーザU1の周辺環境として、ユーザU1が現在、洗濯を行っている旨を検知したとする。かかる場合、出力制御部136は、洗濯音に邪魔されて音声コンテンツが聞き取りにくくなるのを防ぐため、第1の音声コンテンツまたは第2の音声コンテンツが所定値より高い音量で出力されるよう音量を制御する。出力制御部136は、ユーザU1が現在、洗濯を行っている場合、洗濯音に邪魔されて音声コンテンツを聞きのがしたと予測し、音声コンテンツを巻き戻してもよい。また、出力制御部136は、ユーザが年配(60歳以上等)の場合には、より音声コンテンツを聞き取り易いよう音声コンテンツのピッチが所定値より遅くなるよう制御する。
For example, output control unit 136 detects, via
なお、出力制御部136は、上記のような出力制御を第2の音声コンテンツにだけ適用してもよい。また、出力制御部136は、音声コンテンツが配信される前の段階で出力制御を行うのではなく、出力中の音声コンテンツに対して出力制御を行ってもよい。例えば、出力制御部136は、第2の音声コンテンツSC11が再生されている最中に、洗濯音を検知すると、第2の音声コンテンツSC11の音量を高めてもよい。 Note that the output control unit 136 may apply the above output control only to the second audio content. Also, the output control unit 136 may perform output control on the audio content being output instead of performing the output control before the audio content is distributed. For example, the output control unit 136 may increase the volume of the second audio content SC11 when detecting the washing sound while the second audio content SC11 is being played.
最後に、配信部139は、第2の音声コンテンツが挿入された第1の音声コンテンツである配信コンテンツを配信する(ステップS108)。例えば、配信部139は、スマートスピーカー30に配信コンテンツを配信する。
Finally, the
(UI処理について)
次に、図11を用いて、実施形態にかかるコンテンツ制御装置100が実行するコンテンツ制御処理のうち、UI処理の手順について説明する。図11は、実施形態にかかるUI処理手順を示すフローチャートである。
(About UI processing)
Next, the UI processing procedure among the content control processing executed by the
まず、受付部137は、出力された音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付けたか否かを判定する(ステップS201)。具体的には、受付部137は、出力された第2の音声コンテンツ(第1の音声コンテンツに挿入された第2の音声コンテンツ)の再生を制御する操作を行うよう指示する音声指示をユーザから受け付けたか否かを判定する。受付部137は、音声指示を受け付けていない場合には(ステップS201;No)、受け付けるまで待機する。 First, the reception unit 137 determines whether or not a voice instruction instructing to perform an operation for controlling reproduction of the output audio content has been received from the user (step S201). Specifically, the reception unit 137 receives a voice instruction from the user to perform an operation to control reproduction of the output second audio content (the second audio content inserted into the first audio content). Determine whether or not it has been accepted. If the reception unit 137 has not received a voice instruction (step S201; No), it waits until reception.
例えば、受付部137は、スマートスピーカー30を介して、「巻き戻し」、「頭出し」、「クリップ」、「早送り」、「スキップ」等の音声指示を受け付けることができる。そして、受付部137は、音声指示を受け付けたと判定すると(ステップS201;Yes)、受け付けた音声指示がどのような操作を指示するのかを判定する(ステップS202)。また、受付部137は、判定した操作を示す情報をコンテンツ制御部138に送信する。
For example, the receiving unit 137 can receive voice instructions such as “rewind”, “cue”, “clip”, “fast forward”, and “skip” via the
コンテンツ制御部138は、受付部137により受け付けられた音声指示に応じた操作を第2の音声コンテンツに対して行う(ステップS203)。例えば、コンテンツ制御部138は、受付部137により第2の音声コンテンツを巻き戻すよう指示する音声指示が受け付けられた場合に、第2の音声コンテンツを巻き戻す。一例を示すと、コンテンツ制御部138は、スマートスピーカー30に対して、第2の音声コンテンツを巻き戻すよう指示する。
The content control unit 138 performs an operation on the second audio content according to the voice instruction accepted by the accepting unit 137 (step S203). For example, the content control unit 138 rewinds the second audio content when the receiving unit 137 receives a voice instruction to rewind the second audio content. In one example, the content controller 138 instructs the
〔4.変形例〕
上記実施形態にかかるコンテンツ制御装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、コンテンツ制御装置100の他の実施形態について説明する。
[4. Modification]
The
〔4-1.音声指示について〕
上記実施形態では、受付部137が、音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付ける例を示した。しかし、この例に限らず受付部137は、音声コンテンツが示す内容に関連する操作を行うよう指示する音声指示をユーザから受け付けてもよい。この点について、第1の音声コンテンツ(ネットショッピングとする)に対して、料理器具に関する音声の広告コンテンツである第2の音声コンテンツが挿入されている例を用いて説明する。なお、説明の便宜上、かかる第2の音声コンテンツを第2の音声コンテンツSC51とする。
[4-1. About voice instructions]
In the above-described embodiment, an example was shown in which the reception unit 137 receives a voice instruction from the user that instructs to perform an operation for controlling reproduction of audio content. However, not limited to this example, the reception unit 137 may receive from the user a voice instruction instructing to perform an operation related to the content indicated by the audio content. This point will be described using an example in which the second audio content, which is audio advertising content related to cooking utensils, is inserted into the first audio content (online shopping). For convenience of explanation, this second audio content is referred to as a second audio content SC51.
このような状態において、第2の音声コンテンツSC51がスマートスピーカー30から出力されている際に、ユーザU1が「これ買いたい!」と発言したとする。つまり、ユーザU1が、第2の音声コンテンツSC51が示す内容(料理器具)を欲する旨の意志表示を音声にて行ったとする。言い換えれば、受付部137が、第2の音声コンテンツSC51が示す商品(料理器具)の購入に関する操作を行うよう指示する音声指示をユーザU1から受け付けたとする。
Assume that the user U1 says "I want to buy this!" while the second audio content SC51 is being output from the
かかる場合、コンテンツ制御部138は、コンテンツ制御装置100とは異なる他の装置として、例えば、ユーザU1の端末装置10に上記料理器具の購入サイトを示すアドレス情報(URL)を送信する。なお、かかるアドレス情報は、例えば、コンテンツ記憶部121-2において、第2の音声コンテンツに対応付けられる。
In such a case, the content control unit 138 transmits address information (URL) indicating the purchase site of the cooking utensils to, for example, the
また、かかる変形例では、第2の音声コンテンツが広告コンテンツである例を示したが、第2の音声コンテンツは広告コンテンツでなくてもよい。例えば、第2の音声コンテンツが路線情報である場合、ユーザU1が「○○線の路線情報知りたい!」と発言したとする。言い換えれば、受付部137が、路線情報を提示するよう指示する音声指示をユーザU1から受け付けたとする。かかる場合、コンテンツ制御部138は、ユーザU1の端末装置10に〇〇線の路線情報を示すアドレス情報(URL)を送信する。
Also, in this modified example, an example is shown in which the second audio content is advertising content, but the second audio content may not be advertising content. For example, when the second audio content is route information, assume that user U1 says, "I want to know route information on XX line!" In other words, it is assumed that the receiving unit 137 receives from the user U1 a voice instruction instructing to present route information. In such a case, the content control unit 138 transmits address information (URL) indicating route information of the XX line to the
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザの音声指示に応じて単に音声コンテンツを再生制御するだけでなく、音声コンテンツに関連する様々なユーザの要望に応えることができる。
As a result, the
〔4-2.第2の音声コンテンツについて(1)〕
上記実施形態では、選択部135が、第2の音声コンテンツとして、ニュースコンテンツ、広告コンテンツ、路線情報、天気情報等を挿入する例を示した。しかし、選択部135は、これら以外にも様々な音声コンテンツを第2の音声コンテンツとして挿入することができる。例えば、ユーザU1が月額利用料金を支払って情報提供サービスを契約しているものとする。情報提供サービスとしては、例えば、バス送迎情報等がある。そして、ユーザU1は、このバス送迎情報を確認して、毎朝送迎バスを利用して通勤しているものとする。
[4-2. Regarding the second audio content (1)]
In the above embodiment, an example was given in which the selection unit 135 inserts news content, advertisement content, route information, weather information, etc. as the second audio content. However, the selection unit 135 can insert various audio contents other than these as the second audio contents. For example, it is assumed that user U1 has contracted for an information providing service by paying a monthly usage fee. As an information providing service, for example, there is bus pick-up information and the like. It is assumed that user U1 confirms this bus pick-up information and uses the pick-up bus to commute every morning.
かかる場合、決定部134は、午前7時から午前8時の間に放送される第1の音声コンテンツMC1(音楽コンテンツ)に挿入させる対象の第2の音声コンテンツとして、その日のバス送迎情報を決定する。そして、選択部135は、バス送迎情報を第1の音声コンテンツMC1に挿入する。また、配信部139は、タイムスケジュールに従って、バス送迎情報を含む配信コンテンツを配信する。
In this case, the determination unit 134 determines the bus pick-up information of the day as the second audio content to be inserted into the first audio content MC1 (music content) broadcast from 7:00 am to 8:00 am. Then, the selection unit 135 inserts the bus pick-up information into the first audio content MC1. Also, the
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザにとって必要性の高い情報を優先的に提供することができる。
Thereby, the
〔4-3.第2の音声コンテンツについて(2)〕
特定部133は、ユーザ情報として、行動履歴や操作履歴が十分に蓄積されていないうちは、正確に行動傾向を特定することができない場合がある。かかる場合、決定部134は、ユーザ情報を用いずに時間位置を決定してもよい。単純な例では、決定部134は、第1の音声コンテンツに対して予め決められた時間位置(例えば、再生時間1分の位置と5分の位置)を第2の音声コンテンツを挿入させる時間位置として決定する。
[4-3. Regarding the second audio content (2)]
The identifying unit 133 may not be able to accurately identify behavioral tendencies until sufficient behavior history and operation history are accumulated as user information. In such a case, the determination unit 134 may determine the time position without using user information. In a simple example, the determining unit 134 sets a predetermined time position (for example, a position of 1 minute and a position of 5 minutes of playback time) to the time position of inserting the second audio content for the first audio content. Determined as
また、第1の音声コンテンツが他社から提供される場合、提供主は第1の音声コンテンツに対して第2の音声コンテンツを挿入してよい場所を予め指定している場合がある。例えば、提供主は、第1の音声コンテンツにおいて第2の音声コンテンツを挿入してよい時間位置にタグを埋め込んでいる場合がある。かかる場合、決定部134は、タグが示す時間位置を第2の音声コンテンツを挿入させる時間位置として決定する。 Also, when the first audio content is provided by another company, the provider may have previously specified a place where the second audio content may be inserted into the first audio content. For example, the provider may have embedded tags in the first audio content at points in time where the second audio content may be inserted. In such a case, the determination unit 134 determines the time position indicated by the tag as the time position to insert the second audio content.
〔4-4.音声変換〕
上記実施形態では、変換部132がコンテンツのテキストデータを音声データに変換する、すなわち音声合成する例を示した。このとき変換部は、ユーザに適した形で声データに変換してもよい。例えば、変換部132は、ユーザの方言に合わせて音声データに変換する。また、変換部132は、ユーザに対して、例えば、好みの有名人(例えば、声優等)を一覧から選択させ、選択された有名人の声に合わせた音声データに変換してもよい。
[4-4. voice conversion]
In the above embodiment, the conversion unit 132 converts the text data of the content into speech data, that is, synthesizes speech. At this time, the conversion unit may convert the data into voice data in a form suitable for the user. For example, the conversion unit 132 converts into voice data according to the dialect of the user. Alternatively, the conversion unit 132 may cause the user to select, for example, a favorite celebrity (such as a voice actor) from a list, and convert the selected celebrity's voice into voice data.
〔4-5.出力制御について(1)〕
上記実施形態では、出力制御部136が、ユーザに関する情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツが出力される際の音量、音色またはピッチを制御する例を示した。また、出力制御部136が巻き戻しする例を示した。しかし、出力制御部136は、ユーザに関する情報として、ユーザの位置関係に基づいて、上記出力制御を行ってよい。ここで、ユーザの位置関係とは、ユーザU1を例にあげると、例えば、ユーザU1とスマートスピーカー30との位置関係である。出力制御部136は、ユーザU1(端末装置10)およびスマートスピーカー30から位置情報を取得することができる。このため、出力制御部136は、例えば、ユーザU1とスマートスピーカー30とが所定距離以上離れている場合、出力制御部136は、ユーザU1はスマートスピーカー30から離れた位置に居るため、音声を聞き取りづらい状況にあると判断する。このように判断した場合、出力制御部136は、例えば、配信コンテンツの音量を上げるよう制御する。
[4-5. About output control (1)]
In the above embodiment, an example was given in which the output control unit 136 controls the volume, timbre, or pitch when the first audio content or the second audio content is output based on information about the user. Also, an example in which the output control unit 136 rewinds is shown. However, the output control unit 136 may perform the above-described output control based on the user's positional relationship as information about the user. Here, the user's positional relationship is, for example, the positional relationship between the user U1 and the
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザの状況に合わせて出力制御することができるため、音声コンテンツに対する聞き易さの満足度を高めることができる。
As a result, the
〔4-6.出力制御について(2)〕
また、出力制御部136は、聴覚心理学を活用した出力制御を行ってもよい。一例を示すと、カクテルパーティー効果がある。カクテルパーティー効果とは、雑音の中でも自身が必要とする音声を選択して聞き取ることができる人間の能力である。これには、雑音と必要音声との周波数の差が関与していると考えられる。したがって、出力制御部136は、音声コンテンツの周波数を制御する。例えば、出力制御部136は、ユーザが音声コンテンツをより聞き取り易くなるよう音声コンテンツの周波数を制御する。
[4-6. About output control (2)]
In addition, the output control unit 136 may perform output control using psychoacoustics. One example is the cocktail party effect. The cocktail party effect is the ability of humans to select and hear the sounds they need in the midst of noise. It is believed that this is related to the frequency difference between the noise and the desired voice. Therefore, the output control unit 136 controls the frequency of audio content. For example, the output control unit 136 controls the frequency of the audio content so that the user can easily hear the audio content.
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザの状況に合わせて出力制御することができるため、音声コンテンツに対する聞き易さの満足度を高めることができる。
As a result, the
〔4-7.出力制御について(3)〕
また、出力制御部136は、第2の音声コンテンツの出力制御に連動させて、第1の音声コンテンツを出力制御してもよい。例えば、出力制御部136は、ユーザU1が現在、洗濯を行っている場合、洗濯音に邪魔されて音声コンテンツを聞きのがしたと予測し、音声コンテンツを巻き戻す。例えば、出力制御部136は、第2の音声コンテンツを巻き戻しそして再生する。また、この第2の音声コンテンツの再生が終了すれば、出力制御部136は、続きから再び第1の音声コンテンツの再生を行うが、この際、洗濯音が鳴っていても第1の音声コンテンツも聞き取り易いよう、第1の音声コンテンツも所定値より大きい音量で出力されるよう音量を制御する。また、出力制御部136は、第1の音声コンテンツの再生を再開させる際に、ユーザU1の周辺環境においてユーザU1にとってより重要な情報が出力されている場合(例えば、テレビがついている、駅の放送が流れている等)には、第1の音声コンテンツの音量が所定値より小さい音量で出力されるよう音量を制御してもよい。
[4-7. Regarding output control (3)]
The output control unit 136 may also control the output of the first audio content in conjunction with the output control of the second audio content. For example, if the user U1 is currently washing clothes, the output control unit 136 predicts that the user U1 was disturbed by the sound of washing and missed the audio content, and rewinds the audio content. For example, the output control unit 136 rewinds and plays the second audio content. Further, when the reproduction of the second audio content is completed, the output control unit 136 resumes the reproduction of the first audio content from the continuation. The volume is controlled so that the first audio content is also output at a volume higher than a predetermined value so that the first audio content can be easily heard. In addition, when resuming the reproduction of the first audio content, the output control unit 136 may output more important information for the user U1 in the surrounding environment of the user U1 (for example, when the television is on, the When a broadcast is being played, etc., the volume may be controlled so that the volume of the first audio content is output at a volume lower than a predetermined value.
〔5.ハードウェア構成〕
また、上述してきた実施形態にかかるコンテンツ制御装置100は、例えば図12に示すような構成のコンピュータ1000によって実現される。図12は、コンテンツ制御装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
Also, the
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The CPU 1100 operates based on programs stored in the
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態にかかるコンテンツ制御装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
For example, when the
〔6.その他〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[6. others〕
Of the processes described in the above embodiments, all or part of the processes described as being automatically performed can be manually performed, or all or part of the processes described as being manually performed. Part can also be done automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
また、上述してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Moreover, each embodiment described above can be appropriately combined within a range in which the processing contents are not inconsistent.
〔7.効果〕
実施形態にかかるコンテンツ制御装置100は、受付部137と、コンテンツ制御部138とを有する。受付部137は、出力された音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付ける。コンテンツ制御部138は、受付部137により受け付けられた音声指示に応じた操作を音声コンテンツに対して行う。
[7. effect〕
The
これにより、実施形態にかかるコンテンツ制御装置100は、音声コンテンツがながら聴取されている場合であっても、当該音楽コンテンツを容易に制御させることができる。
Thereby, the
また、受付部137は、出力された音声コンテンツとして、第1の音声コンテンツに挿入された第2の音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付ける。 Further, the receiving unit 137 receives, from the user, a voice instruction to perform an operation for controlling reproduction of the second audio content inserted in the first audio content as the output audio content.
これにより、実施形態にかかるコンテンツ制御装置100は、第2の音声コンテンツがながら聴取されている場合であっても、当該音楽コンテンツを容易に制御させることができる。
Thereby, the
また、受付部137は、音声コンテンツの再生を制御する操作として、音声コンテンツを巻き戻すよう指示する音声指示を受け付け、コンテンツ制御部138は、受付部137により音声コンテンツを巻き戻すよう指示する音声指示が受け付けられた場合に、音声コンテンツを巻き戻す。 In addition, the reception unit 137 receives a voice instruction to rewind the audio content as an operation for controlling the reproduction of the audio content, and the content control unit 138 causes the reception unit 137 to receive a voice instruction to rewind the audio content. is accepted, rewind the audio content.
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザの一声で音声コンテンツを巻き戻すことができるため、容易に聞き逃し対策を実現することができる。
As a result, the
また、受付部137は、音声コンテンツの再生を制御する操作として、音声コンテンツを頭出しするよう指示する音声指示を受け付け、コンテンツ制御部138は、受付部137により音声コンテンツを頭出しするよう指示する音声指示が受け付けられた場合に、音声コンテンツを頭出しする。 Further, the reception unit 137 receives a voice instruction to cue the audio content as an operation for controlling the reproduction of the audio content, and the content control unit 138 instructs the reception unit 137 to cue the audio content. To cue audio contents when a voice instruction is accepted.
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザの一声で音声コンテンツを頭出しすることができるため、容易に聞き逃し対策を実現することができる。
As a result, the
また、受付部137は、音声コンテンツの再生を制御する操作として、音声コンテンツが挿入された第1の音声コンテンツから音声コンテンツを抽出するよう指示する音声指示を受け付け、コンテンツ制御部138は、受付部137により音声コンテンツが挿入された第1の音声コンテンツから音声コンテンツを抽出するよう指示する音声指示が受け付けられた場合に、音声コンテンツを第1の音声コンテンツから抽出する。 In addition, the reception unit 137 receives, as an operation for controlling the reproduction of the audio content, a voice instruction instructing to extract the audio content from the first audio content into which the audio content is inserted. When the audio instruction instructing to extract the audio content from the first audio content into which the audio content is inserted by 137 is received, the audio content is extracted from the first audio content.
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザにとって重要な音声部分を保管しておくことができる。
As a result, the
また、コンテンツ制御部138は、コンテンツ制御装置とは異なる他の装置に対して、第1の音声コンテンツから抽出した音声コンテンツに関するコンテンツを送信する。 Also, the content control unit 138 transmits content related to the audio content extracted from the first audio content to another device different from the content control device.
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザにとって重要な音声部分をユーザの端末装置に保管させておくことができるため、音声コンテンツを聞きたいときに聞き直しさせることができる。
As a result, the
また、受付部137は、音声コンテンツの再生を制御する操作として、音声コンテンツを早送り、または、スキップするよう指示する音声指示を受け付け、コンテンツ制御部138は、受付部137により音声コンテンツを早送り、または、スキップするよう指示する音声指示が受け付けられた場合に、音声コンテンツを早送り、または、スキップする。 In addition, the reception unit 137 receives a voice instruction to fast-forward or skip the audio content as an operation for controlling the reproduction of the audio content, and the content control unit 138 causes the reception unit 137 to fast-forward the audio content or , fast-forwards or skips the audio content when a voice instruction instructing to skip is received.
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザの一声で音声コンテンツを早送り、スキップすることができるため、ユーザが不要と感じる音声コンテンツを容易に省略することができる。
As a result, the
また、受付部137は、音声指示として、音声コンテンツに対するユーザの反応を示す発話での音声指示を受け付ける。 In addition, the reception unit 137 receives, as the voice instruction, a voice instruction in an utterance indicating the user's reaction to the audio content.
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザが操作に準じた音声指示をしなくとも、反射的につい発してまったような言葉についても音声指示と見なして音声コンテンツを制御することができる。
As a result, the
また、実施形態にかかるコンテンツ制御装置100は、取得部131と、選択部135とを有する。取得部131は、第1の音声コンテンツに挿入される候補の第2の音声コンテンツを取得する。選択部135は、配信先のユーザに関するユーザ情報に基づいて、候補の第2の音声コンテンツのうち、第1の音声コンテンツに挿入される第2の音声コンテンツを選択する。そして、受付部137は、第1の音声コンテンツに挿入された第2の音声コンテンツであって選択部135により選択された第2の音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付ける。
Also, the
これにより、実施形態にかかるコンテンツ制御装置100は、音声コンテンツがながら聴取されている場合であっても、当該音楽コンテンツを容易に制御させることができる。
Thereby, the
また、実施形態にかかるコンテンツ制御装置100は、取得部131と、選択部135とを有する。取得部131は、第1の音声コンテンツに挿入される候補の第2の音声コンテンツを取得する。選択部135は、配信先のユーザに関するユーザ情報に基づいて、候補の第2の音声コンテンツのうち、第1の音声コンテンツに挿入される第2の音声コンテンツを選択する。
Also, the
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザが「耳の端で捉えられる」程度に加工および制御した音声コンテンツをユーザに提供することができるため、ながら聴取の中でもユーザの欲する情報を効果的に提供することができる。
As a result, the
また、選択部135は、配信先のユーザに関するユーザ情報としてユーザの行動履歴に基づいて、候補の第2の音声コンテンツのうち、第1の音声コンテンツに挿入される対象の第2の音声コンテンツを選択する。 Further, the selection unit 135 selects the second audio content to be inserted into the first audio content from among the candidate second audio content based on the action history of the user as the user information about the user of the distribution destination. select.
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザが「耳の端で捉えられる」程度の第2の音声コンテンツを提供することができる。
Thereby, the
また、選択部135は、配信先のユーザに関するユーザ情報として、音声コンテンツを出力する所定の出力装置に対するユーザの操作履歴に基づいて、候補の第2の音声コンテンツのうち、第1の音声コンテンツに挿入される対象の第2の音声コンテンツを選択する。 In addition, the selection unit 135 selects the first audio content among the second audio content candidates based on the user's operation history with respect to a predetermined output device that outputs the audio content as the user information about the user of the distribution destination. Selecting the second audio content to be inserted.
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザ毎に最適化(パーソナライズ化)した第2の音声コンテンツをながら聴取させることができる。
Thereby, the
また、実施形態にかかるコンテンツ制御装置100は、決定部134を有する。決定部134は、ユーザ情報に基づいて、第1の音声コンテンツに挿入される対象の第2の音声コンテンツと、当該対象の第2の音声コンテンツが第1の音声コンテンツに挿入される時間位置であって第1の音声コンテンツにおける時間位置とを決定する。また、選択部135は、決定部134により決定された第2のコンテンツを対象の第2の音声コンテンツとして選択する。
Also, the
これにより、実施形態にかかるコンテンツ制御装置100は、ユーザ毎に最適化(パーソナライズ化)した第2の音声コンテンツを、ユーザ毎に適した時間に提供することができる。
Thereby, the
また、決定部134は、ユーザ情報に基づきユーザがどの時間にどのような音声コンテンツを聞く傾向にあるかが算出された算出結果に基づいて、対象の第2の音声コンテンツと時間位置とを決定する。 Further, the determining unit 134 determines the target second audio content and the time position based on the result of calculating what kind of audio content the user tends to listen to at what time based on the user information. do.
これにより、実施形態にかかるコンテンツ制御装置100は、第2の音声コンテンツに対するパーソナライズ化の精度を高めることができる。
Thereby, the
また、決定部134は、ユーザ情報に基づいて、候補の第2の音声コンテンツのうち、ユーザの生活状況または趣味嗜好に応じた音声コンテンツを第1の音声コンテンツに挿入される対象の第2の音声コンテンツとして決定する。 Further, based on the user information, the determining unit 134 selects the second audio content to be inserted into the first audio content, among the candidate second audio content, according to the user's living situation or hobbies and tastes. Determined as audio content.
これにより、実施形態にかかるコンテンツ制御装置100は、第2の音声コンテンツに対するパーソナライズ化の精度を高めることができるとともに、ユーザにとって興味度の高い音声コンテンツを提供することができる。
As a result, the
また、実施形態にかかるコンテンツ制御装置100は、挿入部(選択部135)を有する。挿入部(選択部135)は、第2のコンテンツを決定部134により決定された時間位置に挿入する。
Further, the
これにより、実施形態にかかるコンテンツ制御装置100は、第2の音声コンテンツに対するパーソナライズ化の精度を高めることができるとともに、ユーザにとって興味度の高い音声コンテンツを提供することができる。
As a result, the
また、実施形態にかかるコンテンツ制御装置100は、出力制御部136を有する。出力制御部136は、ユーザに関する情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツの出力を制御する。
Also, the
これにより、実施形態にかかるコンテンツ制御装置100は、第1の音声コンテンツまたは第2の音声コンテンツの聞き取り易さに貢献することができる。
Thereby, the
また、出力制御部136は、ユーザに関する情報として、ユーザの周辺環境を示す環境情報またはユーザの属性情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツの出力を制御する。 In addition, the output control unit 136 controls the output of the first audio content or the second audio content based on the environment information indicating the user's surrounding environment or the user's attribute information as information about the user.
これにより、実施形態にかかるコンテンツ制御装置100は、第1の音声コンテンツまたは第2の音声コンテンツの聞き取り易さに貢献することができる。
Thereby, the
また、出力制御部136は、ユーザに関する情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツが出力される際の音量、音色またはピッチを制御する。 The output control unit 136 also controls the volume, tone color, or pitch when the first audio content or the second audio content is output, based on the information about the user.
これにより、実施形態にかかるコンテンツ制御装置100は、第1の音声コンテンツまたは第2の音声コンテンツの聞き取り易さに貢献することができる。
Thereby, the
また、出力制御部136は、ユーザに関する情報に基づいて、第1の音声コンテンツまたは第2の音声コンテンツを巻き戻す。 Also, the output control unit 136 rewinds the first audio content or the second audio content based on the information about the user.
これにより、実施形態にかかるコンテンツ制御装置100は、第1の音声コンテンツまたは第2の音声コンテンツの聞き取り易さに貢献することができる。
Thereby, the
また、実施形態にかかるコンテンツ制御装置100は、変換部132を有する。変換部132は、所定のコンテンツを音声データに変換する。そして、取得部131は、第1の音声コンテンツに挿入される候補の第2の音声コンテンツとして、変換部132により変換された音声データを取得する。
Also, the
これにより、実施形態にかかるコンテンツ制御装置100は、テキストデータのコンテンツから音声コンテンツを合成することができる。
Thereby, the
また、選択部135は、配信先のユーザに関するユーザ情報に基づいて、候補の第2の音声コンテンツのうち、第1の音声コンテンツに挿入される第2のコンテンツであって、スマートスピーカーから出力される対象の第2のコンテンツを選択する。 Further, the selection unit 135 selects the second content to be inserted into the first audio content among the candidate second audio content based on the user information about the user of the distribution destination, and the second content to be output from the smart speaker. Select the second content for which you want to
これにより、実施形態にかかるコンテンツ制御装置100は、スマートスピーカーから音声コンテンツを出力させることでながら聴取を実現することができる。
As a result, the
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, the embodiments of the present application have been described in detail based on several drawings, but these are examples, and various modifications and It is possible to carry out the invention in other forms with modifications.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as acquisition means or an acquisition circuit.
1 制御システム
10 端末装置
30 出力装置
60 外部装置
100 コンテンツ制御装置
121 コンテンツ記憶部
122 行動履歴記憶部
123 操作履歴記憶部
124 ユーザ情報記憶部
125 配信コンテンツ記憶部
131 取得部
132 変換部
133 特定部
134 決定部
135 選択部
136 出力制御部
137 受付部
138 コンテンツ制御部
139 配信部
1
Claims (25)
前記取得部により取得された第2の音声コンテンツのうち、配信先のユーザに関するユーザ情報に基づき決定されたカテゴリに属する第2の音声コンテンツを、前記第1の音声コンテンツに対して新たに挿入される第2の音声コンテンツとして選択する選択部と、
音声コンテンツに対する前記ユーザの視聴傾向に基づき決定された再生位置であって、前記第1の音声コンテンツに含まれる再生位置で出力されるよう前記第1の音声コンテンツに挿入された第2の音声コンテンツであって前記選択部により選択された第2の音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付ける受付部と、
前記受付部により受け付けられた音声指示に応じた操作を前記第2の音声コンテンツに対して行うコンテンツ制御部と
を有することを特徴とするコンテンツ制御装置。 an acquisition unit that acquires second audio content, which is content different in category from the first audio content;
Among the second audio contents acquired by the acquiring unit, the second audio contents belonging to the category determined based on the user information regarding the user of the distribution destination are newly inserted into the first audio contents. a selection unit that selects as the second audio content that
A second audio content inserted into the first audio content so as to be output at a playback position included in the first audio content, the playback position being determined based on the viewing tendency of the user for the audio content. a reception unit that receives from a user a voice instruction instructing to perform an operation for controlling reproduction of the second audio content selected by the selection unit;
and a content control unit that performs an operation on the second audio content according to the voice instruction received by the receiving unit.
ことを特徴とする請求項1に記載のコンテンツ制御装置。 2. The content control device according to claim 1, wherein the reception unit receives from a user a voice instruction instructing to perform an operation for controlling reproduction of the second audio content.
前記コンテンツ制御部は、前記受付部により前記第2の音声コンテンツを巻き戻すよう指示する音声指示が受け付けられた場合に、前記第2の音声コンテンツを巻き戻す
ことを特徴とする請求項1または2に記載のコンテンツ制御装置。 The receiving unit receives, as an operation for controlling reproduction of the second audio content, a voice instruction instructing to rewind the second audio content,
3. The content control unit rewinds the second audio content when the reception unit receives a voice instruction to rewind the second audio content. 3. The content control device according to .
前記コンテンツ制御部は、前記受付部により前記第2の音声コンテンツを頭出しするよう指示する音声指示が受け付けられた場合に、前記第2の音声コンテンツを頭出しする
ことを特徴とする請求項1~3のいずれか1つに記載のコンテンツ制御装置。 The receiving unit receives, as an operation for controlling reproduction of the second audio content, a voice instruction instructing to cue the second audio content,
2. The content control unit cue the second audio content when the reception unit receives a voice instruction to cue the second audio content. 4. The content control device according to any one of 1 to 3.
前記コンテンツ制御部は、前記受付部により前記第2の音声コンテンツが挿入された前記第1の音声コンテンツから前記第2の音声コンテンツを抽出するよう指示する音声指示が受け付けられた場合に、前記第2の音声コンテンツを前記第1の音声コンテンツから抽出する
ことを特徴とする請求項1~4のいずれか1つに記載のコンテンツ制御装置。 The reception unit provides, as an operation for controlling reproduction of the second audio content, a voice instruction instructing to extract the second audio content from the first audio content into which the second audio content is inserted. accept the
When the receiving unit receives a voice instruction to extract the second audio content from the first audio content into which the second audio content is inserted, the content control unit controls the second audio content to be extracted. 5. The content control device according to any one of claims 1 to 4, wherein second audio content is extracted from said first audio content.
ことを特徴とする請求項5に記載のコンテンツ制御装置。 6. The content control unit according to claim 5, wherein the content control unit transmits content related to the second audio content extracted from the first audio content to another device different from the content control device. content controller.
前記コンテンツ制御部は、前記受付部により前記第2の音声コンテンツを早送り、または、スキップするよう指示する音声指示が受け付けられた場合に、前記第2の音声コンテンツを早送り、または、スキップする
ことを特徴とする請求項1~6のいずれか1つに記載のコンテンツ制御装置。 The receiving unit receives a voice instruction instructing to fast-forward or skip the second audio content as an operation for controlling reproduction of the second audio content,
The content control unit fast-forwards or skips the second audio content when the receiving unit receives a voice instruction to fast-forward or skip the second audio content. A content control device according to any one of claims 1 to 6.
ことを特徴とする請求項1~7のいずれか1つに記載のコンテンツ制御装置。 The content control device according to any one of claims 1 to 7, wherein the receiving unit receives, as the voice instruction, an utterance indicating a user's reaction to the audio content.
配信先のユーザに関するユーザ情報に基づいて、前記取得部により取得された第2の音声コンテンツのうち、前記第1の音声コンテンツに対して新たに挿入される第2の音声コンテンツを選択する選択部と、
音声コンテンツに対する前記ユーザの視聴傾向に基づき決定された再生位置であって、前記第1の音声コンテンツに含まれる再生位置において、前記選択部により選択された第2の音声コンテンツが出力されるよう当該第2の音声コンテンツを構成するデータを、前記第1の音声コンテンツを構成するデータに対して挿入する挿入部と
を有することを特徴とするコンテンツ制御装置。 an acquisition unit that acquires second audio content, which is content different in category from the first audio content;
A selection unit that selects, from among the second audio contents acquired by the acquisition unit, second audio content to be newly inserted into the first audio content, based on user information about users of distribution destinations. When,
The second audio content selected by the selection unit is output at a playback position that is determined based on the viewing tendency of the user with respect to the audio content and is included in the first audio content. and an inserting unit for inserting data forming a second audio content into data forming the first audio content.
ことを特徴とする請求項9に記載のコンテンツ制御装置。 The selecting unit selects the second audio content to be inserted into the first audio content from among the second audio content based on the action history of the user as user information about the user of the distribution destination. 10. The content control device according to claim 9, characterized by:
ことを特徴とする請求項9または10に記載のコンテンツ制御装置。 The selection unit inserts into the first audio content out of the second audio content based on a user's operation history with respect to a predetermined output device that outputs audio content as user information about a user of a distribution destination. 11. The content control device according to claim 9 or 10, wherein the second audio content to be played is selected.
前記選択部は、前記決定部により決定された前記対象の第2の音声コンテンツを選択する
ことを特徴とする請求項9~11のいずれか1つに記載のコンテンツ制御装置。 A second audio content to be inserted into the first audio content based on the user information, and a playback position at which the target second audio content is inserted into the first audio content, further comprising a determination unit that determines a playback position included in the first audio content;
The content control device according to any one of claims 9 to 11, wherein the selection unit selects the target second audio content determined by the determination unit.
ことを特徴とする請求項12に記載のコンテンツ制御装置。 The determining unit selects the second audio content of the target based on the viewing tendency, which is a calculation result of calculating what kind of audio content the user tends to listen to at what time based on the user information. and the playback position.
ことを特徴とする請求項12または13に記載のコンテンツ制御装置。 Based on the user information, the determining unit selects a second audio content to be inserted into the first audio content, among the second audio content, according to the user's living situation or tastes and preferences. 14. The content control device according to claim 12 or 13, wherein the content is determined as audio content.
ことを特徴とする請求項12~14のいずれか1つに記載のコンテンツ制御装置。 15. The inserting unit according to any one of claims 12 to 14, further comprising an inserting unit for inserting the second audio content selected by the selecting unit into the playback position determined by the determining unit. The content control device according to 1.
ことを特徴とする請求項9~15のいずれか1つに記載のコンテンツ制御装置。 16. The apparatus according to any one of claims 9 to 15, further comprising an output control unit that controls output of said first audio content or said second audio content based on information regarding said user. Content controller.
ことを特徴とする請求項16に記載のコンテンツ制御装置。 The output control unit controls the output of the first audio content or the second audio content based on environment information indicating the surrounding environment of the user or attribute information of the user as the information about the user. 17. The content control device according to claim 16, characterized by:
ことを特徴とする請求項16または17に記載のコンテンツ制御装置。 17. The output control unit controls volume, timbre, or pitch when the first audio content or the second audio content is output, based on the information about the user. 18. The content control device according to 17.
ことを特徴とする請求項16~18のいずれか1つに記載のコンテンツ制御装置。 The content control according to any one of claims 16 to 18, wherein the output control unit rewinds the first audio content or the second audio content based on information about the user. Device.
前記取得部は、前記第1の音声コンテンツに挿入される第2の音声コンテンツとして、前記変換部により変換された音声データを取得する
ことを特徴とする請求項9~19のいずれか1つに記載のコンテンツ制御装置。 further comprising a conversion unit that converts predetermined content into audio data;
20. The method according to any one of claims 9 to 19, wherein the acquisition unit acquires audio data converted by the conversion unit as second audio content to be inserted into the first audio content. A content controller as described.
ことを特徴とする請求項9~20のいずれか1つに記載のコンテンツ制御装置。 The selection unit selects second audio content to be inserted into the first audio content among the second audio content based on user information about a user of a distribution destination, the second audio content being output from a smart speaker. The content control device according to any one of claims 9 to 20, characterized in that it selects the target second audio content.
第1の音声コンテンツとはカテゴリの異なる他のコンテンツである第2の音声コンテンツを取得する取得工程と、
前記取得工程により取得された第2の音声コンテンツのうち、配信先のユーザに関するユーザ情報に基づき決定されたカテゴリに属する第2の音声コンテンツを、前記第1の音声コンテンツに対して新たに挿入される第2の音声コンテンツとして選択する選択工程と、
音声コンテンツに対する前記ユーザの視聴傾向に基づき決定された再生位置であって、前記第1の音声コンテンツに含まれる再生位置で出力されるよう前記第1の音声コンテンツに挿入された第2の音声コンテンツであって前記選択工程により選択された第2の音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付ける受付工程と、
前記受付工程により受け付けられた音声指示に応じた操作を前記第2の音声コンテンツに対して行うコンテンツ制御工程と
を含むことを特徴とする制御方法。 A control method executed by a content control device,
an acquisition step of acquiring second audio content, which is content in a category different from that of the first audio content;
Among the second audio contents acquired in the acquiring step, a second audio content belonging to a category determined based on user information about a user of a distribution destination is newly inserted into the first audio content. a selection step of selecting as a second audio content to
A second audio content inserted into the first audio content so as to be output at a playback position included in the first audio content, the playback position being determined based on the viewing tendency of the user for the audio content. a receiving step of receiving from a user a voice instruction instructing to perform an operation for controlling reproduction of the second audio content selected in the selecting step;
and a content control step of performing an operation on the second audio content in accordance with the voice instruction accepted by the accepting step.
第1の音声コンテンツとはカテゴリの異なる他のコンテンツである第2の音声コンテンツを取得する取得工程と、
配信先のユーザに関するユーザ情報に基づいて、前記取得工程により取得された第2の音声コンテンツのうち、前記第1の音声コンテンツに対して新たに挿入される第2の音声コンテンツを選択する選択工程と、
音声コンテンツに対する前記ユーザの視聴傾向に基づき決定された再生位置であって、前記第1の音声コンテンツに含まれる再生位置において、前記選択工程により選択された第2の音声コンテンツが出力されるよう当該第2の音声コンテンツを構成するデータを、前記第1の音声コンテンツを構成するデータに対して挿入する挿入工程と
を含むことを特徴とする制御方法。 A control method executed by a content control device,
an acquisition step of acquiring second audio content, which is content in a category different from that of the first audio content;
A selection step of selecting a second audio content to be newly inserted into the first audio content from among the second audio content obtained in the obtaining step, based on user information about a user of a distribution destination. When,
The second audio content selected by the selecting step is output at a playback position determined based on the viewing tendency of the user for the audio content and included in the first audio content. and an inserting step of inserting data constituting a second audio content into data constituting the first audio content.
前記取得手順により取得された第2の音声コンテンツのうち、配信先のユーザに関するユーザ情報に基づき決定されたカテゴリに属する第2の音声コンテンツを、前記第1の音声コンテンツに対して新たに挿入される第2の音声コンテンツとして選択する選択手順と、
音声コンテンツに対する前記ユーザの視聴傾向に基づき決定された再生位置であって、前記第1の音声コンテンツに含まれる再生位置で出力されるよう前記第1の音声コンテンツに挿入された第2の音声コンテンツであって前記選択手順により選択された第2の音声コンテンツの再生を制御する操作を行うよう指示する音声指示をユーザから受け付ける受付手順と、
前記受付手順により受け付けられた音声指示に応じた操作を前記第2の音声コンテンツに対して行うコンテンツ制御手順と
をコンピュータに実行させることを特徴とする制御プログラム。 an acquisition procedure for acquiring second audio content, which is other content whose category is different from that of the first audio content;
Among the second audio contents acquired by the acquisition procedure, a second audio content belonging to a category determined based on user information regarding a user of a distribution destination is newly inserted into the first audio content. a selection procedure for selecting as a second audio content that
A second audio content inserted into the first audio content so as to be output at a playback position included in the first audio content, the playback position being determined based on the viewing tendency of the user for the audio content. a reception procedure for accepting a voice instruction from a user for instructing an operation to control reproduction of the second audio content selected by the selection procedure;
A control program for causing a computer to execute a content control procedure for performing an operation on the second audio content in accordance with the voice instruction accepted by the acceptance procedure.
配信先のユーザに関するユーザ情報に基づいて、前記取得手順により取得された第2の音声コンテンツのうち、前記第1の音声コンテンツに対して新たに挿入される第2の音声コンテンツを選択する選択手順と、
音声コンテンツに対する前記ユーザの視聴傾向に基づき決定された再生位置であって、前記第1の音声コンテンツに含まれる再生位置において、前記選択手順により選択された第2の音声コンテンツが出力されるよう当該第2の音声コンテンツを構成するデータを、前記第1の音声コンテンツを構成するデータに対して挿入する挿入手順と
をコンピュータに実行させることを特徴とする制御プログラム。 an acquisition procedure for acquiring second audio content, which is other content whose category is different from that of the first audio content;
A selection procedure for selecting a second audio content to be newly inserted into the first audio content from among the second audio contents acquired by the acquisition procedure, based on user information about a user of a distribution destination. When,
The second audio content selected by the selection procedure is output at a playback position determined based on the viewing tendency of the user for the audio content and included in the first audio content. A control program for causing a computer to execute an insertion procedure for inserting data constituting a second audio content into data constituting the first audio content.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018122475A JP7136606B2 (en) | 2018-06-27 | 2018-06-27 | CONTENT CONTROL DEVICE, CONTROL METHOD AND CONTROL PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018122475A JP7136606B2 (en) | 2018-06-27 | 2018-06-27 | CONTENT CONTROL DEVICE, CONTROL METHOD AND CONTROL PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020004056A JP2020004056A (en) | 2020-01-09 |
JP7136606B2 true JP7136606B2 (en) | 2022-09-13 |
Family
ID=69100407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018122475A Active JP7136606B2 (en) | 2018-06-27 | 2018-06-27 | CONTENT CONTROL DEVICE, CONTROL METHOD AND CONTROL PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7136606B2 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004062769A (en) | 2002-07-31 | 2004-02-26 | Sharp Corp | Contents output system |
JP2004227468A (en) | 2003-01-27 | 2004-08-12 | Canon Inc | Information provision device and information provision method |
JP2005276400A (en) | 2003-06-30 | 2005-10-06 | Matsushita Electric Ind Co Ltd | Content reproducing device and method |
JP2013246467A (en) | 2012-05-23 | 2013-12-09 | Jvc Kenwood Corp | Content data distribution system, on-board device, server, and license issuing method |
JP2014123887A (en) | 2012-12-21 | 2014-07-03 | Sharp Corp | Sound reproduction device |
JP2015052980A (en) | 2013-09-09 | 2015-03-19 | 株式会社デンソー | Content providing system |
JP2016192225A (en) | 2011-08-03 | 2016-11-10 | インテント アイキュー エルエルシーIntent Iq,Llc | Targeted television advertising based on profiles linked to multiple online devices |
JP2017167983A (en) | 2016-03-17 | 2017-09-21 | 富士通株式会社 | Output control program, output control method and output controller |
WO2018034077A1 (en) | 2016-08-19 | 2018-02-22 | ソニー株式会社 | Information processing device, information processing method, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5101989B2 (en) * | 2007-03-30 | 2012-12-19 | 株式会社デンソーアイティーラボラトリ | Information providing support method and information providing support device |
-
2018
- 2018-06-27 JP JP2018122475A patent/JP7136606B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004062769A (en) | 2002-07-31 | 2004-02-26 | Sharp Corp | Contents output system |
JP2004227468A (en) | 2003-01-27 | 2004-08-12 | Canon Inc | Information provision device and information provision method |
JP2005276400A (en) | 2003-06-30 | 2005-10-06 | Matsushita Electric Ind Co Ltd | Content reproducing device and method |
JP2016192225A (en) | 2011-08-03 | 2016-11-10 | インテント アイキュー エルエルシーIntent Iq,Llc | Targeted television advertising based on profiles linked to multiple online devices |
JP2013246467A (en) | 2012-05-23 | 2013-12-09 | Jvc Kenwood Corp | Content data distribution system, on-board device, server, and license issuing method |
JP2014123887A (en) | 2012-12-21 | 2014-07-03 | Sharp Corp | Sound reproduction device |
JP2015052980A (en) | 2013-09-09 | 2015-03-19 | 株式会社デンソー | Content providing system |
JP2017167983A (en) | 2016-03-17 | 2017-09-21 | 富士通株式会社 | Output control program, output control method and output controller |
WO2018034077A1 (en) | 2016-08-19 | 2018-02-22 | ソニー株式会社 | Information processing device, information processing method, and program |
Non-Patent Citations (1)
Title |
---|
これからのまとめサイトは音声でチェック、気になるニュースをLINEにお届けします!,online,2018年01月12日,https://eviry.com/20180112/ |
Also Published As
Publication number | Publication date |
---|---|
JP2020004056A (en) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8438485B2 (en) | System, method, and apparatus for generating, customizing, distributing, and presenting an interactive audio publication | |
US20210043219A1 (en) | Personal audio assistant device and method | |
US11081101B1 (en) | Real time popularity based audible content acquisition | |
US20090062944A1 (en) | Modifying media files | |
JP2007534061A6 (en) | Method and system for editing multimedia messages | |
JP2007534061A (en) | Method and system for editing multimedia messages | |
KR100805308B1 (en) | Method for contents recommendation service in mobile communication terminal and mobile communication terminal therefor | |
US12080312B2 (en) | Personal audio assistant device and method | |
JP2019200598A (en) | server | |
US20240223635A1 (en) | Systems and methods for switching between media content | |
JP7076940B2 (en) | Distribution device, distribution method, distribution program and information display program | |
JP7136606B2 (en) | CONTENT CONTROL DEVICE, CONTROL METHOD AND CONTROL PROGRAM | |
KR101415518B1 (en) | Music broadcasting service method based on play list, and apparatus thereof | |
KR102301614B1 (en) | Method for providing music service in store | |
KR20090008063A (en) | Method for controlling av device by using privacy and apparatus thereof | |
EP1546942A2 (en) | System and method for associating different types of media content | |
CN108604238A (en) | method, system and medium for media guidance | |
JP7018002B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP2008259075A (en) | Content playback apparatus, content playback method, content playback system, content playback program and recording medium | |
JP6982024B2 (en) | Playback program, terminal device, and playback method | |
JP6559290B1 (en) | Information providing apparatus, information providing method, and information providing program | |
KR101531207B1 (en) | Advertisement System And Advertizing Method Using Them | |
JP2006012056A (en) | Portable terminal device, electronic mail reading aloud method, control program, and storage medium | |
Wheeler | Podscanning: Audio microcontent and synchronous communication for mobile devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7136606 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |