JP2023024713A - server - Google Patents

server Download PDF

Info

Publication number
JP2023024713A
JP2023024713A JP2022207117A JP2022207117A JP2023024713A JP 2023024713 A JP2023024713 A JP 2023024713A JP 2022207117 A JP2022207117 A JP 2022207117A JP 2022207117 A JP2022207117 A JP 2022207117A JP 2023024713 A JP2023024713 A JP 2023024713A
Authority
JP
Japan
Prior art keywords
user
voice
advertisement
content
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022207117A
Other languages
Japanese (ja)
Other versions
JP7504978B2 (en
Inventor
達雄 田中
Tatsuo Tanaka
正士 須崎
Masashi Suzaki
克典 新井
Katsunori Arai
祐一郎 豊崎
Yuichiro Toyosaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2022207117A priority Critical patent/JP7504978B2/en
Publication of JP2023024713A publication Critical patent/JP2023024713A/en
Priority to JP2024094486A priority patent/JP2024107317A/en
Application granted granted Critical
Publication of JP7504978B2 publication Critical patent/JP7504978B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology capable of using a smart speaker as an effective advertising medium, or further improving a smart speaker system.
SOLUTION: A server includes: receiving means for receiving a distribution request from a microphone and a speaker having a communication function via a network; acquisition means for acquiring an audio content without an image in response to the received distribution request; selection means for selecting a voice advertisement without an image from voice advertisement holding means; and transmitting means for transmitting the acquired audio content and the selected audio advertisement together to the speaker via the network.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、マイクロフォンを有するスピーカと通信するサーバに関する。 The present invention relates to a server communicating with a speaker having a microphone.

マイクロフォンおよび通信機能を備え、音声による操作や情報検索を可能とするスマートスピーカの普及が始まっている(例えば、非特許文献1参照)。 2. Description of the Related Art Smart speakers that are equipped with a microphone and a communication function and that enable voice operation and information retrieval have begun to spread (see, for example, Non-Patent Document 1).

https://www.is.nri.co.jp/report/short-research/2017/000213.html、平成30年5月9日検索https://www.is.nri.co.jp/report/short-research/2017/000213.html, retrieved May 9, 2018

現在のスマートスピーカを含むシステムは、ユーザから音声で要求を受け、その要求を処理することができる。このような状況において、さらに有益なスマートスピーカシステムを創出することが望まれている。 Systems that include current smart speakers can receive voice requests from users and process the requests. In this context, it would be desirable to create a more beneficial smart speaker system.

本発明はこうした課題に鑑みてなされたものであり、その目的は、スマートスピーカを効果的な広告媒体として用いることができる技術の提供、またはスマートスピーカシステムのさらなる改善にある。 The present invention has been made in view of these problems, and its object is to provide a technology that enables smart speakers to be used as effective advertising media, or to further improve smart speaker systems.

本発明のある態様は、サーバに関する。このサーバは、マイクロフォンおよび通信機能を有するスピーカから、ネットワークを介して前記スピーカのマイクロフォンを介して取得された音声情報を受け付ける受付手段と、受け付けた音声情報における配信要求に応じて、画像を伴わない音声コンテンツを取得する取得手段と、受け付けた音声情報に基づいてユーザ認証を行う認証手段と、画像を伴わない音声広告を音声広告保持手段から選択する選択手段と、取得された音声コンテンツと選択された音声広告とを合わせて前記スピーカに、前記ネットワークを介して送信する送信手段と、を備え、前記選択手段は、取得された音声コンテンツの内容との関連性と、受け付けた音声情報におけるユーザの発話内容との関連性と、認証されたユーザのアカウントの属性との関連性とのうちの複数の関連性のうちの第1の関連性を用いて音声広告の候補を選択し、前記複数の関連性のうちの他の関連性を更に用いて、選択した音声広告の候補から音声広告を選択する。 One aspect of the present invention relates to a server. This server includes a receiving means for receiving voice information acquired from a speaker having a microphone and a communication function via the microphone of the speaker via a network, and a delivery request for the received voice information without an image. Acquisition means for acquiring audio content; authentication means for performing user authentication based on received audio information; selection means for selecting audio advertisements without images from audio advertisement holding means; transmitting means for transmitting to the speaker via the network together with the voice advertisement, wherein the selecting means determines the relevance of the acquired voice content and the user's response in the received voice information. selecting a voice advertisement candidate using a first relevance of a plurality of relevances of a relevance to the utterance content and a relevance to the attributes of the account of the authenticated user; Other relevances of the relevance are further used to select a voice advertisement from the selected voice advertisement candidates.

なお、以上の構成要素の任意の組み合わせや、本発明の構成要素や表現を装置、方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above constituent elements, or mutual replacement of the constituent elements and expressions of the present invention with devices, methods, systems, computer programs, recording media storing computer programs, etc., are also included in the present invention. It is effective as an aspect of

本発明によれば、スマートスピーカを効果的な広告媒体として用いることができる技術を提供できる、またはスマートスピーカシステムをさらに改善することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which can use a smart speaker as an effective advertising medium can be provided, or a smart speaker system can be further improved.

第1の実施の形態に係る音声広告配信システムの構成を示す模式図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a schematic diagram which shows the structure of the voice advertisement distribution system which concerns on 1st Embodiment. 図1のスマートスピーカの機能および構成を示すブロック図である。2 is a block diagram showing the functions and configuration of the smart speaker of FIG. 1; FIG. 図1の管理サーバのハードウエア構成図である。2 is a hardware configuration diagram of a management server in FIG. 1; FIG. 図1の管理サーバの機能および構成を示すブロック図である。2 is a block diagram showing the functions and configuration of a management server in FIG. 1; FIG. 図4の音声コンテンツ保持部の一例を示すデータ構造図である。FIG. 5 is a data structure diagram showing an example of an audio content holding unit in FIG. 4; 図4の音声広告保持部の一例を示すデータ構造図である。5 is a data structure diagram showing an example of a voice advertisement holding unit in FIG. 4; FIG. 図4の音声情報保持部の一例を示すデータ構造図である。5 is a data structure diagram showing an example of a voice information holding unit in FIG. 4; FIG. 図4のユーザ情報保持部の一例を示すデータ構造図である。5 is a data structure diagram showing an example of a user information holding unit in FIG. 4; FIG. 図4のセッション情報保持部の一例を示すデータ構造図である。5 is a data structure diagram showing an example of a session information holding unit in FIG. 4; FIG. 図1の管理サーバにおける一連の処理の流れを示すフローチャートである。FIG. 2 is a flow chart showing a series of processes in the management server of FIG. 1; FIG. ユーザの部屋の模式的な上面図である。1 is a schematic top view of a user's room; FIG. 第3の実施の形態に係る音声操作システムの構成を示す模式図である。FIG. 12 is a schematic diagram showing the configuration of a voice operation system according to a third embodiment; FIG. 第4の実施の形態に係る音声操作システムの構成を示す模式図である。FIG. 12 is a schematic diagram showing the configuration of a voice operation system according to a fourth embodiment; FIG. 図13の管理サーバの機能および構成を示すブロック図である。14 is a block diagram showing the functions and configuration of the management server of FIG. 13; FIG. 図14のユーザ情報保持部の一例を示すデータ構造図である。15 is a data structure diagram showing an example of a user information holding unit in FIG. 14; FIG.

以下、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。 Hereinafter, the same or equivalent constituent elements, members, and processes shown in each drawing are denoted by the same reference numerals, and duplication of description will be omitted as appropriate. Also, in each drawing, some members that are not important for explanation are omitted.

(第1の実施の形態)
第1の実施の形態に係る音声広告配信システムでは、ユーザはスマートスピーカを用いて、例えば以下のような作業を行うことができる。
・簡単な調べ物
・天気予報の確認
・ニュースを聞く
・アラームの設定
・スケジュールの確認
・計算をする
・音楽の再生
・スマート家電のコントロール。
音声広告配信システムはスマートスピーカのマイクロフォンを介してユーザの発話を取得し、発話を音声認識することでユーザが音声コンテンツ(例えば、検索結果、天気予報、ニュース、スケジュール、計算結果、音楽など)の配信を要求していることを理解する。システムは、要求されている音声コンテンツを用意してスマートスピーカに配信するのであるが、この際、スマートスピーカでの音声コンテンツ再生前に音声広告が再生されるように、音声広告を配信対象の音声コンテンツに挿入する。
(First embodiment)
In the voice advertisement distribution system according to the first embodiment, the user can use the smart speaker to perform the following operations, for example.
・Check the weather forecast ・Listen to the news ・Set an alarm ・Check the schedule ・Do calculations ・Play music ・Control smart home appliances.
The voice advertisement delivery system acquires the user's utterance through the microphone of the smart speaker, and recognizes the utterance by voice so that the user can use the voice content (for example, search results, weather forecasts, news, schedules, calculation results, music, etc.). Understand that you are requesting delivery. The system prepares the requested audio content and delivers it to the smart speaker. Insert into your content.

この音声広告は、例えば配信対象の音声コンテンツに合わせた音声広告や、これまでの対話の内容に基づいた音声広告や、音声コンテンツの配信の直前にスマートスピーカが集音したスマートスピーカの周りの音に基づいた音声広告であってもよい。 This voice advertisement is, for example, a voice advertisement tailored to the voice content to be delivered, a voice advertisement based on the content of the conversation so far, or the sound around the smart speaker collected by the smart speaker just before the delivery of the voice content. may be an audio advertisement based on

音声広告の長さは、ユーザとの対話の状況やスマートスピーカの周りの状況に合わせて調整されてもよい。調整の態様としては、例えば配信対象の音声コンテンツの内容に応じて音声広告の長さを調整してもよいし、音声広告の重要部分を抽出してもよい。 The length of the voice advertisement may be adjusted to the context of the user's interaction and the surroundings of the smart speaker. As a form of adjustment, for example, the length of the voice advertisement may be adjusted according to the details of the voice content to be distributed, or the important part of the voice advertisement may be extracted.

音声広告の再生のタイミングについて、ユーザがスマートスピーカの周りにいる場合に広告効果がより高いこと、またユーザがスマートスピーカや他のユーザと会話しているときに音声広告が出力されるとユーザが不快に感じうること、を考慮して決定されてもよい。例えば、音声広告は、スマートスピーカの周りにユーザがいると判定されるときのみ再生されてもよい。また、音声広告は、ユーザが他のユーザと会話していたり、スマートスピーカに対して発話しているときには再生されなくてもよい。後者の場合、ユーザが発話を止めると音声広告の出力を開始または再開してもよい。また、音声広告は他の電子機器、例えばテレビジョン(以下、TVという)と連携して出力されてもよい。例えば、TVで広告を流した後に、続報をスマートスピーカから音声で出力してもよい。この場合、次のTVの広告を消音してもよい。あるいはまた、スマートスピーカでの音声広告の再生後に関連する広告をTVで流してもよい。 Regarding the timing of playback of audio advertisements, the advertisement effect is higher when the user is around the smart speaker. It may be determined taking into account that it may be uncomfortable. For example, an audio advertisement may be played only when it is determined that the user is around the smart speaker. Also, audio advertisements may not be played when a user is conversing with another user or speaking into a smart speaker. In the latter case, the output of the voice advertisement may begin or resume when the user stops speaking. Also, voice advertisements may be output in cooperation with other electronic devices such as televisions (hereinafter referred to as TVs). For example, after an advertisement is played on TV, a follow-up report may be output by voice from a smart speaker. In this case, the next TV advertisement may be muted. Alternatively, after playing an audio advertisement on a smart speaker, a related advertisement may be played on the TV.

音声広告配信システムはスマートスピーカを介して取得したユーザの発話から声紋を取得し、声紋認証によりユーザ認証を行う機能を有する。また、音声広告配信システムはWebサービスやSNSなどの他のサービスと連携しており、音声広告配信システムにおける認証ユーザと、他のサービスにおけるユーザのアカウントと、を関連付けることができる。この場合、音声広告配信システムは、認証ユーザに対して、認証ユーザのアカウントに紐付く音声広告を選択してもよい。例えば、音声広告配信システムは、スマートスピーカで収集した情報と、アカウント属性と、に基づく音声広告を選択してもよい。また、音声広告配信システムは、スマートスピーカで収集した情報でアカウント属性を更新してもよい。 The voice advertisement distribution system has a function of obtaining a voiceprint from a user's speech obtained through a smart speaker and performing user authentication by voiceprint authentication. In addition, the voice advertisement distribution system cooperates with other services such as web services and SNS, and can associate authenticated users in the voice advertisement distribution system with user accounts in other services. In this case, the voice advertisement distribution system may select, for the authenticated user, voice advertisements associated with the account of the authenticated user. For example, the voice ad serving system may select voice ads based on information collected by smart speakers and account attributes. The voice advertisement delivery system may also update account attributes with information collected by smart speakers.

図1は、第1の実施の形態に係る音声広告配信システム2の構成を示す模式図である。音声広告配信システム2は、管理サーバ4と、スマートスピーカ10と、TV12と、を備える。管理サーバ4とスマートスピーカ10とTV12とはインターネットなどのネットワーク6を介して通信可能に接続されている。スマートスピーカ10およびTV12はいずれも、ユーザ8の部屋14に設置されている。スマートスピーカ10はマイクロフォンおよび通信機能を有するスピーカであり、上述の通りネットワーク6に接続されると共に、TV12ともP2P(Peer to Peer)通信16が可能に構成される。図1ではスマートスピーカ10と管理サーバ4とが通信する例を示しているが、スマートスピーカ10の数に制限はなく、ユーザ8の数にも制限はない。 FIG. 1 is a schematic diagram showing the configuration of a voice advertisement delivery system 2 according to the first embodiment. The voice advertisement distribution system 2 includes a management server 4, a smart speaker 10, and a TV 12. The management server 4, the smart speaker 10, and the TV 12 are communicably connected via a network 6 such as the Internet. Both smart speaker 10 and TV 12 are installed in room 14 of user 8 . The smart speaker 10 is a speaker having a microphone and a communication function, is connected to the network 6 as described above, and is configured to be capable of P2P (Peer to Peer) communication 16 with the TV 12 . Although FIG. 1 shows an example in which the smart speaker 10 and the management server 4 communicate with each other, the number of smart speakers 10 and the number of users 8 are not limited.

ユーザ8は、「何か甲村太郎の歌が聴きたい」、「今日のニュースを教えて」、「今夜の天気は?」、「出雲大社について教えて」、等の音声コンテンツの配信要求を表す文をスマートスピーカ10に向けて発話する。スマートスピーカ10のマイクロフォンはユーザ8が発話した音声を電気信号に変換し、スマートスピーカ10は変換の結果得られた電気信号を音声信号として、ネットワーク6を介して管理サーバ4に送信する。管理サーバ4は受信した音声信号に対して音声認識処理を行うことでユーザがどのような音声コンテンツの配信を求めているかを理解する。管理サーバ4は、要求された音声コンテンツに音声広告を添付した配信情報を生成し、ネットワーク6を介してスマートスピーカ10に送信する。スマートスピーカ10は、配信情報を受信すると、まず音声広告を出力し、次いで音声コンテンツを出力する。 The user 8 expresses a voice content delivery request such as "I want to listen to Taro Komura's song", "Tell me today's news", "What is the weather tonight?", "Tell me about Izumo Taisha", etc. A sentence is spoken toward the smart speaker 10 . The microphone of the smart speaker 10 converts the voice uttered by the user 8 into an electrical signal, and the smart speaker 10 transmits the resulting electrical signal as an audio signal to the management server 4 via the network 6 . The management server 4 performs speech recognition processing on the received audio signal to understand what kind of audio content the user wants to be distributed. Management server 4 generates distribution information in which a voice advertisement is attached to the requested audio content, and transmits the distribution information to smart speaker 10 via network 6 . Upon receiving the distribution information, the smart speaker 10 first outputs the voice advertisement and then outputs the voice content.

なお、スマートスピーカ10はディスプレイを備えても備えなくてもよいが、管理サーバ4から配信されるコンテンツは、静止画や動画などの画像と音声とが一体となったコンテンツではなく、画像を伴わない音声コンテンツ(または、音声のみからなるコンテンツ)である。音声広告も同様に、画像を伴わない音声広告である。 Note that the smart speaker 10 may or may not have a display, but the content delivered from the management server 4 is not content such as a still image or moving image in which an image and sound are integrated, but is accompanied by an image. audio content (or audio-only content) without Audio advertisements are similarly audio advertisements without images.

図2は、図1のスマートスピーカ10の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。 FIG. 2 is a block diagram showing the functions and configuration of smart speaker 10 of FIG. Each block shown here can be implemented by hardware such as a computer CPU and other elements and mechanical devices, and is implemented by software such as a computer program. It depicts the function blocks to be used. Therefore, those skilled in the art who have read this specification will understand that these functional blocks can be implemented in various ways by combining hardware and software.

スマートスピーカ10は、スピーカ102と、マイクロフォン104と、通信部106と、入力部108と、処理部110と、を備える。通信部106はネットワーク6との通信におけるインタフェースとして機能とし、かつ、P2P通信16におけるインタフェースとしても機能する。入力部108は電源ボタン、音量調節ボタン等の物理的な入力機構を含む。処理部110は、スピーカ102、マイクロフォン104、通信部106、入力部108を制御し、スマートスピーカ10の各種機能を実現する。 The smart speaker 10 includes a speaker 102 , a microphone 104 , a communication section 106 , an input section 108 and a processing section 110 . The communication unit 106 functions as an interface for communication with the network 6 and also functions as an interface for the P2P communication 16 . The input unit 108 includes physical input mechanisms such as a power button and volume control buttons. The processing unit 110 controls the speaker 102 , the microphone 104 , the communication unit 106 and the input unit 108 to realize various functions of the smart speaker 10 .

本実施の形態では、ユーザの発話をマイクロフォン104が音声信号に変換し、通信部106が音声信号を管理サーバ4に送信し、管理サーバ4が音声信号に音声認識処理を施すことを想定している。しかしながら、スマートスピーカにおいて少なくとも一部の音声認識処理が行われる場合や、スマートスピーカにおいて後述の音声コンテンツ取得処理や音声広告選択処理が行われる場合や、スマートスピーカがスタンドアローンである場合にも、本実施の形態の技術的思想を適用可能である。なお、スマートスピーカで行われた音声認識の結果を管理サーバに送ること、および、スマートスピーカから音声信号をそのまま管理サーバに送ること、はいずれも、ユーザの発話に対応する音声情報を管理サーバに送ると言いうるものである。 In the present embodiment, it is assumed that the microphone 104 converts the user's utterance into a voice signal, the communication unit 106 transmits the voice signal to the management server 4, and the management server 4 performs voice recognition processing on the voice signal. there is However, even if the smart speaker performs at least a part of the voice recognition process, the smart speaker performs the voice content acquisition process and the voice advertisement selection process described later, or the smart speaker is standalone, The technical ideas of the embodiments are applicable. Sending the result of voice recognition performed by the smart speaker to the management server and sending the voice signal from the smart speaker to the management server without modification are both methods of sending voice information corresponding to the user's utterance to the management server. It is said to send.

図3は、図1の管理サーバ4のハードウエア構成図である。管理サーバ4は、メモリ130と、プロセッサ132と、通信インタフェース134と、ディスプレイ136と、入力インタフェース138と、を含む。これらの要素はそれぞれバス140に接続され、バス140を介して互いに通信する。 FIG. 3 is a hardware configuration diagram of the management server 4 of FIG. Management server 4 includes memory 130 , processor 132 , communication interface 134 , display 136 and input interface 138 . These elements are each connected to bus 140 and communicate with each other via bus 140 .

メモリ130は、データやプログラムを記憶するための記憶領域である。データやプログラムは、メモリ130に恒久的に記憶されてもよいし、一時的に記憶されてもよい。プロセッサ132は、メモリ130に記憶されているプログラムを実行することにより、管理サーバ4における各種機能を実現する。通信インタフェース134は、管理サーバ4の外部との間でデータの送受信を行うためのインタフェースである。例えば、通信インタフェース134はネットワーク6にアクセスするためのインタフェースを含む。ディスプレイ136は、各種情報を表示するためのデバイスであり、例えば、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイなどである。入力インタフェース138は、ユーザからの入力を受け付けるためのデバイスである。入力インタフェース138は、例えば、マウスやキーボードやディスプレイ138上に設けられたタッチパネルを含む。 The memory 130 is a storage area for storing data and programs. Data and programs may be stored in memory 130 permanently or temporarily. The processor 132 realizes various functions in the management server 4 by executing programs stored in the memory 130 . The communication interface 134 is an interface for transmitting and receiving data to and from the outside of the management server 4 . For example, communication interface 134 includes an interface for accessing network 6 . The display 136 is a device for displaying various information, such as a liquid crystal display or an organic EL (Electroluminescence) display. The input interface 138 is a device for receiving input from the user. The input interface 138 includes, for example, a mouse, a keyboard, and a touch panel provided on the display 138 .

図4は、図1の管理サーバ4の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。 FIG. 4 is a block diagram showing the functions and configuration of the management server 4 of FIG. Each block shown here can be implemented by hardware such as a computer CPU and other elements and mechanical devices, and is implemented by software such as a computer program. It depicts the function blocks to be used. Therefore, those skilled in the art who have read this specification will understand that these functional blocks can be implemented in various ways by combining hardware and software.

管理サーバ4は、音声コンテンツ保持部402と、音声広告保持部404と、音声情報保持部406と、ユーザ情報保持部408と、セッション情報保持部410と、音声信号受付部412と、音声認識部414と、ユーザ認証部416と、セッション管理部418と、コンテンツ取得部420と、広告選択部422と、広告調整部424と、送信情報生成部426と、送信部428と、タイミング制御部430と、属性更新部432と、を備える。 The management server 4 includes a voice content storage unit 402, a voice advertisement storage unit 404, a voice information storage unit 406, a user information storage unit 408, a session information storage unit 410, a voice signal reception unit 412, and a voice recognition unit. 414, a user authentication unit 416, a session management unit 418, a content acquisition unit 420, an advertisement selection unit 422, an advertisement adjustment unit 424, a transmission information generation unit 426, a transmission unit 428, and a timing control unit 430. , and an attribute update unit 432 .

図5は、図4の音声コンテンツ保持部402の一例を示すデータ構造図である。音声コンテンツ保持部402は、音声コンテンツを特定するコンテンツIDと、音声コンテンツを特徴付けるキーワードと、音声コンテンツのデータと、を対応付けて保持する。キーワードに加えてまたは代えて、タグなどの他のメタデータが用いられてもよい。 FIG. 5 is a data structure diagram showing an example of the audio content holding unit 402 of FIG. The audio content holding unit 402 associates and holds a content ID that identifies audio content, a keyword that characterizes the audio content, and audio content data. Other metadata such as tags may be used in addition to or instead of keywords.

音声コンテンツ保持部402に保持されるデータは、予めまたは要求に応じて管理サーバ4によって生成され登録されたデータであってもよい。音声コンテンツのデータを作成する際に、公知の音声合成技術が用いられてもよい。あるいはまた、音声コンテンツ保持部402に保持されるデータは、予めまたは要求に応じて管理サーバ4が他のサービスのサーバから取得したデータであってもよい。 The data held in the audio content holding unit 402 may be data generated and registered by the management server 4 in advance or in response to a request. A well-known speech synthesis technique may be used to create audio content data. Alternatively, the data held in the audio content holding unit 402 may be data acquired by the management server 4 from another service server in advance or in response to a request.

図6は、図4の音声広告保持部404の一例を示すデータ構造図である。音声広告保持部404は、音声広告を特定する広告IDと、音声広告を特徴付けるキーワードと、音声広告の属性と、音声広告のデータと、を対応付けて保持する。キーワードに加えてまたは代えて、タグなどの他のメタデータが用いられてもよい。音声広告保持部404に保持されるデータは、管理サーバ4を運用する主体が広告主から受領したデータであってもよい。 FIG. 6 is a data structure diagram showing an example of the voice advertisement holding unit 404 of FIG. The voice advertisement holding unit 404 associates and holds an advertisement ID specifying a voice advertisement, a keyword characterizing the voice advertisement, attributes of the voice advertisement, and data of the voice advertisement. Other metadata such as tags may be used in addition to or instead of keywords. The data held in the voice advertisement holding unit 404 may be data received from the advertiser by the entity operating the management server 4 .

図7は、図4の音声情報保持部406の一例を示すデータ構造図である。音声情報保持部406は、スマートスピーカ10のマイクロフォン104を介して取得された音声情報を保持する。音声情報は、後述の音声認識部414にて音声信号を音声認識することにより得られるユーザの発話内容を含む。音声情報保持部406は、ユーザを特定するユーザIDと、スマートスピーカ10とユーザとの対話セッションのセッションIDと、対話セッションにおけるユーザまたはシステムの発話内容と、を対応付けて保持する。なお、音声情報保持部406は、システムの発話内容に対応するユーザIDとしてシステム固有のIDを保持する。 FIG. 7 is a data structure diagram showing an example of the voice information holding unit 406 in FIG. The voice information holding unit 406 holds voice information acquired via the microphone 104 of the smart speaker 10 . The voice information includes the content of the user's utterance obtained by voice recognition of the voice signal by the voice recognition unit 414, which will be described later. The voice information holding unit 406 associates and holds a user ID that identifies a user, a session ID of an interactive session between the smart speaker 10 and the user, and utterance content of the user or the system in the interactive session. Note that the voice information holding unit 406 holds an ID unique to the system as a user ID corresponding to the contents of the system's speech.

図8は、図4のユーザ情報保持部408の一例を示すデータ構造図である。ユーザ情報保持部408は、ユーザIDと、ユーザの声紋のデータと、他のサービスにおけるユーザのアカウントを特定するアカウントIDと、アカウントの属性と、ユーザが不快に感じた広告を特定するNG広告IDと、を対応付けて保持する。声紋のデータは、ユーザの音声広告配信システム2への初回登録時に取得されてもよい。 FIG. 8 is a data structure diagram showing an example of the user information holding unit 408 in FIG. The user information holding unit 408 stores the user ID, the user's voiceprint data, the account ID that identifies the user's account in other services, the attributes of the account, and the NG advertisement ID that identifies the advertisement that the user finds offensive. and are stored in association with each other. The voiceprint data may be obtained when the user first registers with the voice advertisement distribution system 2 .

図9は、図4のセッション情報保持部410の一例を示すデータ構造図である。セッション情報保持部410は、スマートスピーカ10とユーザとの現在の対話セッションの状態を保持する。セッション情報保持部410は、現在存在しているまたは維持されている対話セッションに係るユーザのユーザIDと、該対話セッションのセッションIDと、該対話セッションの状態と、を対応付けて保持する。対話セッションの状態は、ユーザが発話中であることを示す「発話中」と、ユーザが他のユーザと会話中であることを示す「会話中」と、ユーザが発話しておらずユーザによる次の発話またはシステムによる次の発話を待っている「発話待ち」と、の三つなかから選択される。対話セッションが終了したと判定された場合、セッション情報保持部410からその対話セッションに関するエントリが削除される。すなわち、ある対話セッションのセッションIDがセッション情報保持部410に登録されていると、その対話セッションは継続中であり、その対話セッションに係るユーザがスマートスピーカ10の周囲にいると判定される。 FIG. 9 is a data structure diagram showing an example of the session information holding unit 410 of FIG. The session information holding unit 410 holds the state of the current interactive session between the smart speaker 10 and the user. The session information holding unit 410 associates and holds the user ID of the user associated with the currently existing or maintained interactive session, the session ID of the interactive session, and the state of the interactive session. The states of the dialog session are "talking" indicating that the user is speaking, "talking" indicating that the user is talking with another user, and "talking" indicating that the user is speaking and the user is not speaking. utterance or "waiting for utterance" waiting for the next utterance by the system. If it is determined that the interactive session has ended, the entry regarding that interactive session is deleted from the session information holding unit 410 . That is, when the session ID of a certain interactive session is registered in the session information holding unit 410 , it is determined that the interactive session is ongoing and the user involved in the interactive session is around the smart speaker 10 .

図4に戻り、音声信号受付部412は、スマートスピーカ10からネットワーク6を介して、ユーザの発話内容を表す音声信号を受け付ける。上述の通り音声信号は、ユーザの発話音声をマイクロフォン104で変換した電気信号であり、特に音声の波形を表す電気信号である。発話内容は、スマートスピーカ10(または音声広告配信システム2)への問いかけ・応答と、ひとり言と、他のユーザとの会話と、を含む。 Returning to FIG. 4 , the audio signal reception unit 412 receives an audio signal representing the content of the user's utterance from the smart speaker 10 via the network 6 . As described above, the audio signal is an electrical signal obtained by converting the user's uttered voice with the microphone 104, and particularly an electrical signal representing the waveform of the voice. The content of the utterance includes a question/response to the smart speaker 10 (or the voice advertisement delivery system 2), a soliloquy, and a conversation with another user.

音声認識部414は、音声信号受付部412が受け付けた音声信号に対して所定の音声認識処理を施す。音声認識部414は音声認識により音声信号からユーザの発話内容を導出する。音声認識部414における音声認識処理は、n-gramや隠れマルコフモデルを用いる公知の音声認識技術を用いて実現されてもよい。 The voice recognition unit 414 performs predetermined voice recognition processing on the voice signal received by the voice signal receiving unit 412 . A voice recognition unit 414 derives the user's utterance content from the voice signal by voice recognition. The speech recognition processing in the speech recognition unit 414 may be realized using known speech recognition technology using n-grams or hidden Markov models.

ユーザ認証部416は、音声信号受付部412が受け付けた音声信号から声紋を抽出または取得する。ユーザ認証部416は、抽出された声紋に基づくユーザ認証(すなわち、声紋認証)を行う。ユーザ認証部416はユーザ情報保持部408を参照し、ユーザ情報保持部408に保持されている声紋のなかに抽出された声紋と一致する声紋があるか否かを判定する。ユーザ認証部416は、一致する声紋があればその声紋に対応するユーザIDを特定し、特定されたユーザIDと音声認識部414において導出された発話内容とを対応付ける。この場合、音声信号受付部412が受け付けた音声信号に対応する発話を行ったユーザは、管理サーバ4によって声紋認証されたこととなる。ユーザ認証部416は、一致する声紋がなければ、一致なしまたはユーザ不明を表す出力を生成する。管理サーバ4はこの出力に応じてユーザの新規登録を開始してもよい。 User authentication unit 416 extracts or acquires a voiceprint from the audio signal received by audio signal reception unit 412 . A user authentication unit 416 performs user authentication (that is, voiceprint authentication) based on the extracted voiceprint. The user authentication unit 416 refers to the user information holding unit 408 and determines whether or not there is a voiceprint that matches the extracted voiceprint among the voiceprints held in the user information holding unit 408 . If there is a matching voiceprint, user authentication unit 416 identifies the user ID corresponding to the voiceprint, and associates the identified user ID with the utterance content derived by speech recognition unit 414 . In this case, the user who has made an utterance corresponding to the audio signal received by the audio signal receiving unit 412 has been voiceprint-authenticated by the management server 4 . If there is no matching voiceprint, user authenticator 416 produces an output indicating no match or user unknown. The management server 4 may start new user registration according to this output.

セッション管理部418は、スマートスピーカ10とユーザとの対話セッションを管理する。セッション管理部418は、音声情報保持部406とセッション情報保持部410とを管理する。セッション管理部418は、ユーザ認証部416によって対応付けられたユーザIDおよび発話内容に、スマートスピーカ10とそのユーザとの対話セッションを特定するセッションIDを対応付けて音声情報保持部406に登録する。 The session manager 418 manages interactive sessions between the smart speaker 10 and the user. A session management unit 418 manages the voice information storage unit 406 and the session information storage unit 410 . The session management unit 418 associates the user ID and the utterance content associated by the user authentication unit 416 with a session ID that identifies an interactive session between the smart speaker 10 and the user, and registers them in the voice information holding unit 406 .

セッション管理部418は、ユーザ認証部416によって対応付けられたユーザIDおよび発話内容に基づいてスマートスピーカ10とそのユーザとの現在の対話セッションの状態を決定する。セッション管理部418は、決定された状態でセッション情報保持部410を更新する。例えば、セッション管理部418は、発話内容の解析結果が発言の途中であることを示す場合、現在の対話セッションの状態を「発話中」に決定する。セッション管理部418は、発話内容の解析結果が発言の終わりであることを示す場合、現在の対話セッションの状態を「発話待ち」に決定する。セッション管理部418は、発話内容の解析結果が対話セッションの終了を示す場合(例えば、発話内容が「またね」や「バイバイ」などの対話セッションの終了を示す語である場合)、該対話セッションのセッションIDを有する全てのエントリをセッション情報保持部410から削除する。セッション管理部418は「発話待ち」状態のまま所定の期間が経過した対話セッションをセッション情報保持部410から削除してもよい。ここで、発話内容に基づいて対話セッションの状態を決定したが、発話内容に代えて、又は、発話内容に加えて、別途備えられたカメラからの撮像情報から対話セッションの状態を決定してもよい。ここでのカメラはスマートスピーカ10自体に配設されていてもよいし、通信機能を有するカメラ単体を別途用いてもよいし、カメラ機能を有するテレビ又はカメラ機能を有するコンピュータを別途用いてもよい。 Session management unit 418 determines the state of the current interactive session between smart speaker 10 and the user based on the user ID and speech content associated by user authentication unit 416 . The session management unit 418 updates the session information holding unit 410 with the determined state. For example, when the analysis result of the utterance content indicates that the utterance is in the middle of the utterance, the session management unit 418 determines the state of the current dialogue session to be "speaking". When the analysis result of the utterance content indicates that the utterance has ended, the session management unit 418 determines the state of the current dialogue session to be "waiting for utterance." If the analysis result of the speech content indicates the end of the dialogue session (for example, if the speech content is a word indicating the end of the dialogue session such as "see you" or "bye-bye"), the session management unit 418 deletes all entries having session IDs from the session information holding unit 410 . The session management unit 418 may delete from the session information holding unit 410 an interactive session that has remained in the “waiting for speech” state for a predetermined period of time. Here, the state of the dialogue session is determined based on the contents of the utterance, but instead of or in addition to the contents of the utterance, the state of the dialogue session may also be determined from imaging information from a separately provided camera. good. The camera here may be arranged in the smart speaker 10 itself, or a separate camera having a communication function may be used separately, or a TV having a camera function or a computer having a camera function may be used separately. .

コンテンツ取得部420は、音声認識部414において導出された発話内容が音声コンテンツの配信要求を含む場合、要求されている音声コンテンツを音声コンテンツ保持部402から取得する。例えば、発話内容が「何か甲村太郎の歌が聴きたい」などの音楽コンテンツの配信要求である場合、コンテンツ取得部420は要求されている音楽コンテンツを音声コンテンツ保持部402から取得する。あるいはまた、コンテンツ取得部420は、音楽配信サービスのサーバにアクセスし、要求されている音楽コンテンツをメタデータと共にそのサーバから取得してもよい。この場合、コンテンツ取得部420は取得した音楽コンテンツおよびメタデータを音声コンテンツ保持部402に登録してもよい。 Content acquisition section 420 acquires the requested audio content from audio content holding section 402 when the utterance content derived by audio recognition section 414 includes a request for distribution of audio content. For example, when the content of the utterance is a music content distribution request such as “I want to hear some Taro Komura song”, the content acquisition unit 420 acquires the requested music content from the audio content holding unit 402 . Alternatively, the content acquisition unit 420 may access the server of the music distribution service and acquire the requested music content together with the metadata from the server. In this case, the content acquisition unit 420 may register the acquired music content and metadata in the audio content holding unit 402 .

発話内容が「今日のニュースを教えて」、「今夜の天気は?」などの情報コンテンツの配信要求である場合、コンテンツ取得部420は要求されている情報コンテンツを音声コンテンツ保持部402から取得する。あるいはまた、コンテンツ取得部420は、情報配信サービスのサーバにアクセスし、要求されている情報コンテンツをテキスト形式でメタデータと共にそのサーバから取得してもよい。この場合、コンテンツ取得部420は、所定の音声合成処理を用いることで、取得したテキスト形式の情報コンテンツを音声データに変換してもよい。コンテンツ取得部420は、音声データとなった情報コンテンツおよびメタデータを音声コンテンツ保持部402に登録してもよい。音声合成処理は、公知の音声合成技術を用いて実現されてもよい。 If the utterance content is a request for distribution of information content such as "Tell me today's news" or "What is the weather tonight?" . Alternatively, the content acquisition unit 420 may access the server of the information distribution service and acquire the requested information content in text form together with the metadata from the server. In this case, the content acquisition unit 420 may convert the acquired text-format information content into audio data by using a predetermined speech synthesis process. The content acquisition unit 420 may register the information content and metadata that have become audio data in the audio content holding unit 402 . The speech synthesis process may be implemented using known speech synthesis technology.

発話内容が「出雲大社について教えて」などの検索結果の配信要求である場合、コンテンツ取得部420は要求されている検索結果を音声コンテンツ保持部402から取得する。あるいはまた、コンテンツ取得部420は、検索サービスのサーバにアクセスし、要求されている検索結果をテキスト形式でメタデータと共にそのサーバから取得してもよい。この場合、コンテンツ取得部420は、所定の音声合成処理を用いることで、取得したテキスト形式の検索結果を音声データに変換してもよい。コンテンツ取得部420は、音声データとなった検索結果およびメタデータを音声コンテンツ保持部402に登録してもよい。 If the utterance content is a search result delivery request such as “Tell me about Izumo Taisha”, the content acquisition unit 420 acquires the requested search results from the audio content holding unit 402 . Alternatively, the content acquisition unit 420 may access the server of the search service and acquire the requested search result in text form together with the metadata from the server. In this case, the content acquisition unit 420 may convert the acquired search results in text format into voice data by using a predetermined voice synthesis process. The content acquisition unit 420 may register the search results and metadata that have become audio data in the audio content holding unit 402 .

広告選択部422は、コンテンツ取得部420によって取得された音声コンテンツに添付すべき音声広告を、音声広告保持部404から選択する。広告選択部422における音声広告の選択の基準は、(1)コンテンツ取得部420によって取得された音声コンテンツの内容との関連性、(2)音声情報保持部406に保持される、スマートスピーカ10とユーザとの現在の対話セッションにおけるユーザの発話内容との関連性、(3)認証されたユーザのアカウントの属性との関連性、のうちのいずれかまたはそれらの任意の組み合わせである。 The advertisement selection unit 422 selects a voice advertisement to be attached to the audio content acquired by the content acquisition unit 420 from the voice advertisement holding unit 404 . The criteria for selection of the voice advertisement in the advertisement selection unit 422 are (1) relevance to the content of the voice content acquired by the content acquisition unit 420, and (2) smart speaker 10 and (3) relevance to attributes of the authenticated user's account, or any combination thereof;

例えば、(1)について、「出雲大社について教えて」という検索結果の配信要求に対して、コンテンツ取得部420によって「出雲大社は、古くは…」という音声コンテンツの音声データが取得される。広告選択部422はコンテンツ取得部420によって取得された「出雲大社は、古くは…」に対応するキーワード「出雲大社、神、縁結び」を音声コンテンツ保持部402から取得する。広告選択部422は、音声広告保持部404を参照し、取得したキーワード「出雲大社、神、縁結び」に対応するキーワード「出雲大社、縁結び」を有する「出雲大社に旅行に行きたい?それならABC旅行者に相談だ」という音声広告の音声データを選択する。このように、音声コンテンツのキーワードと音声広告のキーワードとを比較することにより、コンテンツ取得部420によって取得された音声コンテンツの内容に対応する音声広告が広告選択部422によって選択される。 For example, with respect to (1), in response to a search result distribution request of "Tell me about Izumo Taisha", the content acquisition unit 420 acquires audio data of audio content of "Izumo Taisha used to be...". The advertisement selection unit 422 acquires the keyword “Izumo Taisha, god, marriage” corresponding to “Izumo Taisha was old…” acquired by the content acquisition unit 420 from the voice content holding unit 402 . The advertisement selection unit 422 refers to the voice advertisement storage unit 404, and selects the keyword "Izumo Taisha, matchmaking" corresponding to the acquired keyword "Izumo Taisha, God, matchmaking" and selects "Want to go on a trip to Izumo Taisha? Then ABC travel". Select the voice data of the voice advertisement "Please consult with the person." By comparing the keyword of the audio content and the keyword of the audio advertisement in this way, the advertisement selection unit 422 selects the audio advertisement corresponding to the content of the audio content acquired by the content acquisition unit 420 .

例えば、(2)について、スマートスピーカ10とユーザとの間で
(ユーザ)「駅までタクシーで間に合う?」
(スマートスピーカ10)「間に合います」
(ユーザ)「今夜の天気は?」
という対話が行われているとする。「今夜の天気は?」という情報コンテンツの配信要求に対して、コンテンツ取得部420によって「今夜のC地方の天気はにわか雨、気温は…」という音声コンテンツの音声データが取得される。広告選択部422は、音声情報保持部406を参照し、スマートスピーカ10とユーザとの現在の対話セッションにおけるユーザの発話内容として「駅までタクシーで間に合う?」を特定する。広告選択部422は特定された「駅までタクシーで間に合う?」という発話内容から「駅、タクシー」というキーワードを抽出する。広告選択部422は、音声広告保持部404を参照し、抽出されたキーワード「駅、タクシー」に対応するキーワード「タクシー、配車」を有する「すぐくるZZZタクシー配車サービス」という音声広告の音声データを選択する。このように、音声情報保持部406を参照することにより、広告選択部422は、スマートスピーカ10とユーザとの現在の対話セッションにおけるユーザの発話内容に基づいて音声広告を選択することができる。
For example, regarding (2), between the smart speaker 10 and the user, (user) asks, "Are you ready to take a taxi to the station?"
(Smart speaker 10) "I'll make it in time"
(User) "What's the weather like tonight?"
Suppose that a dialogue is taking place. In response to the information content delivery request "What is the weather tonight?" The advertisement selection unit 422 refers to the voice information storage unit 406 and identifies "Can I take a taxi to the station?" The advertisement selection unit 422 extracts the keyword "station, taxi" from the specified utterance content of "Will a taxi make it to the station?". The advertisement selection unit 422 refers to the voice advertisement holding unit 404, and selects the voice data of the voice advertisement "Sugukuru ZZZ taxi dispatch service" having the keyword "taxi, dispatch" corresponding to the extracted keyword "station, taxi". select. In this way, by referring to the voice information holding unit 406, the advertisement selection unit 422 can select a voice advertisement based on the content of the user's utterance in the current interaction session between the smart speaker 10 and the user.

なお、上記の例において(2)ではなく(1)の基準が用いられる場合、広告選択部422はコンテンツ取得部420によって取得された「今夜のC地方の天気はにわか雨、気温は…」に対応するキーワード「C地方、雨、低温」を音声コンテンツ保持部402から取得する。広告選択部422は、音声広告保持部404を参照し、取得したキーワード「C地方、雨、低温」に対応するキーワード「傘、雨」を有する「CB社のハイパー傘は10年壊れません!」という音声広告の音声データを選択する。このように、スマートスピーカ10とユーザとの対話の内容が同じでも、用いる基準によって選択される音声広告が異なる場合がある。 Note that, in the above example, when the criterion (1) is used instead of (2), the advertisement selection unit 422 corresponds to "Tonight's weather in region C is showery, the temperature is..." acquired by the content acquisition unit 420. The keyword “C region, rain, low temperature” is acquired from the audio content holding unit 402 . The advertisement selection unit 422 refers to the voice advertisement storage unit 404 and selects "CB company's hyper umbrella will not break for 10 years!" ” is selected as the audio data of the voice advertisement. In this way, even if the content of the interaction between the smart speaker 10 and the user is the same, the selected voice advertisement may differ depending on the criteria used.

例えば、(3)について、「今日のニュースを教えて」という情報コンテンツの配信要求に対して、コンテンツ取得部420によって「今朝6時頃、A県B市で火事があり、…」という音声コンテンツの音声データが取得される。併せて、ユーザ認証部416における声紋認証により「今日のニュースを教えて」の発話主のユーザが認証され、該ユーザのユーザID「B102」が特定される。広告選択部422は、特定されたユーザID「B102」に対応するアカウントの属性「子供、男性、独身」をユーザ情報保持部408から取得する。広告選択部422は、音声広告保持部404を参照し、取得した属性「子供、男性、独身」に対応する属性「子供、男性」を有する「F市に来たら、SLに乗れるよ」という音声広告の音声データを選択する。また、特定されたユーザID「B102」に対応するアカウントの属性が「大人、女性、独身」であったなら、広告選択部422は、音声広告保持部404を参照し、その属性に対応する属性「独身、大人」を有する「出雲大社に旅行に行きたい?それならABC旅行社に相談だ」という音声広告の音声データを選択する。このように、認証されたユーザのアカウントの属性と音声広告の属性とを比較することにより、認証されたユーザのアカウントの属性に対応する音声広告が広告選択部422によって選択される。 For example, regarding (3), in response to an information content distribution request of "Tell me about today's news", the content acquisition unit 420 generates voice content of "There was a fire in B city, A prefecture around 6 o'clock this morning." voice data is acquired. At the same time, the user who is the utterer of "Tell me today's news" is authenticated by voiceprint authentication in the user authentication unit 416, and the user ID "B102" of this user is specified. The advertisement selection unit 422 acquires from the user information holding unit 408 the account attributes “child, male, single” corresponding to the specified user ID “B102”. The advertisement selection unit 422 refers to the voice advertisement holding unit 404, and selects a voice saying "If you come to F city, you can ride a steam locomotive." Select audio data for ads. Also, if the attribute of the account corresponding to the specified user ID “B102” is “adult, female, single”, the advertisement selection unit 422 refers to the voice advertisement holding unit 404 and selects the attribute corresponding to the attribute. Select the voice data of the voice advertisement "Do you want to go on a trip to Izumo Taisha? If so, consult with ABC travel agency" having "single, adult". By comparing the attribute of the account of the authenticated user and the attribute of the voice advertisement in this manner, the advertisement selector 422 selects the voice advertisement corresponding to the attribute of the account of the authenticated user.

あるいはまた、特定されたユーザID「B102」に対応するアカウントの属性が「大人、男性、既婚」であったなら、広告選択部422はまずその属性に対応する「クリスマスプレゼントなら、XX貴金属の指輪がお勧めです」、「火災保険ならXYZ火災海上保険にお任せを」、「すぐくるZZZタクシー配車サービス」、「出雲大社に旅行に行きたい?それならABC旅行社に相談だ」の四つの音声広告を候補として選択する。さらに広告選択部422は、コンテンツ取得部420によって取得された「今朝6時頃、A県B市で火事があり、…」に対応するキーワード「A県、B市、火事」を音声コンテンツ保持部402から取得する。広告選択部422は、選択した四つの候補のうち、取得したキーワード「A県、B市、火事」に対応するキーワード「火事、火災、保険」を有する「火災保険ならXYZ火災海上保険にお任せを」という音声広告の音声データを選択する。このように、(3)の基準で候補を選択し、(1)の基準で絞り込む、という形での(1)の基準と(3)の基準との組み合わせも可能である。 Alternatively, if the attribute of the account corresponding to the specified user ID “B102” is “adult, male, married”, the advertisement selection unit 422 first selects “Christmas gift, XX precious metal ring” corresponding to the attribute. is recommended", "For fire insurance, leave it to XYZ Fire and Marine Insurance", "ZZZ Taxi Dispatch Service", "Want to go on a trip to Izumo Taisha Shrine? If so, consult with ABC Travel Agency". is selected as a candidate. Further, the advertisement selection unit 422 selects the keyword "A prefecture, B city, fire" corresponding to "At about 6 o'clock this morning, there was a fire in B city, A prefecture, ..." acquired by the content acquisition unit 420, and puts it into the voice content storage unit. 402. Advertisement selection unit 422 selects "XYZ fire and marine insurance for fire insurance" having keywords "fire, fire, insurance" corresponding to the acquired keywords "A prefecture, B city, fire" among the four selected candidates. Select the voice data of the voice advertisement "to". In this way, it is possible to combine criteria (1) and criteria (3) in such a way that candidates are selected based on criteria (3) and narrowed down based on criteria (1).

例えば、スマートスピーカ10とユーザとの間で
(ユーザ)「何か甲村太郎の歌が聴きたい」
(スマートスピーカ10)「クリスマスソングなどいかがでしょうか?」
(ユーザ)「じゃあ、それで」
という対話が行われているとする。「何か甲村太郎の歌が聴きたい」という音楽コンテンツの配信要求に対して、コンテンツ取得部420によって甲村太郎のクリスマスソングの音声データが取得される。管理サーバ4は、スマートスピーカ10を介してユーザに、クリスマスソングでよいか問い合わせる。管理サーバ4は、ユーザの「じゃあ、それで」という肯定の応答を受けると、取得した甲村太郎のクリスマスソングの音声データに音声広告を付してスマートスピーカ10に送信する。ここで、広告選択部422はコンテンツ取得部420によって取得された甲村太郎のクリスマスソングに対応するキーワード「甲村太郎(作詞作曲)、乙アニメ(主題歌)、丙映画(挿入歌)、クリスマスソング、指輪」を音声コンテンツ保持部402から取得する。広告選択部422は、音声広告保持部404を参照し、取得したキーワード「甲村太郎(作詞作曲)、乙アニメ(主題歌)、丙映画(挿入歌)、クリスマスソング、指輪」に対応するキーワードを有する「乙アニメ、金曜午後6時から、放送中!」(キーワード:「乙アニメ、金曜、午後6時」)および「クリスマスプレゼントなら、XX貴金属の指輪がお勧めです」(キーワード:「クリスマス、プレゼント、指輪」)の二つの音声広告を候補として選択する。さらに広告選択部422は、声紋認証により認証されたユーザのユーザID「A101」に対応するアカウントの属性「大人、男性、既婚」をユーザ情報保持部408から取得する。広告選択部422は、選択した二つの候補のうち、取得した属性「大人、男性、既婚」に対応する属性「大人」を有する「クリスマスプレゼントなら、XX貴金属の指輪がお勧めです」という音声広告の音声データを選択する。また、声紋認証により認証されたユーザのユーザIDが「A105」であったなら、広告選択部422は、選択した二つの候補のうち、取得した属性「子供、女性、独身」に対応する属性「女性、子供」を有する「乙アニメ、金曜午後6時から、放送中!」という音声広告の音声データを選択する。このように、(1)の基準で候補を選択し、(3)の基準で絞り込む、という形での(1)の基準と(3)の基準との組み合わせも可能である。
For example, between the smart speaker 10 and the user (the user), "I want to hear a song by Taro Komura."
(Smart speaker 10) "How about a Christmas song?"
(User) "Okay then."
Suppose that a dialogue is taking place. In response to a music content distribution request such as "I want to listen to some song by Taro Komura", the content acquisition unit 420 acquires audio data of Taro Komura's Christmas song. The management server 4 inquires of the user via the smart speaker 10 whether a Christmas song is acceptable. When the management server 4 receives the user's affirmative response of “Well then, then”, the management server 4 attaches a voice advertisement to the acquired voice data of Taro Komura's Christmas song and transmits the voice data to the smart speaker 10 . Here, the advertisement selection unit 422 selects keywords corresponding to Taro Komura's Christmas song acquired by the content acquisition unit 420: ring” is acquired from the audio content holding unit 402 . The advertisement selection unit 422 refers to the voice advertisement holding unit 404, and selects a keyword corresponding to the acquired keyword "Taro Komura (lyrics and composition), Otsu anime (theme song), Hei movie (insertion song), Christmas song, ring". "Otsu anime, on air from 6:00 pm on Fridays!" A present, a ring”) are selected as candidates. Further, the advertisement selection unit 422 acquires from the user information holding unit 408 the account attributes “adult, male, married” corresponding to the user ID “A101” of the user authenticated by voiceprint authentication. The advertisement selection unit 422 selects a voice advertisement saying "XX precious metal ring is recommended for a Christmas present" having the attribute "adult" corresponding to the acquired attribute "adult, male, married" among the two selected candidates. select the audio data of Further, if the user ID of the user authenticated by voiceprint authentication is "A105", the advertisement selection unit 422 selects the attribute " Select the voice data of the voice advertisement "Anime Otsu, on air from 6:00 pm on Friday!" In this way, it is possible to combine criteria (1) and criteria (3) in such a way that candidates are selected based on criteria (1) and narrowed down based on criteria (3).

また、(1)の基準と(2)の基準との組み合わせや(2)の基準と(3)の基準との組み合わせや(1)、(2)、(3)の三つの基準の組み合わせも可能である。
あるいはまた、(1)、(2)、(3)の基準以外にも、スマートスピーカ10が集音したスマートスピーカ10の周囲の物音やユーザ同士の会話に基づいて音声広告が選択されてもよい。例えば、ユーザと他のユーザとの間で交わされた「ティッシュペーパーがないね」、「そうだね、ECサイトで頼もうか」という会話をスマートスピーカ10が拾っていた場合、広告選択部422はその会話内容から「ティッシュペーパー」というキーワードを抽出し、抽出された「ティッシュペーパー」を宣伝する音声広告を選択してもよい。また、例えば、犬や猫の鳴き声をスマートスピーカ10が拾っていた場合、広告選択部422はその鳴き声から「犬、猫」というキーワードを特定し、特定された「犬、猫」に関連するドッグフードやキャットフードを宣伝する音声広告を選択してもよい。
There are also combinations of criteria (1) and (2), combinations of criteria (2) and (3), and combinations of the three criteria (1), (2), and (3). It is possible.
Alternatively, in addition to the criteria (1), (2), and (3), voice advertisements may be selected based on sounds collected by the smart speaker 10 around the smart speaker 10 or conversations between users. . For example, when the smart speaker 10 picks up a conversation exchanged between the user and another user such as "I don't have any tissue paper" and "Yes, let's order from an EC site", the advertisement selection unit 422 selects the A keyword "tissue paper" may be extracted from the content of the conversation, and a voice advertisement advertising the extracted "tissue paper" may be selected. Further, for example, if the smart speaker 10 picks up the barking of a dog or cat, the advertisement selection unit 422 identifies the keyword “dog, cat” from the bark, and selects dog food related to the identified “dog, cat”. Or an audio ad advertising cat food.

広告調整部424は、広告選択部422によって選択された音声広告の長さを調整するか否かを判定する。広告調整部424は、調整すると判定された場合、選択された音声広告に所定の抽出アルゴリズムを適用することにより該音声広告から一部分(例えば、比較的重要な部分)を抽出する。広告調整部424は音声広告の長さを調整するか否かを、コンテンツ取得部420によって取得された音声コンテンツの内容および/またはスマートスピーカ10とユーザとの現在の対話セッションの状態に基づいて判定してもよい。 Advertisement adjustment unit 424 determines whether to adjust the length of the voice advertisement selected by advertisement selection unit 422 . Advertisement adjuster 424, if determined to adjust, extracts a portion (eg, a relatively important portion) from the selected voice advertisement by applying a predetermined extraction algorithm to the voice advertisement. The advertisement adjustment unit 424 determines whether to adjust the length of the audio advertisement based on the content of the audio content acquired by the content acquisition unit 420 and/or the state of the current interaction session between the smart speaker 10 and the user. You may

例えば、広告調整部424はセッション情報保持部410を参照し、選択された音声広告に対応するセッションの状態が「会話中」である場合は調整すると判定し、「発話待ち」であれば調整しないと判定してもよい。あるいはまた、広告調整部424は、コンテンツ取得部420によって取得された音声コンテンツの内容に基づいて音声広告の長さを決定してもよい。例えば、広告調整部424は音声コンテンツの再生時間に合わせて音声広告の長さを決めてもよい。比較的長い音声コンテンツについては音声広告を複数回再生するようにしてもよい。また例えば、広告調整部424は音声コンテンツがニュースや天気予報などの情報コンテンツである場合、ユーザはより早く所望の情報を得たいと考えている蓋然性が高いので、調整すると判定してもよい。 For example, the advertisement adjusting unit 424 refers to the session information holding unit 410, and determines that adjustment is to be performed when the state of the session corresponding to the selected voice advertisement is "in conversation", and does not adjust if "waiting for speech". can be determined. Alternatively, the advertisement adjustment unit 424 may determine the length of the audio advertisement based on the content of the audio content acquired by the content acquisition unit 420 . For example, the advertisement adjuster 424 may determine the length of the audio advertisement according to the playback time of the audio content. For longer audio content, the audio advertisement may be played multiple times. Also, for example, when the audio content is information content such as news or weather forecast, the advertisement adjustment unit 424 may determine that the adjustment should be made because there is a high probability that the user wants to obtain the desired information as soon as possible.

音声広告のうち人が話している部分、人が大きな音で話している部分、背景音が段々と大きくなる部分などを重要部分として抽出する技術が知られており、ハードディスク録画機等で用いられている。所定の抽出アルゴリズムは、この公知の技術を用いて構成されてもよい。なお、広告調整部424は音声広告の長さに加えてまたは代えて、音声広告の音量を調整してもよい。 Techniques for extracting important parts of audio advertisements, such as parts in which people are speaking, parts in which people are speaking loudly, and parts in which the background sound gradually increases, are known, and are used in hard disk recorders and the like. ing. A predetermined extraction algorithm may be constructed using this known technique. Note that the advertisement adjustment unit 424 may adjust the volume of the voice advertisement in addition to or instead of the length of the voice advertisement.

送信情報生成部426は、コンテンツ取得部420によって取得された音声コンテンツと、広告選択部422によって選択された音声広告と、を合わせてひとつの送信情報を生成する。広告調整部424により音声広告の長さが調整されている場合は、広告選択部422によって選択された音声広告の代わりに、広告調整部424によって長さが調整された音声広告が用いられる。送信情報生成部426は、送信情報がスマートスピーカ10によって受信され再生されたときに、音声広告の再生が音声コンテンツの再生よりも時間的に前となるように、送信情報を構成する。例えば、送信情報がヘッダと音声コンテンツと音声広告とを含む場合、送信情報生成部426はヘッダ、音声広告、音声コンテンツの順に並ぶよう送信情報を生成してもよい。 The transmission information generation unit 426 combines the audio content acquired by the content acquisition unit 420 and the audio advertisement selected by the advertisement selection unit 422 to generate one piece of transmission information. When the length of the voice advertisement is adjusted by the advertisement adjustment unit 424, the voice advertisement whose length is adjusted by the advertisement adjustment unit 424 is used instead of the voice advertisement selected by the advertisement selection unit 422. The transmission information generator 426 configures the transmission information such that, when the transmission information is received and played by the smart speaker 10, the audio advertisement is played temporally before the audio content is played. For example, if the transmission information includes a header, audio content, and audio advertisement, the transmission information generation unit 426 may generate the transmission information such that the header, the audio advertisement, and the audio content are arranged in this order.

送信部428は、送信情報生成部426によって生成された送信情報をスマートスピーカ10に、ネットワーク6を介して送信する。スマートスピーカ10は、ネットワーク6を介して送信情報を受信すると、送信情報に含まれる音声広告をまず再生した後に、送信情報に含まれる音声コンテンツを再生する。あるいはまた、後述のタイミング制御部430がネットワーク6を介してスマートスピーカ10からの音声の出力を制御してもよい。この場合、タイミング制御部430は、スマートスピーカ10にまず送信情報に含まれる音声広告を出力させ、次いで送信情報に含まれる音声コンテンツを出力させる。いずれにせよ、音声広告と音声コンテンツとは連続的に再生される。すなわち、音声広告と音声コンテンツとの間に他の音声は存在しない。特に、音声広告は音声コンテンツの直前に再生される。 The transmission unit 428 transmits the transmission information generated by the transmission information generation unit 426 to the smart speaker 10 via the network 6 . Upon receiving the transmission information via the network 6, the smart speaker 10 first reproduces the audio advertisement contained in the transmission information, and then reproduces the audio content contained in the transmission information. Alternatively, the timing control unit 430 (to be described later) may control audio output from the smart speaker 10 via the network 6 . In this case, the timing control unit 430 causes the smart speaker 10 to first output the voice advertisement included in the transmission information and then output the voice content included in the transmission information. In either case, the audio advertisement and audio content are played continuously. That is, there is no other audio between the audio advertisement and the audio content. Specifically, the audio advertisement is played immediately before the audio content.

あるいはまた、音声広告は音声コンテンツの途中に埋め込まれてもよいし、音声コンテンツが出力された後に音声広告が出力されてもよい。 Alternatively, the audio advertisement may be embedded in the middle of the audio content, or the audio advertisement may be output after the audio content is output.

タイミング制御部430は、ネットワーク6を介してスマートスピーカ10と通信し、スマートスピーカ10からの音声出力のタイミングを制御する。タイミング制御部430はセッション情報保持部410を参照し、スマートスピーカ10の周囲にユーザが存在するか否かを判定する。タイミング制御部430は、スマートスピーカ10とユーザとの対話セッションのセッションIDがセッション情報保持部410に保持されている場合、スマートスピーカ10の周囲にユーザが存在すると判定する、またはユーザの存在を検知する。タイミング制御部430は、そのようなセッションIDがセッション情報保持部410に保持されていない場合、スマートスピーカ10の周囲にユーザが存在しないと判定する。 The timing control unit 430 communicates with the smart speaker 10 via the network 6 and controls the timing of audio output from the smart speaker 10 . The timing control unit 430 refers to the session information holding unit 410 and determines whether or not the user is present around the smart speaker 10 . When the session information holding unit 410 holds the session ID of the interactive session between the smart speaker 10 and the user, the timing control unit 430 determines that the user is present around the smart speaker 10 or detects the presence of the user. do. The timing control unit 430 determines that no user is present around the smart speaker 10 when such a session ID is not held in the session information holding unit 410 .

タイミング制御部430は、スマートスピーカ10の周囲においてユーザの存在が検知されない場合、または、セッション情報保持部410に保持されているスマートスピーカ10とユーザとの対話セッションの状態が「発話中」あるいは「会話中」となっている場合、スマートスピーカ10からの音声広告の出力を制限する。タイミング制御部430は、ユーザの存在が検知されると、スマートスピーカ10からの音声広告の出力を許可する。タイミング制御部430は、対話セッションの状態が「発話待ち」に変更されると、スマートスピーカ10からの音声広告の出力を許可する。 The timing control unit 430 determines whether the presence of the user around the smart speaker 10 is not detected, or when the state of the interactive session between the smart speaker 10 and the user held in the session information holding unit 410 is "speaking" or " In the case of "conversing", the output of the voice advertisement from the smart speaker 10 is restricted. The timing control unit 430 permits the output of the voice advertisement from the smart speaker 10 when the presence of the user is detected. The timing control unit 430 permits the output of the voice advertisement from the smart speaker 10 when the state of the interactive session is changed to "waiting for speech".

タイミング制御部430は、スマートスピーカ10に関連付けられたTV12の出力と、スマートスピーカ10から出力される音声広告とが連携するように、該音声広告の出力のタイミングを制御する。例えば、タイミング制御部430は、TV12から「続きはスピーカで!」という広告が流れ終わったタイミングで、スマートスピーカ10から「テレビで紹介したこの商品は…」という音声広告の出力が開始されるよう、スマートスピーカ10を制御する。この場合、タイミング制御部430は、TV12からネットワーク6を介して現在放映されているチャネルの番号を取得する。タイミング制御部430は予め放映のスケジュールを他のサービスのサーバから取得しておく。タイミング制御部430は、取得されたチャネルの番号と、放映のスケジュールと、から、TV12で流される広告の内容と、開始タイミングと、終了タイミングとを特定することができる。タイミング制御部430は、特定された内容に関連する音声広告を音声広告保持部404から選択し、スマートスピーカ10に送信する(音声コンテンツに付随してもしなくてもよい)。タイミング制御部430は、送信した音声広告の出力を、TV12で流される広告の終了タイミングで開始するようスマートスピーカ10を制御する。 The timing control unit 430 controls the output timing of the voice advertisement so that the output of the TV 12 associated with the smart speaker 10 and the voice advertisement output from the smart speaker 10 are coordinated. For example, the timing control unit 430 causes the smart speaker 10 to start outputting the voice advertisement "This product introduced on TV..." at the timing when the TV 12 finishes playing the advertisement "Continue with the speaker!" , controls the smart speaker 10 . In this case, the timing control section 430 acquires the number of the channel currently being broadcast from the TV 12 via the network 6 . The timing control unit 430 acquires a broadcast schedule in advance from a server of another service. The timing control unit 430 can specify the content of the advertisement to be played on the TV 12, the start timing, and the end timing from the obtained channel number and broadcast schedule. The timing control unit 430 selects audio advertisements related to the identified content from the audio advertisement holding unit 404 and transmits them to the smart speaker 10 (which may or may not accompany the audio content). The timing control unit 430 controls the smart speaker 10 to start outputting the transmitted voice advertisement at the end timing of the advertisement shown on the TV 12 .

属性更新部432は、スマートスピーカ10で収集した音声情報でユーザのアカウントの属性を更新する。例えば図8のユーザ情報保持部408に示されるアカウントIDが検索サービスのアカウントのものである場合、検索サービスのサイトを訪問したユーザにこのアカウントIDが付与される。このユーザがどのようなものを検索しているかという情報からこのユーザのアカウントの属性が導出され、図8のユーザ情報保持部408の属性として登録される。 The attribute update unit 432 updates the attribute of the user's account with the voice information collected by the smart speaker 10 . For example, if the account ID shown in the user information holding unit 408 in FIG. 8 is that of a search service account, this account ID is given to the user who visited the search service site. Attributes of the user's account are derived from information about what the user is searching for, and are registered as attributes of the user information storage unit 408 in FIG.

一方、管理サーバ4では、スマートスピーカ10とユーザとの対話の内容、および、ユーザと他のユーザとの会話の内容を解析することで、ユーザの嗜好を把握することができる。属性更新部432は、このようにスマートスピーカ10を介して把握された嗜好で、ユーザ情報保持部408の属性を更新する。属性更新部432は、更新内容をアカウントIDに関連付けて検索サービスのサーバに提供してもよい。これにより、検索サービスは、これまで検索サービスでは得られなかったユーザの嗜好を得ることができ、このようにして得た嗜好を用いてブラウザの広告出力を最適化することができる。なお、スマートスピーカ10を介して得られるユーザの嗜好、属性と、検索サービスにより把握される嗜好、属性とは、それぞれを識別可能に保持されてもよい。これにより、片方の嗜好、属性のみを用いて音声広告を選択する場合にも対応できるようになる。 On the other hand, the management server 4 can grasp the preferences of the user by analyzing the content of the conversation between the smart speaker 10 and the user and the content of the conversation between the user and other users. The attribute updating unit 432 updates the attributes of the user information holding unit 408 with the preferences grasped through the smart speaker 10 in this way. The attribute update unit 432 may associate the update content with the account ID and provide it to the search service server. As a result, the search service can obtain user preferences that have not been obtained by search services so far, and can use the preferences obtained in this way to optimize the advertisement output of the browser. Note that the user's preferences and attributes obtained through the smart speaker 10 and the preferences and attributes ascertained by the search service may be held so as to be identifiable from each other. As a result, it is possible to cope with the case of selecting a voice advertisement using only one of the preferences and attributes.

また、属性更新部432は、スマートスピーカ10から音声広告が出力されたとき、ユーザから興味無しの直接又は間接の表現をスマートスピーカ10を介して受信したか否か判定する。属性更新部432は、受信した場合、対応する出力されていた音声広告の広告IDを、ユーザのユーザIDに対応付けてNG広告IDとしてユーザ情報保持部408に登録する。広告選択部422は、音声広告を選択する際、ユーザ情報保持部408を参照し、認証されたユーザのユーザIDに対応して保持されるNG広告IDで特定される音声広告を選択の対象から除く。広告選択部422は、NG広告IDで特定される音声広告の後継の音声広告を選択の対象から除いてもよい。広告選択部422は、NG広告IDで特定される音声広告の属性やキーワードに対応するまたはそれと同じ属性やキーワードを有する音声広告を選択の対象から除いてもよい。 Also, when the voice advertisement is output from the smart speaker 10 , the attribute updating unit 432 determines whether or not a direct or indirect expression of disinterest is received from the user via the smart speaker 10 . When receiving, the attribute update unit 432 registers the advertisement ID of the corresponding output voice advertisement in the user information storage unit 408 as an NG advertisement ID in association with the user ID of the user. When selecting a voice advertisement, the advertisement selection unit 422 refers to the user information holding unit 408, and selects the voice advertisement specified by the NG advertisement ID held corresponding to the user ID of the authenticated user from the selection target. except. The advertisement selection unit 422 may exclude the voice advertisement succeeding the voice advertisement identified by the NG advertisement ID from the targets of selection. The advertisement selection unit 422 may exclude voice advertisements that correspond to or have the same attributes or keywords as the attributes or keywords of the voice advertisement specified by the NG advertisement ID from the selection target.

以上の構成による管理サーバ4の動作を説明する。
図10は、図1の管理サーバ4における一連の処理の流れを示すフローチャートである。管理サーバ4は、ネットワーク6を介してスマートスピーカ10から、音声コンテンツの配信要求を表す音声信号を受け付ける(S302)。管理サーバ4は、受け付けた音声信号に対して音声認識処理を行う(S304)ことで、要求されている音声コンテンツを特定する。管理サーバ4は、要求されている音声コンテンツを音声コンテンツ保持部402または外部から取得する(S306)。管理サーバ4は、音声広告保持部404から音声広告を選択する(S308)。管理サーバ4は、選択された音声広告の長さの調整が必要か否かを判定する(S310)。必要と判定された場合(S310のYES)、管理サーバ4は音声広告の長さを調整する(S312)。管理サーバ4は、ステップS306で取得された音声コンテンツと、ステップS308で選択された音声広告(ステップS310でNOの場合)またはステップS312で長さが調整された音声広告(ステップS310でYESの場合)と、に基づいて送信情報を生成する(S314)。管理サーバ4は、生成された送信情報をスマートスピーカ10にネットワーク6を介して送信する(S316)。管理サーバ4は、現在が音声広告を出力するのに適したタイミングであるか否かを判定する(S318)。適したタイミングである場合(S318のYES)、管理サーバ4はまずスマートスピーカ10に音声広告を出力させ(S320)、続いて音声コンテンツを出力させる(S322)。
The operation of the management server 4 configured as above will be described.
FIG. 10 is a flow chart showing a series of processes in the management server 4 of FIG. The management server 4 receives an audio signal representing an audio content distribution request from the smart speaker 10 via the network 6 (S302). The management server 4 identifies the requested audio content by performing a speech recognition process on the received audio signal (S304). The management server 4 acquires the requested audio content from the audio content holding unit 402 or the outside (S306). The management server 4 selects a voice advertisement from the voice advertisement holding unit 404 (S308). The management server 4 determines whether or not it is necessary to adjust the length of the selected voice advertisement (S310). If determined to be necessary (YES in S310), the management server 4 adjusts the length of the voice advertisement (S312). The management server 4 combines the audio content acquired in step S306 with the audio advertisement selected in step S308 (if NO in step S310) or the audio advertisement whose length was adjusted in step S312 (if YES in step S310). ), and the transmission information is generated based on (S314). The management server 4 transmits the generated transmission information to the smart speaker 10 via the network 6 (S316). The management server 4 determines whether or not the timing is suitable for outputting the voice advertisement (S318). If the timing is suitable (YES in S318), the management server 4 first causes the smart speaker 10 to output the voice advertisement (S320), and then causes the voice content to be output (S322).

上述の実施の形態において、保持部の例は、ハードディスクや半導体メモリである。また、本明細書の記載に基づき、各部を、図示しないCPUや、インストールされたアプリケーションプログラムのモジュールや、システムプログラムのモジュールや、ハードディスクから読み出したデータの内容を一時的に記憶する半導体メモリなどにより実現できることは本明細書に触れた当業者には理解される。 In the above-described embodiments, examples of holding units are hard disks and semiconductor memories. In addition, based on the description of this specification, each part is implemented by a CPU (not shown), an installed application program module, a system program module, a semiconductor memory that temporarily stores the contents of data read from the hard disk, etc. Those skilled in the art who have access to this specification will understand what is possible.

本実施の形態に係る管理サーバ4によると、スマートスピーカ10での音声コンテンツの再生に合わせて音声広告が再生される。これにより、音声コンテンツの配信に合わせた音声広告の提供が可能となる。また、本実施の形態では、音声コンテンツの再生の前に音声広告が再生される。この場合の音声広告をユーザに聞いてもらえる蓋然性は、音声コンテンツの再生の後に音声広告を再生する場合よりも高い。したがって、より効果的な広告の提供が可能となる。 According to the management server 4 according to the present embodiment, the audio advertisement is reproduced in synchronization with the reproduction of the audio content on the smart speaker 10 . As a result, it becomes possible to provide voice advertisements in accordance with the distribution of voice content. Also, in the present embodiment, the audio advertisement is played before the audio content is played. The probability that the user will listen to the audio advertisement in this case is higher than when the audio advertisement is reproduced after the audio content is reproduced. Therefore, more effective advertisement can be provided.

また、本実施の形態に係る管理サーバ4では、音声広告は音声コンテンツの内容やスマートスピーカ10を介して得られた音声情報や認証ユーザのアカウントの属性に基づいて選択される。このように選択される音声広告は、ユーザの嗜好や要望に沿うものである蓋然性が高い。したがって、ユーザへの訴求力がより高い音声広告を提供することができる。 Further, in the management server 4 according to the present embodiment, the voice advertisement is selected based on the content of the voice content, the voice information obtained via the smart speaker 10, and the attribute of the account of the authenticated user. There is a high probability that the audio advertisement selected in this way will meet the user's tastes and desires. Therefore, it is possible to provide voice advertisements that are more appealing to users.

また、本実施の形態に係る管理サーバ4では、スマートスピーカ10からの音声広告の出力のタイミングが適宜制御される。したがって、ユーザの会話や発話の邪魔とならないような音声広告の出力が可能となる。または、TV12などの他の電子機器と連携した音声広告の提供が可能となる。 In addition, the management server 4 according to the present embodiment appropriately controls the output timing of the voice advertisement from the smart speaker 10 . Therefore, it is possible to output a voice advertisement that does not interfere with the user's conversation or utterance. Alternatively, it is possible to provide voice advertisements in cooperation with other electronic devices such as the TV 12 .

本実施の形態において、周囲の物音やユーザ同士の会話をスマートスピーカ10が取得できることに関連して、管理サーバ4は、音声コンテキストを理解することで児童虐待が行われているか否かを判定してもよい。管理サーバ4は、自動虐待に関する音声データを編集し、所定の捜査機関に提供してもよい。捜査機関は全体の音声データを聞くことができる。 In the present embodiment, in relation to the fact that the smart speaker 10 can acquire surrounding sounds and conversations between users, the management server 4 determines whether or not child abuse is occurring by understanding the voice context. may The management server 4 may edit voice data regarding automatic abuse and provide it to a predetermined investigative agency. Investigative agencies can listen to the entire audio data.

本実施の形態において、ユーザ認証部416による声紋認証によりユーザIDが特定され、ユーザ情報保持部408を参照することでこのユーザIDに対応する属性が特定される。この場合、管理サーバ4は、ユーザの属性に応じて音声コンテンツまたは音声広告の出力の態様を変更してもよい。例えば、ユーザの属性が子供である場合、管理サーバ4は、音声コンテンツまたは音声広告において、なるべく簡単な言葉を用い、汚い言葉は削除または言い換えてもよい。あるいはまた、ユーザの属性が老人である場合、管理サーバ4は、音声コンテンツまたは音声広告において、音量を大きくし、または発音をより明瞭化してもよい。 In this embodiment, a user ID is specified by voiceprint authentication by user authentication unit 416, and attributes corresponding to this user ID are specified by referring to user information holding unit 408. FIG. In this case, the management server 4 may change the mode of outputting the voice content or the voice advertisement according to the attributes of the user. For example, if the user's attribute is a child, the management server 4 may use simple words as much as possible in the voice content or voice advertisement, and may delete or paraphrase swear words. Alternatively, if the user's attribute is an elderly person, the management server 4 may increase the volume or make the pronunciation clearer in the voice content or voice advertisement.

本実施の形態では、ユーザ認証部416によりユーザが認証される場合について説明したが、これに限られず、ユーザ認証はなくてもよい。この場合、音声広告の選択にユーザの属性は反映されない。ここで、本実施の形態ではS320で音声広告を出力する動作を説明したが、この音声広告の出力に加え、この出力状況を管理サーバ4で記憶することもできる。出力状況の例としては、「対象広告を最後まで再生した」、「対象広告は途中で停止された」、「対象広告の再生に加え、広告が対象とする製品に関して追加情報を出力した」などである。「対象広告を最後まで再生した」はスマートスピーカ10が対象の音声データを最後まで出力した場合にその旨を管理サーバ4に報告することで実現することができる。また、途中での停止、追加情報の出力は共に、管理サーバ4が制御するものであるから当然に管理することができる。 Although the case where the user is authenticated by the user authentication unit 416 has been described in the present embodiment, the present invention is not limited to this, and the user authentication may be omitted. In this case, user attributes are not reflected in the selection of voice advertisements. Here, in the present embodiment, the operation of outputting the voice advertisement in S320 has been described, but in addition to the output of this voice advertisement, the output status can also be stored in the management server 4. FIG. Examples of output status include "target ad played to the end", "target ad stopped halfway", "in addition to playing the target ad, output additional information about the product targeted by the ad", etc. is. “The target advertisement has been played to the end” can be realized by reporting to the management server 4 when the smart speaker 10 outputs the target audio data to the end. In addition, since the management server 4 controls both the stopping and the output of the additional information, it can naturally be managed.

本実施の形態に係る技術的思想は以下の項目により表されてもよい。
(項目1)
マイクロフォンおよび通信機能を有するスピーカから、ネットワークを介して配信要求を受け付ける機能と、
受け付けた配信要求に応じて、画像を伴わない音声コンテンツを取得する機能と、
画像を伴わない音声広告を音声広告保持手段から選択する機能と、
取得された音声コンテンツと選択された音声広告とを合わせて前記スピーカに、前記ネットワークを介して送信する機能と、をサーバに実現させるためのコンピュータプログラム。
(項目2)
マイクロフォンおよび通信機能を有するスピーカから、ネットワークを介して配信要求を受け付けることと、
受け付けた配信要求に応じて、画像を伴わない音声コンテンツを取得することと、
画像を伴わない音声広告を音声広告保持手段から選択することと、
取得された音声コンテンツと選択された音声広告とを合わせて前記スピーカに、前記ネットワークを介して送信することと、を含む方法。
The technical idea according to this embodiment may be represented by the following items.
(Item 1)
a function of receiving a distribution request via a network from a speaker having a microphone and a communication function;
a function of acquiring audio content without images in response to an accepted distribution request;
the ability to select audio advertisements without images from the audio advertisement holding means;
a computer program for causing a server to implement a function of transmitting a combination of acquired audio content and a selected audio advertisement to the speaker via the network.
(Item 2)
receiving a distribution request via a network from a speaker having a microphone and a communication function;
Acquiring audio content without images in response to the received delivery request;
selecting an audio advertisement without an image from an audio advertisement holding means;
transmitting the retrieved audio content and the selected audio advertisement together to the speaker via the network.

(第2の実施の形態)
第2の実施の形態では、ある現実の空間内に複数のスマートスピーカが異なる位置に配置されており、そのそれぞれが第1の実施の形態の管理サーバ4と同様の管理サーバとネットワークを介して接続される。
(Second embodiment)
In the second embodiment, a plurality of smart speakers are arranged at different positions in a certain real space, and each of them is connected via a management server and network similar to the management server 4 of the first embodiment. Connected.

図11は、ユーザ204の部屋202の模式的な上面図である。この部屋202の中には固定の第1スマートスピーカ208と、固定の第2スマートスピーカ210と、固定の第3スマートスピーカ212と、固定の第4スマートスピーカ214と、可動の第5スマートスピーカ216と、TV206と、が配置されている。各スマートスピーカは管理サーバとネットワークを介して通信する。なお、図11では五つのスマートスピーカが示されているが、スマートスピーカの数に制限はない。各スマートスピーカは部屋202の壁や床や天井に設置されてもよい。 FIG. 11 is a schematic top view of room 202 of user 204 . Inside this room 202 are a first fixed smart speaker 208, a second fixed smart speaker 210, a third fixed smart speaker 212, a fourth fixed smart speaker 214, and a fifth movable smart speaker 216. , and the TV 206 are arranged. Each smart speaker communicates with the management server through the network. Note that although five smart speakers are shown in FIG. 11, the number of smart speakers is not limited. Each smart speaker may be mounted on a wall, floor, or ceiling of room 202 .

(1)スマートスピーカの位置の自動決定
管理サーバは各スマートスピーカの部屋202における位置を記録、管理している。この位置は、ユーザ204が管理サーバ4に登録してもよい。あるいはまた、管理サーバは、五つのスマートスピーカのマイクロフォンおよびスピーカを用いて、各スマートスピーカの位置を自動的に決定してもよい。
(1) Automatic Determination of Smart Speaker Position The management server records and manages the position of each smart speaker in the room 202 . This position may be registered in the management server 4 by the user 204 . Alternatively, the management server may automatically determine the location of each smart speaker using the microphones and speakers of the five smart speakers.

管理サーバは、あるスマートスピーカが出力する音声を他のスマートスピーカ10が検出することによりスマートスピーカ間の相対位置を決定する。例えば、第2スマートスピーカ210、第3スマートスピーカ212、第4スマートスピーカ214の位置が知られおり、第1スマートスピーカ208の位置を決定する場合、管理サーバは、第1スマートスピーカ208のスピーカに所定波長の音のパルスを出力させる。管理サーバは、第2スマートスピーカ210、第3スマートスピーカ212、第4スマートスピーカ214それぞれから、所定波長の音のパルスを受けた時刻を取得する。管理サーバは、取得した時刻からパルスの伝搬時間を算出し、算出された伝搬時間と音速とから距離を算出する。管理サーバは、算出された各距離と、第2、第3および第4スマートスピーカ210、212、214の既知の位置と、から第1スマートスピーカ208の位置を算出する。 The management server determines the relative position between the smart speakers by detecting the sound output by one smart speaker by another smart speaker 10 . For example, if the locations of the second smart speaker 210, the third smart speaker 212, and the fourth smart speaker 214 are known and the location of the first smart speaker 208 is determined, the management server may A sound pulse with a predetermined wavelength is output. The management server acquires the time when the sound pulse of the predetermined wavelength was received from each of the second smart speaker 210, the third smart speaker 212, and the fourth smart speaker 214. FIG. The management server calculates the propagation time of the pulse from the acquired time, and calculates the distance from the calculated propagation time and sound velocity. The management server calculates the position of the first smart speaker 208 from each calculated distance and the known positions of the second, third and fourth smart speakers 210 , 212 , 214 .

第5スマートスピーカ216は、例えばロボットに装着されたスマートスピーカであり、自ら動くことができる。第1、第2、第3および第4スマートスピーカ208、210、212、214の位置が既知の場合、管理サーバは、上記の位置算出処理により第5スマートスピーカ216の位置を追跡することができる。また、第5スマートスピーカ216は、自分の位置を基準にして他のスマートスピーカの位置を決める場合、そのスマートスピーカが発する音を受け易い位置に移動してもよい。 A fifth smart speaker 216 is, for example, a smart speaker attached to a robot and can move by itself. If the locations of the first, second, third and fourth smart speakers 208, 210, 212, 214 are known, the management server can track the location of the fifth smart speaker 216 through the location calculation process described above. . In addition, when the fifth smart speaker 216 determines the position of another smart speaker based on its own position, the fifth smart speaker 216 may move to a position where it is likely to receive the sound emitted by that smart speaker.

図11に示されるシステムの構成要素としては、マイクロフォンおよびスピーカの両方が搭載されているスマートスピーカやスマートフォンが望ましいが、一般にスピーカしかないテレビやラジオ、その他の電気機器でも、スピーカはあるため音声再生の支援は行うことができる。また、通信機能を備えた電気機器もある。これにより、複数の位置からのスピーカ出力が可能となる。電気機器を配置する位置はユーザが管理サーバに設定することで通知してもよいし、上述の位置算出処理により、あるいは無線通信の電波により管理サーバが自動的に決定してもよい。 As components of the system shown in FIG. 11, smart speakers and smartphones equipped with both a microphone and speakers are desirable, but even TVs, radios, and other electrical devices that generally have only speakers have speakers, so sound reproduction is not possible. support can be provided. In addition, there are electrical devices with communication functions. This enables speaker output from a plurality of positions. The position where the electrical equipment is arranged may be notified by the user by setting it in the management server, or may be automatically determined by the management server by the above-described position calculation process or radio waves of wireless communication.

(2)可動スマートスピーカの用途
音声出力において、スピーカの位置によって対象のユーザへの聞こえ方が変わる場合がある。したがって、管理サーバは、より適切に音が聞こえる位置に第5スマートスピーカ216を移動させる制御を行ってもよい。
(2) Uses of Movable Smart Speakers In audio output, the way the target user hears the sound may change depending on the position of the speaker. Therefore, the management server may perform control to move the fifth smart speaker 216 to a position where sound can be heard more appropriately.

また、TV206などは一般にマイクロフォン機能を備えておらず、したがってこのままでは上記の位置算出処理に参加することはできない。しかしながら、第5スマートスピーカ216がTV206の位置まで移動し、TV206のマイクロフォン機能を代行することにより、TV206も位置算出処理に参加することができるようになる。 Also, the TV 206 generally does not have a microphone function, and therefore cannot participate in the position calculation process as it is. However, by moving the fifth smart speaker 216 to the location of the TV 206 and taking over the microphone function of the TV 206, the TV 206 can also participate in the location calculation process.

(3)ユーザの位置に応じた音声出力
各スマートスピーカの位置が既知の場合、ユーザ204の位置が分かれば、ユーザ204に最も近いスマートスピーカを特定することができる。ユーザ204が「テレビをつけて」などの音声出力要求を発話すると、五つのスマートスピーカがその発話を音声信号に変換し、管理サーバに送信する。管理サーバは音声信号に音声認識処理を施し、ユーザ204の音声出力要求を理解する。管理サーバは、ユーザ204の部屋202における位置に対応するスマートスピーカを特定する。特に管理サーバは、ユーザ204の位置に最も近い第2スマートスピーカ210を特定する。このとき管理サーバは、各スマートスピーカのマイクロフォンがユーザの発話を受けたときの音量を比較し、その音量が最も大きい第2スマートスピーカ210をユーザ204の位置に最も近いスマートスピーカとして特定する。あるいはまた、ユーザ204がスマートフォンを用いている場合は、管理サーバはスマートフォンの現在位置を取得することによりユーザ204の位置を特定することができる。
(3) Audio output according to user's location When the location of each smart speaker is known, the closest smart speaker to user 204 can be identified if the location of user 204 is known. When the user 204 utters an audio output request such as "Turn on the TV", the five smart speakers convert the utterance into audio signals and transmit them to the management server. The management server performs voice recognition processing on the voice signal and understands the voice output request of the user 204 . The management server identifies the smart speaker corresponding to the user's 204 location in the room 202 . Specifically, the management server identifies the second smart speaker 210 closest to the user's 204 location. At this time, the management server compares the volume when the microphone of each smart speaker receives the user's speech, and identifies the second smart speaker 210 with the highest volume as the smart speaker closest to the position of the user 204 . Alternatively, if user 204 is using a smart phone, the management server can locate user 204 by obtaining the current location of the smart phone.

管理サーバは、上記のように特定された第2スマートスピーカ210に、TV206で流される映像に付随する音声を送信する。このようにすることで、ユーザ204は自分に一番近い第2スマートスピーカ210からTV206の音声出力を受けることができる。 The management server transmits audio accompanying the video streamed on the TV 206 to the second smart speaker 210 identified as above. By doing so, the user 204 can receive the audio output of the TV 206 from the second smart speaker 210 closest to the user 204 .

あるいはまた、スマートスピーカのスピーカが指向性を有する場合、管理サーバは指向性を制御してもよい。例えば、第1、第2、第3および第4スマートスピーカ208、210、212、214のスピーカが出力の指向性を有する場合、管理サーバは、各スピーカの音声出力がユーザ204の位置に向くよう各スマートスピーカを制御する。管理サーバは、各スマートスピーカにTV206で流される映像に付随する音声を送信する。この場合、各スマートスピーカは音声をユーザ204に向けて出力する。 Alternatively, if the speakers of the smart speaker are directional, the management server may control the directivity. For example, if the first, second, third and fourth smart speakers 208 , 210 , 212 , 214 have directional outputs, the management server directs the audio output of each speaker to the location of user 204 . Control each smart speaker. The management server transmits audio that accompanies the video played on the TV 206 to each smart speaker. In this case, each smart speaker outputs audio towards user 204 .

なお、指向性を有するスマートスピーカは、現在の音声出力の向きを視認可能な態様でユーザに示してもよい。例えば、スマートスピーカの上面に指向性を示す矢印をLED等で表示してもよい。 Note that a directional smart speaker may visually indicate to the user the current direction of audio output. For example, an arrow indicating directivity may be displayed on the upper surface of the smart speaker using an LED or the like.

この例によると、例えばスマートスピーカに対してコンテンツ再生を指示したユーザとそれ以外のユーザとが部屋202の中にいる場合に、その指示したユーザを対象として音声を出力することができる。ユーザごとにサーバプロセスを割り当てる構成をとることで、第1のユーザの位置に向くよう第1のスマートスピーカを制御し、第2のユーザの位置に向くよう第2のスマートスピーカを制御して、第1のスマートスピーカと第2のスマートスピーカとが同時に音声を出力するようにしてもよい。ひとつのスマートスピーカにおいて音声出力装置を複数備え、サーバにおいてユーザごとにサーバプロセスを割り当てる構成をとることで、ひとつのスマートスピーカを制御して、第1のユーザの位置に向く音声と、第2のユーザの位置に向く音声とを同時に出力するようにしてもよい。 According to this example, for example, when a user who instructs the smart speaker to reproduce content and other users are in the room 202, the sound can be output for the instructed user. Controlling a first smart speaker to face the position of a first user and controlling a second smart speaker to face the position of a second user by assigning a server process for each user, The first smart speaker and the second smart speaker may output audio simultaneously. One smart speaker has a plurality of audio output devices, and the server assigns a server process to each user. You may make it output simultaneously with the voice which faces a user's position.

本実施の形態に係る技術的思想は以下の項目により表されてもよい。
(項目3)
それぞれがマイクロフォンおよび通信機能を有する複数のスピーカを備えるシステムであって、
あるスピーカが出力する音声を他のスピーカが検出することによりスピーカ間の相対位置を決定するよう構成されるシステム。
(項目4)
それぞれがマイクロフォンおよび通信機能を有する複数のスピーカとネットワークを介して通信するサーバであって、前記複数のスピーカは同じ現実空間内の異なる位置に配置されており、
前記サーバは、
前記複数のスピーカのうちのいずれかを介して前記現実空間内のユーザから音声出力要求を受け付ける手段と、
前記ユーザの位置に対応するスピーカを特定する手段と、
特定されたスピーカに音声コンテンツを送信する手段と、を備えるサーバ。
(項目5)
それぞれがマイクロフォンおよび通信機能を有する複数のスピーカとネットワークを介して通信するサーバであって、前記複数のスピーカは同じ現実空間内の異なる位置に配置されており、
前記サーバは、
前記複数のスピーカのうちのいずれかを介して前記現実空間内のユーザから音声出力要求を受け付ける手段と、
前記ユーザの位置に向けて音声が出力されるよう、前記複数のスピーカのうちの少なくともひとつの指向性を制御する手段と、を備えるサーバ。
The technical idea according to this embodiment may be represented by the following items.
(Item 3)
A system comprising a plurality of speakers each having a microphone and communication capability,
A system configured to determine the relative position between speakers by detecting the sound output by one speaker by another speaker.
(Item 4)
A server that communicates with a plurality of speakers, each having a microphone and a communication function, via a network, wherein the plurality of speakers are arranged at different positions in the same physical space,
The server is
means for receiving an audio output request from a user in the physical space via one of the plurality of speakers;
means for identifying a speaker corresponding to the user's position;
means for transmitting audio content to identified speakers.
(Item 5)
A server that communicates with a plurality of speakers, each having a microphone and a communication function, via a network, wherein the plurality of speakers are arranged at different positions in the same physical space,
The server is
means for receiving an audio output request from a user in the physical space via one of the plurality of speakers;
and means for controlling directivity of at least one of the plurality of speakers so that sound is output toward the position of the user.

(第3の実施の形態)
図12は、第3の実施の形態に係る音声操作システム232の構成を示す模式図である。音声操作システム232は、管理サーバ234と、スマートスピーカ240と、TV242と、スマートフォン248と、を備える。管理サーバ234とスマートスピーカ240とTV242とスマートフォン248とはインターネットなどのネットワーク236を介して通信可能に接続されている。スマートスピーカ240およびTV242はいずれも、ユーザ238の部屋244に設置されている。スマートスピーカ240はスマートフォン248とP2P通信246が可能に構成される。
(Third Embodiment)
FIG. 12 is a schematic diagram showing the configuration of a voice operation system 232 according to the third embodiment. Voice operation system 232 includes management server 234 , smart speaker 240 , TV 242 and smart phone 248 . The management server 234, the smart speaker 240, the TV 242, and the smartphone 248 are communicably connected via a network 236 such as the Internet. Both smart speaker 240 and TV 242 are located in room 244 of user 238 . Smart speaker 240 is configured to enable P2P communication 246 with smart phone 248 .

TV242を音声で操作する場合、ユーザ238は、「テレビをつけて」等の操作指示を表す文をスマートスピーカ240に向けて発話する。スマートスピーカ240のマイクロフォンはユーザ238が発話した音声を電気信号に変換し、スマートスピーカ240は変換の結果得られた電気信号を音声信号として、ネットワーク236を介して管理サーバ234に送信する。管理サーバ234は受信した音声信号に対して音声認識処理を行うことでユーザ238がTV242の電源を入れることを要求していると理解する。管理サーバ234は、要求された操作を実現するための、すなわちTV242の電源を入れるための指示信号を生成し、ネットワーク236を介してTV242に送信する。TV242はネットワーク236を介して指示信号を受信すると、電源オフ状態から電源オン状態に移行する。 When operating the TV 242 by voice, the user 238 speaks a sentence representing an operation instruction such as “turn on the TV” to the smart speaker 240 . The microphone of smart speaker 240 converts the voice uttered by user 238 into an electrical signal, and smart speaker 240 transmits the resulting electrical signal as an audio signal to management server 234 via network 236 . The management server 234 understands that the user 238 is requesting to turn on the TV 242 by performing voice recognition processing on the received audio signal. The management server 234 generates an instruction signal for realizing the requested operation, that is, for turning on the TV 242 , and transmits it to the TV 242 via the network 236 . When the TV 242 receives the instruction signal via the network 236, it transitions from the power off state to the power on state.

このように、スマートスピーカ10を介した制御、操作は基本的に音声により行われる。しかしながら、部屋244にユーザ238以外のユーザがいる場合、音声での制御を嫌がるユーザ238もいる。また、ユーザ238だけが部屋244にいる場合でも、制御内容によっては音声での制御を避けたい場合もある。その場合に、音声操作システム232は、スマートフォン248を介して、スマートスピーカ240のシステム側(管理サーバ234)に対してテキストでの制御を行うことを可能としている。 In this way, control and operation via the smart speaker 10 are basically performed by voice. However, if there are users other than user 238 in room 244, some users 238 may not like voice control. Also, even when only the user 238 is in the room 244, it may be desired to avoid voice control depending on the control content. In that case, the voice operation system 232 can control the system side (management server 234 ) of the smart speaker 240 using text via the smartphone 248 .

スマートフォン248での操作を可能とするために、スマートフォン248は、管理サーバ234専用のアプリケーションをダウンロードしてインストールする。スマートフォン248でそのアプリケーションが起動されると、そのアプリケーションは、P2P通信246やローカルネットワークを介してスマートスピーカ240から管理サーバ234のURLを取得する。アプリケーションは、取得したURLを用いて管理サーバ234との接続を確立する。スマートフォン248と管理サーバ234との間の接続が確立されると、スマートフォン248に入力された操作内容がその接続を通じて管理サーバ234に送信される。管理サーバ234は受信した操作内容を実現するよう指示信号を生成して送信する。 In order to enable operation on the smart phone 248, the smart phone 248 downloads and installs an application dedicated to the management server 234. FIG. When the application is launched on smartphone 248, the application acquires the URL of management server 234 from smart speaker 240 via P2P communication 246 or the local network. The application establishes a connection with the management server 234 using the acquired URL. When the connection between the smart phone 248 and the management server 234 is established, the operation content input to the smart phone 248 is transmitted to the management server 234 through the connection. The management server 234 generates and transmits an instruction signal to implement the received operation content.

例えば、管理サーバ234は、「テレビをつけて」というテキスト文字列をスマートフォン248から受信すると、受信したテキスト文字列を解析することでユーザ238がTV242の電源を入れることを要求していると理解する。管理サーバ234は、要求された操作を実現するための、すなわちTV242の電源を入れるための指示信号を生成し、ネットワーク236を介してTV242に送信する。TV242はネットワーク236を介して指示信号を受信すると、電源オフ状態から電源オン状態に移行する。 For example, when management server 234 receives a text string “turn on the TV” from smart phone 248 , it understands that user 238 is requesting that TV 242 be turned on by parsing the received text string. do. The management server 234 generates an instruction signal for realizing the requested operation, that is, for turning on the TV 242 , and transmits it to the TV 242 via the network 236 . When the TV 242 receives the instruction signal via the network 236, it transitions from the power off state to the power on state.

本実施の形態に係る音声操作システム232によると、ユーザ238は、状況に応じて音声による操作とスマートフォン248を介した操作とを使い分けることができる。 According to the voice operation system 232 according to the present embodiment, the user 238 can switch between voice operation and smartphone 248 operation depending on the situation.

本実施の形態では、管理サーバ234がスマートスピーカ240またはスマートフォン248を介してユーザ238から操作指示を受け付ける場合を説明したが、これに限られず、例えば第1の実施の形態のように管理サーバ234がスマートスピーカ240またはスマートフォン248を介してユーザ238から音声コンテンツの配信要求を受け付けてもよい。 In the present embodiment, a case has been described in which the management server 234 receives an operation instruction from the user 238 via the smart speaker 240 or the smartphone 248. However, the present invention is not limited to this. may accept requests for delivery of audio content from user 238 via smart speaker 240 or smartphone 248 .

本実施の形態に係る技術的思想は以下の項目により表されてもよい。
(項目6)
マイクロフォンおよび通信機能を有するスピーカとネットワークを介して通信するサーバであって、
前記スピーカのマイクロフォンを介してユーザから受け付けた要求を処理する手段と、
前記スピーカと通信する他の電子機器を介して前記ユーザから受け付けた要求を処理する手段と、を備えるサーバ。
The technical idea according to this embodiment may be represented by the following items.
(Item 6)
A server that communicates with a speaker having a microphone and a communication function via a network,
means for processing requests received from a user via a microphone of said speaker;
and means for processing requests received from said user via another electronic device in communication with said speaker.

(第4の実施の形態)
第4の実施の形態は、管理サーバにおけるレイヤ分けに関する。本実施の形態では、話者別にサーバプロセス(またはサーバ)を変える。声紋認証により誰が話しているかをサーバは認識することができる。対象のユーザが通常使用しているサーバプロセス(またはサーバ)が処理を行う。
(Fourth embodiment)
The fourth embodiment relates to layer division in the management server. In this embodiment, the server process (or server) is changed for each speaker. Voiceprint authentication allows the server to recognize who is speaking. The server process (or server) normally used by the target user does the processing.

図13は、第4の実施の形態に係る音声操作システム252の構成を示す模式図である。音声操作システム252は、管理サーバ254と、スマートスピーカ260と、TV262と、を備える。管理サーバ254とスマートスピーカ260とTV262とはインターネットなどのネットワーク256を介して通信可能に接続されている。スマートスピーカ260およびTV262はいずれも部屋264に設置されており、部屋264には三人のユーザ(第1ユーザ266、第2ユーザ268、第3ユーザ270)がいる。 FIG. 13 is a schematic diagram showing the configuration of a voice operation system 252 according to the fourth embodiment. Voice operation system 252 includes management server 254 , smart speaker 260 and TV 262 . The management server 254, the smart speaker 260, and the TV 262 are communicably connected via a network 256 such as the Internet. A smart speaker 260 and a TV 262 are both installed in a room 264 with three users (a first user 266, a second user 268 and a third user 270).

TV262を音声で操作する場合、第1ユーザ266は、「テレビをつけて」等の操作指示を表す文をスマートスピーカ260に向けて発話する。スマートスピーカ260のマイクロフォンは第1ユーザ266が発話した音声を電気信号に変換し、スマートスピーカ260は変換の結果得られた電気信号を音声信号として、ネットワーク256を介して管理サーバ254に送信する。管理サーバ254は受信した音声信号に対して声紋認証を行い、第1ユーザ266を特定する。管理サーバ254は、特定された第1ユーザ266に対応するサーバプロセスを選択し、選択されたサーバプロセスが以降の要求の処理を行う。TV262は、管理サーバ254の選択されたサーバプロセスからネットワーク236を介して指示信号を受信すると、電源オフ状態から電源オン状態に移行する。管理サーバ254において、第1ユーザ266とは異なる第2ユーザ268や第3ユーザ270の発話に対して、第1ユーザ266に対応するサーバプロセスとは異なるサーバプロセスが割り当てられる。 When operating the TV 262 by voice, the first user 266 speaks to the smart speaker 260 a sentence representing an operation instruction such as “Turn on the TV”. The microphone of smart speaker 260 converts the voice uttered by first user 266 into an electrical signal, and smart speaker 260 transmits the resulting electrical signal as an audio signal to management server 254 via network 256 . The management server 254 performs voiceprint authentication on the received voice signal to identify the first user 266 . The management server 254 selects a server process corresponding to the identified first user 266, and the selected server process processes subsequent requests. When the TV 262 receives an instruction signal over the network 236 from the selected server process of the management server 254, the TV 262 transitions from the power off state to the power on state. In the management server 254 , a server process different from the server process corresponding to the first user 266 is assigned to the speech of the second user 268 and the third user 270 different from the first user 266 .

図14は、図13の管理サーバ254の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。 FIG. 14 is a block diagram showing the functions and configuration of the management server 254 of FIG. 13. As shown in FIG. Each block shown here can be implemented by hardware such as a computer CPU and other elements and mechanical devices, and is implemented by software such as a computer program. It depicts the function blocks to be used. Therefore, those skilled in the art who have read this specification will understand that these functional blocks can be implemented in various ways by combining hardware and software.

管理サーバ254は、ユーザ情報保持部272と、音声信号受付部274と、ユーザ認証部276と、サーバプロセス群278と、を備える。サーバプロセス群278は、それぞれが特定のユーザに割り当てられた複数のサーバプロセスSP1、SP2、SP3、…を含む。以下では、ユーザごとにサーバプロセスが異なる場合を説明するが、他の実施の形態では、ユーザごとにサーバそのものを異ならせてもよい。サーバが異なれば当然サーバプロセスも異なることとなる。 The management server 254 includes a user information holding section 272 , an audio signal reception section 274 , a user authentication section 276 and a server process group 278 . Server process group 278 includes a plurality of server processes SP1, SP2, SP3, . . . each assigned to a particular user. In the following, a case where different server processes are used for each user will be described, but in other embodiments, the server itself may be made different for each user. Different servers naturally have different server processes.

図15は、図14のユーザ情報保持部272の一例を示すデータ構造図である。ユーザ情報保持部272は、ユーザIDと、ユーザの声紋のデータと、ユーザに割り当てられたサーバプロセスのIDと、を対応付けて保持する。 FIG. 15 is a data structure diagram showing an example of the user information holding unit 272 of FIG. The user information holding unit 272 holds the user ID, the voiceprint data of the user, and the ID of the server process assigned to the user in association with each other.

図14に戻り、音声信号受付部274は、スマートスピーカ260からネットワーク256を介して、三人のユーザ266、268、270のうちのいずれかの発話内容を表す音声信号を受け付ける。 Returning to FIG. 14 , audio signal reception unit 274 receives an audio signal representing the utterance content of any one of three users 266 , 268 , 270 from smart speaker 260 via network 256 .

ユーザ認証部276は、音声信号受付部274が受け付けた音声信号から声紋を抽出または取得する。ユーザ認証部276は、抽出された声紋に基づく声紋認証を行う。ユーザ認証部276はユーザ情報保持部272を参照し、ユーザ情報保持部272に保持されている声紋のなかに抽出された声紋と一致する声紋があるか否かを判定する。ユーザ認証部276は、一致する声紋があればその声紋に対応するユーザIDおよびサーバプロセスIDを特定する。ユーザ認証部276は、一致する声紋がなければ、一致なしまたはユーザ不明を表す出力を生成する。 User authentication unit 276 extracts or acquires a voiceprint from the audio signal accepted by audio signal accepting unit 274 . A user authentication unit 276 performs voiceprint authentication based on the extracted voiceprint. The user authentication unit 276 refers to the user information holding unit 272 and determines whether or not there is a voiceprint that matches the extracted voiceprint among the voiceprints held in the user information holding unit 272 . If there is a matching voiceprint, user authentication unit 276 identifies the user ID and server process ID corresponding to that voiceprint. If there is no matching voiceprint, user verifier 276 produces an output indicating no match or user unknown.

ユーザ認証部276でサーバプロセスIDが特定されると、サーバプロセス群278に含まれるサーバプロセスのうち、特定されたサーバプロセスIDを有するサーバプロセスが起動する。起動したサーバプロセスは、音声信号受付部274が受け付けた音声信号に対する以降の処理を行う。 When the user authentication unit 276 identifies the server process ID, the server process having the identified server process ID among the server processes included in the server process group 278 is activated. The activated server process performs subsequent processing for the audio signal received by the audio signal receiving unit 274 .

サーバプロセス群278に含まれる各サーバプロセスは、第3の実施の形態で説明したような電子機器の操作機能を実現する。他の実施の形態では、サーバプロセスは、例えば第1の実施の形態で説明したような音声コンテンツの配信機能を実現してもよい。 Each server process included in the server process group 278 implements the operation function of the electronic device as described in the third embodiment. In other embodiments, the server process may implement audio content distribution functionality, such as that described in the first embodiment.

例えば、第1ユーザ266が部屋264に住む住人である場合、第1ユーザ266のサーバプロセスにはTV262を制御する権限が付与されている。第2ユーザ268および第3ユーザ270が第1ユーザ266の部屋264に遊びに来た来訪者である場合、それらのユーザのサーバプロセスには、TV262を制御する権限は付与されない。したがって、第2ユーザ268または第3ユーザ270がTV262を音声操作する場合、第2ユーザ268または第3ユーザ270のサーバプロセスが第1ユーザ266のサーバプロセスに、TV262の操作依頼を送信する。捜査依頼を受けたサーバプロセスは、第1ユーザ266に対してその操作を行ってよいかを問い合わせ、第1ユーザ266から同意を得ることができれば対象の操作を実行する。 For example, if first user 266 is a resident of room 264 , first user 266 's server process is authorized to control TV 262 . If the second user 268 and the third user 270 are visitors to the room 264 of the first user 266 , their server processes are not authorized to control the TV 262 . Therefore, when the second user 268 or the third user 270 voice-operates the TV 262 , the server process of the second user 268 or the third user 270 sends the server process of the first user 266 a request to operate the TV 262 . The server process that has received the investigation request inquires of the first user 266 whether the operation is permissible, and if consent can be obtained from the first user 266, the target operation is executed.

あるいはまた、スマートスピーカ260の所有者である第1ユーザ266が、ゲスト(来訪者)である第2ユーザ268および第3ユーザ270に対して権限を設定してもよい。例えば、スマートスピーカ260を介した電灯の制御を可能としつつ、スマートスピーカ260を介したECサイトでの購入は不可としてもよい。 Alternatively, first user 266, the owner of smart speaker 260, may set permissions for second user 268 and third user 270, who are guests. For example, while enabling control of lights via the smart speaker 260, purchasing on an EC site via the smart speaker 260 may be prohibited.

本実施の形態に係る音声操作システム252によると、ユーザごとにサーバプロセスを割り当てることで、ユーザごとに実行可能な操作やアクセス可能な情報や権限などを異ならせることができる。 According to the voice operation system 252 according to the present embodiment, by assigning a server process to each user, executable operations, accessible information, authority, and the like can be made different for each user.

本実施の形態では、管理サーバ254が複数のサーバプロセスを有し、管理サーバ254が音声信号を受けて声紋認証し、用いるサーバプロセスを特定する場合について説明したが、これに限られない。例えば、複数のサーバが存在する場合に、スマートスピーカ260からの音声信号を全てのサーバに送信し、各サーバで声紋認証を行ってもよい。あるいはまた、いずれか一人のユーザのサーバ若しくはサーバプロセス、又は、いずれか一つのサーバ若しくはサーバプロセスが音声信号を受け、対象のユーザの音声信号のみを抽出し、対象のサーバ若しくはサーバプロセスに転送してもよい。 In this embodiment, a case has been described in which the management server 254 has a plurality of server processes, the management server 254 receives voice signals, performs voiceprint authentication, and identifies a server process to be used. However, the present invention is not limited to this. For example, if there are multiple servers, the audio signal from the smart speaker 260 may be transmitted to all servers, and voiceprint authentication may be performed by each server. Alternatively, any one user's server or server process, or any one server or server process receives the voice signal, extracts only the target user's voice signal, and transfers it to the target server or server process. may

本実施の形態では、操作指示を出す第1ユーザ266と操作対象のTV262とが同じ部屋264にある場合について説明したが、これに限られず、操作対象の電子機器の遠隔操作を可能としてもよい。例えば、第2ユーザ268が第1ユーザ266の部屋264に遊びに来ているときに、第2ユーザ268が自分の部屋(部屋264とは異なる)のエアコンを起動したいと思ったとする。第2ユーザ268は「私の部屋のエアコンをつけて」という操作指示を表す文をスマートスピーカ260に向けて発話する。管理サーバ254は声紋認証および音声認識により第2ユーザ268の要求を理解する。管理サーバ254は、第2ユーザ268の部屋のスマートスピーカと接続されている別の管理サーバに、第2ユーザ268の要求を転送する。この際、認証データとして音声信号を添付する。 In the present embodiment, the case where the first user 266 issuing the operation instruction and the TV 262 to be operated are in the same room 264 has been described, but the present invention is not limited to this, and the electronic device to be operated may be remotely operated. . For example, suppose second user 268 is visiting first user 266's room 264 and second user 268 wishes to turn on the air conditioner in his room (which is different from room 264). A second user 268 speaks a sentence representing an operational instruction “turn on the air conditioner in my room” into the smart speaker 260 . The management server 254 understands the request of the second user 268 through voiceprint authentication and speech recognition. The management server 254 forwards the second user's 268 request to another management server that is connected to the smart speaker in the second user's 268 room. At this time, an audio signal is attached as authentication data.

本実施の形態に係る技術的思想は以下の項目により表されてもよい。
(項目7)
マイクロフォンおよび通信機能を有するスピーカとネットワークを介して通信するサーバであって、
前記スピーカのマイクロフォンを介して取得された音声信号を解析することで話者を特定する手段と、
特定された話者に割り当てられたサーバプロセスを用いて、前記音声信号に係る処理を行う手段と、を備えるサーバ。
The technical idea according to this embodiment may be represented by the following items.
(Item 7)
A server that communicates with a speaker having a microphone and a communication function via a network,
means for identifying a speaker by analyzing an audio signal acquired through a microphone of said speaker;
means for processing the audio signal using a server process assigned to the identified speaker.

なお、前記各実施の形態において、スマートスピーカに加え、ネットワークに接続したテレビ又はコンピュータと連携する動作も説明したが、スマートスピーカで音声広告を出力した後に、ユーザの音声制御に応じて追加の情報を前記テレビ又はコンピュータに表示することもできる。この時に管理サーバ4が前記テレビ又はコンピュータに表示すべきURLを送信することで実現されるが、このURLのパラメータの中にスマートスピーカ又は管理サーバ4により追加の情報リクエストがなされたことを示す情報を追加することもできる。これにより、リクエスト先のシステム側で管理サーバ4又はスマートスピーカを用いたリクエストであることを把握することができる。ここで、送信方法の一例として、URLのパラメータを用いたが、他の方法にて通知してもよい。 In each of the above-described embodiments, in addition to the smart speaker, the operation in cooperation with a TV or computer connected to the network was also described. can also be displayed on the television or computer. At this time, the management server 4 transmits a URL to be displayed on the TV or computer, and information indicating that the smart speaker or the management server 4 has requested additional information is included in the parameters of this URL. can also be added. As a result, the request destination system side can recognize that the request is made using the management server 4 or the smart speaker. Here, although URL parameters are used as an example of the transmission method, other methods may be used for notification.

以上、実施の形態に係るシステムの構成と動作について説明した。これらの実施の形態は例示であり、各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解される。実施の形態同士の組み合わせも可能である。 The configuration and operation of the system according to the embodiment have been described above. Those skilled in the art will understand that these embodiments are merely examples, and that various modifications can be made to the combination of each component and each process, and that such modifications are within the scope of the present invention. Combinations of embodiments are also possible.

2 音声広告配信システム、 4 管理サーバ、 6 ネットワーク、 8 ユーザ、 10 スマートスピーカ。 2 voice advertisement distribution system, 4 management server, 6 network, 8 user, 10 smart speaker.

Claims (11)

マイクロフォンおよび通信機能を有するスピーカから、ネットワークを介して前記スピーカのマイクロフォンを介して取得された音声情報を受け付ける受付手段と、
受け付けた音声情報における配信要求に応じて、画像を伴わない音声コンテンツを取得する取得手段と、
受け付けた音声情報に基づいてユーザ認証を行う認証手段と、
画像を伴わない音声広告を音声広告保持手段から選択する選択手段と、
取得された音声コンテンツと選択された音声広告とを合わせて前記スピーカに、前記ネットワークを介して送信する送信手段と、を備え、
前記選択手段は、取得された音声コンテンツの内容との関連性と、受け付けた音声情報におけるユーザの発話内容との関連性と、認証されたユーザのアカウントの属性との関連性とのうちの複数の関連性のうちの第1の関連性を用いて音声広告の候補を選択し、前記複数の関連性のうちの他の関連性を更に用いて、選択した音声広告の候補から音声広告を選択するサーバ。
a receiving means for receiving voice information acquired from a speaker having a microphone and a communication function via a microphone of the speaker via a network;
Acquisition means for acquiring audio content without images in response to a distribution request in received audio information;
authentication means for performing user authentication based on the received voice information;
selection means for selecting an audio advertisement without images from the audio advertisement holding means;
transmitting means for transmitting the acquired audio content and the selected audio advertisement together to the speaker via the network;
The selecting means selects a plurality of relationships among a relationship with the content of the acquired voice content, a relationship with the content of the user's utterance in the received voice information, and a relationship with the attribute of the account of the authenticated user. selecting a candidate voice advertisement using a first one of the relevances of the plurality of relevances, and further using other relevances of the plurality of relevances to select a voice advertisement from the selected candidate voice advertisements. server.
前記選択手段は、取得された音声コンテンツの内容との関連性と、認証されたユーザのアカウントの属性との関連性とを少なくとも用いて、音声広告の候補を選択したうえで、選択した音声広告の候補から音声広告を選択する請求項1に記載のサーバ。 The selecting means uses at least the relevance of the acquired audio content and the relevance of the account attributes of the authenticated user to select voice advertisement candidates, and then select the selected voice advertisement. 2. The server of claim 1, wherein the voice advertisement is selected from the candidates for . 前記選択手段は、認証されたユーザのアカウントの属性との関連性を用いて音声広告の候補を選択し、取得された音声コンテンツの内容との関連性を更に用いて、選択した音声広告の候補から音声広告を選択する請求項1又は2に記載のサーバ。 The selection means selects voice advertisement candidates by using the relevance to attributes of the account of the authenticated user, and further uses the relevance to the obtained voice content to select the selected voice advertisement candidates. 3. The server of claim 1 or 2, wherein the audio advertisement is selected from. 取得された音声コンテンツの内容との関連性を用いて音声広告の候補又は音声広告を選択することは、取得された音声コンテンツの内容に関連するキーワードを用いて音声広告の候補又は音声広告を選択することを含む請求項1から3のいずれか一項に記載のサーバ。 Selecting the candidate voice advertisement or the voice advertisement using the relevance to the content of the acquired audio content selects the candidate voice advertisement or the voice advertisement using a keyword related to the content of the acquired audio content 4. A server according to any one of claims 1 to 3, comprising: 前記選択手段は、受け付けた音声情報におけるユーザの発話内容との関連性を用いる場合に、前記スピーカとユーザとの現在の対話セッションにおける該ユーザの発話内容との関連性を用いる請求項1に記載のサーバ。 2. The selection means according to claim 1, wherein, when using the relevance of the user's utterance content in the received voice information, the selection means uses the relevance of the user's utterance content in the current dialogue session between the speaker and the user. server. 前記複数の関連性は、前記スピーカのマイクロフォンを介して取得された、前記スピーカの周囲の音又はユーザと他のユーザとの間で交わされた会話の内容との関連性を更に含む請求項1に記載のサーバ。 2. The plurality of relevances further includes relevance to sounds around the speaker or content of conversations exchanged between the user and other users acquired via a microphone of the speaker. server described in . 前記ネットワークを介して、前記スピーカからの音声出力のタイミングを制御する制御手段を更に備え、
前記制御手段は、ユーザの存在が検知されない場合、または、ユーザの会話が継続していると判定される場合、前記スピーカからの音声広告の出力を制限する請求項1から6のいずれか一項に記載のサーバ。
Further comprising control means for controlling the timing of audio output from the speaker via the network,
7. The control means limits the output of the voice advertisement from the speaker when the user's presence is not detected or when it is determined that the user's conversation is continuing. server described in .
前記ネットワークを介して、前記スピーカからの音声出力のタイミングを制御する制御手段を更に備え、
前記制御手段は、ユーザの存在が検知される場合に、前記スピーカから音声広告が出力されるように制限する請求項1から6のいずれか一項に記載のサーバ。
Further comprising control means for controlling the timing of audio output from the speaker via the network,
7. The server according to any one of claims 1 to 6, wherein said control means restricts output of a voice advertisement from said speaker when presence of a user is detected.
認証されたユーザのアカウントの属性を、受け付けた音声情報を用いて更新する更新手段を更に備え、
前記選択手段は、認証されたユーザのアカウントの更新された属性を、音声広告の選択に用いる請求項1から8のいずれか一項に記載のサーバ。
further comprising updating means for updating attributes of the authenticated user's account using the received voice information;
9. A server according to any one of claims 1 to 8, wherein said selection means uses updated attributes of an authenticated user's account for selecting an audio advertisement.
前記スピーカを介して受け付けた音声広告に対するユーザからのフィードバックの表現を用いて、認証されたユーザのアカウントの属性を更新する更新手段を更に備え、
前記選択手段は、認証されたユーザのアカウントの更新された属性を、音声広告の選択に用いる請求項1から8のいずれか一項に記載のサーバ。
further comprising updating means for updating an attribute of the authenticated user's account using the representation of the user's feedback on the voice advertisement received via the speaker;
9. A server according to any one of claims 1 to 8, wherein said selection means uses updated attributes of an authenticated user's account for selecting an audio advertisement.
前記選択手段は、特定の音声広告に興味がないことを示す、音声広告に対するユーザからのフィードバックの表現を前記スピーカを介して受け付けた場合、前記特定の音声広告に関連付けられる音声広告を選択の対象から除外する請求項1から8のいずれか一項に記載のサーバ。 The selecting means selects voice advertisements associated with the specific voice advertisement when an expression of feedback from the user to the voice advertisement indicating that the user is not interested in the specific voice advertisement is received through the speaker. 9. A server according to any one of claims 1 to 8, excluding from.
JP2022207117A 2018-05-16 2022-12-23 server Active JP7504978B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022207117A JP7504978B2 (en) 2018-05-16 2022-12-23 server
JP2024094486A JP2024107317A (en) 2018-05-16 2024-06-11 server

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018094722A JP7235946B2 (en) 2018-05-16 2018-05-16 server
JP2022207117A JP7504978B2 (en) 2018-05-16 2022-12-23 server

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018094722A Division JP7235946B2 (en) 2018-05-16 2018-05-16 server

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024094486A Division JP2024107317A (en) 2018-05-16 2024-06-11 server

Publications (2)

Publication Number Publication Date
JP2023024713A true JP2023024713A (en) 2023-02-16
JP7504978B2 JP7504978B2 (en) 2024-06-24

Family

ID=68613161

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018094722A Active JP7235946B2 (en) 2018-05-16 2018-05-16 server
JP2022207117A Active JP7504978B2 (en) 2018-05-16 2022-12-23 server
JP2024094486A Pending JP2024107317A (en) 2018-05-16 2024-06-11 server

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018094722A Active JP7235946B2 (en) 2018-05-16 2018-05-16 server

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024094486A Pending JP2024107317A (en) 2018-05-16 2024-06-11 server

Country Status (1)

Country Link
JP (3) JP7235946B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274596B (en) * 2020-01-23 2023-03-14 百度在线网络技术(北京)有限公司 Device interaction method, authority management method, interaction device and user side
US11880866B2 (en) 2020-11-12 2024-01-23 Samsung Electronics Co., Ltd. Electronic apparatus for providing advertisement through voice assistant and control method thereof
WO2022107227A1 (en) * 2020-11-17 2022-05-27 株式会社I’mbesideyou Advertisement distribution system, server device, and advertisement distribution method
JP6990472B1 (en) 2021-03-23 2022-01-12 ユニロボット株式会社 A system for communicating with people and a program for that purpose

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083211A (en) 2000-09-07 2002-03-22 Dny:Kk Advertisement transmission method and system
JP2002230399A (en) * 2001-02-01 2002-08-16 Fuji Xerox Co Ltd Service providing device
JP2002259819A (en) * 2001-03-06 2002-09-13 Masahiro Seki Advertisement system using portable telephone
JP2003036386A (en) * 2001-07-24 2003-02-07 Nec System Technologies Ltd Advertising system, server equipment thereof, advertisement delivery method thereof, and advertisement delivery program thereof
JP2004108985A (en) * 2002-09-19 2004-04-08 Denso Corp Navigation system
KR101847977B1 (en) * 2010-04-02 2018-04-11 삼성전자주식회사 Device and method for enforcing an advertisement watching
JP5814772B2 (en) 2011-12-15 2015-11-17 ヤフー株式会社 Advertisement determination system, advertisement determination method and program
MX339790B (en) * 2012-11-09 2016-06-10 California Inst Of Techn Automated feature analysis, comparison, and anomaly detection.
JP6242359B2 (en) * 2015-03-19 2017-12-06 ヤフー株式会社 Information processing apparatus and method
JP2017173929A (en) 2016-03-18 2017-09-28 株式会社リコー Printing system, printing method, information processing apparatus, and information processing program
JP6502433B2 (en) * 2017-08-18 2019-04-17 ヤフー株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
CN107798114A (en) * 2017-11-03 2018-03-13 胡渐佳 Intelligent sound box speech advertising is embedded in player method

Also Published As

Publication number Publication date
JP2019200598A (en) 2019-11-21
JP7504978B2 (en) 2024-06-24
JP7235946B2 (en) 2023-03-09
JP2024107317A (en) 2024-08-08

Similar Documents

Publication Publication Date Title
JP7504978B2 (en) server
US11501773B2 (en) Network microphone device with command keyword conditioning
US11200894B2 (en) Network microphone device with command keyword eventing
US11138969B2 (en) Locally distributed keyword detection
US11361756B2 (en) Conditional wake word eventing based on environment
US11138975B2 (en) Locally distributed keyword detection
EP3557450B1 (en) Guest login
CN111919249B (en) Continuous detection of words and related user experience
US11984123B2 (en) Network device interaction by range
US11899762B2 (en) Association via audio
JP2008278449A (en) Comment delivery system, terminal, comment delivery method, and program
US11438668B2 (en) Media program having selectable content depth
US11875801B2 (en) Content playback system
US20230169956A1 (en) Locally distributed keyword detection
US20230289132A1 (en) Concurrency rules for network microphone devices having multiple voice assistant services
JP2013050479A (en) Music data processing device, music data processing system, and program
US20230385017A1 (en) Modifying audio system parameters based on environmental characteristics
KR20210017730A (en) Method and server for providing music service in store
US20220360585A1 (en) Authorization management in a media playback system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221223

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240612

R150 Certificate of patent or registration of utility model

Ref document number: 7504978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150