JP2019144833A - Audio output device, program, and program recording medium - Google Patents

Audio output device, program, and program recording medium Download PDF

Info

Publication number
JP2019144833A
JP2019144833A JP2018028225A JP2018028225A JP2019144833A JP 2019144833 A JP2019144833 A JP 2019144833A JP 2018028225 A JP2018028225 A JP 2018028225A JP 2018028225 A JP2018028225 A JP 2018028225A JP 2019144833 A JP2019144833 A JP 2019144833A
Authority
JP
Japan
Prior art keywords
information
audio output
output device
unit
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018028225A
Other languages
Japanese (ja)
Inventor
田中 哲也
Tetsuya Tanaka
哲也 田中
内部 真
Makoto Uchibe
真 内部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018028225A priority Critical patent/JP2019144833A/en
Publication of JP2019144833A publication Critical patent/JP2019144833A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an audio output device which reduces the chances of a user missing hearing the output thereof.SOLUTION: An audio output device (2) comprises a controller (22) configured to obtain user detection information, and a speaker (24) for outputting sound. The speaker is configured to output sound when the controller acquires the detection information indicative of the presence of a user within a predetermined range from a position of the audio output device.SELECTED DRAWING: Figure 1

Description

本発明は、音声出力装置、プログラム、および、プログラムの記録媒体に関する。   The present invention relates to an audio output device, a program, and a program recording medium.

従来、音声出力装置(スマートスピーカ)と、表示装置(テレビジョン受像機)とが通信可能に接続され、音声出力装置が、再生されたコンテンツ、放送番組に関連する情報を表示装置に通知し、表示装置が、通知されたコンテンツ、情報を表示するシステムがある。   Conventionally, an audio output device (smart speaker) and a display device (television receiver) are connected to be communicable, and the audio output device notifies the display device of information related to reproduced content and broadcast programs, There is a system in which a display device displays notified content and information.

なお、特許文献1には、音声出力装置が、スピーカと、表示部とを備えており、楽曲の音声をスピーカから出力しつつ、楽曲情報問い合わせデータベースからメタデータを取得し、表示部にメタデータを表示させる技術が開示されている。   In Patent Document 1, the audio output device includes a speaker and a display unit. While outputting the audio of the music from the speaker, the audio output device acquires the metadata from the music information inquiry database, and the display unit receives the metadata. A technique for displaying is disclosed.

特開2008−282348号公報(2008年11月20日公開)JP 2008-282348 A (published November 20, 2008)

特許文献1の音声出力装置では、楽曲というコンテンツの再生中にメタ情報を取得し、当該メタ情報を、無音区間がある場合か、ユーザ操作に基づいて、表示部に表示させている。   In the audio output device of Patent Literature 1, meta information is acquired during the reproduction of content called music, and the meta information is displayed on the display unit when there is a silent section or based on a user operation.

従来のシステムにおいては、音声出力装置が、コンテンツのメタ情報、メタ情報から類推される情報等を音声出力する場合、無音区間に音声出力されると、ユーザが不在のときに出力され、ユーザが聞き漏らすという問題があった。また、ユーザ操作に基づいて出力する場合、ユーザがいても操作がなければ情報が出力されず、ユーザにとって有益な情報を提供できないという問題があった。   In the conventional system, when the audio output device outputs the meta information of the content, the information inferred from the meta information, and the like, if the audio is output during the silent period, the audio output device outputs the audio when the user is absent. There was a problem of missing. Moreover, when outputting based on user operation, even if there was a user, information was not output if there was no operation, and there existed a problem that useful information for a user could not be provided.

本発明の一態様は、音声出力装置において、ユーザの聞き漏らしを減らすことを目的とする。   An object of one embodiment of the present invention is to reduce a user's hearing loss in an audio output device.

上記の課題を解決するために、本発明の一態様に係る音声出力装置は、ユーザの検知情報を取得する検知情報取得部と、音声を出力する音声出力部とを備え、上記音声出力部は、上記検知情報取得部が当該音声出力装置の位置を基準とした所定の範囲に上記ユーザが存在することを示す検知情報を取得したことに起因して音声を出力する。   In order to solve the above problem, an audio output device according to an aspect of the present invention includes a detection information acquisition unit that acquires detection information of a user, and an audio output unit that outputs audio, and the audio output unit includes: The detection information acquisition unit outputs sound due to acquisition of detection information indicating that the user exists in a predetermined range based on the position of the sound output device.

本発明の一態様によれば、音声出力装置において、ユーザの聞き漏らしを減らすことができる。   According to one embodiment of the present invention, in the audio output device, it is possible to reduce a user's hearing loss.

本発明の実施形態1に係る情報通知システムの構成および音声出力装置のハードウェア構成を示す図である。It is a figure which shows the structure of the information notification system which concerns on Embodiment 1 of this invention, and the hardware configuration of an audio | voice output apparatus. 本発明の実施形態1に係る音声出力装置の処理を示すフローチャートである。It is a flowchart which shows the process of the audio | voice output apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1の実施例1に係る制御部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the control part which concerns on Example 1 of Embodiment 1 of this invention. 本発明の実施形態1の実施例2に係る制御部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the control part which concerns on Example 2 of Embodiment 1 of this invention. 本発明の実施形態1の実施例3に係る制御部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the control part which concerns on Example 3 of Embodiment 1 of this invention. 本発明の実施形態1の実施例3に係る機器情報の緊急度と、音声出力装置のタイミングとの組合せにおいて、機器情報出力の有無を示す表である。It is a table | surface which shows the presence or absence of apparatus information output in the combination of the urgency of the apparatus information which concerns on Example 3 of Embodiment 1 of this invention, and the timing of an audio | voice output apparatus. 本発明の実施形態1の実施例3に係る音声出力装置の処理を示すフローチャートである。It is a flowchart which shows the process of the audio | voice output apparatus which concerns on Example 3 of Embodiment 1 of this invention. 本発明の実施形態1の実施例4に係る制御部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the control part which concerns on Example 4 of Embodiment 1 of this invention. 本発明の実施形態1の実施例4に係る表示装置における、情報の表示形態を示す図である。It is a figure which shows the display form of the information in the display apparatus which concerns on Example 4 of Embodiment 1 of this invention.

〔実施形態1〕
以下、本発明の実施形態1について、詳細に説明する。図1は、本実施形態に係る情報通知システム1の構成および音声出力装置2のハードウェア構成を示す図である。
Embodiment 1
Hereinafter, Embodiment 1 of the present invention will be described in detail. FIG. 1 is a diagram showing the configuration of the information notification system 1 and the hardware configuration of the audio output device 2 according to the present embodiment.

(情報通知システム1の構成)
図1に示すように、情報通知システム1は、音声出力装置2、サーバ3、表示装置4、および、IoT(Internet of Things)家電5を備えている。音声出力装置2は、人と会話したり、音楽を流したりする(音声を出力する)装置であり、例えば、スマートスピーカ、AI(Artificial Intelligence)スピーカ等である。音声出力装置2が出力する「音声」には、音楽、環境音、通知音等が含まれる。音声出力装置2は、インターネットを介してサーバ3、および、IoT家電5と通信可能であり、LAN(Local Area Network)等を介して表示装置4と通信可能である。サーバ3は、インターネットを介して音声出力装置2、および、表示装置4と通信可能である。
(Configuration of information notification system 1)
As shown in FIG. 1, the information notification system 1 includes an audio output device 2, a server 3, a display device 4, and an IoT (Internet of Things) home appliance 5. The audio output device 2 is a device that talks with a person or plays music (outputs audio), and is, for example, a smart speaker, an AI (Artificial Intelligence) speaker, or the like. The “voice” output by the voice output device 2 includes music, environmental sounds, notification sounds, and the like. The audio output device 2 can communicate with the server 3 and the IoT home appliance 5 via the Internet, and can communicate with the display device 4 via a LAN (Local Area Network) or the like. The server 3 can communicate with the audio output device 2 and the display device 4 via the Internet.

表示装置4は、放送されるコンテンツを受信して視聴可能に出力する装置であり、例えば、テレビジョン受像機である。表示装置4は、LAN等を介して音声出力装置2と通信可能であり、インターネットを介してサーバ3と通信可能である。表示装置4と、音声出力装置2との間の通信は、インターネット経由であってもよいし、LAN経由であってもよいし、屋内のネットワーク経由であってよい。   The display device 4 is a device that receives broadcast content and outputs the content so as to be viewable. For example, the display device 4 is a television receiver. The display device 4 can communicate with the audio output device 2 via a LAN or the like, and can communicate with the server 3 via the Internet. Communication between the display device 4 and the audio output device 2 may be via the Internet, via a LAN, or via an indoor network.

IoT家電5は、インターネットに接続された家電機器であり、インターネットを介して音声出力装置2と通信可能である。   The IoT home appliance 5 is a home appliance connected to the Internet, and can communicate with the audio output device 2 via the Internet.

図1に示すように、音声出力装置2は、サーバ通信部21、制御部22、記憶部23、スピーカ24、マイク25、音声処理部26、表示装置通信部27、IoT家電通信部28、および、人検知部29を備えている。   As shown in FIG. 1, the audio output device 2 includes a server communication unit 21, a control unit 22, a storage unit 23, a speaker 24, a microphone 25, an audio processing unit 26, a display device communication unit 27, an IoT home appliance communication unit 28, and A human detection unit 29 is provided.

サーバ通信部21は、サーバ3との通信を行う。制御部22は、音声出力装置2全体を制御するものであり、CPU(Central Processing Unit)等である。制御部22は、サーバ通信部21、表示装置通信部27、および、IoT家電通信部28を介して、ならびに、記憶部23から、各種情報を取得する。記憶部23は、各部からのデータを記憶し、また、各部にデータを読み出すものであり、RAM(Random Access Memory)、不揮発メモリ(HDD(Hard Disk Drive)、SSD(Solid State Drive))等である。   The server communication unit 21 communicates with the server 3. The control unit 22 controls the entire audio output device 2 and is a CPU (Central Processing Unit) or the like. The control unit 22 acquires various types of information from the storage unit 23 via the server communication unit 21, the display device communication unit 27, and the IoT home appliance communication unit 28. The storage unit 23 stores data from each unit and reads out data from each unit. The storage unit 23 is a RAM (Random Access Memory), a nonvolatile memory (HDD (Hard Disk Drive), SSD (Solid State Drive)), or the like. is there.

スピーカ24は、音声を出力する。マイク25は、音声を取得する。音声処理部26は、音声信号を処理する。表示装置通信部27は、表示装置4との通信を行う。IoT家電通信部28は、IoT家電5との通信を行う。人検知部29は、人の存在を検知するものであり、例えば、振動センサ、人感センサ、マイク等である。   The speaker 24 outputs sound. The microphone 25 acquires sound. The audio processing unit 26 processes an audio signal. The display device communication unit 27 performs communication with the display device 4. The IoT home appliance communication unit 28 performs communication with the IoT home appliance 5. The person detection unit 29 detects the presence of a person, and is, for example, a vibration sensor, a human sensor, a microphone, or the like.

(音声出力装置2の処理)
図2は、本実施形態に係る音声出力装置2の処理を示すフローチャートである。音声出力装置2の電源スイッチがオンに投入されると、音声出力装置2の処理が開始される。
(Processing of the audio output device 2)
FIG. 2 is a flowchart showing processing of the audio output device 2 according to the present embodiment. When the power switch of the audio output device 2 is turned on, processing of the audio output device 2 is started.

音声出力装置2が処理を行う契機となるイベントには、第1のイベント、第2のイベント、および、第3のイベントがある。   There are a first event, a second event, and a third event as events that trigger the audio output device 2 to perform processing.

第1のイベントは、最初に音声出力装置2の電源スイッチがオフからオンに投入されることである。   The first event is that the power switch of the audio output device 2 is first turned on from off.

第2のイベントは、音声出力装置2の電源スイッチがオンの状態におけるイベントであって、人検知部29を通じて人を検知することを含むイベントである。以下に、第2のイベントの具体例を示す。   The second event is an event in a state in which the power switch of the audio output device 2 is turned on, and includes an event of detecting a person through the person detection unit 29. A specific example of the second event is shown below.

・マイク25を通じて入力された音声の検知
・制御部22の時計機能を用いた所定時刻の到来
・以前の発話またはコンテンツ再生に関連した情報の検知
第3のイベントは、音声出力装置2が省電力モードの状態におけるイベントであって、人検知部29を通じて人を検知することを含むイベントである。以下に、第3のイベントの具体例を示す。
-Detection of voice input through the microphone 25-Arrival of a predetermined time using the clock function of the control unit 22-Detection of information related to previous speech or content playback The third event is the power saving of the audio output device 2 It is an event in the mode state, and includes detecting a person through the person detection unit 29. A specific example of the third event is shown below.

・マイク25を通じたキーワードの取得
・制御部22の時計機能を用いた所定時刻の到来
なお、キーワードには、ユーザによる呼びかけ(例えば、「もしもし、スピーカ」)等がある。
-Acquisition of keyword through microphone 25-Arrival of a predetermined time using the clock function of control unit 22 Note that the keyword includes a call by a user (for example, "Hello, speaker").

(ステップS201)
音声出力装置2の制御部22は、イベントに応じた発話、及び、コンテンツの再生の少なくとも何れかを行う。制御部22は、音声処理部26、および、スピーカ24を通じて、上記イベントに応じた発話、及び、上記コンテンツの再生の少なくとも何れかに応じた音声を音声出力するか、または、表示装置4に情報を出力する。なお、処理開始時のイベントは第1のイベントであり、ステップS202の判定結果に応じて実行される場合のイベントは第2のイベントであり、ステップS207の処理に続いて実行される場合のイベントは第3のイベントである。また、出力のタイミング、出力情報、出力先装置の具体例に関しては、後記する。なお、出力のタイミングは、制御部22が人検知部29を通じて人を検知した上で、さらなる条件を満たすタイミングである。
(Step S201)
The control unit 22 of the audio output device 2 performs at least one of utterance corresponding to an event and content reproduction. The control unit 22 outputs audio corresponding to at least one of the utterance according to the event and the reproduction of the content through the audio processing unit 26 and the speaker 24, or transmits information to the display device 4. Is output. The event at the start of processing is the first event, the event when executed according to the determination result of step S202 is the second event, and the event when executed following the processing of step S207. Is the third event. Further, output timing, output information, and specific examples of output destination devices will be described later. The output timing is a timing that satisfies a further condition after the control unit 22 detects a person through the person detection unit 29.

(ステップS202)
制御部22は、第2のイベントが発生したか否かを判定する。第2のイベントが発生した場合(ステップS202のYES)、制御部22は、ステップS201の処理を実行する。第2のイベントが発生していない場合(ステップS202のNO)、制御部22は、ステップS203の判定を実行する。
(Step S202)
The control unit 22 determines whether or not the second event has occurred. When the second event occurs (YES in step S202), the control unit 22 executes the process in step S201. When the second event has not occurred (NO in step S202), the control unit 22 performs the determination in step S203.

(ステップS203)
制御部22は、ステップS201の処理を実行してから所定時間が経過したか否かを判定する。所定時間が経過していない場合(ステップS203のNO)、ステップS202の判定を再度実行する。所定時間が経過している場合(ステップS203のYES)、ステップS204の処理を実行する。
(Step S203)
The control unit 22 determines whether or not a predetermined time has elapsed after executing the process of step S201. If the predetermined time has not elapsed (NO in step S203), the determination in step S202 is executed again. If the predetermined time has elapsed (YES in step S203), the process of step S204 is executed.

(ステップS204)
制御部22は、必要に応じて、スピーカ24を通じて発話を行う。音声出力装置2が省電力モードに移行する前に、制御部22は、例えば、「今からスタンバイモードになります。」との発話を行ってもよい。
(Step S204)
The control unit 22 speaks through the speaker 24 as necessary. Before the audio output device 2 shifts to the power saving mode, the control unit 22 may utter, for example, “It will be in the standby mode from now”.

(ステップS205)
音声出力装置2は、省電力モードに移行する。
(Step S205)
The audio output device 2 shifts to the power saving mode.

(ステップS206)
制御部22は、第3のイベント待ちになる。すなわち、制御部22は、第3のイベントが発生した場合にステップS207の処理を実行する。
(Step S206)
The control unit 22 waits for the third event. That is, the control unit 22 performs the process of step S207 when the third event occurs.

(ステップS207)
制御部22は、音声出力装置2を、省電力モードから電源オン状態に移行させる。そして、ステップS201の処理を実行する。
(Step S207)
The control unit 22 shifts the audio output device 2 from the power saving mode to the power-on state. And the process of step S201 is performed.

(出力タイミングの例)
制御部22による出力タイミングの例を、以下に示す。音声出力装置2は、制御部22が人検知部29を通じて人を検知した上で、かつ、以下に示すタイミングで情報を出力する。
(Example of output timing)
The example of the output timing by the control part 22 is shown below. The audio output device 2 outputs information at the timing shown below after the control unit 22 detects a person through the person detection unit 29.

<出力タイミングの例:音声出力装置2が契機になるタイミング>
・制御部22がユーザによりコンテンツ(楽曲等)が指定されたことを検知した場合。
<Example of output timing: Timing triggered by the audio output device 2>
When the control unit 22 detects that content (music etc.) is designated by the user.

・制御部22がコンテンツの再生が終了したことを検知した場合。   When the control unit 22 detects that the content reproduction has ended.

・制御部22がユーザとの会話が終了したことを検知した場合。   When the control unit 22 detects that the conversation with the user has ended.

・制御部22がサーバ通信部21または記憶部23から再生中の、または再生したコンテンツに関するメタ情報を取得した場合。   When the control unit 22 acquires meta information related to the content being reproduced or reproduced from the server communication unit 21 or the storage unit 23.

・スピーカ24が発話中またはコンテンツ再生中である場合。   When the speaker 24 is speaking or reproducing content.

・制御部22がキーワード待ち状態に遷移した場合。   -When the control unit 22 transitions to a keyword waiting state.

・制御部22がキーワードを取得した場合。制御部22が、例えば、コンテンツ再生の間、または、コンテンツが終了してから所定時間以内に「いいね」、「ええわ〜」、「ないす」等の声を認識して、「いいね」の意味と認識した場合。   -When the control part 22 acquires a keyword. For example, the control unit 22 recognizes a voice such as “Like”, “Eye ~”, “Nasu” during content reproduction or within a predetermined time after the content is finished. "

・コンテンツ再生の間、音声出力装置2が置かれたテーブルをユーザがトンと叩いて振動センサが反応することによって、制御部22が「いいね」の意味と認識した場合
・制御部22がサーバ通信部21または記憶部23からコンテンツ関連情報(例えば、放送中のテレビまたはラジオの前メタ情報、後メタ情報)を取得した場合。
・ When the control unit 22 recognizes the meaning of “like” when the user hits the table on which the audio output device 2 is placed during content reproduction and the vibration sensor reacts. When content-related information (for example, pre-meta information or post-meta information of a television or radio being broadcast) is acquired from the communication unit 21 or the storage unit 23.

・制御部22がコンテンツの再生と、次のコンテンツの再生との間であることを検知した場合。   When the control unit 22 detects that it is between the reproduction of the content and the reproduction of the next content.

・制御部22が通知情報の緊急度に応じた出力タイミングであることを検知した場合。当該出力タイミングの例を(1)〜(5)に示す。   -When the control part 22 detects that it is the output timing according to the urgency of notification information. Examples of the output timing are shown in (1) to (5).

(1)制御部22が、音声出力装置2の電源がオフからオンになったことを検知した場合。   (1) When the control unit 22 detects that the power of the audio output device 2 has been turned on from off.

(2)制御部22が、スピーカ24が動作中であることを検知した場合。   (2) When the control unit 22 detects that the speaker 24 is operating.

(3)制御部22が、スピーカ24の動作が終了したことを検知した場合。   (3) When the control unit 22 detects that the operation of the speaker 24 has ended.

(4)制御部22が、音声出力装置2がスタンバイ中であることを検知した場合。   (4) When the control unit 22 detects that the audio output device 2 is on standby.

(5)制御部22が、音声出力装置2がスタンバイ移行時(オン=>スタンバイ)であることを検知した場合。   (5) When the control unit 22 detects that the audio output device 2 is in a standby state (ON => standby).

・制御部22が、スピーカ24がコンテンツ再生の前であることを検知した場合。   When the control unit 22 detects that the speaker 24 is before content reproduction.

・制御部22がIoT家電5からIoT家電通信部28を介して機器情報を取得した場合。   When the control unit 22 acquires device information from the IoT home appliance 5 via the IoT home appliance communication unit 28.

・制御部22がサーバ通信部21または記憶部23からコンテンツの再生中にコンテンツに関するメタ情報を取得した場合。   When the control unit 22 acquires meta information about the content from the server communication unit 21 or the storage unit 23 during the reproduction of the content.

なお、前メタ情報は、放送局が事前に作成した、番組に関するメタ情報であり、例えば、当該番組の概要、テーマ、出演者等を含む情報である。また、後メタ情報は、番組の放送中又は放送後に生成されたメタ情報であり、例えば、当該番組にて紹介された商品等のメタ情報を、業者が手入力で生成したものである。
<出力タイミングの例:周辺機器が契機になるタイミング>
・制御部22が、周辺機器において所定のイベントが発生したことを検知した場合。
The previous meta information is meta information related to a program created in advance by a broadcasting station, for example, information including an outline of the program, a theme, performers, and the like. Further, the post meta information is meta information generated during or after the broadcast of the program. For example, meta information such as a product introduced in the program is manually input by the trader.
<Example of output timing: Timing triggered by a peripheral device>
When the control unit 22 detects that a predetermined event has occurred in the peripheral device.

・制御部22が、周辺機器がメタ情報を取得したことを検知した場合。   When the control unit 22 detects that the peripheral device has acquired the meta information.

・制御部22が、表示装置4が後メタ情報を取得したことを検知した場合。   -When the control part 22 detects that the display apparatus 4 acquired back meta information.

・制御部22が、表示装置4の電源がオン、オフしたことを検知した場合。   The control unit 22 detects that the display device 4 is turned on / off.

・制御部22が、表示装置4が音声出力装置2から情報を取得したことを検知した場合。   When the control unit 22 detects that the display device 4 has acquired information from the audio output device 2.

(出力情報の例)
制御部22による出力情報の例を、以下に示す。
(Example of output information)
An example of the output information by the control unit 22 is shown below.

出力情報には、インターネット上の一般情報、個人の生活習慣情報、他の機器情報(外部機器の情報)、音声出力装置2の使用情報、メタ情報(付加情報、すなわち、前メタ情報、後メタ情報)等がある。   The output information includes general information on the Internet, personal lifestyle information, other device information (external device information), usage information of the audio output device 2, meta information (additional information, that is, pre-meta information, post-meta Information).

一般情報は、例えば、ニュース、交通情報、株価、日々の検索結果、料理レシピ、気象情報(温度、湿度、気圧、花粉、PM2.5、黄砂等)等である。   The general information is, for example, news, traffic information, stock prices, daily search results, cooking recipes, weather information (temperature, humidity, atmospheric pressure, pollen, PM2.5, yellow sand, etc.) and the like.

生活習慣情報は、例えば、毎日の生活(起床、食事、散歩、仕事、買物、就寝)、スケジュール(旅行、出張、ゴミの日、イベント、来客)等である。   The lifestyle information includes, for example, daily life (wake-up, meal, walk, work, shopping, sleeping), schedule (travel, business trip, garbage day, event, visitor) and the like.

機器情報は、例えば、テレビ、冷蔵庫、洗濯機等の家電の利用状況(使用タイミング、使用サイクル、動作終了)である。   The device information is, for example, usage status (use timing, use cycle, operation end) of home appliances such as a television, a refrigerator, and a washing machine.

IoT家電5からの情報には、例えば、情報発信源のIoT家電5を示す情報(「冷蔵庫からのお知らせです」等)が含まれる。   The information from the IoT home appliance 5 includes, for example, information indicating the information transmission source IoT home appliance 5 (“Notice from refrigerator” or the like).

音声出力装置2の使用情報は、例えば、音楽の嗜好(いつどんな曲をどのくらい聴いたか)、情報の嗜好(いつどんな情報を欲したか)、機器操作情報(他の機器をいつどのように使ったか)等である。   The usage information of the audio output device 2 includes, for example, music preference (when and what song was listened to how much), information preference (when and what information was desired), device operation information (when and how other devices were used) ) Etc.

メタ情報は、例えば、音楽(歌手名、アルバム名、ジャンル、年代、売れ行き、タイアップ情報)、テレビ、ラジオ等の放送に関するリアルタイムの情報および今後の情報である。   The meta information is, for example, real-time information related to broadcasting such as music (singer name, album name, genre, age, sales, tie-up information), television, radio, etc. and future information.

スピーカ24が発話する内容には、時間、天気、他の家電機器の状態に応じた、音楽・情報のレコメンド、指定されたコンテンツに合わせた一言メッセージ、再生したコンテンツに関する情報からの新たなレコメンドメッセージ、次のユーザ行動へのレコメンド、コンテンツの関連情報、前に再生したコンテンツに関連するコンテンツ(音楽・情報のレコメンド)、「いいね」をしたコンテンツの情報、周囲の機器からの情報等がある。   The content uttered by the speaker 24 includes a music / information recommendation according to time, weather, and the state of other home appliances, a short message adapted to the specified content, and a new recommendation from information about the reproduced content. Messages, recommendations for the next user action, related information about the content, content related to the previously played content (music / information recommendations), information about the content that you liked, information from surrounding devices, etc. is there.

出力情報には、楽曲の入ったアルバムの情報、音声出力装置2主導の発話、キーワードに応じた発話等がある。重要な情報がある場合には、音声出力装置2は、まず重要な情報を発話してから、キーワードに応答してもよい(例えば、以前の曲の話をしてから、キーワードに応答してもよい)。さらに、タイミングに応じた話題、行動履歴に応じた話題、その他条件に応じた話題、メタ情報の発信源に応じた情報等がある。   The output information includes information on an album containing music, utterances led by the audio output device 2, utterances according to keywords, and the like. When there is important information, the voice output device 2 may first speak important information and then respond to the keyword (for example, talk about the previous song and then respond to the keyword). Also good). Furthermore, there are a topic according to timing, a topic according to action history, a topic according to other conditions, information according to a transmission source of meta information, and the like.

出力情報には、テレビ放送、ラジオ放送の前メタ情報、後メタ情報、発話タイミングに関連した発話、再生するコンテンツに付随するメタ情報、メタ情報から類推される情報等がある。   The output information includes pre-meta information and post-meta information for television broadcasting and radio broadcasting, utterances related to utterance timing, meta information associated with content to be reproduced, information inferred from meta information, and the like.

出力情報には、再生対象のコンテンツや放送番組に関連する情報、音声出力装置2が今回再生した曲の情報、音声出力装置2が前回再生した曲の情報、コンテツに関するメタ情報等がある。   The output information includes information related to the content to be played back and the broadcast program, information about the song that the audio output device 2 has played this time, information about the song that the audio output device 2 played last time, meta information about the content, and the like.

出力情報には、音声出力装置2が生成した情報がある。表示装置4は、発話内容と同じ内容を表示してもよいし、音声出力装置2が前回再生した曲の情報等、発話内容と異なる内容を表示してもよい。   The output information includes information generated by the audio output device 2. The display device 4 may display the same content as the utterance content, or may display content different from the utterance content, such as information on a song that the audio output device 2 has played back last time.

(出力形態の例)
情報の出力形態には、音声出力装置2の発話、表示装置4の表示、他の機器(スマートフォン等の端末)の表示等がある。
(Example of output format)
Examples of the information output form include speech of the audio output device 2, display of the display device 4, display of other devices (terminals such as smartphones), and the like.

〔実施例1〕
以下、本実施形態の実施例1について説明する。
[Example 1]
Hereinafter, Example 1 of the present embodiment will be described.

本実施例における音声出力装置2は、基本的に図2に示したフローチャートと同様の動作を行うが、より具体的に説明すべき点について以下に記載する。
本実施例に係る音声出力装置2は、ユーザの検知情報を取得する検知情報取得部221と、音声を出力するスピーカ(音声出力部)24とを備えている。図3は、本実施例に係る制御部22aの機能構成を示すブロック図である。図3に示すように、制御部22aは、検知情報取得部221を備えている。検知情報取得部221は、ユーザの検知情報として、人検知部29の検出信号、ユーザによる音声を取得したマイク25および音声処理部26の音声信号を取得して、ユーザの存在を認識する。
The audio output device 2 in the present embodiment basically performs the same operation as the flowchart shown in FIG. 2, but the points that should be described more specifically will be described below.
The audio output device 2 according to the present embodiment includes a detection information acquisition unit 221 that acquires user detection information, and a speaker (audio output unit) 24 that outputs audio. FIG. 3 is a block diagram illustrating a functional configuration of the control unit 22a according to the present embodiment. As illustrated in FIG. 3, the control unit 22 a includes a detection information acquisition unit 221. The detection information acquisition unit 221 acquires the detection signal of the human detection unit 29, the voice signal of the microphone 25 that has acquired the voice of the user and the voice processing unit 26 as user detection information, and recognizes the presence of the user.

スピーカ24は、検知情報取得部221が音声出力装置2の位置を基準とした所定の範囲にユーザが存在することを示す検知情報を取得したことに起因して(図2のステップS202のYES)、制御部22aが指示することにより、音声を出力する(図2のステップS201)。所定の範囲とは、人検知部29の検知可能範囲であり、例えば、振動が伝達する範囲、人感センサの赤外線が所定の強度以上で到達する範囲、ユーザの音声が到達する範囲等である。   The speaker 24 is caused by the detection information acquisition unit 221 acquiring detection information indicating that the user exists in a predetermined range based on the position of the audio output device 2 (YES in step S202 in FIG. 2). When the control unit 22a instructs, a sound is output (step S201 in FIG. 2). The predetermined range is a detectable range of the human detection unit 29, for example, a range in which vibration is transmitted, a range in which infrared rays from the human sensor reach a predetermined intensity or more, a range in which the user's voice reaches, and the like. .

一方、スピーカ24は、検知情報取得部221が上記所定の範囲からユーザが存在しなくなったことを示す検知情報を取得したことに起因して(図2のステップS202のYES)、制御部22aが指示することにより、音声出力を中断する(図2のステップS201)。例えば、カメラにより、ユーザが存在しなくなったことを示す検知情報を生成して、当該検知情報を音声出力装置2に送信してもよい。この場合、音声出力装置2は、ユーザの不在を示す検知情報を取得して、音声出力を中断する。   On the other hand, the speaker 24 detects that the detection information acquisition unit 221 has acquired detection information indicating that the user no longer exists from the predetermined range (YES in step S202 of FIG. 2), and the control unit 22a By giving the instruction, the audio output is interrupted (step S201 in FIG. 2). For example, detection information indicating that the user no longer exists may be generated by the camera, and the detection information may be transmitted to the audio output device 2. In this case, the audio output device 2 acquires detection information indicating the absence of the user, and interrupts the audio output.

人を検知するときの音声出力装置2の状態には、待機中、音楽再生または発話の前後、音楽再生または発話の最中等がある。次に、音声出力装置2は、楽曲情報、楽曲関連情報、音楽またはユーザ行動に関するレコメンドをスピーカ24から出力する。人を検知した場合のレコメンドの例には、「おはようございます。今日の天気は晴れです。どこかに出かけませんか?」、「朝に合う○○さんの曲はいかがですか?」等がある。   The state of the audio output device 2 when detecting a person includes waiting, before and after music playback or speech, and during music playback or speech. Next, the audio output device 2 outputs music information, music related information, music, or recommendations regarding user behavior from the speaker 24. Examples of recommendations when people are detected include "Good morning. Today's weather is sunny. Would you like to go somewhere?" There is.

〔実施例2〕
以下、本実施形態の実施例2について説明する。
[Example 2]
Hereinafter, Example 2 of the present embodiment will be described.

本実施例における音声出力装置2は、基本的に図2に示したフローチャートと同様の動作を行うが、より具体的に説明すべき点について以下に記載する。   The audio output device 2 in the present embodiment basically performs the same operation as the flowchart shown in FIG. 2, but the points that should be described more specifically will be described below.

本実施例に係る音声出力装置2は、実施例1の構成に追加して、音声出力装置2の状態を判定する状態判定部222と、状態判定部222が判定した、音声出力装置2の状態を参照して、スピーカ(音声出力部)24による音声出力のタイミングを制御する音声出力制御部223とをさらに備えている。図4は、本実施例に係る制御部22bの機能構成を示すブロック図である。図4に示すように、制御部22bは、検知情報取得部221、状態判定部222、および、音声出力制御部223を備えている。   In addition to the configuration of the first embodiment, the sound output device 2 according to the present embodiment includes a state determination unit 222 that determines the state of the sound output device 2, and the state of the sound output device 2 that is determined by the state determination unit 222. , The audio output control unit 223 for controlling the timing of audio output by the speaker (audio output unit) 24 is further provided. FIG. 4 is a block diagram illustrating a functional configuration of the control unit 22b according to the present embodiment. As illustrated in FIG. 4, the control unit 22 b includes a detection information acquisition unit 221, a state determination unit 222, and an audio output control unit 223.

スピーカ24は、ユーザが存在することを示す検知情報を取得したことに起因して、かつ、音声出力制御部223が音声出力装置2の状態を参照して制御した音声出力のタイミングにおいて(図2のステップS202のYES)、制御部22bが指示することにより、図2のステップS201において説明したように音声の出力を行う。ここで、本実施例では、図2のステップS201における「音声」は、再生するコンテンツに付随するメタ情報、または、メタ情報から類推される情報を含む音声である。   The speaker 24 is caused by acquiring the detection information indicating that the user exists, and at the timing of audio output controlled by the audio output control unit 223 with reference to the state of the audio output device 2 (FIG. 2). In step S202, YES), the control unit 22b instructs to output sound as described in step S201 of FIG. Here, in this embodiment, “audio” in step S201 in FIG. 2 is audio including meta information accompanying content to be reproduced or information inferred from meta information.

なお、音声出力装置2において、音声出力制御部223は、さらに、状態判定部222が、スピーカ24によって音声が出力中であると判定した場合に、音声の出力が終了するまで、スピーカ24に上記音声とは異なる他の音声の出力を待機させてもよい。すなわち、スピーカ24は、音声が出力中であって、当該音声の出力が終了した場合に(図2のステップS202のYES)、制御部22bが指示することにより、他の音声を出力する(図2のステップS201)。   In the audio output device 2, the audio output control unit 223 further supplies the above-described audio to the speaker 24 until the audio output ends when the state determination unit 222 determines that audio is being output by the speaker 24. You may make it wait for the output of the other audio | voice different from an audio | voice. That is, when the sound is being output and the output of the sound is completed (YES in step S202 in FIG. 2), the speaker 24 outputs another sound as instructed by the control unit 22b (FIG. 2). Step S201).

ここで、「他の音声」とは、例えば、メタ情報を音声化することによって得られる音声のことである。より具体的には、メタ情報に曲のタイトルを示すテキストが含まれている場合、当該テキストを音声化して得られた音声のことを指す。   Here, the “other audio” is, for example, audio obtained by converting meta information into audio. More specifically, when the text indicating the title of the song is included in the meta information, it indicates the sound obtained by converting the text into speech.

次に、音声出力装置2において、音声出力制御部223は、さらに、スピーカ24が第1の音声、及び第1の音声とは異なる第2の音声の出力が可能である場合であって、状態判定部222がスピーカ24によって第1の音声が出力中であると判定した場合に(図2のステップS202のYES)、スピーカ24に、第1の音声の音量を小さくさせ、かつ、第2の音声を重畳して出力させてもよい。より具体的には、音声出力制御部223が上記のように判定した場合、ステップS201において、音声出力制御部223は、スピーカ24に、第1の音声の音量を小さくさせ、かつ、第2の音声を重畳して出力させてもよい。   Next, in the audio output device 2, the audio output control unit 223 further includes a case where the speaker 24 can output the first audio and the second audio different from the first audio, When the determination unit 222 determines that the first sound is being output from the speaker 24 (YES in step S202 in FIG. 2), the speaker 24 is caused to reduce the volume of the first sound and the second sound is output. Audio may be superimposed and output. More specifically, when the audio output control unit 223 determines as described above, in step S201, the audio output control unit 223 causes the speaker 24 to reduce the volume of the first audio, and the second Audio may be superimposed and output.

そして、音声出力装置2において、音声出力制御部223は、スピーカ24に音声を出力させる場合に、さらに、上記音声の出力前又は出力後に(図2のステップS202のYES)、上記音声に関連した他の音声を出力させてもよい(図2のステップS201)。   In the audio output device 2, the audio output control unit 223 further relates to the audio before or after outputting the audio (YES in step S <b> 202 in FIG. 2) when outputting audio to the speaker 24. Another sound may be output (step S201 in FIG. 2).

状態判定部222は、音声出力装置2の状態として、コンテンツ(楽曲)の指定、コンテンツの再生の終了、発話の終了、コンテンツ関連情報(放送中のテレビやラジオの前メタ情報、後メタ情報)の取得等の判定を行う。   The state determination unit 222 specifies, as the state of the audio output device 2, content (music) designation, content reproduction end, speech end, content-related information (pre-meta information of television or radio being broadcast, post-meta information) Judgment such as acquisition of.

ユーザにより曲が指定された場合の、指定の曲に合わせた一言メッセージの例には、「この曲はドラマ○○のテーマ曲として有名ですね」、「○○さんの曲はXX年にブレイクしましたね」、「今日は雨なので、この曲は合いますね」等がある。   An example of a single message that matches the specified song when the user specified a song is "This song is famous as the theme song for the drama XX", " "It was a break," "It's raining today, so this song goes well."

また、楽曲の再生と、次の楽曲の再生との間は、情報を発話しやすいので、状態判定部222の判定対象になる。すなわち、状態判定部222が、現在は楽曲の再生と、次の楽曲の再生との間であると判定した場合、又は楽曲が終わった場合の、再生した楽曲の情報から次に繋がる、新たなレコメンドメッセージの例には、「この曲は○○というアルバムに含まれています」、「作曲した○○さんが出演するテレビ番組が、夕方7時から放送されます」等がある。また、楽曲が終わった場合の、次の行動へのレコメンドには、「洗濯がそろそろ終わります」、「陽が傾いてきました。照明をつけますか?」等がある。   In addition, since the information is easily spoken between the reproduction of the music and the reproduction of the next music, it is determined by the state determination unit 222. That is, when the state determination unit 222 determines that it is currently between the reproduction of the music and the reproduction of the next music, or when the music is over, a new connection is made from the information of the reproduced music. Examples of recommendation messages include “This song is included in the album“ XX ”” and “A TV program in which the composer“ XX ”appears is broadcast from 7 o'clock in the evening. In addition, when the music is over, recommendations for the next action include “Laundry is about to end” and “The sun is leaning. Do you turn on the lights?”

〔実施例3〕
以下、本実施形態の実施例3について説明する。
Example 3
Hereinafter, Example 3 of the present embodiment will be described.

本実施例における音声出力装置2は、基本的に図2に示したフローチャートと同様の動作を行うが、より具体的に説明すべき点について以下に記載する。   The audio output device 2 in the present embodiment basically performs the same operation as the flowchart shown in FIG. 2, but the points that should be described more specifically will be described below.

本実施例に係る音声出力装置2は、実施例1の構成に追加して、IoT家電(所定の機器)5からの機器情報を取得する機器情報取得部224をさらに備えている。所定の機器とは、音声出力装置2と通信可能な機器であって、音声出力装置2に自らの機器情報を出力する機器である。   In addition to the configuration of the first embodiment, the audio output device 2 according to the present embodiment further includes a device information acquisition unit 224 that acquires device information from the IoT home appliance (predetermined device) 5. The predetermined device is a device that can communicate with the audio output device 2 and outputs its own device information to the audio output device 2.

図5は、本実施例に係る制御部22cの機能構成を示すブロック図である。図5に示すように、制御部22cは、検知情報取得部221、および、機器情報取得部224を備えている。   FIG. 5 is a block diagram illustrating a functional configuration of the control unit 22c according to the present embodiment. As illustrated in FIG. 5, the control unit 22 c includes a detection information acquisition unit 221 and a device information acquisition unit 224.

スピーカ24は、ユーザが存在することを示す検知情報を取得したことに起因して、かつ、機器情報取得部224が取得した機器情報に含まれる緊急度に応じたタイミングにおいて(図2のステップS202のYES)、制御部22cが指示することにより、図2のステップS201において説明したように音声の出力を行う。ここで、本実施例では、図2のステップS202における「第2のイベント」は、検知情報取得部221が検知情報を取得し、かつ、機器情報取得部224がIoT家電5から機器情報を取得したことである。また、図2のステップS201における「音声」は、IoT家電5から取得した機器情報を含む音声である。   The speaker 24 has acquired the detection information indicating that the user exists, and at a timing according to the degree of urgency included in the device information acquired by the device information acquisition unit 224 (step S202 in FIG. 2). YES), the voice is output as described in step S201 in FIG. Here, in the present embodiment, the “second event” in step S202 of FIG. 2 is acquired by the detection information acquisition unit 221 and the device information acquisition unit 224 acquires the device information from the IoT home appliance 5. It is that. Also, “voice” in step S201 in FIG. 2 is voice including device information acquired from the IoT home appliance 5.

音声出力装置2において、スピーカ24は、さらに、出力中の音声よりも高い緊急度を有する機器情報を出力可能になった場合(図2のステップS202のYES)、音声の出力を中断し、機器情報を出力してもよい(図2のステップS201)。ここで、本実施例では、図2のステップS202における「第2のイベント」は、スピーカ24が、出力中の音声よりも高い緊急度を有する機器情報を出力可能になったことである。   In the audio output device 2, when the speaker 24 can output device information having a higher degree of urgency than the audio being output (YES in step S202 in FIG. 2), the output of the audio is interrupted. Information may be output (step S201 in FIG. 2). Here, in the present embodiment, the “second event” in step S202 of FIG. 2 is that the speaker 24 can output device information having a higher degree of urgency than the voice being output.

また、音声出力装置2において、スピーカ24は、さらに、機器情報取得部224が機器情報を取得した時刻と、スピーカ24が機器情報を出力する時刻との間に所定時間以上の差が存在する場合に(図2のステップS202のYES)、双方の時刻差に関する情報を含む機器情報を出力してもよい(図2のステップS201)。ここで、本実施例では、図2のステップS202における「第2のイベント」は、機器情報取得部224が機器情報を取得した時刻から所定時間以上経過して、スピーカ24が機器情報を出力可能になったことである。   In the audio output device 2, the speaker 24 further has a difference of a predetermined time or more between the time when the device information acquisition unit 224 acquires the device information and the time when the speaker 24 outputs the device information. 2 (YES in step S202 in FIG. 2), device information including information regarding the time difference between the two may be output (step S201 in FIG. 2). Here, in this embodiment, the “second event” in step S202 of FIG. 2 indicates that the speaker 24 can output the device information after a predetermined time has elapsed since the time when the device information acquisition unit 224 acquired the device information. It became that.

図6は、本実施例に係る機器情報の緊急度と、音声出力装置2のタイミングとの組合せにおいて、機器情報出力の有無を示す表である。   FIG. 6 is a table showing the presence / absence of device information output in the combination of the urgency level of device information and the timing of the audio output device 2 according to the present embodiment.

図6のタイミングの欄において、「オフ」は、主電源スイッチがオフの場合、ACプラグがコンセントから抜けている場合である。「オフ=>オン」は、スタンバイ状態からオンした場合(キーワードの入力、人検知等による)、主電源スイッチをオンした場合である。「動作中」は、発話中、コンテンツ再生中等のタイミングである。「タスク終了時」は、1回の発話が終了したタイミングである。「スタンバイ中」は、キーワード入力待ち、および、人検知待ちのタイミングである。「スタンバイ中」には、キーワード認識、および、人検知に必要な部分だけに通電して、他の部分(通信部等)は省電力モードにすることが可能である。「オン=>スタンバイ」は、発話が終了してから所定時間無音が続いた結果、スタンバイモードに移行するタイミングである。   In the timing column of FIG. 6, “OFF” is when the main power switch is off and the AC plug is disconnected from the outlet. “OFF => ON” is a case where the main power switch is turned on when it is turned on from a standby state (by keyword input, human detection or the like). “In operation” is a timing such as during speech or during content reproduction. “At the end of task” is the timing when one utterance is completed. “Standby” is a timing for waiting for keyword input and waiting for human detection. During “standby”, only parts necessary for keyword recognition and human detection can be energized, and the other parts (communication unit, etc.) can be set to the power saving mode. “On => Standby” is a timing at which a transition to the standby mode is made as a result of the absence of silence for a predetermined time after the end of the speech.

図6の緊急度の欄において、「高」は、緊急度が高いもの、タイミングを逃したくないものである。緊急度が「高」の機器情報には、例えば、視聴予約の時刻到来、ドアホンから来訪者があった旨の通知、火災報知機の作動、侵入ドアセンサの作動等がある。緊急度が「中」の機器情報には、洗濯が終わった旨の通知、ご飯が炊けた旨の通知等がある。緊急度が「低」の機器情報には、「今日は○○の日です。」、「エアコンのフィルタの交換時期です。」等がある。   In the urgent level column of FIG. 6, “high” indicates that the urgency level is high and the timing is not missed. The device information with “high” urgency includes, for example, arrival of a viewing reservation time, notification that there is a visitor from a doorphone, operation of a fire alarm, operation of an intrusion door sensor, and the like. The device information with “medium” urgency includes a notification that washing has been completed and a notification that rice has been cooked. The device information with the urgency level “low” includes “Today is XX day”, “It is time to replace the air conditioner filter”, and the like.

例えば、動作中において、音声出力装置2は、緊急度の高い機器情報だけを発話する。タスク終了時において、音声出力装置2は、緊急度の高い機器情報は動作中に発話済みであるので、発話しない。また、音声出力装置2は、タスク終了時には次の入力を待つ(すなわち、黙って聞く)必要があるし、このタイミングで発話するのが煩わしいので、緊急度の低い機器情報を発話しない。オンからスタンバイに移行する場合も、音声出力装置2は、緊急度の高い情報を発話済みなので、発話しない。   For example, during operation, the audio output device 2 speaks only device information with a high degree of urgency. At the end of the task, the voice output device 2 does not speak because the device information with a high degree of urgency has been spoken during operation. Also, the voice output device 2 needs to wait for the next input at the end of the task (that is, listen silently), and since it is troublesome to speak at this timing, it does not utter device information with low urgency. Even when shifting from on to standby, the voice output device 2 does not speak because information with high urgency has been spoken.

音声出力装置2は、人検知部29を備えることにより、さらに有用なタイミングで機器情報を出力することができる。人を検知した場合の、次の行動へのレコメンドには、「洗濯がそろそろ終わります」、「陽が傾いてきました。照明をつけますか?」等がある。   The audio output device 2 includes the human detection unit 29, and can output device information at a more useful timing. Recommendations for the next action when a person is detected include "Laundry is about to end" and "The sun is leaning. Do you turn on the lights?"

図7は、本実施例に係る音声出力装置2の処理を示すフローチャートである。   FIG. 7 is a flowchart illustrating the processing of the audio output device 2 according to the present embodiment.

(ステップS701)
音声出力装置2において、機器情報取得部224は、IoT家電通信部28がIoT家電5から機器情報を受信したか否かを判定する。IoT家電通信部28が機器情報を受信した場合(ステップS701のYES)、制御部22cは、ステップS702の判定を実行する。IoT家電通信部28が機器情報を受信していない場合(ステップS701のNO)、機器情報取得部224は、ステップS701の判定を再度実行する。
(Step S701)
In the audio output device 2, the device information acquisition unit 224 determines whether the IoT home appliance communication unit 28 has received device information from the IoT home appliance 5. When the IoT home appliance communication unit 28 receives the device information (YES in step S701), the control unit 22c executes the determination in step S702. When the IoT home appliance communication unit 28 has not received the device information (NO in step S701), the device information acquisition unit 224 executes the determination in step S701 again.

(ステップS702)
機器情報取得部224は、IoT家電通信部28からIoT家電5の機器情報を取得する。制御部22cは、機器情報に含まれる緊急度を抽出する。そして、制御部22cは、図6の表を参照して、音声出力装置2の状態が、抽出した緊急度に応じた出力タイミングであるか否かを判定する。音声出力装置2の状態が出力タイミングである場合(ステップS702のYES)、制御部22cは、ステップS703の処理を実行する。音声出力装置2の状態が出力タイミングでない場合(ステップS702のNO)、制御部22cは、ステップS702の判定を再度実行する。
(Step S702)
The device information acquisition unit 224 acquires device information of the IoT home appliance 5 from the IoT home appliance communication unit 28. The control unit 22c extracts the urgency level included in the device information. And the control part 22c determines whether the state of the audio | voice output apparatus 2 is an output timing according to the extracted emergency degree with reference to the table | surface of FIG. When the state of the audio output device 2 is the output timing (YES in step S702), the control unit 22c executes the process of step S703. When the state of the audio output device 2 is not the output timing (NO in step S702), the control unit 22c executes the determination in step S702 again.

(ステップS703)
制御部22cは、音声処理部26およびスピーカ24に対して、IoT家電5の機器情報を発話させる。
(Step S703)
The control unit 22 c causes the audio processing unit 26 and the speaker 24 to utter the device information of the IoT home appliance 5.

〔実施例4〕
以下、本実施形態の実施例4について説明する。
Example 4
Hereinafter, Example 4 of the present embodiment will be described.

本実施例における音声出力装置2は、基本的に図2に示したフローチャートと同様の動作を行うが、より具体的に説明すべき点について以下に記載する。   The audio output device 2 in the present embodiment basically performs the same operation as the flowchart shown in FIG. 2, but the points that should be described more specifically will be described below.

本実施例に係る音声出力装置2は、ユーザの検知情報を取得する検知情報取得部221と、音声出力装置2の状態を取得する状態取得部225と、表示装置4に表示させる通知情報を出力するサーバ通信部(通知情報出力部)21とを備えている。図8は、本実施例に係る制御部22dの機能構成を示すブロック図である。図8に示すように、制御部22dは、検知情報取得部221、および、状態取得部225を備えている。通知情報は、例えば、再生対象のコンテンツ、放送番組等に関連する情報である。   The audio output device 2 according to the present embodiment outputs a detection information acquisition unit 221 that acquires user detection information, a state acquisition unit 225 that acquires the state of the audio output device 2, and notification information to be displayed on the display device 4. And a server communication unit (notification information output unit) 21. FIG. 8 is a block diagram illustrating a functional configuration of the control unit 22d according to the present embodiment. As illustrated in FIG. 8, the control unit 22 d includes a detection information acquisition unit 221 and a state acquisition unit 225. The notification information is information related to the content to be reproduced, the broadcast program, etc., for example.

サーバ通信部21は、図2のステップS202において、検知情報取得部221が音声出力装置2の位置を基準とした所定の範囲にユーザが存在することを示す検知情報を取得したことに起因して、かつ、状態取得部225が取得した、音声出力装置2の状態に応じたタイミングにより、制御部22dが指示することにより、図2のステップS201において説明したように表示装置4に情報を出力する。ここで、本実施例では、図2のステップS202における「第2のイベント」は、検知情報取得部221が検知情報を取得し、かつ、状態取得部225が音声出力装置2の状態を取得したことである。また、図2のステップS201における「情報」は、表示装置4に表示させる通知情報である。サーバ通信部21は、取得した音声出力装置2の状態に応じたタイミングで、表示装置4が通知情報を表示するように通知情報を表示装置4に出力する。   The server communication unit 21 originates from the fact that the detection information acquisition unit 221 has acquired the detection information indicating that the user exists in a predetermined range with reference to the position of the audio output device 2 in step S202 of FIG. In addition, when the control unit 22d gives an instruction at a timing according to the state of the audio output device 2 acquired by the state acquisition unit 225, information is output to the display device 4 as described in step S201 of FIG. . Here, in the present embodiment, for the “second event” in step S202 of FIG. 2, the detection information acquisition unit 221 acquires the detection information, and the state acquisition unit 225 acquires the state of the audio output device 2. That is. Further, “information” in step S201 in FIG. 2 is notification information to be displayed on the display device 4. The server communication unit 21 outputs the notification information to the display device 4 so that the display device 4 displays the notification information at a timing according to the acquired state of the audio output device 2.

この場合、サーバ通信部21は、サーバ3を介して、通知情報を表示装置4に送信する。表示装置4は、サーバ3を介して、音声出力装置2から通知情報を受信して、当該通知情報を表示する。通知情報の表示は、表示装置4のブラウザ機能等により行われる。   In this case, the server communication unit 21 transmits notification information to the display device 4 via the server 3. The display device 4 receives the notification information from the audio output device 2 via the server 3 and displays the notification information. The notification information is displayed by a browser function of the display device 4 or the like.

なお、表示装置通信部27が、直接的に通知情報を表示装置4に出力してもよい。この場合、表示装置4は、音声出力装置2から直接的に通知情報を受信して、当該通知情報を表示する。   Note that the display device communication unit 27 may directly output the notification information to the display device 4. In this case, the display device 4 directly receives the notification information from the audio output device 2 and displays the notification information.

音声出力装置2において、表示装置4の制御信号を出力する表示装置通信部(制御信号出力部)27を更に備え、表示装置通信部27は、表示装置4の画面が非表示である場合に、表示装置4に画面表示を開始させる制御信号を出力してもよい。   The audio output device 2 further includes a display device communication unit (control signal output unit) 27 that outputs a control signal of the display device 4, and the display device communication unit 27 is configured so that the screen of the display device 4 is not displayed. You may output the control signal which makes the display apparatus 4 start a screen display.

状態取得部225は、音声出力装置2の状態として、コンテンツ(楽曲)の指定、コンテンツの再生時、発話中、コンテンツ関連情報(放送中のテレビやラジオの前メタ情報、後メタ情報)の取得等の状態を取得する。また、状態取得部225は、人検知部29から人を検知した状態、または、人を検知しない状態を取得する。   The status acquisition unit 225 acquires the status of the audio output device 2 as content (music) designation, content playback, during utterance, and content-related information (pre-meta information and post-meta information of a television or radio being broadcast). Get the state. Further, the state acquisition unit 225 acquires a state where a person is detected from the person detection unit 29 or a state where no person is detected.

例えば、制御部22dは、ユーザにより楽曲が指定されたときに、楽曲を再生しながら、楽曲に関する情報を表示装置4に出力する。また、音声出力装置2において、コンテツ再生中、かつ、コンテツ関連情報を取得した場合、制御部22dは、コンテツ関連情報を表示装置4に出力する。さらに、制御部22dは、表示装置4の電源がオフの場合に、当該電源をオンしてから、通知情報を表示装置4に出力する。なお、音声出力装置2は、表示部を備えている場合に、当該表示部に通知情報を表示してもよい。   For example, when the music is designated by the user, the control unit 22d outputs information related to the music to the display device 4 while playing the music. When the audio output device 2 is playing back content and acquires content-related information, the control unit 22 d outputs the content-related information to the display device 4. Furthermore, when the power of the display device 4 is off, the control unit 22d outputs the notification information to the display device 4 after turning on the power. In addition, when the audio output device 2 includes a display unit, the audio output device 2 may display notification information on the display unit.

なお、音声出力装置2と、表示装置4とが直接的に通信する構成(以下、「構成A」と呼ぶ)においては、表示装置4は、自身で人を検知した場合に、音声出力装置2から取得した情報を表示してもよい。   In the configuration in which the audio output device 2 and the display device 4 communicate directly (hereinafter referred to as “configuration A”), the display device 4 detects the person by itself. You may display the information acquired from.

上記の構成Aによれば、表示装置4は、音声出力装置2と直接的に通信することにより、音声出力装置2との間の距離を測定することができる。   According to said structure A, the display apparatus 4 can measure the distance between the audio | voice output apparatuses 2 by communicating with the audio | voice output apparatus 2 directly.

表示装置4は、例えば、BLE(Bluetooth Low Energy)に対応可能な、PXP(Proximity Profile)、ビーコン等の機能を用いることにより、機器間の接続、非接続だけでなく、電波強度に応じて、音声出力装置2との間のおおよその距離を特定することができる。表示装置4は、Bluetooth(登録商標)を用いることにより、音声出力装置2との間の距離を安価に測定することができる。   The display device 4 can use, for example, functions such as PXP (Proximity Profile) and beacon that can support BLE (Bluetooth Low Energy). The approximate distance to the audio output device 2 can be specified. The display device 4 can measure the distance to the audio output device 2 at low cost by using Bluetooth (registered trademark).

そして、表示装置4は、測定した距離を用いることにより、音声出力装置2が表示装置4の付近、もしくは、表示装置4と同じ部屋にあるのか、または、音声出力装置2が表示装置4から遠く離れている、もしくは、表示装置4とは別の部屋にあるのかを判定することができる。さらに、表示装置4は、当該判定した結果に応じて、自身のセンサで人を検知した場合の処理を適宜変更することができる。このような表示装置4は、音声出力装置2がバッテリー等を搭載して、モバイル機器として動作する場合に、顕著な効果を奏する。   Then, the display device 4 uses the measured distance to determine whether the audio output device 2 is in the vicinity of the display device 4 or in the same room as the display device 4, or the audio output device 2 is far from the display device 4. It can be determined whether the user is away or in a room different from the display device 4. Furthermore, the display device 4 can appropriately change the process in the case where a person is detected by its own sensor according to the determination result. Such a display device 4 has a remarkable effect when the audio output device 2 is equipped with a battery or the like and operates as a mobile device.

例えば、表示装置4は、音声出力装置2が表示装置4の付近にあると判定した場合、音声出力装置2の利用者も表示装置4の付近にいると認識する。この場合、表示装置4は、自身のセンサで人を検知したとき、音声出力装置2から取得した通知情報を表示してもよい。   For example, when the display device 4 determines that the sound output device 2 is in the vicinity of the display device 4, the display device 4 recognizes that the user of the sound output device 2 is also in the vicinity of the display device 4. In this case, the display device 4 may display the notification information acquired from the audio output device 2 when a person is detected by its own sensor.

また、表示装置4は、音声出力装置2の人検知機能の一端を担うことも考えられる。すなわち、音声出力装置2の人検知部29が人を検知できなかった場合に、表示装置4が人を検知したときに、音声出力装置2を動作させるようにしてもよい。   Further, the display device 4 may be considered to play a part of the human detection function of the audio output device 2. That is, when the person detection unit 29 of the voice output device 2 cannot detect a person, the voice output device 2 may be operated when the display device 4 detects a person.

一方、表示装置4は、音声出力装置2が表示装置4から遠くにあると判定した場合、音声出力装置2の利用者も表示装置4から遠くにいると認識する。この場合、表示装置4は、自身のセンサで人を検知したとき、その人は音声出力装置2の利用者ではないと判断して、音声出力装置2から取得した通知情報を表示せず、本来のコンテンツを表示するようにしてもよい。   On the other hand, when the display device 4 determines that the sound output device 2 is far from the display device 4, the display device 4 recognizes that the user of the sound output device 2 is also far from the display device 4. In this case, when the display device 4 detects a person with its own sensor, the display device 4 determines that the person is not a user of the audio output device 2 and does not display the notification information acquired from the audio output device 2. The content may be displayed.

なお、音声出力装置2と、表示装置4とが直接的に通信せず、インターネットを介して通信する構成においても、表示装置4は、自身で人を検知した場合に、音声出力装置2から取得した情報を表示してもよい。   Note that even in a configuration in which the audio output device 2 and the display device 4 do not communicate directly but communicate via the Internet, the display device 4 acquires from the audio output device 2 when it detects a person by itself. Information may be displayed.

図9は、本実施例に係る表示装置4における、情報の表示形態を示す図である。図9(a)は、表示装置4の電源がオフの場合の表示形態を示す。図9(b)は、表示装置4の電源がオンの場合の表示形態を示す。   FIG. 9 is a diagram illustrating a display form of information in the display device 4 according to the present embodiment. FIG. 9A shows a display form when the power of the display device 4 is off. FIG. 9B shows a display form when the power of the display device 4 is on.

表示装置4の電源がオフの場合には、表示装置4は、音声出力装置2の指示に従って、電源をオンにする。その後、図9(a)に示すように、表示装置4は、画面全体を用いて、音声出力装置2から受信した通知情報を表示する。この場合、ユーザが視聴していないので、画面全体を用いて通知情報を表示することにより、ユーザに明確に通知を行うことができる。   When the power of the display device 4 is off, the display device 4 turns on the power according to the instruction of the audio output device 2. Thereafter, as shown in FIG. 9A, the display device 4 displays the notification information received from the audio output device 2 using the entire screen. In this case, since the user is not viewing, the user can be clearly notified by displaying the notification information using the entire screen.

表示装置4の電源がオンの場合には、図9(b)に示すように、表示装置4は、画面の一部を用いて、音声出力装置2から受信した通知情報を表示する。この場合、ユーザが視聴中なので、画面の一部を用いて通知情報を表示することにより、ユーザの視聴を妨げることなく、通知を行うことができる。   When the power of the display device 4 is on, as shown in FIG. 9B, the display device 4 displays the notification information received from the audio output device 2 using a part of the screen. In this case, since the user is viewing, the notification information can be displayed using a part of the screen without disturbing the user's viewing.

なお、表示装置4の電源がオフの場合に、表示装置4は、自身で人を検知したときに、自身の電源をオンにして、音声出力装置2から取得した情報を表示してもよい。表示装置4の電源がオンの場合に、表示装置4は、自身で人を検知したときに、音声出力装置2から取得した情報を表示してもよい。上記によれば、表示装置4は、人が近付いた場合に、電源のオン、オフに関わらず、音声出力装置2からから取得した情報を表示する。これにより、音声出力装置2が動作中であることを通知することができ、音声出力装置2がコンテンツの再生中であっても、音声出力装置2から取得した、再生中のコンテンツに関する情報等を通知することができる。   When the power of the display device 4 is off, the display device 4 may display information acquired from the audio output device 2 by turning on its own power when it detects a person. When the power of the display device 4 is on, the display device 4 may display the information acquired from the audio output device 2 when it detects a person by itself. According to the above, the display device 4 displays the information acquired from the audio output device 2 regardless of whether the power is on or off when a person approaches. Thereby, it is possible to notify that the audio output device 2 is in operation, and even when the audio output device 2 is reproducing the content, information about the content being reproduced, etc. acquired from the audio output device 2 can be obtained. You can be notified.

〔実施例5〕
以下、本実施形態の実施例5について説明する。本実施例は、実施例1〜4に共通して適用される実施例である。
Example 5
Hereinafter, Example 5 of the present embodiment will be described. A present Example is an Example applied in common with Examples 1-4.

音声出力装置2は、第1の音声を出力中である場合に、第1の音声の音量を小さくして第1の音声とは異なる第2の音声を重畳して出力してもよいし、第1の音声を中断して第2の音声を出力してもよい。例えば、第2の音声が重要な情報の場合、第1の音声であるコンテンツの再生中のとき、コンテンツ再生の音量を下げて重要な情報を重畳して発話してもよいし、コンテンツの再生を中断して重要な情報を発話してもよい。   When the first sound is being output, the sound output device 2 may reduce the volume of the first sound and superimpose and output a second sound different from the first sound. The first sound may be interrupted and the second sound may be output. For example, when the second sound is important information, during the reproduction of the content that is the first sound, the volume of the content reproduction may be lowered to utter the important information superimposed, or the content may be reproduced. You may interrupt and utter important information.

音声出力装置2は、検知情報が示す、ユーザの存在の有無と、スピーカ24が出力する音声とに応じた情報を、当該情報を出力可能な周辺機器に送信してもよい。例えば、音声出力装置2は、音声出力装置2が音声出力中に人を検知した場合に、当該音声出力を妨げないようにしながら、ユーザに有用な情報(出力中の音声に関する前メタ情報等)を周辺機器に出力させてもよい。また、音声出力装置2は、人を検知できない場合に、音声出力装置2が出力した音声に関する後メタ情報を取得したときに、人が近くにいる可能性のある周辺機器に当該後メタ情報を出力させてもよい。   The audio output device 2 may transmit information according to the presence / absence of the user indicated by the detection information and the audio output by the speaker 24 to a peripheral device that can output the information. For example, when the voice output device 2 detects a person during the voice output, the voice output device 2 does not interfere with the voice output, and information useful to the user (pre-meta information about the voice being output, etc.) May be output to a peripheral device. In addition, when the audio output device 2 cannot detect a person and acquires the post meta information related to the sound output by the audio output device 2, the audio output device 2 transmits the post meta information to a peripheral device that may be nearby. It may be output.

音声出力装置2は、複数の音声または情報を出力する場合に、事前に当該音声または情報に行われた重み付けに従って、音声または情報の出力順序または出力個数を決定してもよい。例えば、上記の重み付けに応じて、出力の順序を変えてもよいし、最も重要な1個の音声または情報を出力してもよい。   When outputting a plurality of sounds or information, the sound output apparatus 2 may determine the output order or the number of outputs of the sounds or information according to the weighting performed on the sounds or information in advance. For example, the order of output may be changed according to the above weighting, or the most important voice or information may be output.

音声出力装置2は、音声または情報を出力する場合に、出力する時間帯または上記ユーザの行動履歴を参照して、音声または情報の出力時間長を決定してもよい。例えば、平日の朝は、ユーザが忙しいので、発話を短めに行ってもよい。一方、ユーザに予定のない土曜日、日曜日は、ユーザに時間的余裕があるので、発話を長めに行ってもよい。   When outputting sound or information, the sound output device 2 may determine the output time length of the sound or information with reference to the time zone to be output or the user's action history. For example, since the user is busy on weekday mornings, the utterance may be made shorter. On the other hand, on Saturdays and Sundays when there is no plan for the user, the user may have time, so the utterance may be made longer.

音声出力装置2は、スピーカ24が出力する音声に関する関連情報を記憶する記憶部と、ユーザの反応を示すユーザ反応情報を取得する取得部と、取得部が取得したユーザの反応に応じて反応タイミングを特定し、特定した反応タイミングに応じて、上記記憶部に記憶された関連情報から、出力すべき関連情報を抽出する抽出部と、をさらに備えていてもよい。この場合、スピーカ24は、抽出部が抽出した関連情報を音声により出力する。   The audio output device 2 includes a storage unit that stores related information related to audio output from the speaker 24, an acquisition unit that acquires user reaction information indicating a user's reaction, and a reaction timing according to a user response acquired by the acquisition unit. And an extraction unit that extracts the relevant information to be output from the relevant information stored in the storage unit according to the identified reaction timing. In this case, the speaker 24 outputs the related information extracted by the extraction unit by voice.

例えば、音声出力装置2において、制御部22が楽曲の再生の間、または、楽曲の再生が終了してから所定時間以内に「いいね」、「ええわ〜」、「ないす」等の声を認識して、「いいね」の意味と認識した場合に、スピーカ24が当該楽曲の関連情報を音声出力してもよい。   For example, in the audio output device 2, voices such as “Like”, “Eh ~”, “Issue”, etc. during the playback of the music by the control unit 22 or within a predetermined time after the music playback ends. , And the speaker 24 may output the relevant information of the music as a sound.

また、音声出力装置2において、楽曲の再生の間に、ユーザが音声出力装置2をトンと叩いて、振動センサが反応した結果、制御部22が「いいね」の意味と認識した場合に、スピーカ24が当該楽曲の関連情報を音声出力してもよい。   Also, in the audio output device 2, when the control unit 22 recognizes the meaning of “like” as a result of the vibration sensor reacting when the user taps the audio output device 2 during the reproduction of the music, The speaker 24 may output the related information of the music as a sound.

音声出力装置2は、音声または情報の情報源は複数存在し、当該情報源に応じた出力態様にて音声または情報を出力してもよい。例えば、再生中のコンテンツに関するメタ情報を出力する場合に、音声出力装置2は、当該メタ情報の発信者、発信サイト等を特定可能な出力形態(音声の追加、背景音、音声の高低、音量等)により、当該メタ情報を出力してもよい。   The audio output device 2 may output a plurality of audio or information sources, and output audio or information in an output mode according to the information sources. For example, when outputting meta information related to the content being played back, the audio output device 2 outputs an output form (addition of sound, background sound, high / low sound, volume, etc.) that can specify a sender, a transmission site, and the like of the meta information. Etc.), the meta information may be output.

〔実施形態1の効果〕
人を検知した際に情報を出力するため、ユーザにとって有益な情報を、ユーザにより確実に提供することができる。
[Effect of Embodiment 1]
Since information is output when a person is detected, information useful to the user can be reliably provided to the user.

〔ソフトウェアによる実現例〕
音声出力装置2の制御ブロック(制御部22a、22b、22c、22d内の各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of software implementation]
The control block of the audio output device 2 (each unit in the control units 22a, 22b, 22c, and 22d) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or by software It may be realized.

後者の場合、音声出力装置2は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the audio output device 2 includes a computer that executes instructions of a program that is software for realizing each function. The computer includes, for example, at least one processor (control device) and at least one computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes the program, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a “non-temporary tangible medium” such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, a RAM (Random Access Memory) for expanding the program may be further provided. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. Note that one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る音声出力装置(2)は、ユーザの検知情報を取得する検知情報取得部(221)と、音声を出力する音声出力部(スピーカ24)とを備え、音声出力部は、上記検知情報取得部が当該音声出力装置の位置を基準とした所定の範囲に上記ユーザが存在することを示す検知情報を取得したことに起因して音声を出力する。
[Summary]
The audio output device (2) according to aspect 1 of the present invention includes a detection information acquisition unit (221) that acquires user detection information, and an audio output unit (speaker 24) that outputs audio. The detection information acquisition unit outputs sound due to acquisition of detection information indicating that the user exists in a predetermined range based on the position of the sound output device.

上記の構成によれば、音声出力装置において、ユーザの聞き漏らしを減らすことができる。   According to said structure, a user's hearing loss can be reduced in an audio | voice output apparatus.

本発明の態様2に係る音声出力装置は、上記態様1において、上記音声出力部が、上記検知情報取得部が上記所定の範囲から上記ユーザが存在しなくなったことを示す検知情報を取得したことに起因して音声出力を中断することとしてもよい。   In the sound output device according to aspect 2 of the present invention, in the aspect 1, the sound output unit acquires detection information indicating that the detection information acquisition unit no longer exists from the predetermined range. The voice output may be interrupted due to the above.

上記の構成によれば、音声出力装置において、人を検知しない場合に無用な音声出力をなくすことができる。   According to said structure, in a sound output device, when a person is not detected, a useless sound output can be eliminated.

本発明の態様3に係る音声出力装置は、上記態様1または2において、当該音声出力装置の状態を判定する状態判定部(222)と、上記状態判定部が判定した、当該音声出力装置の状態を参照して、上記音声出力部による音声出力のタイミングを制御する音声出力制御部(223)とをさらに備え、上記音声出力部は、上記ユーザが存在することを示す検知情報を取得したことに起因して、かつ、上記音声出力のタイミングに応じて音声を出力することとしてもよい。   The sound output device according to aspect 3 of the present invention is the state determination unit (222) that determines the state of the sound output device in state 1 or 2, and the state of the sound output device that is determined by the state determination unit. And an audio output control unit (223) for controlling the timing of audio output by the audio output unit, wherein the audio output unit has acquired detection information indicating that the user exists. The sound may be output in accordance with the sound output timing.

上記の構成によれば、人を検知した場合であって、音声出力装置の状態に応じたタイミングで、音声出力を行うことができる。   According to said structure, it is a case where a person is detected and audio | voice output can be performed at the timing according to the state of the audio | voice output apparatus.

本発明の態様4に係る音声出力装置は、上記態様1または2において、所定の機器からの機器情報を取得する機器情報取得部(224)をさらに備え、上記音声出力部が、上記ユーザが存在することを示す検知情報を取得したことに起因して、かつ、上記機器情報に含まれる緊急度に応じたタイミングにより上記機器情報を出力することとしてもよい。   The audio output device according to aspect 4 of the present invention further includes a device information acquisition unit (224) that acquires device information from a predetermined device in the above-described aspect 1 or 2, and the audio output unit includes the user. It is good also as outputting the said apparatus information at the timing according to the urgency contained in the said apparatus information resulting from having acquired the detection information which shows doing.

上記の構成によれば、人を検知した場合であって、緊急度に応じたタイミングで機器情報を出力することができる。   According to said structure, it is a case where a person is detected, Comprising: Apparatus information can be output at the timing according to the urgency level.

本発明の態様5に係る音声出力装置は、ユーザの検知情報を取得する検知情報取得部(221)と、音声を出力する音声出力部(スピーカ24)と、当該音声出力装置の状態を取得する状態取得部(225)と、表示装置(4)に表示させる通知情報を出力する通知情報出力部(サーバ通信部21、表示装置通信部27)とを備え、上記通知情報出力部が、上記検知情報取得部が当該音声出力装置の位置を基準とした所定の範囲に上記ユーザが存在することを示す検知情報を取得したことに起因して、かつ、上記状態取得部が取得した当該音声出力装置の状態に応じたタイミングで上記表示装置が上記通知情報を表示するように上記通知情報を上記表示装置に出力する。   The audio output device according to aspect 5 of the present invention acquires a detection information acquisition unit (221) that acquires user detection information, an audio output unit (speaker 24) that outputs audio, and a state of the audio output device. A status acquisition unit (225); and a notification information output unit (server communication unit 21, display device communication unit 27) that outputs notification information to be displayed on the display device (4). The audio output device acquired by the state acquisition unit due to the fact that the information acquisition unit has acquired detection information indicating that the user exists in a predetermined range based on the position of the audio output device The notification information is output to the display device so that the display device displays the notification information at a timing according to the state.

上記の構成によれば、人を検知した場合であって、音声出力装置の状態に応じたタイミングで、通知情報を表示装置に表示させることができる。   According to said structure, it is a case where a person is detected, Comprising: Notification information can be displayed on a display apparatus at the timing according to the state of the audio | voice output apparatus.

本発明の態様6に係る音声出力装置は、上記態様1〜5において、上記音声出力部が、第1の音声を出力中である場合に、上記第1の音声の音量を小さくして上記第1の音声とは異なる第2の音声を重畳して出力し、または、上記第1の音声を中断して上記第2の音声を出力することとしてもよい。   The sound output device according to aspect 6 of the present invention is the sound output device according to aspects 1 to 5 described above, wherein when the sound output unit is outputting the first sound, the volume of the first sound is reduced. A second sound different from the first sound may be superimposed and output, or the first sound may be interrupted and the second sound may be output.

上記の構成によれば、音声出力装置において、人を検知した場合に、音声を出力中に異なる音声を出力するときに、両方の音声を出力することができる。   According to said structure, when a person is detected in an audio | voice output apparatus, when outputting a different audio | voice while outputting an audio | voice, both audio | voices can be output.

本発明の態様7に係る音声出力装置は、上記態様1〜6において、上記検知情報が示す、上記ユーザの存在の有無と、上記音声出力部が出力する音声とに応じた情報を、当該情報を出力可能な周辺機器に送信することとしてもよい。   In the voice output device according to aspect 7 of the present invention, in the above aspects 1 to 6, the information corresponding to the presence / absence of the user and the voice output by the voice output unit indicated by the detection information May be transmitted to a peripheral device capable of outputting.

上記の構成によれば、ユーザの存在の有無と、音声出力部が出力する音声とに応じた情報を、音声出力装置の周辺機器から出力させることができる。   According to said structure, the information according to the presence or absence of a user and the audio | voice which an audio | voice output part outputs can be output from the peripheral device of an audio | voice output apparatus.

本発明の態様8に係る音声出力装置は、上記態様1〜7において、複数の音声または情報を出力する場合に、事前に当該音声または情報に行われた重み付けに従って、音声または情報の出力順序または出力個数を決定することとしてもよい。   The voice output device according to aspect 8 of the present invention, in the above aspects 1 to 7, when outputting a plurality of voices or information, according to the weighting performed on the voices or information in advance, The number of outputs may be determined.

上記の構成によれば、音声出力装置において、事前に音声または情報に行われた重み付けに従って決定された出力順序または出力個数により、音声または情報を出力することができる。   According to said structure, an audio | voice output apparatus can output an audio | voice or information according to the output order or the output number determined according to the weighting performed to audio | voice or information previously.

本発明の態様9に係る音声出力装置は、上記態様1〜8において、音声または情報を出力する場合に、出力する時間帯または上記ユーザの行動履歴を参照して、音声または情報の出力時間長を決定する。   The voice output device according to aspect 9 of the present invention, in the above aspects 1 to 8, when outputting voice or information, refers to the time zone to be output or the action history of the user, and the output time length of the voice or information To decide.

上記の構成によれば、ユーザの都合に合わせた出力時間長により、音声または情報を出力することができる。   According to said structure, an audio | voice or information can be output by the output time length suited to a user's convenience.

本発明の態様10に係る音声出力装置は、上記態様1〜9において、上記音声出力部が出力する音声に関する関連情報を記憶する記憶部と、ユーザの反応を示すユーザ反応情報を取得する取得部と、上記取得部が取得したユーザの反応に応じて反応タイミングを特定し、特定した反応タイミングに応じて、上記記憶部に記憶された関連情報から、出力すべき関連情報を抽出する抽出部と、をさらに備え、上記音声出力部が、上記抽出部が抽出した関連情報を音声により出力することとしてもよい。   A voice output device according to a tenth aspect of the present invention is the voice output device according to any one of the first to ninth aspects, wherein the storage unit stores related information related to the voice output by the voice output unit, and the acquisition unit acquires user reaction information indicating a user reaction. And an extraction unit that identifies reaction timing according to the user's response acquired by the acquisition unit, and extracts related information to be output from the related information stored in the storage unit according to the identified reaction timing; , And the voice output unit may output the related information extracted by the extraction unit by voice.

上記の構成によれば、ユーザの反応があった関連情報を、音声により出力することができる。   According to said structure, the relevant information with user's reaction can be output with an audio | voice.

本発明の態様11に係る音声出力装置は、上記態様1〜10において、音声または情報の情報源は複数存在し、上記情報源に応じた出力態様にて音声または情報を出力することとしてもよい。   The sound output apparatus according to aspect 11 of the present invention may be configured to output a sound or information in an output form corresponding to the information source in the above aspects 1 to 10 in which a plurality of sound or information information sources exist. .

上記の構成によれば、複数存在する情報源に応じた出力態様にて音声または情報を出力するので、情報源を識別可能に出力することができる。   According to said structure, since an audio | voice or information is output in the output mode according to the information source which exists in multiple numbers, an information source can be output so that identification is possible.

本発明の各態様に係る音声出力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記音声出力装置が備える各部(ソフトウェア要素)として動作させることにより上記音声出力装置をコンピュータにて実現させる音声出力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The audio output device according to each aspect of the present invention may be realized by a computer. In this case, the audio output device is operated on each computer by causing the computer to operate as each unit (software element) included in the audio output device. The control program for the audio output device realized and the computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

1 情報通知システム
2 音声出力装置
4 表示装置
21 サーバ通信部(通知情報出力部)
22 制御部
24 スピーカ(音声出力部)
27 表示装置通信部(通知情報出力部)
221 検知情報取得部
222 状態判定部
223 音声出力制御部
224 機器情報取得部
225 状態取得部
DESCRIPTION OF SYMBOLS 1 Information notification system 2 Audio | voice output apparatus 4 Display apparatus 21 Server communication part (notification information output part)
22 control unit 24 speaker (sound output unit)
27 Display device communication unit (notification information output unit)
221 Detection information acquisition unit 222 State determination unit 223 Audio output control unit 224 Device information acquisition unit 225 State acquisition unit

Claims (13)

音声出力装置であって、
ユーザの検知情報を取得する検知情報取得部と、
音声を出力する音声出力部と
を備え、
上記音声出力部は、
上記検知情報取得部が当該音声出力装置の位置を基準とした所定の範囲に上記ユーザが存在することを示す検知情報を取得したことに起因して音声を出力する
ことを特徴とする音声出力装置。
An audio output device,
A detection information acquisition unit for acquiring user detection information;
An audio output unit for outputting audio,
The audio output unit
An audio output device characterized in that the detection information acquisition unit outputs a sound due to acquisition of detection information indicating that the user exists in a predetermined range based on the position of the audio output device. .
上記音声出力部は、
上記検知情報取得部が上記所定の範囲から上記ユーザが存在しなくなったことを示す検知情報を取得したことに起因して音声出力を中断する
ことを特徴とする請求項1に記載の音声出力装置。
The audio output unit
The audio output device according to claim 1, wherein the detection information acquisition unit interrupts audio output due to acquisition of detection information indicating that the user no longer exists from the predetermined range. .
当該音声出力装置の状態を判定する状態判定部と、
上記状態判定部が判定した、当該音声出力装置の状態を参照して、上記音声出力部による音声出力のタイミングを制御する音声出力制御部と
をさらに備え、
上記音声出力部は、
上記ユーザが存在することを示す検知情報を取得したことに起因して、かつ、上記音声出力のタイミングに応じて音声を出力する
ことを特徴とする請求項1または2に記載の音声出力装置。
A state determination unit for determining the state of the audio output device;
An audio output control unit that controls the timing of audio output by the audio output unit with reference to the state of the audio output device determined by the state determination unit;
The audio output unit
The audio output apparatus according to claim 1, wherein the audio output device outputs sound in accordance with the acquisition of detection information indicating that the user exists and in accordance with the timing of the audio output.
所定の機器からの機器情報を取得する機器情報取得部をさらに備え、
上記音声出力部は、
上記ユーザが存在することを示す検知情報を取得したことに起因して、かつ、上記機器情報に含まれる緊急度に応じたタイミングにより上記機器情報を出力する
ことを特徴とする請求項1または2に記載の音声出力装置。
A device information acquisition unit that acquires device information from a predetermined device;
The audio output unit
3. The device information is output due to acquisition of detection information indicating that the user exists and at a timing according to an urgency level included in the device information. The audio output device according to 1.
音声出力装置であって、
ユーザの検知情報を取得する検知情報取得部と、
音声を出力する音声出力部と、
当該音声出力装置の状態を取得する状態取得部と、
表示装置に表示させる通知情報を出力する通知情報出力部とを備え、
上記通知情報出力部は、
上記検知情報取得部が当該音声出力装置の位置を基準とした所定の範囲に上記ユーザが存在することを示す検知情報を取得したことに起因して、かつ、上記状態取得部が取得した当該音声出力装置の状態に応じたタイミングで上記表示装置が上記通知情報を表示するように上記通知情報を上記表示装置に出力する
ことを特徴とする音声出力装置。
An audio output device,
A detection information acquisition unit for acquiring user detection information;
An audio output unit for outputting audio;
A state acquisition unit for acquiring the state of the audio output device;
A notification information output unit for outputting notification information to be displayed on the display device;
The notification information output unit
The sound acquired by the state acquisition unit due to the detection information acquisition unit acquiring detection information indicating that the user exists in a predetermined range with respect to the position of the audio output device An audio output device that outputs the notification information to the display device so that the display device displays the notification information at a timing according to a state of the output device.
上記音声出力部は、第1の音声を出力中である場合に、
上記第1の音声の音量を小さくして上記第1の音声とは異なる第2の音声を重畳して出力し、または、上記第1の音声を中断して上記第2の音声を出力する
ことを特徴とする請求項1から5の何れか1項に記載の音声出力装置。
The audio output unit is outputting the first audio,
Decreasing the volume of the first sound and superimposing and outputting a second sound different from the first sound, or interrupting the first sound and outputting the second sound The sound output device according to claim 1, wherein the sound output device is a sound output device.
上記検知情報が示す、上記ユーザの存在の有無と、上記音声出力部が出力する音声とに応じた情報を、当該情報を出力可能な周辺機器に送信する
ことを特徴とする請求項1から6の何れか1項に記載の音声出力装置。
The information according to the presence or absence of the user indicated by the detection information and the sound output from the sound output unit is transmitted to a peripheral device capable of outputting the information. The audio output device according to any one of the above.
複数の音声または情報を出力する場合に、事前に当該音声または情報に行われた重み付けに従って、音声または情報の出力順序または出力個数を決定する
ことを特徴とする請求項1から7の何れか1項に記載の音声出力装置。
8. When outputting a plurality of sounds or information, the output order or number of outputs of the sounds or information is determined according to the weighting performed on the sounds or information in advance. The audio output device according to item.
音声または情報を出力する場合に、出力する時間帯または上記ユーザの行動履歴を参照して、音声または情報の出力時間長を決定する
ことを特徴とする請求項1から8の何れか1項に記載の音声出力装置。
The voice or information output time length is determined by referring to the time zone to be output or the user's action history when outputting the voice or information. The audio output device described.
上記音声出力部が出力する音声に関する関連情報を記憶する記憶部と、
ユーザの反応を示すユーザ反応情報を取得する取得部と、
上記取得部が取得したユーザの反応に応じて反応タイミングを特定し、特定した反応タイミングに応じて、上記記憶部に記憶された関連情報から、出力すべき関連情報を抽出する抽出部と、
をさらに備え、
上記音声出力部は、上記抽出部が抽出した関連情報を音声により出力する
ことを特徴とする請求項1から9の何れか1項に記載の音声出力装置。
A storage unit for storing related information related to the audio output by the audio output unit;
An acquisition unit for acquiring user reaction information indicating a user reaction;
An extraction unit that identifies reaction timing according to a user's response acquired by the acquisition unit, and extracts related information to be output from related information stored in the storage unit according to the specified reaction timing;
Further comprising
The audio output device according to claim 1, wherein the audio output unit outputs related information extracted by the extraction unit by audio.
音声または情報の情報源は複数存在し、
上記情報源に応じた出力態様にて音声または情報を出力する
ことを特徴とする請求項1から10の何れか1項に記載の音声出力装置。
There are multiple sources of audio or information,
The voice output apparatus according to any one of claims 1 to 10, wherein voice or information is output in an output mode according to the information source.
請求項1に記載の音声出力装置としてコンピュータを機能させるためのプログラムであって、上記検知情報取得部としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the audio output device according to claim 1, wherein the program causes the computer to function as the detection information acquisition unit. 請求項12に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 12 is recorded.
JP2018028225A 2018-02-20 2018-02-20 Audio output device, program, and program recording medium Pending JP2019144833A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018028225A JP2019144833A (en) 2018-02-20 2018-02-20 Audio output device, program, and program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018028225A JP2019144833A (en) 2018-02-20 2018-02-20 Audio output device, program, and program recording medium

Publications (1)

Publication Number Publication Date
JP2019144833A true JP2019144833A (en) 2019-08-29

Family

ID=67773822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018028225A Pending JP2019144833A (en) 2018-02-20 2018-02-20 Audio output device, program, and program recording medium

Country Status (1)

Country Link
JP (1) JP2019144833A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113032616A (en) * 2021-03-19 2021-06-25 腾讯音乐娱乐科技(深圳)有限公司 Audio recommendation method and device, computer equipment and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113032616A (en) * 2021-03-19 2021-06-25 腾讯音乐娱乐科技(深圳)有限公司 Audio recommendation method and device, computer equipment and storage medium
CN113032616B (en) * 2021-03-19 2024-02-20 腾讯音乐娱乐科技(深圳)有限公司 Audio recommendation method, device, computer equipment and storage medium

Similar Documents

Publication Publication Date Title
JP6811758B2 (en) Voice interaction methods, devices, devices and storage media
TWI665584B (en) A voice controlling system and method
US9509269B1 (en) Ambient sound responsive media player
US10044733B2 (en) System and method for controlling a rendering device based upon detected user proximity
JP6783339B2 (en) Methods and devices for processing audio
JP2020526781A (en) Key phrase detection by audio watermark
JP2018036397A (en) Response system and apparatus
CN110876180B (en) Power consumption processing method and device, electronic equipment and computer readable medium
CN107636541B (en) Method on computing device, system for alarm and machine readable medium
CN109643548A (en) System and method for content to be routed to associated output equipment
JP5753212B2 (en) Speech recognition system, server, and speech processing apparatus
WO2017141530A1 (en) Information processing device, information processing method and program
US20210233556A1 (en) Voice processing device, voice processing method, and recording medium
JP2018087872A (en) Information processing device, information processing system, information processing method, and program
JP2019144836A (en) Audio output device, program, and program recording medium
JP2007114537A (en) Voice guide output device
JP2019144833A (en) Audio output device, program, and program recording medium
CN111862965A (en) Awakening processing method and device, intelligent sound box and electronic equipment
JP6373709B2 (en) Dialogue device
JP6151112B2 (en) REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, SERVER, AND SYSTEM
EP3886457A1 (en) Information processing device and information processing method
JP6621593B2 (en) Dialog apparatus, dialog system, and control method of dialog apparatus
CN110958348B (en) Voice processing method and device, user equipment and intelligent sound box
CN111240634A (en) Sound box working mode adjusting method and device
JP2019144835A (en) Audio output device, program, and program recording medium