JP7456963B2 - Voice management devices and programs - Google Patents

Voice management devices and programs Download PDF

Info

Publication number
JP7456963B2
JP7456963B2 JP2021048591A JP2021048591A JP7456963B2 JP 7456963 B2 JP7456963 B2 JP 7456963B2 JP 2021048591 A JP2021048591 A JP 2021048591A JP 2021048591 A JP2021048591 A JP 2021048591A JP 7456963 B2 JP7456963 B2 JP 7456963B2
Authority
JP
Japan
Prior art keywords
audio
data
audio data
voice
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021048591A
Other languages
Japanese (ja)
Other versions
JP2022147379A (en
Inventor
一輝 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Global Life Solutions Inc
Original Assignee
Hitachi Global Life Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Global Life Solutions Inc filed Critical Hitachi Global Life Solutions Inc
Priority to JP2021048591A priority Critical patent/JP7456963B2/en
Publication of JP2022147379A publication Critical patent/JP2022147379A/en
Application granted granted Critical
Publication of JP7456963B2 publication Critical patent/JP7456963B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B40/00Technologies aiming at improving the efficiency of home appliances, e.g. induction cooking or efficient technologies for refrigerators, freezers or dish washers

Description

本発明は、音声を出力する音声機能を有する電気製品およびこの音声機能を実現するための技術に関する。 The present invention relates to an electrical product having an audio function that outputs audio and a technology for realizing this audio function.

現在、音声を出力する電気製品が利用されている。例えば、操作案内などのガイダンス、操作や稼働での注意を促すアラートや稼働結果を音声で出力されている。特に、自律走行型掃除機のように、自律的に稼働する電気製品においては、利用者とのコミュニケーションがより重要であり、音声機能のニーズが高まっている。 Currently, electrical appliances that output voice are in use. For example, they output voice guidance such as operation instructions, alerts to warn users about operations and results of operations. In particular, for electrical appliances that operate autonomously, such as autonomous vacuum cleaners, communication with users is more important, and there is a growing need for voice functions.

このような音声機能においては、その音量や音域について、利用者ごとにカスタマイズすることが求められている。例えば、特許文献1では、「使用者の性格やライフスタイルに対応した音量や光量のモードを選択できる電気掃除機」について、記載されている。このために、特許文献1では、「電動送風機、モータ駆動可能な駆動輪及びモータ駆動可能なメインブラシと、を備え、駆動輪を駆動させつつ自律駆動する自動運転モードを実行可能な電気掃除機であって、自動運転モードよりも発する音量の小さい弱運転モードと、弱運転モードよりも発する音量の小さい静音運転モードと、を実行可能であり、自動運転モード、弱運転モード、及び静音運転モードのいずれを実行するかの指定をユーザから受付けるモード指定部を」有している。そして、静音運転モード時には、メッセージや効果音の発音を抑止している。 In such audio functions, it is required that the volume and range of sounds be customized for each user. For example, Patent Document 1 describes a "vacuum cleaner that can select modes for volume and light intensity that correspond to the user's personality and lifestyle." For this purpose, in Patent Document 1, "a vacuum cleaner that is equipped with an electric blower, a drive wheel that can be driven by a motor, and a main brush that can be driven by a motor, and that can execute an automatic operation mode that autonomously drives while driving the drive wheels. It is possible to execute a weak operation mode that emits a lower volume than the automatic operation mode, and a silent operation mode that emits a lower volume than the low operation mode, and the automatic operation mode, the low operation mode, and the silent operation mode The computer has a mode designation section that accepts a designation from the user as to which of the following is to be executed. When in silent operation mode, messages and sound effects are suppressed.

また、特許文献2には、「聴力が低下した老人や聴覚障害者にも聞き取り易い音声案内を可能とする」音声案内装置が記載されている。このために、特許文献2では、「音域が異なる複数の案内音声の音声データを予めメモリ5に記憶しておき、音声混合装置4は、記憶されている音声データの中から音域が異なる3つの音声データを選択して合成することにより混合音声データを生成する。音声発声装置12は、混合音声データを音声に変換し、その案内音声をスピーカ13を通して出力する。音声測定装置7は、乗員からの応答音声の特徴(周波数、大きさ、発音の速さ)を測定し、音声混合装置4は、この測定した特長を有する案内音声の混合音声データを生成して出力」している。 Further, Patent Document 2 describes an audio guidance device that "enables audio guidance that is easy to hear even for elderly people with reduced hearing ability and hearing-impaired people." For this purpose, in Patent Document 2, "audio data of a plurality of guidance voices with different ranges is stored in advance in the memory 5, and the audio mixing device 4 is configured to Mixed voice data is generated by selecting and synthesizing voice data.The voice generating device 12 converts the mixed voice data into voice and outputs the guidance voice through the speaker 13. The characteristics (frequency, loudness, speed of pronunciation) of the response voice are measured, and the voice mixing device 4 generates and outputs mixed voice data of the guide voice having the measured characteristics.

特開2020-39454号公報JP2020-39454A 特開2006-38929号公報Japanese Patent Application Publication No. 2006-38929

ここで、音声機能においては、利用者の好み、聴力などの特性といった状況に応じたカスタマイズが必要になる。しかしながら、特許文献1では、発音を抑止の有無を制御する物であり、音域や音声自体を、好みや特性に応じて変更するものではない。 Here, the voice function requires customization according to circumstances, such as the user's preferences and characteristics, such as hearing ability. However, the technology in Patent Document 1 controls whether or not to suppress pronunciation, and does not change the range of sound or the voice itself according to preferences or characteristics.

また、特許文献2では、乗員からの応答音声に応じた混合音声を生成しているが、自身の音声が好みに合っているとは限らない。 Further, in Patent Document 2, a mixed voice is generated according to the response voice from the passenger, but the passenger's own voice does not necessarily match the passenger's preference.

そこで、本発明では、利用者の好みを含む属性や音声データの特性を含む状況に応じたより適切な音声データを利用可能とすることを課題とする。 Therefore, an object of the present invention is to make it possible to use more appropriate audio data according to the situation, including attributes including user preferences and characteristics of audio data.

上記の課題を解決するために、本発明では、音声データをストリーミングで配信して試聴可能とし、利用者からの選択結果に応じて、音声データを家電製品へ設定できる構成とした。 In order to solve the above problems, the present invention has a configuration in which audio data is streamed and made available for preview, and the audio data can be set in a home appliance according to a selection result from a user.

より具体的には、電気製品で出力される音声データを管理する音声管理装置において、前記音声データを識別する音声データID、音声データにおける出力メッセージ、前記出力メッセージの種類を示し、複数の音声データを含むメッセージ種別、および、前記音声データで特性が共通し、複数のメッセージ種別を含む音声グループを有する音声管理情報を記憶する記憶部と、前記電気製品の利用者が利用する利用者端末から、前記電気製品が出力する音声データについての選択を受け付ける入力部と、前記選択に応じて、出力部を用いて前記利用者端末へ、前記記憶部に記憶された出力メッセージが示す音声データを、出力部を用いて試聴データとしてストリーミング配信し、前記入力部を介して前記利用者端末から受け付けた音声データのダウンロード指示であって、変更単位として、ストリーミング配信された前記音声データ、ストリーミング配信された前記音声データを含むメッセージ種別、ストリーミング配信された前記音声データを含む音声グループのいずれかを選択するダウンロード指示に応じた音声データを特定し、特定された前記音声データを、選択された前記変更単位で前記出力部を用いてダウンロード配信する音声管理部を有し、ダウンロード配信された前記音声データを前記電気製品の記憶部に設定し、前記電気製品において当該音声データを出力可能とする音声管理装置である。本発明には、この音声管理装置を用いた音声管理方法も含まれる。
More specifically, in a voice management device that manages voice data output by an electrical product , a voice data ID that identifies the voice data, an output message in the voice data, a type of the output message, and a plurality of voice data a storage unit that stores voice management information having message types including message types and voice groups having common characteristics among the voice data and including a plurality of message types, and a user terminal used by a user of the electric appliance; an input unit that accepts a selection regarding audio data output by the electrical product; and an output unit that outputs audio data indicated by the output message stored in the storage unit to the user terminal according to the selection ; An instruction for downloading audio data received from the user terminal via the input unit and streamed as preview data using the input unit, the audio data streamed as a unit of change, and the audio data streamed as the streaming unit. Identify audio data in response to a download instruction that selects either a message type that includes audio data or an audio group that includes the streamed audio data, and transfer the identified audio data in the selected change unit. An audio management device comprising an audio management unit that performs download distribution using the output unit, sets the downloaded and distributed audio data in a storage unit of the electrical product, and enables the electrical product to output the audio data. be. The present invention also includes a voice management method using this voice management device.

また、本発明では、利用者端末で用いられるプログラムも含まれる。さらに、本発明には、音声データを変更可能な前記電気製品も含まれる。またさらに、音声管理装置、利用者端末、電気製品を含むシステムやこれらのうち少なくとも2つを含むサブコンビネーションも、本発明に含まれる。さらに、これらを用いた音声データ管理方法も含まれる。 The present invention also includes a program used on a user terminal. Furthermore, the present invention also includes the above-mentioned electrical product that can change audio data. Furthermore, the present invention also includes a system including a voice management device, a user terminal, and an electrical appliance, and a subcombination including at least two of these. Furthermore, audio data management methods using these are also included.

本発明によれば、電気製品において、利用者の状況に応じたより適切な音声データを利用可能となる。 According to the present invention, it is possible to use more appropriate audio data in accordance with the user's situation in an electrical product.

本発明の一実施例におけるシステム構成図。FIG. 1 is a system configuration diagram in an embodiment of the present invention. 本発明の一実施例における音声管理装置のハードウエア構成図。FIG. 1 is a hardware configuration diagram of a voice management device in an embodiment of the present invention. 本発明の一実施例における利用者端末のハードウエア構成図。FIG. 2 is a hardware configuration diagram of a user terminal in an embodiment of the present invention. 本発明の一実施例における掃除機の機能ブロック構成図。FIG. 1 is a functional block configuration diagram of a vacuum cleaner according to an embodiment of the present invention. 本発明の一実施例で用いられる利用者情報を示す図。FIG. 3 is a diagram showing user information used in an embodiment of the present invention. 本発明の一実施例で用いられる音声管理情報を示す図。FIG. 3 is a diagram showing audio management information used in an embodiment of the present invention. 本発明の一実施例における処理フローを示すフローチャート。1 is a flowchart showing a processing flow in an embodiment of the present invention. 本発明の一実施例における選択画面の一例を示す図。The figure which shows an example of the selection screen in one Example of this invention. 本発明の一実施例における纏め変更指示画面の一例を示す図。FIG. 13 is a diagram showing an example of a summary change instruction screen according to an embodiment of the present invention.

以下、本発明の一実施例について、図面を用いて説明する。なお、本実施例では、電気製品の一例として、自律走行型掃除機を用いて説明するが、他の電気製品にも適用可能である。 An embodiment of the present invention will be described below with reference to the drawings. Note that although this embodiment will be described using an autonomous vacuum cleaner as an example of an electrical product, it is also applicable to other electrical products.

<構成>
図1は、本実施例におけるシステム構成図である。本実施例では、音声管理装置10、利用者端末20、自律走行型掃除機(以下、単に掃除機30)、ルータ40が、ネットワーク50を介して互いに接続されている。なお、掃除機30や利用者端末20は、ルータ40を介して、ネットワーク50と接続することも可能である。また、ネットワーク50は、宅内ネットワークとインターネットで構成したり、1つのネットワークで構成してもよい。なお、図1には、各装置を1台ずつ記載したが、複数台利用することも可能である。
<Configuration>
FIG. 1 is a system configuration diagram in this embodiment. In this embodiment, a voice management device 10, a user terminal 20, an autonomous vacuum cleaner (hereinafter simply referred to as a vacuum cleaner 30), and a router 40 are connected to each other via a network 50. Note that the vacuum cleaner 30 and the user terminal 20 can also be connected to the network 50 via the router 40. Further, the network 50 may be composed of a home network and the Internet, or may be composed of a single network. In addition, although each device is shown one by one in FIG. 1, it is also possible to use a plurality of devices.

次に、各装置の構成を説明する。まず、音声管理装置10は、そして、いわゆるコンピュータ装置で実現され、各種演算を実行する入力部11、出力部12および音声管理部13を有する。また、音声管理装置10は、各種情報を記憶する記憶部14有する。入力部11および出力部12は、ネットワーク50を介して、他の装置との通信を実現する。 Next, the configuration of each device will be explained. First, the audio management device 10 is realized by a so-called computer device, and includes an input section 11, an output section 12, and an audio management section 13 that perform various calculations. The audio management device 10 also includes a storage unit 14 that stores various information. The input unit 11 and the output unit 12 realize communication with other devices via the network 50.

音声管理部13は、利用者端末20からの指示に応じて、音声データの配信のための処理を実行する。また、記憶部14には、利用者情報141、音声管理情報142および音声データ143が記憶されている。利用者情報141は、掃除機30の利用者の属性など利用者に関する情報である。ここで、利用者とは、利用者端末20もしくは掃除機30の少なくとも一方の利用者を示す。音声管理情報142は、音声データ143を管理する情報であり、音声データ143が示す出力メッセージなどを特定する情報である。音声データ143は、音声の種類ごとに、各出力メッセージの音声データが用意される。なお、これら各情報の詳細については、後述する。 The audio management unit 13 executes processing for distributing audio data in response to instructions from the user terminal 20. Further, the storage unit 14 stores user information 141, audio management information 142, and audio data 143. The user information 141 is information related to the user of the vacuum cleaner 30, such as attributes of the user. Here, the user refers to a user of at least one of the user terminal 20 and the vacuum cleaner 30. The audio management information 142 is information that manages the audio data 143 and is information that specifies the output message indicated by the audio data 143. The audio data 143 includes audio data of each output message for each type of audio. Note that details of each piece of information will be described later.

次に、音声管理装置10の機能をプログラムで実現する場合のハードウエア構成図を図2に示す。音声管理装置10は、処理部101、通信部102、主記憶部103および副記憶部104を有し、これらが互いに通信路を介して接続されている。 Next, FIG. 2 shows a hardware configuration diagram when the functions of the audio management device 10 are realized by a program. The audio management device 10 includes a processing section 101, a communication section 102, a main storage section 103, and a sub-storage section 104, which are connected to each other via a communication path.

処理部101は、CPU(Central Processing Unit)などのプロセッサで実現でき、後述する主記憶部103に展開される音声管理プログラム130に従って演算を実行する。つまり、処理部101が、音声管理プログラム130に従って、音声管理部13の処理を実行する。 The processing unit 101 can be realized by a processor such as a CPU (Central Processing Unit), and executes calculations according to an audio management program 130 loaded in the main storage unit 103, which will be described later. That is, the processing unit 101 executes the processing of the audio management unit 13 according to the audio management program 130.

主記憶部103は、いわゆるメモリで実現可能であり、副記憶部104に格納される音声管理プログラム130や処理に必要な情報が展開される。副記憶部104は、ハードディスクドライブ等のストレージで実現でき、音声管理プログラム130や図1で説明した各種情報を記憶する。このように、主記憶部103および副記憶部104が、記憶部14に該当する。また、副記憶部104の各種情報は、音声管理装置10とは別筐体のデータベースシステムに記憶してもよい。 The main storage unit 103 can be implemented as a so-called memory, and the audio management program 130 stored in the secondary storage unit 104 and information necessary for processing are developed. The secondary storage unit 104 can be realized by a storage such as a hard disk drive, and stores the audio management program 130 and the various information described in FIG. 1. In this way, the main storage unit 103 and the secondary storage unit 104 correspond to the storage unit 14. Further, various types of information in the secondary storage unit 104 may be stored in a database system in a separate housing from the audio management device 10.

なお、音声管理装置10は、さらに、操作者からの入力を受け付ける入力部や各種情報を出力する表示部を設けてもよい。また、これらは端末装置として外出ししてもよい。またさらに、各装置の各プログラムは、1つのプログラムとして実現してもよいし、さらに細分化してもよい。以上で、音声管理装置10の説明を終了する。 Note that the audio management device 10 may further include an input section that receives input from the operator and a display section that outputs various information. Moreover, these may be taken out as terminal devices. Furthermore, each program of each device may be realized as one program, or may be further subdivided. This concludes the description of the audio management device 10.

次に、利用者端末20のハードウエア構成図を、図3に示す。利用者端末20は、スマートフォンといったいわゆるコンピュータ装置で実現される。このため、利用者端末20は、タッチパネル21、処理部22、通信部23、スピーカ24および記憶部25を有する。 Next, a hardware configuration diagram of the user terminal 20 is shown in FIG. The user terminal 20 is realized by a so-called computer device such as a smartphone. For this reason, the user terminal 20 includes a touch panel 21 , a processing section 22 , a communication section 23 , a speaker 24 , and a storage section 25 .

タッチパネル21は、利用者からの入力を受け付けたり、各種情報を表示したりする。なお、タッチパネル21は、入力を受け付ける入力部と表示を行う表示部に分けて構成してもよい。 The touch panel 21 accepts input from the user and displays various information. The touch panel 21 may be configured as separate parts: an input section that accepts input and a display section that displays information.

処理部22は、CPUなどのプロセッサで実現でき、後述する各プログラム(アプリ)に従って演算を実行する。通信部23は、ネットワーク50やルータ40を介して、他の装置との接続を行う。また、通信部23は、掃除機30と接続する近距離無線通信機能をさらに有してもよい。 The processing unit 22 can be realized by a processor such as a CPU, and executes calculations according to each program (application) described later. The communication unit 23 connects with other devices via the network 50 and router 40. Further, the communication unit 23 may further have a short-range wireless communication function to connect with the vacuum cleaner 30.

スピーカ24は、処理部22の処理に従って各種情報を音声(音)で出力する。また、記憶部25は、掃除機操作プログラム251および利用者音声管理情報252を記憶する。掃除機操作プログラム251は、掃除機30の稼働に関する指示、制御を実現する、利用者音声管理情報252は、掃除機操作プログラム251での制御対象である掃除機30で用いられる音声データを管理する情報である。 The speaker 24 outputs various information in the form of audio (sound) according to the processing by the processing unit 22 . The storage unit 25 also stores a vacuum cleaner operation program 251 and user voice management information 252. The vacuum cleaner operation program 251 realizes instructions and control regarding the operation of the vacuum cleaner 30. The user voice management information 252 manages voice data used in the vacuum cleaner 30, which is a control target of the vacuum cleaner operation program 251. It is information.

なお、掃除機操作プログラム251は、アプリとも称される。また、掃除機操作プログラム251は、後述する機能を実現できればよく、必ずしも掃除機30稼働に関する指示、制御を実現する機能を有していなくともよい。なお、利用者端末20には、タブレット端末、PCも含まれる。ここで、PCは、いわゆるノート型、デスクトップ型を問わない。以上で、利用者端末20の構成の説明を終了する。 Note that the vacuum cleaner operation program 251 is also referred to as an application. Further, the vacuum cleaner operation program 251 only needs to realize the functions described below, and does not necessarily have the function of realizing instructions and control regarding the operation of the vacuum cleaner 30. Note that the user terminal 20 also includes a tablet terminal and a PC. Here, the PC does not matter whether it is a so-called notebook type or a desktop type. This concludes the description of the configuration of the user terminal 20.

次に、掃除機30の構成を説明する。掃除機30は、制御プログラムに従って、自律的に稼働する。つまり、掃除機30は、走行し掃除を実行する。この機能を実行するための掃除機30の機能ブロック図を、図4に示す。掃除機30は、制御を行うための通信部31、タッチパネル32、記憶部33、制御部34およびスピーカ39を有する。そして、掃除機30は、制御される走行機構35、ブラシ機構36や吸引機構37を有する。 Next, the configuration of the vacuum cleaner 30 will be explained. The vacuum cleaner 30 operates autonomously according to a control program. In other words, the cleaner 30 runs and performs cleaning. A functional block diagram of the vacuum cleaner 30 for performing this function is shown in FIG. The vacuum cleaner 30 includes a communication section 31, a touch panel 32, a storage section 33, a control section 34, and a speaker 39 for controlling. The vacuum cleaner 30 has a traveling mechanism 35, a brush mechanism 36, and a suction mechanism 37 that are controlled.

通信部31は、ネットワーク50やルータ40ないし利用者端末20を通信する機能を有する。なお、通信部31は、利用者端末20の通信部23と同様に、近距離無線通信機能を設けてもよい。 The communication unit 31 has a function of communicating with the network 50, router 40, or user terminal 20. Note that the communication unit 31 may be provided with a short-range wireless communication function similarly to the communication unit 23 of the user terminal 20.

タッチパネル32は、制御部34の制御の下、利用者に対して各種情報を表示する。また、タッチパネル32は、利用者の操作を受け付け、制御部34に対して各種コマンドを出力する。なお、タッチパネル32は、操作を受け付ける入力部と表示を行う表示部に分けて構成してもよい。 The touch panel 32 displays various information to the user under the control of the control unit 34. Further, the touch panel 32 accepts user operations and outputs various commands to the control unit 34. Note that the touch panel 32 may be configured to be divided into an input section that receives operations and a display section that displays.

記憶部33は、稼働を制御するための制御プログラム、稼働範囲、稼働予定情報や音声管理装置10から配信された音声データを記憶する。制御部34は、制御プログラムに従って、掃除機30の稼働を制御するものであり、CPUといったプロセッサで実現できる。より具体的には、制御部34は、走行機構35、ブラシ機構36や吸引機構37の稼働を制御する。また、制御部34は、通信部31やタッチパネル32が受け付けた操作指示に従うことも可能である。また、制御部34は、スピーカ39を介して、記憶部33の音声データを出力させる。 The storage unit 33 stores a control program for controlling operation, an operation range, operation schedule information, and audio data distributed from the audio management device 10. The control unit 34 controls the operation of the vacuum cleaner 30 according to a control program, and can be realized by a processor such as a CPU. More specifically, the control unit 34 controls the operation of the traveling mechanism 35, the brush mechanism 36, and the suction mechanism 37. Further, the control unit 34 can also follow operation instructions received by the communication unit 31 and the touch panel 32. Further, the control unit 34 causes the audio data in the storage unit 33 to be outputted via the speaker 39.

走行機構35は、掃除機30の移動を実行し、モータといった駆動部と車輪などの被駆動部を有する。ブラシ機構36は、床上のゴミを吸引口付近に収集する。また、吸引機構37は、吸引口付近のゴミを吸引し、図示しない集塵ボックスにゴミを移動させる。 The traveling mechanism 35 moves the vacuum cleaner 30 and has a driving section such as a motor and a driven section such as wheels. The brush mechanism 36 collects dirt on the floor near the suction port. Further, the suction mechanism 37 sucks dust near the suction port and moves the dust to a dust collection box (not shown).

そして、スピーカ39が、制御部34の処理に従って、対応する音声データを、音として出力する。 Then, the speaker 39 outputs the corresponding audio data as sound according to the processing of the control unit 34.

ここで、上述の各プログラム、アプリは、ネットワーク50を介して各装置に配信されたり、記憶媒体を介して流通されたりすることが可能である。つまり、プログラム製品として、流通できる。以上で、本実施例の構成についての説明を終了する。 Here, each program and application described above can be distributed to each device via the network 50 or distributed via a storage medium. In other words, it can be distributed as a program product. This concludes the description of the configuration of this embodiment.

<情報>
次に、本実施例で用いられる情報について、説明する。まず、図5に、利用者情報141を示す。この利用者情報141は、利用者に関する情報であり、その属性を含む。具体的には、利用者情報141は、利用者ごとに、利用者ID、氏名、住所、性別、年齢、好み/趣向、音声データIDおよび掃除機IDを有する。
<Information>
Next, information used in this embodiment will be explained. First, FIG. 5 shows user information 141. This user information 141 is information regarding the user and includes its attributes. Specifically, the user information 141 includes a user ID, name, address, gender, age, preference/preference, voice data ID, and vacuum cleaner ID for each user.

利用者IDは、掃除機30の利用者を識別する情報である。氏名および住所は、当該利用者の氏名および住所である。また、性別および年齢も、利用者の性別、年齢を示す。また、好み/趣向は、利用者の趣味や聴取に関する特徴などを示す。これら、住所、性別、年齢および好み/趣向が、利用者の属性として用いられる。 The user ID is information that identifies the user of the vacuum cleaner 30. The name and address are the name and address of the user. Moreover, gender and age also indicate the gender and age of the user. Furthermore, the preferences/preferences indicate the user's hobbies and listening characteristics. These address, gender, age, and preferences/preferences are used as attributes of the user.

また、音声データIDは、利用者の利用する掃除機30に設定されている音声データを識別する情報を示す。本実施例では、音声データIDを用いるが他の情報を用いてもよい。例えば、後述するメッセージ種別や音声グループ(以下、音声G)を識別する情報を用いてもよい。 Moreover, the audio data ID indicates information for identifying audio data set in the vacuum cleaner 30 used by the user. In this embodiment, the audio data ID is used, but other information may be used. For example, information identifying the message type and voice group (hereinafter referred to as voice G), which will be described later, may be used.

さらに、掃除機IDは、当該利用者が利用する掃除機30自体もしくはその機種を識別する情報である。 Furthermore, the vacuum cleaner ID is information that identifies the vacuum cleaner 30 itself used by the user or its model.

次に、音声管理情報142を、図6に示す。音声管理情報142は、音声データ143を管理する情報である。そして、音声管理情報142は、掃除機30での出力単位である音声データごとに、音声データID、出力メッセージ、メッセージ種別、音声Gを有する。音声データIDは、掃除機30での音声データを識別する。 Next, the audio management information 142 is shown in FIG. The audio management information 142 is information for managing the audio data 143. The voice management information 142 includes a voice data ID, an output message, a message type, and a voice G for each voice data that is an output unit of the vacuum cleaner 30. The audio data ID identifies audio data from the vacuum cleaner 30.

出力メッセージは、掃除機30で出力、つまり、音として発する内容を示す。メッセージ種別は、出力メッセージをその種類ごとに分類したものであり、本実施例では、「アラート」「ガイダンス」「通知」を有する。このように、分類する理由は、出力メッセージの種類ごとに、その必要性や重要性が異なっているためである。必要性や重要性が異なっているので、利用者によっては、種類ごとに特性を変更することを望む場合がある。このこと対応するために、本実施例では、音声管理情報142に、メッセージ種別を設けた。本実施例で用いる「アラート」は、利用者に対する注意を促す音声データを示す。「ガイダンス」は、利用者に対して掃除機30お利用方法などの案内を示す音声データを示す。そして、「通知」は、利用者に対して掃除機30の稼働情報(掃除の終了など)を示す。本実施例では、これら3つに分類したが、分類方法はこれらに限定されない。さらに、メッセージ種別には、「アラート」等の種類に加え、これに含まれる音声データも併せて識別するメッセージ種別ID(01A等)を設けることが望ましい。 The output message indicates the content outputted by the vacuum cleaner 30, that is, the content emitted as sound. The message type is a classification of output messages by type, and in this embodiment includes "alert," "guidance," and "notification." The reason for this classification is that the necessity and importance of each type of output message differs. Since the needs and importance differ, some users may wish to change the characteristics for each type. In order to deal with this, in this embodiment, message types are provided in the voice management information 142. "Alert" used in this embodiment indicates audio data that calls attention to the user. "Guidance" indicates audio data that provides guidance to the user on how to use the vacuum cleaner 30, etc. The "notification" indicates operation information of the vacuum cleaner 30 (such as completion of cleaning) to the user. In this embodiment, the classification is classified into these three types, but the classification method is not limited to these. Furthermore, in addition to the message type such as "alert", it is desirable to provide a message type ID (such as 01A) that also identifies the voice data included in the message type.

そして、音声Gは、言語、話者などの特性が共通する複数の音声データを含む音声データの分類(グループ)である。掃除機30にデフォルトで設定される音声データは、各出力メッセージとも同じ音声Gであることが望ましい。またさらに、さらに、音声Gには、「関西弁・女性・ゆっくり」等の分類に加え、これに含まれる音声データないしメッセージ種別も併せて識別する音声GID(01等)を設けることが望ましい。 The audio G is a classification (group) of audio data that includes a plurality of audio data having common characteristics such as language and speaker. It is desirable that the voice data set by default in the vacuum cleaner 30 be the same voice G for each output message. Furthermore, it is desirable that the voice G is provided with a voice GID (01, etc.) that identifies not only the classification such as "Kansai dialect, female, slow", but also the type of voice data or message contained therein.

次に、音声データ143は、出力メッセージごとに、ファイルデータとして、音声データIDと対応付けられて記憶されている。なお、音声データ143は、メッセージ種別や音声Gごとのファイルデータとして管理してもよい。この場合、出力メッセージごとのファイルデータとメッセージ種別や音声Gごとのファイルデータの双方を設けることが望ましい。 Next, the audio data 143 is stored as file data for each output message in association with the audio data ID. Note that the voice data 143 may be managed as file data for each message type or voice G. In this case, it is desirable to provide both file data for each output message and file data for each message type and voice G.

次に、利用者端末20が保持する利用者音声管理情報252について、説明する。利用者音声管理情報252は、掃除機30に設定されている音声データを識別する情報が記録されている。つまり、音声管理情報142の音声データIDと同様の情報が記録される。さらに、利用者音声管理情報252には、音声データIDに対応するメッセージ種別や音声Gを識別する情報も含まれる。なお、図5や図6に示すように、音声データIDに、メッセージ種別や音声Gを識別する情報(01Aや01など)を含める場合、音声データIDを流用できる。 Next, the user voice management information 252 held by the user terminal 20 will be explained. In the user voice management information 252, information for identifying voice data set in the vacuum cleaner 30 is recorded. That is, information similar to the audio data ID of the audio management information 142 is recorded. Furthermore, the user voice management information 252 also includes information for identifying the message type and voice G corresponding to the voice data ID. Note that, as shown in FIGS. 5 and 6, when the voice data ID includes information for identifying the message type and voice G (01A, 01, etc.), the voice data ID can be used.

さらに、利用者音声管理情報252に、音声管理情報142の属性などを含めることが望ましい。なお、利用者音声管理情報252には、掃除機30に設定された音声データの履歴などを含めてもよい。以上で、本実施例で用いられる情報の説明を終了する。
<処理>
次に、本実施例における処理フローを示すフローチャートを、図7に示す。なお、本フローチャートでは、音声管理装置10の処理主体を、図1で示す構成要素を用いて説明する。以下、ステップごとに、その機能を説明する。
Furthermore, it is desirable that the user voice management information 252 include attributes of the voice management information 142 and the like. Note that the user voice management information 252 may include a history of voice data set in the vacuum cleaner 30 and the like. This concludes the explanation of the information used in this embodiment.
<Processing>
Next, a flowchart showing the processing flow in this embodiment is shown in FIG. In this flowchart, the processing main body of the audio management device 10 will be explained using the components shown in FIG. The functions will be explained step by step below.

まず、ステップS1において、利用者端末20は、利用者からの操作に従って、音声出力指示を、掃除機30に出力する。このために、タッチパネル21が、出力メッセージの識別を含む利用者の操作を受け付ける。そして、処理部22が、掃除機操作プログラム251に従って、通信部23を用いて音声出力指示を出力する。なお、以下、処理部22の処理は、特に断らない限り、掃除機操作プログラム251に従って実行される。 First, in step S1, the user terminal 20 outputs a voice output instruction to the vacuum cleaner 30 in accordance with a user's operation. For this purpose, the touch panel 21 accepts user operations including identification of output messages. Then, the processing unit 22 outputs a voice output instruction using the communication unit 23 according to the vacuum cleaner operation program 251. Note that, hereinafter, the processing of the processing unit 22 is executed according to the vacuum cleaner operation program 251 unless otherwise specified.

次に、ステップS2において、掃除機30は、音声出力指示に応じて、音声を出力する。このために、制御部34は、記憶部33から音声出力指示に応じた音声データを特定する。そして、制御部34は、スピーカ39を用いて、特定された音声データの音声を出力(発声)する。 Next, in step S2, the vacuum cleaner 30 outputs audio in response to the audio output instruction. For this purpose, the control unit 34 specifies audio data corresponding to the audio output instruction from the storage unit 33. Then, the control unit 34 uses the speaker 39 to output (voice) the audio of the specified audio data.

次に、ステップS3において、利用者端末20の処理部22は、タッチパネル21を介して修正要求を受け付け(Yes)、ステップS4に遷移する。修正要求を受け付けない場合は(No)、処理を終了する。 Next, in step S3, the processing unit 22 of the user terminal 20 receives a modification request via the touch panel 21 (Yes), and the process moves to step S4. If the modification request is not accepted (No), the process ends.

次に、ステップS4において、処理部22は、修正する音声データの出力メッセージおよび利用者の利用者IDを特定する。このために、処理部22は、ステップS2で出力された音声の出力メッセージを特定する音声データIDを、ステップS1での音声出力指示から特定する。 Next, in step S4, the processing unit 22 specifies the output message of the audio data to be modified and the user ID of the user. For this purpose, the processing unit 22 identifies the audio data ID that identifies the audio output message output in step S2 from the audio output instruction in step S1.

また、処理部22は、利用者音声管理情報252もしくは記憶部25に記憶された利用者に関する情報を用いて、利用者IDを特定する。 Furthermore, the processing unit 22 uses the user voice management information 252 or the information regarding the user stored in the storage unit 25 to identify the user ID.

なお、ステップS1やステップS2は、省略してもよい。例えば、掃除機30の稼働の際に発せられる音声を聞いて、利用者が音声の変更を始めてもよい。この場合、本ステップでの出力メッセージの特定は、利用者からの指定により実現できる。 Note that step S1 and step S2 may be omitted. For example, the user may start changing the sound by listening to the sound emitted when the vacuum cleaner 30 is operating. In this case, the output message in this step can be specified by the user.

次に、ステップS5において、処理部22は、通信部23を用いて、音声管理装置10へ、試聴要求を通知する。この試聴要求には、ステップS3で特定された出力メッセージおよび利用者IDが含まれる。 Next, in step S5, the processing unit 22 uses the communication unit 23 to notify the audio management device 10 of the preview request. This preview request includes the output message and user ID specified in step S3.

次に、ステップS6において、音声管理装置10の音声管理部13が、入力部11で受け付けた試聴要求に対応する音声データを記憶部14から検索する。この際、音声管理部13は、音声管理情報142を用いて、試聴要求に含まれる出力メッセージを含むメッセージ種別および音声Gの少なくとも一方を特定する。 Next, in step S6, the voice management unit 13 of the voice management device 10 searches the storage unit 14 for voice data corresponding to the preview request received by the input unit 11. At this time, the voice management unit 13 uses the voice management information 142 to identify at least one of the message type including the output message included in the preview request and the voice G.

また、音声管理部13は、利用者情報141を用いて、利用者IDに対応する利用者の属性を特定する。そして、音声管理部13は、この属性に対応する音声データIDを、音声管理情報142から特定する。このために、属性が難聴や高齢者を示す場合、「ゆっくり」や「はっきり」といったより聞きやすい特性を含む音声Gを特定する。このために、属性と音声Gの対応関係を示すルールと設定しておくことが望ましい。 Furthermore, the voice management unit 13 uses the user information 141 to identify the attributes of the user corresponding to the user ID. Then, the audio management unit 13 identifies the audio data ID corresponding to this attribute from the audio management information 142. For this purpose, when the attribute indicates hearing loss or elderly people, a voice G that includes characteristics that are easier to hear such as "slow" and "clear" is specified. For this reason, it is desirable to set rules that indicate the correspondence between attributes and voices G.

この結果、音声管理部13は、これら出力メッセージ、メッセージ種別、音声Gおよび属性に対応する音声データIDを特定することになる。この音声データIDで特定される音声データを、試聴候補データと称する。 As a result, the audio management unit 13 specifies the audio data ID corresponding to these output messages, message types, audio G, and attributes. The audio data specified by this audio data ID is referred to as preview candidate data.

次に、ステップS7において、音声管理装置10は、出力部12を用いて、試聴候補データを通知する。そして、ステップS7に応じて、ステップS8において、利用者端末20の処理部22が、タッチパネル21に、試聴候補データを選択するための選択画面を出力する。 Next, in step S7, the audio management device 10 uses the output unit 12 to notify the preview candidate data. Then, in step S8, in response to step S7, the processing unit 22 of the user terminal 20 outputs a selection screen for selecting preview candidate data to the touch panel 21.

ここで、この選択画面の一例を、図8に示す。なお、この選択画面では、ステップS4で特定された出力メッセージの音声データを変更するための画面である。タッチパネル21には、音声データの特性を示す選択肢が表示される。このため、利用者が選択画面のラジオボタンをチェックすることで選択できる。ここで、各選択肢の特性は、音声管理情報142の音声Gに示される特性を用いることが望ましい。 Here, an example of this selection screen is shown in FIG. Note that this selection screen is a screen for changing the audio data of the output message specified in step S4. The touch panel 21 displays options indicating the characteristics of the audio data. Therefore, the user can select by checking the radio button on the selection screen. Here, it is desirable to use the characteristics shown in the voice G of the voice management information 142 as the characteristics of each option.

さらに、選択肢の提示順を、利用者の属性や音声データの特性といった状況に応じて設定することが望ましい。このために、前述のステップS6において、音声管理部13は、利用者情報141に含まれる音声データにより、掃除機30に設定されている音声データを特定する。そして、音声管理部13は、掃除機30に設定されている音声データと特性が異なる音声データを特定する。このために、音声管理部13は、音声管理情報142の音声Gに記録される特性を用いる。この際、音声管理部13は、特性の近似性を予め定めた規則によって判断し、この結果を用いることが望ましい。この提示順としては、例えば、近似性の遠いものから提示することが含まれる。このように、利用者の属性や音声データの特性といった状況に応じた優先順位で、利用者に変更を提示できる。 Furthermore, it is desirable to set the order in which the options are presented depending on the situation, such as the user's attributes and the characteristics of the audio data. For this purpose, in step S<b>6 described above, the audio management unit 13 identifies the audio data set in the vacuum cleaner 30 based on the audio data included in the user information 141 . Then, the audio management unit 13 identifies audio data having different characteristics from the audio data set for the vacuum cleaner 30. For this purpose, the audio management unit 13 uses the characteristics recorded in the audio G of the audio management information 142. At this time, it is preferable that the audio management unit 13 determines the similarity of characteristics according to a predetermined rule and uses this result. This presentation order includes, for example, presenting the items in order of similarity. In this way, changes can be presented to the user in a priority order according to the situation, such as the user's attributes and the characteristics of the audio data.

次に、ステップS9において、処理部22は、タッチパネル21を介して入力される利用者からの選択を受け付ける。これを受けて、処理部22は通信部23を介して、選択結果、つまり、洗濯された試聴候補データの音声データIDを送信する。このように、利用者からの選択を受け付けることで、利用者の好みを反映できる。 Next, in step S9, the processing unit 22 receives a selection input from the user via the touch panel 21. In response to this, the processing unit 22 transmits the selection result, that is, the audio data ID of the preview candidate data via the communication unit 23. In this way, by accepting selections from the user, the user's preferences can be reflected.

次に、ステップS10において、音声管理部13は、入力部11で受け付けた、選択結果が示す音声データIDの音声データを、試聴データとして特定する。そして、音声管理部13は、出力部12を介して、特定された試聴データを、ストリーミング配信で配信する。 Next, in step S10, the audio management unit 13 specifies the audio data of the audio data ID received by the input unit 11 and indicated by the selection result as preview data. Then, the audio management unit 13 distributes the specified preview data via the output unit 12 by streaming distribution.

次に、ステップS12において、処理部22が、通信部23を介して受信した試聴データの音声をスピーカ24から出力する。これを受けて、利用者はこの試聴データを気に入ったかを判断できる。そして、ステップS13において、処理部22は、タッチパネル21を介して、利用者から試聴データに変更するかの判断結果を受け付ける。変更する場合(Yes)、ステップS14に遷移し、変更しない場合(No)、ステップS9に戻る。ここで、変更しない場合(No)で、ステップS9に戻った場合、処理部22は、利用者からさらに別の選択を受け付けることになる。 Next, in step S12, the processing section 22 outputs the audio of the preview data received via the communication section 23 from the speaker 24. Based on this, the user can decide whether or not he/she likes this preview data. Then, in step S13, the processing unit 22 receives a determination result from the user via the touch panel 21 as to whether to change to preview data. If it is to be changed (Yes), the process moves to step S14, and if it is not to be changed (No), it is returned to step S9. Here, if no change is made (No) and the process returns to step S9, the processing unit 22 will accept yet another selection from the user.

そして、ステップS14において、処理部22は、タッチパネル21を用いて、音声データについて、纏め変更を行うかの指示を受け付ける。このために、まず、処理部22は、タッチパネル21に、纏め変更指示画面を出力する。この纏め変更指示画面を、図9に示す。図9では、タッチパネル21に、音声データを変更する変更単位を選択する画面を表示している。つまり、選択肢として、以下の3つが表示される。
ステップS12で出力した音声の音声データ、つまり、「このメッセージのみ」
ステップS12で出力した音声の音声データを含む「メッセージ種別で纏め変更する」
ステップS12で出力した音声の音声データを含む「音声Gで纏め変更する「一括変更」」
この出力内容に対して、処理部22は、タッチパネル21を介して利用者からの選択を受け付ける。具体的には、選択肢ごとに設けられたラジオボタンへのチェックを受け付け、変更指示を受け付ける。
Then, in step S14, the processing unit 22 uses the touch panel 21 to receive an instruction as to whether to collectively change the audio data. For this purpose, the processing unit 22 first outputs a collective change instruction screen to the touch panel 21. This summary change instruction screen is shown in FIG. In FIG. 9, a screen is displayed on the touch panel 21 for selecting a unit of change in which audio data is to be changed. In other words, the following three options are displayed.
The audio data of the audio output in step S12, that is, "this message only"
"Change all messages by message type" including the audio data of the audio output in step S12
"Batch change" that includes the audio data of the audio output in step S12, which is changed all at once using audio G
Regarding this output content, the processing unit 22 accepts a selection from the user via the touch panel 21. Specifically, it accepts a check on a radio button provided for each option and accepts a change instruction.

そして、ステップS15において、処理部22は、通信部23を用いて、変更する音声データについてのダウンロード指示を、音声管理装置10へ通知する。このダウンロード指示には、ステップS13において変更が指定された音声データの音声データIDおよびステップS14で指示された纏め変更が含まれる。なお、具体的なステップS14で指示された纏め変更の内容は、上述の3つの選択肢である。 Then, in step S15, the processing unit 22 uses the communication unit 23 to notify the audio management device 10 of a download instruction for the audio data to be changed. This download instruction includes the audio data ID of the audio data specified to be changed in step S13 and the collective change instructed in step S14. Note that the contents of the collective change instructed in step S14 are the above-mentioned three options.

ここで、このダウンロード指示に、纏め変更の内容を含めることで、複数の音声データを纏めてダウンロードすることが可能になり、ネットワークリソースをより効率的に利用できる。もちろん、変更指示毎に、音声データをダウンロードする構成としてもよい。つまり、ダウンロード指示は、ダウンロードする音声を特定できればよい。 Here, by including the content of bulk change in this download instruction, it becomes possible to download a plurality of audio data at once, and network resources can be used more efficiently. Of course, a configuration may also be adopted in which audio data is downloaded for each change instruction. In other words, the download instruction only needs to specify the audio to be downloaded.

次に、ステップS16において、音声管理装置10の音声管理部13は、入力部11を介して受け付けたダウンロード指示に対応する音声データを特定する。そして、音声管理部13は、これらを送信するための集約処理を実行する。集約処理には、音声データの圧縮処理などが含まれる。また、音声管理部13は、利用者情報141の音声データIDを更新する。つまり、音声管理部13は、利用者情報141の音声データIDを、ダウンロード対象の音声データIDに変更する。 Next, in step S16, the audio management unit 13 of the audio management device 10 identifies audio data corresponding to the download instruction received via the input unit 11. Then, the audio management unit 13 executes aggregation processing for transmitting these. The aggregation processing includes audio data compression processing and the like. The audio management unit 13 also updates the audio data ID of the user information 141. That is, the audio management unit 13 changes the audio data ID of the user information 141 to the audio data ID to be downloaded.

そして、ステップS17において、音声管理部13は、出力部12を用いて、ステップS16で集約された音声データを、利用者端末20に対してダウンロード配信で配信する。つまり、なお、音声管理部13は、音声データを、変更単位でダウンロード配信する。この配信は、掃除機30に対して実行してもよい。 Then, in step S17, the audio management unit 13 uses the output unit 12 to distribute the audio data aggregated in step S16 to the user terminal 20 by download distribution. In other words, the audio management unit 13 downloads and distributes the audio data in units of changes. This distribution may be executed to the vacuum cleaner 30.

次に、ステップS18において、利用者端末20の処理部22が、利用者音声管理情報252に対して、ダウンロード配信された音声データについての更新処理を実行する。つまり、処理部22が、掃除機30に設定されている音声データとして、ダウンロード配信された音声データを識別する情報に更新する。そして、ステップS19において、ダウンロード配信された音声データを、通信部23を用いて掃除機30に転送する。なお、ステップS18とステップS19の処理順序は問わず、並行処理を実行してもよい。 Next, in step S18, the processing unit 22 of the user terminal 20 performs an update process on the user voice management information 252 regarding the downloaded voice data. That is, the processing unit 22 updates the information to identify the downloaded and distributed audio data as the audio data set in the vacuum cleaner 30. Then, in step S19, the downloaded and distributed audio data is transferred to the vacuum cleaner 30 using the communication unit 23. Note that the processing order of step S18 and step S19 does not matter, and parallel processing may be performed.

最後に、掃除機30の制御部34が、通信部31を用いて、転送された音声データを受信する。そして、制御部34が、転送された音声データを記憶部33に記憶する。この際、制御部34は、転送された音声データを、デフォルトで設定された音声データ等記憶済の音声データに対して上書き保存することが望ましい。以上で、音声データが設定され、掃除機30は、この音声データを出力することが可能になる。以上の処理を行うことで、本実施例では、ネットワークリソースを効率的に使用しつつ、利用者の好みや聴力などの状況に応じた音声を掃除機30で利用することができる。 Finally, the control unit 34 of the vacuum cleaner 30 receives the transferred audio data using the communication unit 31. Then, the control unit 34 stores the transferred audio data in the storage unit 33. At this time, it is desirable that the control unit 34 overwrite and save the transferred audio data over the stored audio data, such as audio data set by default. The audio data is now set, and the vacuum cleaner 30 is now able to output this audio data. By performing the above processing, in this embodiment, while efficiently using network resources, the vacuum cleaner 30 can use sounds that are appropriate for the user's preferences, hearing ability, and other conditions.

以上で、本実施例の説明を終了するが、本発明はこの記載内容に限定されず、種々の変形、応用が可能である。例えば、掃除機以外の電気製品に適用可能である。電気製品として、洗濯機、電子レンジ、冷蔵庫などが想定できる。さらに、利用者端末20の処理を、電気製品で実行してもよい。 This concludes the explanation of this embodiment, but the present invention is not limited to the content described here, and various modifications and applications are possible. For example, it is applicable to electrical products other than vacuum cleaners. Examples of electrical appliances include washing machines, microwave ovens, and refrigerators. Furthermore, the processing of the user terminal 20 may be executed by an electrical product.

10…音声管理装置、11…入力部、12…出力部、13…音声管理部、14…記憶部、141…利用者情報、142…音声管理情報、143…音声データ、20…利用者端末、30…掃除機、40…ルータ、50…ネットワーク DESCRIPTION OF SYMBOLS 10... Audio management device, 11... Input unit, 12... Output unit, 13... Audio management unit, 14... Storage unit, 141... User information, 142... Audio management information, 143... Audio data, 20... User terminal, 30...vacuum cleaner, 40...router, 50...network

Claims (8)

電気製品で出力される音声データを管理する音声管理装置において、
前記音声データを識別する音声データID、音声データにおける出力メッセージ、前記出力メッセージの種類を示し、複数の音声データを含むメッセージ種別、および、前記音声データで特性が共通し、複数のメッセージ種別を含む音声グループを有する音声管理情報を記憶する記憶部と、
前記電気製品の利用者が利用する利用者端末から、前記電気製品が出力する音声データについての選択を受け付ける入力部と、
前記選択に応じて、出力部を用いて前記利用者端末へ、前記記憶部に記憶された出力メッセージが示す音声データを、出力部を用いて試聴データとしてストリーミング配信し、
前記入力部を介して前記利用者端末から受け付けた音声データのダウンロード指示であって、変更単位として、ストリーミング配信された前記音声データ、ストリーミング配信された前記音声データを含むメッセージ種別、ストリーミング配信された前記音声データを含む音声グループのいずれかを選択するダウンロード指示に応じた音声データを特定し、
特定された前記音声データを、選択された前記変更単位で前記出力部を用いてダウンロード配信する音声管理部を有し、
ダウンロード配信された前記音声データを前記電気製品の記憶部に設定し、前記電気製品において当該音声データを出力可能とする音声管理装置。
In audio management devices that manage audio data output by electrical products,
A voice data ID that identifies the voice data, an output message in the voice data, a message type that indicates the type of the output message and includes a plurality of voice data, and a characteristic that is common to the voice data and includes a plurality of message types. a storage unit that stores audio management information having audio groups;
an input unit that accepts a selection of audio data output by the electrical product from a user terminal used by a user of the electrical product;
In accordance with the selection, streaming audio data indicated by the output message stored in the storage unit is distributed as preview data to the user terminal using the output unit,
An instruction to download audio data received from the user terminal via the input unit, in which the change units include the audio data that has been streamed, the message type that includes the audio data that has been streamed, and the message type that has been streamed. identifying audio data in response to a download instruction to select one of the audio groups including the audio data ;
an audio management unit that downloads and distributes the specified audio data in the selected change unit using the output unit;
An audio management device that sets the downloaded and distributed audio data in a storage section of the electrical product, and enables the electrical product to output the audio data.
請求項1に記載の音声管理装置において、The voice management device according to claim 1,
前記入力部は、前記電気製品に設定された音声データと特定が異なる前記音声グループの特性を特定し、特定された前記音声グループの特性を示す選択肢への選択結果を受け付け、The input unit specifies a characteristic of the voice group that is different from voice data set in the electrical product, and receives a selection result for an option indicating the characteristic of the specified voice group,
前記音声管理部は、前記選択結果が示す音声データを、前記試聴データとして特定する音声管理装置。The audio management unit is an audio management device that specifies audio data indicated by the selection result as the preview data.
請求項2に記載の音声管理装置において、The voice management device according to claim 2,
前記音声管理部は、前記電気製品に設定された音声データの特性の近似性に応じて、前記選択肢の提示順を設定する音声管理装置。The audio management unit is an audio management device that sets the presentation order of the options according to the similarity of characteristics of audio data set for the electrical product.
請求項1に記載の音声管理装置において、
前記音声管理部は、
前記利用者端末から前記利用者の属性を含む試聴要求を受け付け、
前記記憶部に記憶された音声データから前記属性に応じた試聴候補データを特定し、
前記試聴データを、前記試聴候補データから特定する音声管理装置。
The voice management device according to claim 1,
The audio management unit includes:
receiving a preview request including attributes of the user from the user terminal;
identifying preview candidate data according to the attribute from the audio data stored in the storage unit;
An audio management device that identifies the preview data from the preview candidate data.
コンピュータである利用者端末に、
電気製品で出力される音声データであって、前記音声データは、当該音声データを識別する音声データID、音声データにおける出力メッセージ、前記出力メッセージの種類を示し、複数の音声データを含むメッセージ種別、および、前記音声データで特性が共通し、複数のメッセージ種別を含む音声グループを有する音声管理情報により管理される音声データの選択を受け付ける機能と、
前記選択に応じて、出力メッセージが示し、ストリーミング配信される音声データを試聴データとして受信する機能と、
ストリーミング配信された前記音声データについてのダウンロード指示であって、変更単位として、ストリーミング配信された前記音声データ、ストリーミング配信された前記音声データを含むメッセージ種別、ストリーミング配信された前記音声データを含む音声グループのいずれかを選択するダウンロード指示を受け付ける機能と、
前記ダウンロード指示に応じて、ダウンロード配信された音声データを、選択された前記変更単位で受信する機能と、
受信された前記音声データを、前記電気製品に転送する機能を実現させ、
転送された前記音声データが、前記電気製品の記憶部に設定され、当該電気製品において設定された前記音声データを出力可能とするプログラム。
To the user terminal, which is a computer,
Voice data output by an electrical product , the voice data including a voice data ID for identifying the voice data, an output message in the voice data, a type of the output message, and a message type including a plurality of voice data; and a function of accepting the selection of voice data managed by voice management information having voice groups that have common characteristics among the voice data and that includes a plurality of message types ;
A function of receiving audio data indicated by the output message and streamed as preview data according to the selection;
A download instruction for the audio data that has been streamed, and the unit of change is the audio data that has been streamed, a message type that includes the audio data that has been streamed, and an audio group that has the audio data that has been streamed. A function that accepts download instructions to select one of the
a function of receiving downloaded and distributed audio data in the selected change unit in response to the download instruction;
Realizing a function of transmitting the received voice data to the electrical product,
A program in which the transferred audio data is set in a storage section of the electrical product, and the audio data set in the electrical product can be output.
請求項5に記載のプログラムにおいて、The program according to claim 5,
前記音声データの選択を受け付ける機能は、前記電気製品に設定された音声データと特定が異なる前記音声グループの特性を示す選択肢への選択結果を受け付け、The function of accepting the selection of the audio data accepts a selection result for an option indicating characteristics of the audio group that are different in specific from the audio data set in the electrical product,
前記音声データを試聴データとして受信する機能は、前記選択結果が示す音声データを前記試聴データとして受信するプログラム。The function of receiving the audio data as preview data is a program that receives the audio data indicated by the selection result as the preview data.
請求項6に記載のプログラムにおいて、The program according to claim 6,
さらに、前記電気製品に設定された音声データの特性の近似性に応じた提示順で示される前記選択肢を含む選択画面を表示する機能をさらに有し、Furthermore, it further has a function of displaying a selection screen including the options shown in a presentation order according to the similarity of the characteristics of the audio data set in the electrical product,
前記音声データの選択を受け付ける機能は、前記選択画面に対する利用者からの選択を受け付けるプログラム。The function of accepting the selection of the audio data is a program that accepts the selection from the user on the selection screen.
請求項5に記載のプログラムにおいて、
前記電気製品の利用者の属性を含む試聴要求を特定する機能と、
前記属性に応じた試聴候補データから前記試聴データの選択を受け付ける機能をさらに実行するプログラム。
The program according to claim 5,
identifying a listening request including attributes of a user of the electrical appliance;
The program further executes a function of accepting a selection of the preview data from preview candidate data according to the attribute.
JP2021048591A 2021-03-23 2021-03-23 Voice management devices and programs Active JP7456963B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021048591A JP7456963B2 (en) 2021-03-23 2021-03-23 Voice management devices and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021048591A JP7456963B2 (en) 2021-03-23 2021-03-23 Voice management devices and programs

Publications (2)

Publication Number Publication Date
JP2022147379A JP2022147379A (en) 2022-10-06
JP7456963B2 true JP7456963B2 (en) 2024-03-27

Family

ID=83463543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021048591A Active JP7456963B2 (en) 2021-03-23 2021-03-23 Voice management devices and programs

Country Status (1)

Country Link
JP (1) JP7456963B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003090889A (en) 2001-09-18 2003-03-28 Seiko Epson Corp Alarm sound setting system, alarm clock, and alarm sound data providing server
JP2003177029A (en) 2001-12-12 2003-06-27 Navitime Japan Co Ltd Map display device and map display system
WO2005031700A1 (en) 2003-09-29 2005-04-07 Sony Corporation Communication apparatus, communication method and communication program
JP2008046424A (en) 2006-08-17 2008-02-28 Toshiba Corp Electric appliance and electric appliance network system
JP2011129032A (en) 2009-12-21 2011-06-30 Cybird Co Ltd System and method for providing content

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003090889A (en) 2001-09-18 2003-03-28 Seiko Epson Corp Alarm sound setting system, alarm clock, and alarm sound data providing server
JP2003177029A (en) 2001-12-12 2003-06-27 Navitime Japan Co Ltd Map display device and map display system
WO2005031700A1 (en) 2003-09-29 2005-04-07 Sony Corporation Communication apparatus, communication method and communication program
JP2008046424A (en) 2006-08-17 2008-02-28 Toshiba Corp Electric appliance and electric appliance network system
JP2011129032A (en) 2009-12-21 2011-06-30 Cybird Co Ltd System and method for providing content

Also Published As

Publication number Publication date
JP2022147379A (en) 2022-10-06

Similar Documents

Publication Publication Date Title
US8984153B2 (en) Cloud-based device interaction
US11621022B2 (en) Video file generation method and device, terminal and storage medium
US9244586B2 (en) Displaying a buy/download button based on purchase history
US20050038856A1 (en) System and method for dynamically grouping messaging buddies in an electronic network
KR20170117160A (en) Methods, systems, and media for correcting ambient background noise based on mood and / or behavior information
JP6257707B2 (en) Content selection and distribution of rights and functions
US20120262371A1 (en) Display apparatus and control method thereof
US20090259648A1 (en) Automated avatar creation and interaction in a virtual world
US20170337036A1 (en) Dialogue support apparatus, method and terminal
JPWO2007066662A1 (en) Content search device, content search system, server device for content search system, content search method, computer program, and content output device with search function
US20140122593A1 (en) Dynamically updating a shared radio station
TW202147146A (en) Page display method and apparatus, and electronic device
US20050132055A1 (en) System and method to control appliances using adaptive interfaces
CN108694827B (en) Household appliance voice control method and device and central control equipment
JP7456963B2 (en) Voice management devices and programs
JP2019036174A (en) Control apparatus, input/output device, control method and control program
JP2004521431A (en) Recommendation system with user-selectable input limiting factor and output maturity indicator
US20200243083A1 (en) Information processing device, program, and information processing method
JP2005332070A (en) Terminal operation method and device, program and recording medium
WO2007052205A1 (en) Setting a device in a network
US20200310745A1 (en) Electronic device and method for controlling same
CN108694207B (en) Method and system for displaying file icons
KR102449948B1 (en) Method for providing interactive messages based on heterogeneous mental models in intelligent agents and system therefore
WO2019114427A1 (en) Vehicle function broadcasting method and apparatus, and vehicle-mounted intelligent controller
KR20210022089A (en) Automatically set picture mode for each media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240314

R150 Certificate of patent or registration of utility model

Ref document number: 7456963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150