JP2022147379A - Voice management device and program - Google Patents

Voice management device and program Download PDF

Info

Publication number
JP2022147379A
JP2022147379A JP2021048591A JP2021048591A JP2022147379A JP 2022147379 A JP2022147379 A JP 2022147379A JP 2021048591 A JP2021048591 A JP 2021048591A JP 2021048591 A JP2021048591 A JP 2021048591A JP 2022147379 A JP2022147379 A JP 2022147379A
Authority
JP
Japan
Prior art keywords
voice
data
audio data
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021048591A
Other languages
Japanese (ja)
Other versions
JP7456963B2 (en
Inventor
一輝 高木
Kazuteru Takagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Global Life Solutions Inc
Original Assignee
Hitachi Global Life Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Global Life Solutions Inc filed Critical Hitachi Global Life Solutions Inc
Priority to JP2021048591A priority Critical patent/JP7456963B2/en
Publication of JP2022147379A publication Critical patent/JP2022147379A/en
Application granted granted Critical
Publication of JP7456963B2 publication Critical patent/JP7456963B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B40/00Technologies aiming at improving the efficiency of home appliances, e.g. induction cooking or efficient technologies for refrigerators, freezers or dish washers

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

To provide a voice management device and a program that can use more appropriate voice data depending on an attribute including preference of a user or a situation including characteristics of voice data for the voice data output by an electronic product such as a cleaner.SOLUTION: In a system, a voice management device 10 that manages voice data output by a cleaner 30, comprises: an input unit 11 that receives selection for the voice data output by the cleaner 30 from a user terminal 20 used by a user of the cleaner 30; and a voice management unit 13 that performs streaming distribution of the voice data 143 stored in a storage unit 14 as audition data to the user terminal 20 using an output unit 12 according to the selection, identifies the voice data according to a download instruction of the voice data received from the user terminal 20 through the input unit 11, and performs download distribution of the identified voice data using the output unit 12.SELECTED DRAWING: Figure 1

Description

本発明は、音声を出力する音声機能を有する電気製品およびこの音声機能を実現するための技術に関する。 TECHNICAL FIELD The present invention relates to an electronic product having an audio function for outputting audio and a technique for realizing this audio function.

現在、音声を出力する電気製品が利用されている。例えば、操作案内などのガイダンス、操作や稼働での注意を促すアラートや稼働結果を音声で出力されている。特に、自律走行型掃除機のように、自律的に稼働する電気製品においては、利用者とのコミュニケーションがより重要であり、音声機能のニーズが高まっている。 Currently, electrical products that output sound are in use. For example, guidance such as operation guidance, alerts calling attention to operations and operations, and operation results are output by voice. In particular, for electronic products that operate autonomously, such as autonomously traveling vacuum cleaners, communication with users is more important, and the need for voice functions is increasing.

このような音声機能においては、その音量や音域について、利用者ごとにカスタマイズすることが求められている。例えば、特許文献1では、「使用者の性格やライフスタイルに対応した音量や光量のモードを選択できる電気掃除機」について、記載されている。このために、特許文献1では、「電動送風機、モータ駆動可能な駆動輪及びモータ駆動可能なメインブラシと、を備え、駆動輪を駆動させつつ自律駆動する自動運転モードを実行可能な電気掃除機であって、自動運転モードよりも発する音量の小さい弱運転モードと、弱運転モードよりも発する音量の小さい静音運転モードと、を実行可能であり、自動運転モード、弱運転モード、及び静音運転モードのいずれを実行するかの指定をユーザから受付けるモード指定部を」有している。そして、静音運転モード時には、メッセージや効果音の発音を抑止している。 In such voice functions, it is required to customize the volume and range for each user. For example, Patent Literature 1 describes "an electric vacuum cleaner that allows selection of volume and light intensity modes corresponding to a user's personality and lifestyle." For this reason, in Patent Document 1, "A vacuum cleaner that includes an electric blower, a motor-drivable drive wheel, and a motor-drivable main brush, and can execute an automatic operation mode in which the drive wheel is driven while being autonomously driven It is possible to execute a low operation mode with a lower volume than the automatic operation mode and a quiet operation mode with a lower volume than the low operation mode, and the automatic operation mode, the low operation mode, and the silent operation mode has a mode designating section for receiving from the user a designation of which of In the silent operation mode, the sound of messages and sound effects is suppressed.

また、特許文献2には、「聴力が低下した老人や聴覚障害者にも聞き取り易い音声案内を可能とする」音声案内装置が記載されている。このために、特許文献2では、「音域が異なる複数の案内音声の音声データを予めメモリ5に記憶しておき、音声混合装置4は、記憶されている音声データの中から音域が異なる3つの音声データを選択して合成することにより混合音声データを生成する。音声発声装置12は、混合音声データを音声に変換し、その案内音声をスピーカ13を通して出力する。音声測定装置7は、乗員からの応答音声の特徴(周波数、大きさ、発音の速さ)を測定し、音声混合装置4は、この測定した特長を有する案内音声の混合音声データを生成して出力」している。 In addition, Patent Document 2 describes a voice guidance device that "enables voice guidance that is easy to hear even for elderly people with reduced hearing and hearing-impaired people." For this reason, Japanese Patent Laid-Open No. 2002-200001 discloses that "sound data of a plurality of guidance voices with different sound ranges are stored in advance in the memory 5, and the sound mixing device 4 selects three voice data with different sound ranges from the stored sound data. Mixed voice data is generated by selecting and synthesizing voice data.Voice production device 12 converts the mixed voice data into voice and outputs the guidance voice through speaker 13. Voice measuring device 7 receives the voice from the passenger. characteristics (frequency, loudness, speed of pronunciation) of the response voice are measured, and the voice mixer 4 generates and outputs mixed voice data of the guidance voice having the measured characteristics.

特開2020-39454号公報JP 2020-39454 A 特開2006-38929号公報JP-A-2006-38929

ここで、音声機能においては、利用者の好み、聴力などの特性といった状況に応じたカスタマイズが必要になる。しかしながら、特許文献1では、発音を抑止の有無を制御する物であり、音域や音声自体を、好みや特性に応じて変更するものではない。 Here, the audio function needs to be customized according to the user's preference, hearing ability, and other characteristics. However, Japanese Patent Laid-Open No. 2004-100000 controls whether or not to suppress pronunciation, and does not change the range or voice itself according to preferences and characteristics.

また、特許文献2では、乗員からの応答音声に応じた混合音声を生成しているが、自身の音声が好みに合っているとは限らない。 Further, in Patent Document 2, a mixed voice is generated according to the response voice from the passenger, but the voice of the passenger does not necessarily match his or her taste.

そこで、本発明では、利用者の好みを含む属性や音声データの特性を含む状況に応じたより適切な音声データを利用可能とすることを課題とする。 Therefore, an object of the present invention is to make it possible to use more appropriate voice data according to the situation including attributes including user preferences and voice data characteristics.

上記の課題を解決するために、本発明では、音声データをストリーミングで配信して試聴可能とし、利用者からの選択結果に応じて、音声データを家電製品へ設定できる構成とした。 In order to solve the above-mentioned problems, the present invention is configured so that the audio data can be distributed by streaming and listened to, and the audio data can be set to the home electric appliance according to the user's selection result.

より具体的には、電気製品で出力される音声データを管理する音声管理装置において、前記電気製品の利用者が利用する利用者端末から、前記電気製品が出力する音声データについての選択を受け付ける入力部と、前記選択に応じて、出力部を用いて前記利用者端末へ、記憶部に記憶された音声データを、出力部を用いて試聴データとしてストリーミング配信し、前記入力部を介して前記利用者端末から受け付けた音声データのダウンロード指示に応じた音声データを特定し、特定された前記音声データを、前記出力部を用いてダウンロード配信する音声管理部を有し、ダウンロード配信された前記音声データを前記電気製品の記憶部に設定し、前記電気製品において当該音声データを出力可能とする音声管理装置である。本発明には、この音声管理装置を用いた音声管理方法も含まれる。 More specifically, in a voice management device for managing voice data output by an electrical product, an input for accepting a selection of voice data output by the electrical product from a user terminal used by a user of the electrical product. and, in accordance with the selection, the audio data stored in the storage unit is streamed to the user terminal using the output unit as audition data using the output unit, and the use is performed through the input unit. a voice management unit that specifies voice data according to an instruction to download voice data received from a user terminal, downloads and distributes the specified voice data using the output unit, and downloads and distributes the voice data is set in the storage unit of the electrical product, and the electrical product can output the audio data. The present invention also includes a voice management method using this voice management device.

また、本発明では、利用者端末で用いられるプログラムも含まれる。さらに、本発明には、音声データを変更可能な前記電気製品も含まれる。またさらに、音声管理装置、利用者端末、電気製品を含むシステムやこれらのうち少なくとも2つを含むサブコンビネーションも、本発明に含まれる。さらに、これらを用いた音声データ管理方法も含まれる。 The present invention also includes programs used in user terminals. Furthermore, the present invention also includes the electronic product capable of changing voice data. Furthermore, the present invention also includes a system including a voice management device, a user terminal, an appliance, or a subcombination including at least two of these. Furthermore, a voice data management method using these is also included.

本発明によれば、電気製品において、利用者の状況に応じたより適切な音声データを利用可能となる。 According to the present invention, it becomes possible to use more appropriate audio data in accordance with the user's situation in the electronic product.

本発明の一実施例におけるシステム構成図。1 is a system configuration diagram in an embodiment of the present invention; FIG. 本発明の一実施例における音声管理装置のハードウエア構成図。1 is a hardware configuration diagram of a voice management device according to an embodiment of the present invention; FIG. 本発明の一実施例における利用者端末のハードウエア構成図。FIG. 2 is a hardware configuration diagram of a user terminal in one embodiment of the present invention; 本発明の一実施例における掃除機の機能ブロック構成図。1 is a functional block configuration diagram of a vacuum cleaner according to an embodiment of the present invention; FIG. 本発明の一実施例で用いられる利用者情報を示す図。The figure which shows the user information used by one Example of this invention. 本発明の一実施例で用いられる音声管理情報を示す図。FIG. 4 is a diagram showing voice management information used in one embodiment of the present invention; 本発明の一実施例における処理フローを示すフローチャート。4 is a flow chart showing a processing flow in one embodiment of the present invention; 本発明の一実施例における選択画面の一例を示す図。The figure which shows an example of the selection screen in one Example of this invention. 本発明の一実施例における纏め変更指示画面の一例を示す図。The figure which shows an example of the summary change instruction screen in one Example of this invention.

以下、本発明の一実施例について、図面を用いて説明する。なお、本実施例では、電気製品の一例として、自律走行型掃除機を用いて説明するが、他の電気製品にも適用可能である。 An embodiment of the present invention will be described below with reference to the drawings. Note that, in this embodiment, an autonomously traveling vacuum cleaner is used as an example of an electric product, but the present invention can also be applied to other electric products.

<構成>
図1は、本実施例におけるシステム構成図である。本実施例では、音声管理装置10、利用者端末20、自律走行型掃除機(以下、単に掃除機30)、ルータ40が、ネットワーク50を介して互いに接続されている。なお、掃除機30や利用者端末20は、ルータ40を介して、ネットワーク50と接続することも可能である。また、ネットワーク50は、宅内ネットワークとインターネットで構成したり、1つのネットワークで構成してもよい。なお、図1には、各装置を1台ずつ記載したが、複数台利用することも可能である。
<Configuration>
FIG. 1 is a system configuration diagram in this embodiment. In this embodiment, a voice management device 10 , a user terminal 20 , an autonomously traveling cleaner (hereinafter simply referred to as a cleaner 30 ), and a router 40 are connected to each other via a network 50 . Vacuum cleaner 30 and user terminal 20 can also be connected to network 50 via router 40 . Also, the network 50 may be composed of a home network and the Internet, or may be composed of one network. Although each device is shown in FIG. 1 as one unit, it is also possible to use a plurality of units.

次に、各装置の構成を説明する。まず、音声管理装置10は、そして、いわゆるコンピュータ装置で実現され、各種演算を実行する入力部11、出力部12および音声管理部13を有する。また、音声管理装置10は、各種情報を記憶する記憶部14有する。入力部11および出力部12は、ネットワーク50を介して、他の装置との通信を実現する。 Next, the configuration of each device will be described. First, the voice management device 10 is realized by a so-called computer device, and has an input unit 11, an output unit 12, and a voice management unit 13 for executing various calculations. The voice management device 10 also has a storage unit 14 that stores various information. The input unit 11 and the output unit 12 implement communication with other devices via the network 50 .

音声管理部13は、利用者端末20からの指示に応じて、音声データの配信のための処理を実行する。また、記憶部14には、利用者情報141、音声管理情報142および音声データ143が記憶されている。利用者情報141は、掃除機30の利用者の属性など利用者に関する情報である。ここで、利用者とは、利用者端末20もしくは掃除機30の少なくとも一方の利用者を示す。音声管理情報142は、音声データ143を管理する情報であり、音声データ143が示す出力メッセージなどを特定する情報である。音声データ143は、音声の種類ごとに、各出力メッセージの音声データが用意される。なお、これら各情報の詳細については、後述する。 The voice management unit 13 executes processing for delivering voice data according to instructions from the user terminal 20 . User information 141 , voice management information 142 and voice data 143 are stored in the storage unit 14 . The user information 141 is information about the user such as attributes of the user of the vacuum cleaner 30 . Here, the user indicates the user of at least one of the user terminal 20 and the cleaner 30 . The voice management information 142 is information for managing the voice data 143 and is information for specifying an output message indicated by the voice data 143 and the like. As the voice data 143, voice data of each output message is prepared for each type of voice. The details of each of these pieces of information will be described later.

次に、音声管理装置10の機能をプログラムで実現する場合のハードウエア構成図を図2に示す。音声管理装置10は、処理部101、通信部102、主記憶部103および副記憶部104を有し、これらが互いに通信路を介して接続されている。 Next, FIG. 2 shows a hardware configuration diagram when the functions of the voice management device 10 are implemented by a program. The voice management device 10 has a processing section 101, a communication section 102, a main storage section 103 and a sub storage section 104, which are connected to each other via a communication path.

処理部101は、CPU(Central Processing Unit)などのプロセッサで実現でき、後述する主記憶部103に展開される音声管理プログラム130に従って演算を実行する。つまり、処理部101が、音声管理プログラム130に従って、音声管理部13の処理を実行する。 The processing unit 101 can be realized by a processor such as a CPU (Central Processing Unit), and executes calculations according to a voice management program 130 developed in the main storage unit 103, which will be described later. That is, the processing unit 101 executes the processing of the voice management unit 13 according to the voice management program 130 .

主記憶部103は、いわゆるメモリで実現可能であり、副記憶部104に格納される音声管理プログラム130や処理に必要な情報が展開される。副記憶部104は、ハードディスクドライブ等のストレージで実現でき、音声管理プログラム130や図1で説明した各種情報を記憶する。このように、主記憶部103および副記憶部104が、記憶部14に該当する。また、副記憶部104の各種情報は、音声管理装置10とは別筐体のデータベースシステムに記憶してもよい。 The main storage unit 103 can be realized by a so-called memory, and the voice management program 130 stored in the sub-storage unit 104 and information necessary for processing are developed. The sub-storage unit 104 can be realized by a storage such as a hard disk drive, and stores the voice management program 130 and various information described with reference to FIG. Thus, the main storage section 103 and the sub storage section 104 correspond to the storage section 14 . Also, the various information in the sub-storage unit 104 may be stored in a database system in a separate housing from the voice management device 10 .

なお、音声管理装置10は、さらに、操作者からの入力を受け付ける入力部や各種情報を出力する表示部を設けてもよい。また、これらは端末装置として外出ししてもよい。またさらに、各装置の各プログラムは、1つのプログラムとして実現してもよいし、さらに細分化してもよい。以上で、音声管理装置10の説明を終了する。 Note that the voice management device 10 may further include an input unit for receiving input from the operator and a display unit for outputting various information. Also, these may be used as terminal devices. Furthermore, each program of each device may be implemented as one program, or may be further subdivided. The description of the voice management device 10 ends here.

次に、利用者端末20のハードウエア構成図を、図3に示す。利用者端末20は、スマートフォンといったいわゆるコンピュータ装置で実現される。このため、利用者端末20は、タッチパネル21、処理部22、通信部23、スピーカ24および記憶部25を有する。 Next, FIG. 3 shows a hardware configuration diagram of the user terminal 20. As shown in FIG. The user terminal 20 is realized by a so-called computer device such as a smart phone. Therefore, the user terminal 20 has a touch panel 21 , a processing section 22 , a communication section 23 , a speaker 24 and a storage section 25 .

タッチパネル21は、利用者からの入力を受け付けたり、各種情報を表示したりする。なお、タッチパネル21は、入力を受け付ける入力部と表示を行う表示部に分けて構成してもよい。 The touch panel 21 receives input from the user and displays various information. Note that the touch panel 21 may be configured by being divided into an input section for receiving input and a display section for displaying.

処理部22は、CPUなどのプロセッサで実現でき、後述する各プログラム(アプリ)に従って演算を実行する。通信部23は、ネットワーク50やルータ40を介して、他の装置との接続を行う。また、通信部23は、掃除機30と接続する近距離無線通信機能をさらに有してもよい。 The processing unit 22 can be realized by a processor such as a CPU, and executes calculations according to each program (application) described later. The communication unit 23 connects with other devices via the network 50 and the router 40 . Moreover, the communication unit 23 may further have a short-range wireless communication function for connecting with the vacuum cleaner 30 .

スピーカ24は、処理部22の処理に従って各種情報を音声(音)で出力する。また、記憶部25は、掃除機操作プログラム251および利用者音声管理情報252を記憶する。掃除機操作プログラム251は、掃除機30の稼働に関する指示、制御を実現する、利用者音声管理情報252は、掃除機操作プログラム251での制御対象である掃除機30で用いられる音声データを管理する情報である。 The speaker 24 outputs various information by voice (sound) according to the processing of the processing unit 22 . The storage unit 25 also stores a vacuum cleaner operating program 251 and user voice management information 252 . The cleaner operating program 251 implements instructions and controls related to the operation of the cleaner 30. The user voice management information 252 manages voice data used by the cleaner 30, which is controlled by the cleaner operating program 251. Information.

なお、掃除機操作プログラム251は、アプリとも称される。また、掃除機操作プログラム251は、後述する機能を実現できればよく、必ずしも掃除機30稼働に関する指示、制御を実現する機能を有していなくともよい。なお、利用者端末20には、タブレット端末、PCも含まれる。ここで、PCは、いわゆるノート型、デスクトップ型を問わない。以上で、利用者端末20の構成の説明を終了する。 Vacuum cleaner operation program 251 is also referred to as an application. Also, the cleaner operation program 251 only needs to implement the functions described later, and does not necessarily need to have a function to implement instructions and controls relating to the operation of the cleaner 30 . Note that the user terminal 20 includes a tablet terminal and a PC. Here, the PC may be a so-called notebook type or a desktop type. The description of the configuration of the user terminal 20 ends here.

次に、掃除機30の構成を説明する。掃除機30は、制御プログラムに従って、自律的に稼働する。つまり、掃除機30は、走行し掃除を実行する。この機能を実行するための掃除機30の機能ブロック図を、図4に示す。掃除機30は、制御を行うための通信部31、タッチパネル32、記憶部33、制御部34およびスピーカ39を有する。そして、掃除機30は、制御される走行機構35、ブラシ機構36や吸引機構37を有する。 Next, the configuration of cleaner 30 will be described. Vacuum cleaner 30 operates autonomously according to a control program. That is, the cleaner 30 runs and performs cleaning. A functional block diagram of cleaner 30 for performing this function is shown in FIG. The cleaner 30 has a communication unit 31, a touch panel 32, a storage unit 33, a control unit 34, and a speaker 39 for control. The cleaner 30 has a traveling mechanism 35, a brush mechanism 36 and a suction mechanism 37 which are controlled.

通信部31は、ネットワーク50やルータ40ないし利用者端末20を通信する機能を有する。なお、通信部31は、利用者端末20の通信部23と同様に、近距離無線通信機能を設けてもよい。 The communication unit 31 has a function of communicating with the network 50, the router 40, or the user terminal 20. FIG. Note that the communication unit 31 may be provided with a short-range wireless communication function, like the communication unit 23 of the user terminal 20 .

タッチパネル32は、制御部34の制御の下、利用者に対して各種情報を表示する。また、タッチパネル32は、利用者の操作を受け付け、制御部34に対して各種コマンドを出力する。なお、タッチパネル32は、操作を受け付ける入力部と表示を行う表示部に分けて構成してもよい。 The touch panel 32 displays various information to the user under the control of the control section 34 . Further, the touch panel 32 receives user operations and outputs various commands to the control unit 34 . Note that the touch panel 32 may be configured by being divided into an input section for receiving operations and a display section for displaying.

記憶部33は、稼働を制御するための制御プログラム、稼働範囲、稼働予定情報や音声管理装置10から配信された音声データを記憶する。制御部34は、制御プログラムに従って、掃除機30の稼働を制御するものであり、CPUといったプロセッサで実現できる。より具体的には、制御部34は、走行機構35、ブラシ機構36や吸引機構37の稼働を制御する。また、制御部34は、通信部31やタッチパネル32が受け付けた操作指示に従うことも可能である。また、制御部34は、スピーカ39を介して、記憶部33の音声データを出力させる。 The storage unit 33 stores a control program for controlling operation, operation range, operation schedule information, and voice data delivered from the voice management device 10 . The control unit 34 controls the operation of the vacuum cleaner 30 according to a control program, and can be realized by a processor such as a CPU. More specifically, the controller 34 controls operations of the travel mechanism 35 , the brush mechanism 36 and the suction mechanism 37 . Further, the control unit 34 can also follow operation instructions received by the communication unit 31 and the touch panel 32 . Also, the control unit 34 outputs the audio data of the storage unit 33 through the speaker 39 .

走行機構35は、掃除機30の移動を実行し、モータといった駆動部と車輪などの被駆動部を有する。ブラシ機構36は、床上のゴミを吸引口付近に収集する。また、吸引機構37は、吸引口付近のゴミを吸引し、図示しない集塵ボックスにゴミを移動させる。 The traveling mechanism 35 moves the cleaner 30 and has a driving part such as a motor and a driven part such as wheels. The brush mechanism 36 collects dust on the floor near the suction port. The suction mechanism 37 also sucks dust near the suction port and moves the dust to a dust collection box (not shown).

そして、スピーカ39が、制御部34の処理に従って、対応する音声データを、音として出力する。 Then, the speaker 39 outputs the corresponding audio data as sound according to the processing of the control unit 34 .

ここで、上述の各プログラム、アプリは、ネットワーク50を介して各装置に配信されたり、記憶媒体を介して流通されたりすることが可能である。つまり、プログラム製品として、流通できる。以上で、本実施例の構成についての説明を終了する。 Here, each program and application described above can be distributed to each device via the network 50 or distributed via a storage medium. In other words, it can be distributed as a program product. This is the end of the description of the configuration of this embodiment.

<情報>
次に、本実施例で用いられる情報について、説明する。まず、図5に、利用者情報141を示す。この利用者情報141は、利用者に関する情報であり、その属性を含む。具体的には、利用者情報141は、利用者ごとに、利用者ID、氏名、住所、性別、年齢、好み/趣向、音声データIDおよび掃除機IDを有する。
<Information>
Next, information used in this embodiment will be described. First, FIG. 5 shows user information 141 . This user information 141 is information about users and includes their attributes. Specifically, the user information 141 has a user ID, name, address, sex, age, preferences/preferences, voice data ID, and vacuum cleaner ID for each user.

利用者IDは、掃除機30の利用者を識別する情報である。氏名および住所は、当該利用者の氏名および住所である。また、性別および年齢も、利用者の性別、年齢を示す。また、好み/趣向は、利用者の趣味や聴取に関する特徴などを示す。これら、住所、性別、年齢および好み/趣向が、利用者の属性として用いられる。 The user ID is information that identifies the user of cleaner 30 . The name and address are the user's name and address. Moreover, sex and age also indicate the sex and age of the user. Also, preferences/tastes indicate user's hobbies and listening characteristics. These address, gender, age and preferences/preferences are used as user attributes.

また、音声データIDは、利用者の利用する掃除機30に設定されている音声データを識別する情報を示す。本実施例では、音声データIDを用いるが他の情報を用いてもよい。例えば、後述するメッセージ種別や音声グループ(以下、音声G)を識別する情報を用いてもよい。 The voice data ID indicates information identifying voice data set in the vacuum cleaner 30 used by the user. Although the voice data ID is used in this embodiment, other information may be used. For example, information for identifying a message type or a voice group (hereinafter referred to as voice G), which will be described later, may be used.

さらに、掃除機IDは、当該利用者が利用する掃除機30自体もしくはその機種を識別する情報である。 Furthermore, the cleaner ID is information for identifying the cleaner 30 itself or the model used by the user.

次に、音声管理情報142を、図6に示す。音声管理情報142は、音声データ143を管理する情報である。そして、音声管理情報142は、掃除機30での出力単位である音声データごとに、音声データID、出力メッセージ、メッセージ種別、音声Gを有する。音声データIDは、掃除機30での音声データを識別する。 Next, FIG. 6 shows the voice management information 142. As shown in FIG. The voice management information 142 is information for managing the voice data 143 . The voice management information 142 has a voice data ID, an output message, a message type, and a voice G for each voice data that is an output unit from the cleaner 30 . The voice data ID identifies voice data in vacuum cleaner 30 .

出力メッセージは、掃除機30で出力、つまり、音として発する内容を示す。メッセージ種別は、出力メッセージをその種類ごとに分類したものであり、本実施例では、「アラート」「ガイダンス」「通知」を有する。このように、分類する理由は、出力メッセージの種類ごとに、その必要性や重要性が異なっているためである。必要性や重要性が異なっているので、利用者によっては、種類ごとに特性を変更することを望む場合がある。このこと対応するために、本実施例では、音声管理情報142に、メッセージ種別を設けた。本実施例で用いる「アラート」は、利用者に対する注意を促す音声データを示す。「ガイダンス」は、利用者に対して掃除機30お利用方法などの案内を示す音声データを示す。そして、「通知」は、利用者に対して掃除機30の稼働情報(掃除の終了など)を示す。本実施例では、これら3つに分類したが、分類方法はこれらに限定されない。さらに、メッセージ種別には、「アラート」等の種類に加え、これに含まれる音声データも併せて識別するメッセージ種別ID(01A等)を設けることが望ましい。 The output message indicates what is to be output by cleaner 30, that is, what is to be emitted as sound. The message type is obtained by classifying the output message according to its type, and has "alert", "guidance", and "notification" in this embodiment. The reason for such classification is that the necessity and importance of each type of output message differ. Due to different needs and importance, some users may wish to change the characteristics for each type. In order to deal with this, in this embodiment, the voice management information 142 is provided with message types. "Alert" used in this embodiment indicates audio data that calls the user's attention. "Guidance" indicates voice data that provides guidance to the user on how to use the vacuum cleaner 30 and the like. "Notification" indicates operation information (such as the end of cleaning) of cleaner 30 to the user. Although classified into these three in this embodiment, the classification method is not limited to these. Further, it is desirable to provide a message type ID (such as 01A) for identifying the voice data included in the message type, in addition to the type such as "alert".

そして、音声Gは、言語、話者などの特性が共通する複数の音声データを含む音声データの分類(グループ)である。掃除機30にデフォルトで設定される音声データは、各出力メッセージとも同じ音声Gであることが望ましい。またさらに、さらに、音声Gには、「関西弁・女性・ゆっくり」等の分類に加え、これに含まれる音声データないしメッセージ種別も併せて識別する音声GID(01等)を設けることが望ましい。 Voice G is a classification (group) of voice data including a plurality of voice data having common characteristics such as language and speaker. It is desirable that the voice data set in the vacuum cleaner 30 by default be the same voice G for each output message. Furthermore, it is desirable to provide the voice G with a voice GID (01, etc.) for identifying the voice data or the message type included therein in addition to the classification such as "Kansai dialect/female/slowly".

次に、音声データ143は、出力メッセージごとに、ファイルデータとして、音声データIDと対応付けられて記憶されている。なお、音声データ143は、メッセージ種別や音声Gごとのファイルデータとして管理してもよい。この場合、出力メッセージごとのファイルデータとメッセージ種別や音声Gごとのファイルデータの双方を設けることが望ましい。 Next, the voice data 143 is stored as file data in correspondence with the voice data ID for each output message. Note that the voice data 143 may be managed as file data for each message type or voice G. FIG. In this case, it is desirable to provide both file data for each output message and file data for each message type or voice G. FIG.

次に、利用者端末20が保持する利用者音声管理情報252について、説明する。利用者音声管理情報252は、掃除機30に設定されている音声データを識別する情報が記録されている。つまり、音声管理情報142の音声データIDと同様の情報が記録される。さらに、利用者音声管理情報252には、音声データIDに対応するメッセージ種別や音声Gを識別する情報も含まれる。なお、図5や図6に示すように、音声データIDに、メッセージ種別や音声Gを識別する情報(01Aや01など)を含める場合、音声データIDを流用できる。 Next, the user voice management information 252 held by the user terminal 20 will be explained. User voice management information 252 records information for identifying voice data set in vacuum cleaner 30 . That is, information similar to the audio data ID of the audio management information 142 is recorded. Furthermore, the user voice management information 252 also includes information for identifying the message type and voice G corresponding to the voice data ID. As shown in FIGS. 5 and 6, when the voice data ID includes information for identifying the message type and voice G (01A, 01, etc.), the voice data ID can be used.

さらに、利用者音声管理情報252に、音声管理情報142の属性などを含めることが望ましい。なお、利用者音声管理情報252には、掃除機30に設定された音声データの履歴などを含めてもよい。以上で、本実施例で用いられる情報の説明を終了する。
<処理>
次に、本実施例における処理フローを示すフローチャートを、図7に示す。なお、本フローチャートでは、音声管理装置10の処理主体を、図1で示す構成要素を用いて説明する。以下、ステップごとに、その機能を説明する。
Furthermore, it is desirable that the user voice management information 252 include attributes of the voice management information 142 and the like. Note that the user voice management information 252 may include the history of voice data set in the vacuum cleaner 30 and the like. This completes the description of the information used in this embodiment.
<Processing>
Next, FIG. 7 shows a flow chart showing the processing flow in this embodiment. In addition, in this flowchart, the processing subject of the voice management apparatus 10 will be described using the constituent elements shown in FIG. The function of each step will be described below.

まず、ステップS1において、利用者端末20は、利用者からの操作に従って、音声出力指示を、掃除機30に出力する。このために、タッチパネル21が、出力メッセージの識別を含む利用者の操作を受け付ける。そして、処理部22が、掃除機操作プログラム251に従って、通信部23を用いて音声出力指示を出力する。なお、以下、処理部22の処理は、特に断らない限り、掃除機操作プログラム251に従って実行される。 First, in step S1, the user terminal 20 outputs a voice output instruction to the vacuum cleaner 30 according to the user's operation. For this reason, the touch panel 21 accepts user operations including identification of output messages. Then, the processing unit 22 uses the communication unit 23 to output a voice output instruction according to the vacuum cleaner operating program 251 . It should be noted that hereinafter, the processing of the processing unit 22 is executed according to the vacuum cleaner operation program 251 unless otherwise specified.

次に、ステップS2において、掃除機30は、音声出力指示に応じて、音声を出力する。このために、制御部34は、記憶部33から音声出力指示に応じた音声データを特定する。そして、制御部34は、スピーカ39を用いて、特定された音声データの音声を出力(発声)する。 Next, in step S2, vacuum cleaner 30 outputs sound in response to the sound output instruction. For this purpose, the control unit 34 identifies audio data corresponding to the audio output instruction from the storage unit 33 . Then, the control unit 34 uses the speaker 39 to output (speak) the audio of the specified audio data.

次に、ステップS3において、利用者端末20の処理部22は、タッチパネル21を介して修正要求を受け付け(Yes)、ステップS4に遷移する。修正要求を受け付けない場合は(No)、処理を終了する。 Next, in step S3, the processing unit 22 of the user terminal 20 accepts a correction request via the touch panel 21 (Yes), and the process proceeds to step S4. If the correction request is not accepted (No), the process is terminated.

次に、ステップS4において、処理部22は、修正する音声データの出力メッセージおよび利用者の利用者IDを特定する。このために、処理部22は、ステップS2で出力された音声の出力メッセージを特定する音声データIDを、ステップS1での音声出力指示から特定する。 Next, in step S4, the processing section 22 specifies the output message of the voice data to be corrected and the user ID of the user. For this reason, the processing unit 22 identifies the voice data ID that identifies the voice output message output in step S2 from the voice output instruction in step S1.

また、処理部22は、利用者音声管理情報252もしくは記憶部25に記憶された利用者に関する情報を用いて、利用者IDを特定する。 The processing unit 22 also identifies the user ID using the user voice management information 252 or the information about the user stored in the storage unit 25 .

なお、ステップS1やステップS2は、省略してもよい。例えば、掃除機30の稼働の際に発せられる音声を聞いて、利用者が音声の変更を始めてもよい。この場合、本ステップでの出力メッセージの特定は、利用者からの指定により実現できる。 Note that steps S1 and S2 may be omitted. For example, the user may start changing the sound after listening to the sound emitted when the vacuum cleaner 30 is in operation. In this case, specification of the output message in this step can be realized by designation from the user.

次に、ステップS5において、処理部22は、通信部23を用いて、音声管理装置10へ、試聴要求を通知する。この試聴要求には、ステップS3で特定された出力メッセージおよび利用者IDが含まれる。 Next, in step S<b>5 , the processing unit 22 uses the communication unit 23 to notify the audio management device 10 of a trial listening request. This audition request includes the output message and user ID specified in step S3.

次に、ステップS6において、音声管理装置10の音声管理部13が、入力部11で受け付けた試聴要求に対応する音声データを記憶部14から検索する。この際、音声管理部13は、音声管理情報142を用いて、試聴要求に含まれる出力メッセージを含むメッセージ種別および音声Gの少なくとも一方を特定する。 Next, in step S<b>6 , the audio management unit 13 of the audio management device 10 searches the storage unit 14 for audio data corresponding to the audition request received by the input unit 11 . At this time, the voice management unit 13 uses the voice management information 142 to specify at least one of the message type including the output message included in the trial listening request and the voice G. FIG.

また、音声管理部13は、利用者情報141を用いて、利用者IDに対応する利用者の属性を特定する。そして、音声管理部13は、この属性に対応する音声データIDを、音声管理情報142から特定する。このために、属性が難聴や高齢者を示す場合、「ゆっくり」や「はっきり」といったより聞きやすい特性を含む音声Gを特定する。このために、属性と音声Gの対応関係を示すルールと設定しておくことが望ましい。 In addition, the voice management unit 13 uses the user information 141 to specify the attribute of the user corresponding to the user ID. The voice management unit 13 then identifies the voice data ID corresponding to this attribute from the voice management information 142 . For this reason, when the attribute indicates hearing loss or elderly, the speech G is specified that includes more audible characteristics such as "slowly" and "clearly." For this reason, it is desirable to set a rule indicating the correspondence between the attribute and the voice G.

この結果、音声管理部13は、これら出力メッセージ、メッセージ種別、音声Gおよび属性に対応する音声データIDを特定することになる。この音声データIDで特定される音声データを、試聴候補データと称する。 As a result, the voice management unit 13 specifies the output message, message type, voice G, and voice data ID corresponding to the attribute. Audio data identified by this audio data ID is referred to as audition candidate data.

次に、ステップS7において、音声管理装置10は、出力部12を用いて、試聴候補データを通知する。そして、ステップS7に応じて、ステップS8において、利用者端末20の処理部22が、タッチパネル21に、試聴候補データを選択するための選択画面を出力する。 Next, in step S<b>7 , the sound management device 10 uses the output unit 12 to notify the audition candidate data. Then, according to step S7, in step S8, the processing section 22 of the user terminal 20 outputs to the touch panel 21 a selection screen for selecting audition candidate data.

ここで、この選択画面の一例を、図8に示す。なお、この選択画面では、ステップS4で特定された出力メッセージの音声データを変更するための画面である。タッチパネル21には、音声データの特性を示す選択肢が表示される。このため、利用者が選択画面のラジオボタンをチェックすることで選択できる。ここで、各選択肢の特性は、音声管理情報142の音声Gに示される特性を用いることが望ましい。 An example of this selection screen is shown in FIG. This selection screen is a screen for changing the voice data of the output message specified in step S4. The touch panel 21 displays options indicating characteristics of audio data. Therefore, the user can select by checking the radio button on the selection screen. Here, as the characteristics of each option, it is desirable to use the characteristics shown in the voice G of the voice management information 142. FIG.

さらに、選択肢の提示順を、利用者の属性や音声データの特性といった状況に応じて設定することが望ましい。このために、前述のステップS6において、音声管理部13は、利用者情報141に含まれる音声データにより、掃除機30に設定されている音声データを特定する。そして、音声管理部13は、掃除機30に設定されている音声データと特性が異なる音声データを特定する。このために、音声管理部13は、音声管理情報142の音声Gに記録される特性を用いる。この際、音声管理部13は、特性の近似性を予め定めた規則によって判断し、この結果を用いることが望ましい。この提示順としては、例えば、近似性の遠いものから提示することが含まれる。このように、利用者の属性や音声データの特性といった状況に応じた優先順位で、利用者に変更を提示できる。 Furthermore, it is desirable to set the presentation order of the options according to the situation such as the attributes of the user and the characteristics of the voice data. Therefore, in step S<b>6 described above, the voice management unit 13 identifies the voice data set in the cleaner 30 based on the voice data included in the user information 141 . Then, the voice management unit 13 identifies voice data having different characteristics from the voice data set in the vacuum cleaner 30 . For this purpose, the voice management unit 13 uses the characteristics recorded in the voice G of the voice management information 142 . At this time, it is desirable that the voice management unit 13 determines the similarity of the characteristics according to a predetermined rule and uses the result. This order of presentation includes, for example, presentation in order of closest approximation. In this way, changes can be presented to the user in order of priority according to circumstances such as user attributes and voice data characteristics.

次に、ステップS9において、処理部22は、タッチパネル21を介して入力される利用者からの選択を受け付ける。これを受けて、処理部22は通信部23を介して、選択結果、つまり、洗濯された試聴候補データの音声データIDを送信する。このように、利用者からの選択を受け付けることで、利用者の好みを反映できる。 Next, in step S<b>9 , the processing unit 22 receives selections from the user input via the touch panel 21 . In response to this, the processing unit 22 transmits the selection result, that is, the voice data ID of the washed trial listening candidate data via the communication unit 23 . By accepting selections from the user in this way, the user's preferences can be reflected.

次に、ステップS10において、音声管理部13は、入力部11で受け付けた、選択結果が示す音声データIDの音声データを、試聴データとして特定する。そして、音声管理部13は、出力部12を介して、特定された試聴データを、ストリーミング配信で配信する。 Next, in step S10, the audio management unit 13 specifies the audio data of the audio data ID indicated by the selection result received by the input unit 11 as audition data. Then, the audio management unit 13 distributes the specified audition data by streaming distribution via the output unit 12 .

次に、ステップS12において、処理部22が、通信部23を介して受信した試聴データの音声をスピーカ24から出力する。これを受けて、利用者はこの試聴データを気に入ったかを判断できる。そして、ステップS13において、処理部22は、タッチパネル21を介して、利用者から試聴データに変更するかの判断結果を受け付ける。変更する場合(Yes)、ステップS14に遷移し、変更しない場合(No)、ステップS9に戻る。ここで、変更しない場合(No)で、ステップS9に戻った場合、処理部22は、利用者からさらに別の選択を受け付けることになる。 Next, in step S<b>12 , the processing unit 22 outputs the audio of the audition data received via the communication unit 23 from the speaker 24 . In response to this, the user can judge whether he/she likes the audition data. Then, in step S13, the processing section 22 accepts the judgment result from the user via the touch panel 21 as to whether or not to change to the audition data. When changing (Yes), it changes to step S14, and when not changing (No), it returns to step S9. Here, if it is not changed (No) and the process returns to step S9, the processing unit 22 receives another selection from the user.

そして、ステップS14において、処理部22は、タッチパネル21を用いて、音声データについて、纏め変更を行うかの指示を受け付ける。このために、まず、処理部22は、タッチパネル21に、纏め変更指示画面を出力する。この纏め変更指示画面を、図9に示す。図9では、タッチパネル21に、音声データを変更する変更単位を選択する画面を表示している。つまり、選択肢として、以下の3つが表示される。
ステップS12で出力した音声の音声データ、つまり、「このメッセージのみ」
ステップS12で出力した音声の音声データを含む「メッセージ種別で纏め変更する」
ステップS12で出力した音声の音声データを含む「音声Gで纏め変更する「一括変更」」
この出力内容に対して、処理部22は、タッチパネル21を介して利用者からの選択を受け付ける。具体的には、選択肢ごとに設けられたラジオボタンへのチェックを受け付け、変更指示を受け付ける。
Then, in step S14, the processing unit 22 uses the touch panel 21 to receive an instruction as to whether to collectively change the voice data. For this purpose, the processing unit 22 first outputs a group change instruction screen to the touch panel 21 . This summary change instruction screen is shown in FIG. In FIG. 9, the touch panel 21 displays a screen for selecting a change unit for changing voice data. That is, the following three options are displayed.
Audio data of the audio output in step S12, that is, "this message only"
"Consolidate and change by message type" including audio data of the audio output in step S12
"Batch change" to collectively change with voice G" including the voice data of the voice output in step S12
The processing unit 22 receives a selection from the user via the touch panel 21 for this output content. Specifically, it accepts a check on a radio button provided for each option, and accepts a change instruction.

そして、ステップS15において、処理部22は、通信部23を用いて、変更する音声データについてのダウンロード指示を、音声管理装置10へ通知する。このダウンロード指示には、ステップS13において変更が指定された音声データの音声データIDおよびステップS14で指示された纏め変更が含まれる。なお、具体的なステップS14で指示された纏め変更の内容は、上述の3つの選択肢である。 Then, in step S<b>15 , the processing unit 22 uses the communication unit 23 to notify the voice management device 10 of a download instruction for the voice data to be changed. This download instruction includes the voice data ID of the voice data specified to be changed in step S13 and the collective change specified in step S14. It should be noted that the specific contents of the collective change instructed in step S14 are the three options described above.

ここで、このダウンロード指示に、纏め変更の内容を含めることで、複数の音声データを纏めてダウンロードすることが可能になり、ネットワークリソースをより効率的に利用できる。もちろん、変更指示毎に、音声データをダウンロードする構成としてもよい。つまり、ダウンロード指示は、ダウンロードする音声を特定できればよい。 Here, by including the contents of the collective change in this download instruction, it becomes possible to collectively download a plurality of audio data, and network resources can be used more efficiently. Of course, the configuration may be such that voice data is downloaded for each change instruction. In other words, the download instruction only needs to specify the audio to be downloaded.

次に、ステップS16において、音声管理装置10の音声管理部13は、入力部11を介して受け付けたダウンロード指示に対応する音声データを特定する。そして、音声管理部13は、これらを送信するための集約処理を実行する。集約処理には、音声データの圧縮処理などが含まれる。また、音声管理部13は、利用者情報141の音声データIDを更新する。つまり、音声管理部13は、利用者情報141の音声データIDを、ダウンロード対象の音声データIDに変更する。 Next, in step S<b>16 , the voice management unit 13 of the voice management device 10 identifies voice data corresponding to the download instruction received via the input unit 11 . Then, the voice management unit 13 executes aggregation processing for transmitting them. Aggregation processing includes audio data compression processing and the like. Also, the voice management unit 13 updates the voice data ID of the user information 141 . That is, the voice management unit 13 changes the voice data ID of the user information 141 to the voice data ID to be downloaded.

そして、ステップS17において、音声管理部13は、出力部12を用いて、ステップS16で集約された音声データを、利用者端末20に対してダウンロード配信で配信する。つまり、なお、音声管理部13は、音声データを、変更単位でダウンロード配信する。この配信は、掃除機30に対して実行してもよい。 Then, in step S17, the voice management unit 13 uses the output unit 12 to distribute the voice data aggregated in step S16 to the user terminal 20 by download distribution. In other words, the audio management unit 13 downloads and distributes the audio data in change units. This distribution may be performed to the cleaner 30 .

次に、ステップS18において、利用者端末20の処理部22が、利用者音声管理情報252に対して、ダウンロード配信された音声データについての更新処理を実行する。つまり、処理部22が、掃除機30に設定されている音声データとして、ダウンロード配信された音声データを識別する情報に更新する。そして、ステップS19において、ダウンロード配信された音声データを、通信部23を用いて掃除機30に転送する。なお、ステップS18とステップS19の処理順序は問わず、並行処理を実行してもよい。 Next, in step S18, the processing unit 22 of the user terminal 20 updates the user voice management information 252 with respect to the download-delivered voice data. In other words, the processing unit 22 updates the audio data set in the vacuum cleaner 30 to information for identifying the downloaded audio data. Then, in step S<b>19 , the downloaded voice data is transferred to cleaner 30 using communication unit 23 . Parallel processing may be performed regardless of the processing order of steps S18 and S19.

最後に、掃除機30の制御部34が、通信部31を用いて、転送された音声データを受信する。そして、制御部34が、転送された音声データを記憶部33に記憶する。この際、制御部34は、転送された音声データを、デフォルトで設定された音声データ等記憶済の音声データに対して上書き保存することが望ましい。以上で、音声データが設定され、掃除機30は、この音声データを出力することが可能になる。以上の処理を行うことで、本実施例では、ネットワークリソースを効率的に使用しつつ、利用者の好みや聴力などの状況に応じた音声を掃除機30で利用することができる。 Finally, the controller 34 of the cleaner 30 uses the communication unit 31 to receive the transferred audio data. Then, the control unit 34 stores the transferred audio data in the storage unit 33 . At this time, it is desirable that the control unit 34 overwrite the stored audio data such as the default audio data with the transferred audio data. As described above, the sound data is set, and the vacuum cleaner 30 can output this sound data. By performing the above-described processing, in this embodiment, the vacuum cleaner 30 can use the sound according to the user's preference, hearing ability, etc., while efficiently using network resources.

以上で、本実施例の説明を終了するが、本発明はこの記載内容に限定されず、種々の変形、応用が可能である。例えば、掃除機以外の電気製品に適用可能である。電気製品として、洗濯機、電子レンジ、冷蔵庫などが想定できる。さらに、利用者端末20の処理を、電気製品で実行してもよい。 Although the description of the present embodiment is completed above, the present invention is not limited to the contents of this description, and various modifications and applications are possible. For example, it is applicable to electric appliances other than vacuum cleaners. A washing machine, a microwave oven, a refrigerator, etc. can be assumed as an electric product. Furthermore, the processing of the user terminal 20 may be executed by an electrical product.

10…音声管理装置、11…入力部、12…出力部、13…音声管理部、14…記憶部、141…利用者情報、142…音声管理情報、143…音声データ、20…利用者端末、30…掃除機、40…ルータ、50…ネットワーク DESCRIPTION OF SYMBOLS 10... Voice management apparatus 11... Input part 12... Output part 13... Voice management part 14... Storage part 141... User information 142... Voice management information 143... Voice data 20... User terminal 30... vacuum cleaner, 40... router, 50... network

Claims (8)

電気製品で出力される音声データを管理する音声管理装置において、
前記電気製品の利用者が利用する利用者端末から、前記電気製品が出力する音声データについての選択を受け付ける入力部と、
前記選択に応じて、出力部を用いて前記利用者端末へ、記憶部に記憶された音声データを、出力部を用いて試聴データとしてストリーミング配信し、
前記入力部を介して前記利用者端末から受け付けた音声データのダウンロード指示に応じた音声データを特定し、
特定された前記音声データを、前記出力部を用いてダウンロード配信する音声管理部を有し、
ダウンロード配信された前記音声データを前記電気製品の記憶部に設定し、前記電気製品において当該音声データを出力可能とする音声管理装置。
In a voice management device that manages voice data output by electrical products,
an input unit that receives a selection of audio data output by the electrical product from a user terminal used by a user of the electrical product;
streaming the audio data stored in the storage unit as audition data to the user terminal using the output unit according to the selection;
specifying audio data according to an instruction to download audio data received from the user terminal via the input unit;
an audio management unit that downloads and distributes the specified audio data using the output unit;
A voice management device that sets the downloaded and distributed voice data in a storage unit of the electric product, and enables the electric product to output the voice data.
請求項1に記載の音声管理装置において、
前記ダウンロード指示には、前記音声データの変更単位が含まれ、
前記音声管理部は、前記音声データのダウンロード配信を、前記変更単位で実行する音声管理装置。
A voice management device according to claim 1, wherein
the download instruction includes a change unit of the audio data;
The voice management unit is a voice management device that downloads and distributes the voice data in units of the change.
請求項2に記載の音声管理装置において、
前記変更単位には、音声データにおける出力メッセージ、前記出力メッセージの種類を示す出力メッセージ種別および前記音声データで特性が共通する複数の音声データを含む音声グループが含まれる音声管理装置。
The voice management device according to claim 2,
The change unit includes an output message in voice data, an output message type indicating a type of the output message, and a voice group including a plurality of voice data having characteristics common to the voice data.
請求項1乃至3のいずれかに記載の音声管理装置において、
前記音声管理部は、
前記利用者端末から前記利用者の属性を含む試聴要求を受け付け、
前記記憶部に記憶された音声データから前記属性に応じた試聴候補データを特定し、
前記試聴データを、前記試聴候補データから特定する音声管理装置。
The voice management device according to any one of claims 1 to 3,
The voice management unit
receiving a trial listening request including the attribute of the user from the user terminal;
identifying audition candidate data corresponding to the attribute from the audio data stored in the storage unit;
An audio management device that identifies the trial data from the trial candidate data.
コンピュータである利用者端末に、
電気製品で出力される音声データの選択を受け付ける機能と、
前記選択に応じてストリーミング配信される音声データを試聴データとして受信する機能と、
ストリーミング配信された前記音声データについてのダウンロード指示を受け付ける機能と、
前記ダウンロード指示に応じてダウンロード配信された音声データを受信する機能と、
受信された前記音声データを、前記電気製品に転送する機能を実現させ、
転送された前記音声データが、前記電気製品の記憶部に設定され、当該前記電気製品において設定された前記音声データを出力可能とするプログラム。
on the user terminal, which is a computer,
A function to accept selection of audio data output by electrical products;
a function of receiving, as audition data, audio data streamed according to the selection;
a function of accepting a download instruction for the streamed audio data;
a function of receiving audio data downloaded and distributed according to the download instruction;
Realizing a function of transferring the received audio data to the electrical product,
A program for setting the transferred audio data in a storage unit of the electrical product, and for outputting the audio data set in the electrical product.
請求項5に記載のプログラムにおいて、
前記ダウンロード指示には、前記音声データの変更単位が含まれ、
前記ダウンロード配信された音声データを受信する機能は、前記変更単位で当該受信を実行するプログラム。
In the program according to claim 5,
the download instruction includes a change unit of the audio data;
The function of receiving the download-distributed audio data is a program for executing the reception in units of the change.
請求項6に記載のプログラムにおいて、
前記変更単位には、音声データにおける出力メッセージ、前記出力メッセージの種類を示す出力メッセージ種別および前記音声データで特性が共通する複数の音声データを含む音声グループ含まれるプログラム。
In the program according to claim 6,
The change unit includes an audio group including an output message in audio data, an output message type indicating a type of the output message, and a plurality of audio data having characteristics common to the audio data.
請求項5乃至7のいずれかに記載のプログラムにおいて、
前記電気製品の利用者の属性を含む試聴要求を特定する機能と、
前記属性に応じた試聴候補データから前記試聴データの選択を受け付ける機能をさらに実行するプログラム。
In the program according to any one of claims 5 to 7,
a function of identifying a trial request including attributes of a user of the electronic product;
A program for further executing a function of accepting selection of the trial data from the trial candidate data corresponding to the attribute.
JP2021048591A 2021-03-23 2021-03-23 Voice management devices and programs Active JP7456963B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021048591A JP7456963B2 (en) 2021-03-23 2021-03-23 Voice management devices and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021048591A JP7456963B2 (en) 2021-03-23 2021-03-23 Voice management devices and programs

Publications (2)

Publication Number Publication Date
JP2022147379A true JP2022147379A (en) 2022-10-06
JP7456963B2 JP7456963B2 (en) 2024-03-27

Family

ID=83463543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021048591A Active JP7456963B2 (en) 2021-03-23 2021-03-23 Voice management devices and programs

Country Status (1)

Country Link
JP (1) JP7456963B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003090889A (en) 2001-09-18 2003-03-28 Seiko Epson Corp Alarm sound setting system, alarm clock, and alarm sound data providing server
JP3693326B2 (en) 2001-12-12 2005-09-07 株式会社ナビタイムジャパン Map display system, voice guidance support device, map display device
US7991759B2 (en) 2003-09-29 2011-08-02 Sony Corporation Communication apparatus, communication method and communication program
JP2008046424A (en) 2006-08-17 2008-02-28 Toshiba Corp Electric appliance and electric appliance network system
JP2011129032A (en) 2009-12-21 2011-06-30 Cybird Co Ltd System and method for providing content

Also Published As

Publication number Publication date
JP7456963B2 (en) 2024-03-27

Similar Documents

Publication Publication Date Title
CN107465959B (en) Online interaction method, device and system
US11621022B2 (en) Video file generation method and device, terminal and storage medium
US9361017B2 (en) Method of displaying information by category and electronic device
US9240763B2 (en) Loudness normalization based on user feedback
CN111050203B (en) Video processing method and device, video processing equipment and storage medium
US20140115467A1 (en) Creating multiple recommended stations based on purchase history
CN104685854B (en) Method and system for providing social service based on music information
CN105739834B (en) Menu display method and device
CN105553688A (en) Equipment working state setting method, device and system
US10147426B1 (en) Method and device to select an audio output circuit based on priority attributes
CN102567447A (en) Information processing device and method, information processing system, and program
US20050132055A1 (en) System and method to control appliances using adaptive interfaces
CN112732217A (en) Information interaction method, terminal and storage medium of intelligent glasses for 5G messages
JP6559192B2 (en) Control device, input / output device, control method, and control program
KR101336622B1 (en) System for providing presence infromation audio data, apparatus and method thereof
JP2022147379A (en) Voice management device and program
JP2003061163A (en) System capable of utilizing the same user interface
US11392981B2 (en) In-real life media platform analytics (IRL-MPA) system
JP2004521431A (en) Recommendation system with user-selectable input limiting factor and output maturity indicator
JP2003308237A (en) Server device, client device, system and program for distribution, and client program
CN104468706A (en) Audio file transmission method and device
CN108694207B (en) Method and system for displaying file icons
JP7349642B2 (en) Presentation system that accepts turning off notifications
US20240168619A1 (en) Information Processing Terminal, Information Processing Method, And Program
US20220046319A1 (en) Adapting interactions with a television user

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240314

R150 Certificate of patent or registration of utility model

Ref document number: 7456963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150