JP2022147379A - Voice management device and program - Google Patents
Voice management device and program Download PDFInfo
- Publication number
- JP2022147379A JP2022147379A JP2021048591A JP2021048591A JP2022147379A JP 2022147379 A JP2022147379 A JP 2022147379A JP 2021048591 A JP2021048591 A JP 2021048591A JP 2021048591 A JP2021048591 A JP 2021048591A JP 2022147379 A JP2022147379 A JP 2022147379A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- data
- audio data
- unit
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003860 storage Methods 0.000 claims abstract description 31
- 230000008859 change Effects 0.000 claims description 23
- 238000009826 distribution Methods 0.000 abstract description 5
- 238000007726 management method Methods 0.000 description 66
- 238000012545 processing Methods 0.000 description 43
- 238000004891 communication Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 9
- 238000000034 method Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 239000000428 dust Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 235000019640 taste Nutrition 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B40/00—Technologies aiming at improving the efficiency of home appliances, e.g. induction cooking or efficient technologies for refrigerators, freezers or dish washers
Landscapes
- Information Transfer Between Computers (AREA)
Abstract
Description
本発明は、音声を出力する音声機能を有する電気製品およびこの音声機能を実現するための技術に関する。 TECHNICAL FIELD The present invention relates to an electronic product having an audio function for outputting audio and a technique for realizing this audio function.
現在、音声を出力する電気製品が利用されている。例えば、操作案内などのガイダンス、操作や稼働での注意を促すアラートや稼働結果を音声で出力されている。特に、自律走行型掃除機のように、自律的に稼働する電気製品においては、利用者とのコミュニケーションがより重要であり、音声機能のニーズが高まっている。 Currently, electrical products that output sound are in use. For example, guidance such as operation guidance, alerts calling attention to operations and operations, and operation results are output by voice. In particular, for electronic products that operate autonomously, such as autonomously traveling vacuum cleaners, communication with users is more important, and the need for voice functions is increasing.
このような音声機能においては、その音量や音域について、利用者ごとにカスタマイズすることが求められている。例えば、特許文献1では、「使用者の性格やライフスタイルに対応した音量や光量のモードを選択できる電気掃除機」について、記載されている。このために、特許文献1では、「電動送風機、モータ駆動可能な駆動輪及びモータ駆動可能なメインブラシと、を備え、駆動輪を駆動させつつ自律駆動する自動運転モードを実行可能な電気掃除機であって、自動運転モードよりも発する音量の小さい弱運転モードと、弱運転モードよりも発する音量の小さい静音運転モードと、を実行可能であり、自動運転モード、弱運転モード、及び静音運転モードのいずれを実行するかの指定をユーザから受付けるモード指定部を」有している。そして、静音運転モード時には、メッセージや効果音の発音を抑止している。
In such voice functions, it is required to customize the volume and range for each user. For example,
また、特許文献2には、「聴力が低下した老人や聴覚障害者にも聞き取り易い音声案内を可能とする」音声案内装置が記載されている。このために、特許文献2では、「音域が異なる複数の案内音声の音声データを予めメモリ5に記憶しておき、音声混合装置4は、記憶されている音声データの中から音域が異なる3つの音声データを選択して合成することにより混合音声データを生成する。音声発声装置12は、混合音声データを音声に変換し、その案内音声をスピーカ13を通して出力する。音声測定装置7は、乗員からの応答音声の特徴(周波数、大きさ、発音の速さ)を測定し、音声混合装置4は、この測定した特長を有する案内音声の混合音声データを生成して出力」している。
In addition, Patent Document 2 describes a voice guidance device that "enables voice guidance that is easy to hear even for elderly people with reduced hearing and hearing-impaired people." For this reason, Japanese Patent Laid-Open No. 2002-200001 discloses that "sound data of a plurality of guidance voices with different sound ranges are stored in advance in the memory 5, and the sound mixing device 4 selects three voice data with different sound ranges from the stored sound data. Mixed voice data is generated by selecting and synthesizing voice data.
ここで、音声機能においては、利用者の好み、聴力などの特性といった状況に応じたカスタマイズが必要になる。しかしながら、特許文献1では、発音を抑止の有無を制御する物であり、音域や音声自体を、好みや特性に応じて変更するものではない。 Here, the audio function needs to be customized according to the user's preference, hearing ability, and other characteristics. However, Japanese Patent Laid-Open No. 2004-100000 controls whether or not to suppress pronunciation, and does not change the range or voice itself according to preferences and characteristics.
また、特許文献2では、乗員からの応答音声に応じた混合音声を生成しているが、自身の音声が好みに合っているとは限らない。 Further, in Patent Document 2, a mixed voice is generated according to the response voice from the passenger, but the voice of the passenger does not necessarily match his or her taste.
そこで、本発明では、利用者の好みを含む属性や音声データの特性を含む状況に応じたより適切な音声データを利用可能とすることを課題とする。 Therefore, an object of the present invention is to make it possible to use more appropriate voice data according to the situation including attributes including user preferences and voice data characteristics.
上記の課題を解決するために、本発明では、音声データをストリーミングで配信して試聴可能とし、利用者からの選択結果に応じて、音声データを家電製品へ設定できる構成とした。 In order to solve the above-mentioned problems, the present invention is configured so that the audio data can be distributed by streaming and listened to, and the audio data can be set to the home electric appliance according to the user's selection result.
より具体的には、電気製品で出力される音声データを管理する音声管理装置において、前記電気製品の利用者が利用する利用者端末から、前記電気製品が出力する音声データについての選択を受け付ける入力部と、前記選択に応じて、出力部を用いて前記利用者端末へ、記憶部に記憶された音声データを、出力部を用いて試聴データとしてストリーミング配信し、前記入力部を介して前記利用者端末から受け付けた音声データのダウンロード指示に応じた音声データを特定し、特定された前記音声データを、前記出力部を用いてダウンロード配信する音声管理部を有し、ダウンロード配信された前記音声データを前記電気製品の記憶部に設定し、前記電気製品において当該音声データを出力可能とする音声管理装置である。本発明には、この音声管理装置を用いた音声管理方法も含まれる。 More specifically, in a voice management device for managing voice data output by an electrical product, an input for accepting a selection of voice data output by the electrical product from a user terminal used by a user of the electrical product. and, in accordance with the selection, the audio data stored in the storage unit is streamed to the user terminal using the output unit as audition data using the output unit, and the use is performed through the input unit. a voice management unit that specifies voice data according to an instruction to download voice data received from a user terminal, downloads and distributes the specified voice data using the output unit, and downloads and distributes the voice data is set in the storage unit of the electrical product, and the electrical product can output the audio data. The present invention also includes a voice management method using this voice management device.
また、本発明では、利用者端末で用いられるプログラムも含まれる。さらに、本発明には、音声データを変更可能な前記電気製品も含まれる。またさらに、音声管理装置、利用者端末、電気製品を含むシステムやこれらのうち少なくとも2つを含むサブコンビネーションも、本発明に含まれる。さらに、これらを用いた音声データ管理方法も含まれる。 The present invention also includes programs used in user terminals. Furthermore, the present invention also includes the electronic product capable of changing voice data. Furthermore, the present invention also includes a system including a voice management device, a user terminal, an appliance, or a subcombination including at least two of these. Furthermore, a voice data management method using these is also included.
本発明によれば、電気製品において、利用者の状況に応じたより適切な音声データを利用可能となる。 According to the present invention, it becomes possible to use more appropriate audio data in accordance with the user's situation in the electronic product.
以下、本発明の一実施例について、図面を用いて説明する。なお、本実施例では、電気製品の一例として、自律走行型掃除機を用いて説明するが、他の電気製品にも適用可能である。 An embodiment of the present invention will be described below with reference to the drawings. Note that, in this embodiment, an autonomously traveling vacuum cleaner is used as an example of an electric product, but the present invention can also be applied to other electric products.
<構成>
図1は、本実施例におけるシステム構成図である。本実施例では、音声管理装置10、利用者端末20、自律走行型掃除機(以下、単に掃除機30)、ルータ40が、ネットワーク50を介して互いに接続されている。なお、掃除機30や利用者端末20は、ルータ40を介して、ネットワーク50と接続することも可能である。また、ネットワーク50は、宅内ネットワークとインターネットで構成したり、1つのネットワークで構成してもよい。なお、図1には、各装置を1台ずつ記載したが、複数台利用することも可能である。
<Configuration>
FIG. 1 is a system configuration diagram in this embodiment. In this embodiment, a
次に、各装置の構成を説明する。まず、音声管理装置10は、そして、いわゆるコンピュータ装置で実現され、各種演算を実行する入力部11、出力部12および音声管理部13を有する。また、音声管理装置10は、各種情報を記憶する記憶部14有する。入力部11および出力部12は、ネットワーク50を介して、他の装置との通信を実現する。
Next, the configuration of each device will be described. First, the
音声管理部13は、利用者端末20からの指示に応じて、音声データの配信のための処理を実行する。また、記憶部14には、利用者情報141、音声管理情報142および音声データ143が記憶されている。利用者情報141は、掃除機30の利用者の属性など利用者に関する情報である。ここで、利用者とは、利用者端末20もしくは掃除機30の少なくとも一方の利用者を示す。音声管理情報142は、音声データ143を管理する情報であり、音声データ143が示す出力メッセージなどを特定する情報である。音声データ143は、音声の種類ごとに、各出力メッセージの音声データが用意される。なお、これら各情報の詳細については、後述する。
The
次に、音声管理装置10の機能をプログラムで実現する場合のハードウエア構成図を図2に示す。音声管理装置10は、処理部101、通信部102、主記憶部103および副記憶部104を有し、これらが互いに通信路を介して接続されている。
Next, FIG. 2 shows a hardware configuration diagram when the functions of the
処理部101は、CPU(Central Processing Unit)などのプロセッサで実現でき、後述する主記憶部103に展開される音声管理プログラム130に従って演算を実行する。つまり、処理部101が、音声管理プログラム130に従って、音声管理部13の処理を実行する。
The
主記憶部103は、いわゆるメモリで実現可能であり、副記憶部104に格納される音声管理プログラム130や処理に必要な情報が展開される。副記憶部104は、ハードディスクドライブ等のストレージで実現でき、音声管理プログラム130や図1で説明した各種情報を記憶する。このように、主記憶部103および副記憶部104が、記憶部14に該当する。また、副記憶部104の各種情報は、音声管理装置10とは別筐体のデータベースシステムに記憶してもよい。
The
なお、音声管理装置10は、さらに、操作者からの入力を受け付ける入力部や各種情報を出力する表示部を設けてもよい。また、これらは端末装置として外出ししてもよい。またさらに、各装置の各プログラムは、1つのプログラムとして実現してもよいし、さらに細分化してもよい。以上で、音声管理装置10の説明を終了する。
Note that the
次に、利用者端末20のハードウエア構成図を、図3に示す。利用者端末20は、スマートフォンといったいわゆるコンピュータ装置で実現される。このため、利用者端末20は、タッチパネル21、処理部22、通信部23、スピーカ24および記憶部25を有する。
Next, FIG. 3 shows a hardware configuration diagram of the
タッチパネル21は、利用者からの入力を受け付けたり、各種情報を表示したりする。なお、タッチパネル21は、入力を受け付ける入力部と表示を行う表示部に分けて構成してもよい。
The
処理部22は、CPUなどのプロセッサで実現でき、後述する各プログラム(アプリ)に従って演算を実行する。通信部23は、ネットワーク50やルータ40を介して、他の装置との接続を行う。また、通信部23は、掃除機30と接続する近距離無線通信機能をさらに有してもよい。
The processing unit 22 can be realized by a processor such as a CPU, and executes calculations according to each program (application) described later. The
スピーカ24は、処理部22の処理に従って各種情報を音声(音)で出力する。また、記憶部25は、掃除機操作プログラム251および利用者音声管理情報252を記憶する。掃除機操作プログラム251は、掃除機30の稼働に関する指示、制御を実現する、利用者音声管理情報252は、掃除機操作プログラム251での制御対象である掃除機30で用いられる音声データを管理する情報である。
The
なお、掃除機操作プログラム251は、アプリとも称される。また、掃除機操作プログラム251は、後述する機能を実現できればよく、必ずしも掃除機30稼働に関する指示、制御を実現する機能を有していなくともよい。なお、利用者端末20には、タブレット端末、PCも含まれる。ここで、PCは、いわゆるノート型、デスクトップ型を問わない。以上で、利用者端末20の構成の説明を終了する。
Vacuum
次に、掃除機30の構成を説明する。掃除機30は、制御プログラムに従って、自律的に稼働する。つまり、掃除機30は、走行し掃除を実行する。この機能を実行するための掃除機30の機能ブロック図を、図4に示す。掃除機30は、制御を行うための通信部31、タッチパネル32、記憶部33、制御部34およびスピーカ39を有する。そして、掃除機30は、制御される走行機構35、ブラシ機構36や吸引機構37を有する。
Next, the configuration of cleaner 30 will be described.
通信部31は、ネットワーク50やルータ40ないし利用者端末20を通信する機能を有する。なお、通信部31は、利用者端末20の通信部23と同様に、近距離無線通信機能を設けてもよい。
The
タッチパネル32は、制御部34の制御の下、利用者に対して各種情報を表示する。また、タッチパネル32は、利用者の操作を受け付け、制御部34に対して各種コマンドを出力する。なお、タッチパネル32は、操作を受け付ける入力部と表示を行う表示部に分けて構成してもよい。
The
記憶部33は、稼働を制御するための制御プログラム、稼働範囲、稼働予定情報や音声管理装置10から配信された音声データを記憶する。制御部34は、制御プログラムに従って、掃除機30の稼働を制御するものであり、CPUといったプロセッサで実現できる。より具体的には、制御部34は、走行機構35、ブラシ機構36や吸引機構37の稼働を制御する。また、制御部34は、通信部31やタッチパネル32が受け付けた操作指示に従うことも可能である。また、制御部34は、スピーカ39を介して、記憶部33の音声データを出力させる。
The storage unit 33 stores a control program for controlling operation, operation range, operation schedule information, and voice data delivered from the
走行機構35は、掃除機30の移動を実行し、モータといった駆動部と車輪などの被駆動部を有する。ブラシ機構36は、床上のゴミを吸引口付近に収集する。また、吸引機構37は、吸引口付近のゴミを吸引し、図示しない集塵ボックスにゴミを移動させる。
The traveling
そして、スピーカ39が、制御部34の処理に従って、対応する音声データを、音として出力する。
Then, the
ここで、上述の各プログラム、アプリは、ネットワーク50を介して各装置に配信されたり、記憶媒体を介して流通されたりすることが可能である。つまり、プログラム製品として、流通できる。以上で、本実施例の構成についての説明を終了する。
Here, each program and application described above can be distributed to each device via the
<情報>
次に、本実施例で用いられる情報について、説明する。まず、図5に、利用者情報141を示す。この利用者情報141は、利用者に関する情報であり、その属性を含む。具体的には、利用者情報141は、利用者ごとに、利用者ID、氏名、住所、性別、年齢、好み/趣向、音声データIDおよび掃除機IDを有する。
<Information>
Next, information used in this embodiment will be described. First, FIG. 5 shows
利用者IDは、掃除機30の利用者を識別する情報である。氏名および住所は、当該利用者の氏名および住所である。また、性別および年齢も、利用者の性別、年齢を示す。また、好み/趣向は、利用者の趣味や聴取に関する特徴などを示す。これら、住所、性別、年齢および好み/趣向が、利用者の属性として用いられる。 The user ID is information that identifies the user of cleaner 30 . The name and address are the user's name and address. Moreover, sex and age also indicate the sex and age of the user. Also, preferences/tastes indicate user's hobbies and listening characteristics. These address, gender, age and preferences/preferences are used as user attributes.
また、音声データIDは、利用者の利用する掃除機30に設定されている音声データを識別する情報を示す。本実施例では、音声データIDを用いるが他の情報を用いてもよい。例えば、後述するメッセージ種別や音声グループ(以下、音声G)を識別する情報を用いてもよい。
The voice data ID indicates information identifying voice data set in the
さらに、掃除機IDは、当該利用者が利用する掃除機30自体もしくはその機種を識別する情報である。 Furthermore, the cleaner ID is information for identifying the cleaner 30 itself or the model used by the user.
次に、音声管理情報142を、図6に示す。音声管理情報142は、音声データ143を管理する情報である。そして、音声管理情報142は、掃除機30での出力単位である音声データごとに、音声データID、出力メッセージ、メッセージ種別、音声Gを有する。音声データIDは、掃除機30での音声データを識別する。
Next, FIG. 6 shows the
出力メッセージは、掃除機30で出力、つまり、音として発する内容を示す。メッセージ種別は、出力メッセージをその種類ごとに分類したものであり、本実施例では、「アラート」「ガイダンス」「通知」を有する。このように、分類する理由は、出力メッセージの種類ごとに、その必要性や重要性が異なっているためである。必要性や重要性が異なっているので、利用者によっては、種類ごとに特性を変更することを望む場合がある。このこと対応するために、本実施例では、音声管理情報142に、メッセージ種別を設けた。本実施例で用いる「アラート」は、利用者に対する注意を促す音声データを示す。「ガイダンス」は、利用者に対して掃除機30お利用方法などの案内を示す音声データを示す。そして、「通知」は、利用者に対して掃除機30の稼働情報(掃除の終了など)を示す。本実施例では、これら3つに分類したが、分類方法はこれらに限定されない。さらに、メッセージ種別には、「アラート」等の種類に加え、これに含まれる音声データも併せて識別するメッセージ種別ID(01A等)を設けることが望ましい。
The output message indicates what is to be output by cleaner 30, that is, what is to be emitted as sound. The message type is obtained by classifying the output message according to its type, and has "alert", "guidance", and "notification" in this embodiment. The reason for such classification is that the necessity and importance of each type of output message differ. Due to different needs and importance, some users may wish to change the characteristics for each type. In order to deal with this, in this embodiment, the
そして、音声Gは、言語、話者などの特性が共通する複数の音声データを含む音声データの分類(グループ)である。掃除機30にデフォルトで設定される音声データは、各出力メッセージとも同じ音声Gであることが望ましい。またさらに、さらに、音声Gには、「関西弁・女性・ゆっくり」等の分類に加え、これに含まれる音声データないしメッセージ種別も併せて識別する音声GID(01等)を設けることが望ましい。
Voice G is a classification (group) of voice data including a plurality of voice data having common characteristics such as language and speaker. It is desirable that the voice data set in the
次に、音声データ143は、出力メッセージごとに、ファイルデータとして、音声データIDと対応付けられて記憶されている。なお、音声データ143は、メッセージ種別や音声Gごとのファイルデータとして管理してもよい。この場合、出力メッセージごとのファイルデータとメッセージ種別や音声Gごとのファイルデータの双方を設けることが望ましい。
Next, the
次に、利用者端末20が保持する利用者音声管理情報252について、説明する。利用者音声管理情報252は、掃除機30に設定されている音声データを識別する情報が記録されている。つまり、音声管理情報142の音声データIDと同様の情報が記録される。さらに、利用者音声管理情報252には、音声データIDに対応するメッセージ種別や音声Gを識別する情報も含まれる。なお、図5や図6に示すように、音声データIDに、メッセージ種別や音声Gを識別する情報(01Aや01など)を含める場合、音声データIDを流用できる。
Next, the user
さらに、利用者音声管理情報252に、音声管理情報142の属性などを含めることが望ましい。なお、利用者音声管理情報252には、掃除機30に設定された音声データの履歴などを含めてもよい。以上で、本実施例で用いられる情報の説明を終了する。
<処理>
次に、本実施例における処理フローを示すフローチャートを、図7に示す。なお、本フローチャートでは、音声管理装置10の処理主体を、図1で示す構成要素を用いて説明する。以下、ステップごとに、その機能を説明する。
Furthermore, it is desirable that the user
<Processing>
Next, FIG. 7 shows a flow chart showing the processing flow in this embodiment. In addition, in this flowchart, the processing subject of the
まず、ステップS1において、利用者端末20は、利用者からの操作に従って、音声出力指示を、掃除機30に出力する。このために、タッチパネル21が、出力メッセージの識別を含む利用者の操作を受け付ける。そして、処理部22が、掃除機操作プログラム251に従って、通信部23を用いて音声出力指示を出力する。なお、以下、処理部22の処理は、特に断らない限り、掃除機操作プログラム251に従って実行される。
First, in step S1, the
次に、ステップS2において、掃除機30は、音声出力指示に応じて、音声を出力する。このために、制御部34は、記憶部33から音声出力指示に応じた音声データを特定する。そして、制御部34は、スピーカ39を用いて、特定された音声データの音声を出力(発声)する。
Next, in step S2,
次に、ステップS3において、利用者端末20の処理部22は、タッチパネル21を介して修正要求を受け付け(Yes)、ステップS4に遷移する。修正要求を受け付けない場合は(No)、処理を終了する。
Next, in step S3, the processing unit 22 of the
次に、ステップS4において、処理部22は、修正する音声データの出力メッセージおよび利用者の利用者IDを特定する。このために、処理部22は、ステップS2で出力された音声の出力メッセージを特定する音声データIDを、ステップS1での音声出力指示から特定する。 Next, in step S4, the processing section 22 specifies the output message of the voice data to be corrected and the user ID of the user. For this reason, the processing unit 22 identifies the voice data ID that identifies the voice output message output in step S2 from the voice output instruction in step S1.
また、処理部22は、利用者音声管理情報252もしくは記憶部25に記憶された利用者に関する情報を用いて、利用者IDを特定する。
The processing unit 22 also identifies the user ID using the user
なお、ステップS1やステップS2は、省略してもよい。例えば、掃除機30の稼働の際に発せられる音声を聞いて、利用者が音声の変更を始めてもよい。この場合、本ステップでの出力メッセージの特定は、利用者からの指定により実現できる。
Note that steps S1 and S2 may be omitted. For example, the user may start changing the sound after listening to the sound emitted when the
次に、ステップS5において、処理部22は、通信部23を用いて、音声管理装置10へ、試聴要求を通知する。この試聴要求には、ステップS3で特定された出力メッセージおよび利用者IDが含まれる。
Next, in step S<b>5 , the processing unit 22 uses the
次に、ステップS6において、音声管理装置10の音声管理部13が、入力部11で受け付けた試聴要求に対応する音声データを記憶部14から検索する。この際、音声管理部13は、音声管理情報142を用いて、試聴要求に含まれる出力メッセージを含むメッセージ種別および音声Gの少なくとも一方を特定する。
Next, in step S<b>6 , the
また、音声管理部13は、利用者情報141を用いて、利用者IDに対応する利用者の属性を特定する。そして、音声管理部13は、この属性に対応する音声データIDを、音声管理情報142から特定する。このために、属性が難聴や高齢者を示す場合、「ゆっくり」や「はっきり」といったより聞きやすい特性を含む音声Gを特定する。このために、属性と音声Gの対応関係を示すルールと設定しておくことが望ましい。
In addition, the
この結果、音声管理部13は、これら出力メッセージ、メッセージ種別、音声Gおよび属性に対応する音声データIDを特定することになる。この音声データIDで特定される音声データを、試聴候補データと称する。
As a result, the
次に、ステップS7において、音声管理装置10は、出力部12を用いて、試聴候補データを通知する。そして、ステップS7に応じて、ステップS8において、利用者端末20の処理部22が、タッチパネル21に、試聴候補データを選択するための選択画面を出力する。
Next, in step S<b>7 , the
ここで、この選択画面の一例を、図8に示す。なお、この選択画面では、ステップS4で特定された出力メッセージの音声データを変更するための画面である。タッチパネル21には、音声データの特性を示す選択肢が表示される。このため、利用者が選択画面のラジオボタンをチェックすることで選択できる。ここで、各選択肢の特性は、音声管理情報142の音声Gに示される特性を用いることが望ましい。
An example of this selection screen is shown in FIG. This selection screen is a screen for changing the voice data of the output message specified in step S4. The
さらに、選択肢の提示順を、利用者の属性や音声データの特性といった状況に応じて設定することが望ましい。このために、前述のステップS6において、音声管理部13は、利用者情報141に含まれる音声データにより、掃除機30に設定されている音声データを特定する。そして、音声管理部13は、掃除機30に設定されている音声データと特性が異なる音声データを特定する。このために、音声管理部13は、音声管理情報142の音声Gに記録される特性を用いる。この際、音声管理部13は、特性の近似性を予め定めた規則によって判断し、この結果を用いることが望ましい。この提示順としては、例えば、近似性の遠いものから提示することが含まれる。このように、利用者の属性や音声データの特性といった状況に応じた優先順位で、利用者に変更を提示できる。
Furthermore, it is desirable to set the presentation order of the options according to the situation such as the attributes of the user and the characteristics of the voice data. Therefore, in step S<b>6 described above, the
次に、ステップS9において、処理部22は、タッチパネル21を介して入力される利用者からの選択を受け付ける。これを受けて、処理部22は通信部23を介して、選択結果、つまり、洗濯された試聴候補データの音声データIDを送信する。このように、利用者からの選択を受け付けることで、利用者の好みを反映できる。
Next, in step S<b>9 , the processing unit 22 receives selections from the user input via the
次に、ステップS10において、音声管理部13は、入力部11で受け付けた、選択結果が示す音声データIDの音声データを、試聴データとして特定する。そして、音声管理部13は、出力部12を介して、特定された試聴データを、ストリーミング配信で配信する。
Next, in step S10, the
次に、ステップS12において、処理部22が、通信部23を介して受信した試聴データの音声をスピーカ24から出力する。これを受けて、利用者はこの試聴データを気に入ったかを判断できる。そして、ステップS13において、処理部22は、タッチパネル21を介して、利用者から試聴データに変更するかの判断結果を受け付ける。変更する場合(Yes)、ステップS14に遷移し、変更しない場合(No)、ステップS9に戻る。ここで、変更しない場合(No)で、ステップS9に戻った場合、処理部22は、利用者からさらに別の選択を受け付けることになる。
Next, in step S<b>12 , the processing unit 22 outputs the audio of the audition data received via the
そして、ステップS14において、処理部22は、タッチパネル21を用いて、音声データについて、纏め変更を行うかの指示を受け付ける。このために、まず、処理部22は、タッチパネル21に、纏め変更指示画面を出力する。この纏め変更指示画面を、図9に示す。図9では、タッチパネル21に、音声データを変更する変更単位を選択する画面を表示している。つまり、選択肢として、以下の3つが表示される。
ステップS12で出力した音声の音声データ、つまり、「このメッセージのみ」
ステップS12で出力した音声の音声データを含む「メッセージ種別で纏め変更する」
ステップS12で出力した音声の音声データを含む「音声Gで纏め変更する「一括変更」」
この出力内容に対して、処理部22は、タッチパネル21を介して利用者からの選択を受け付ける。具体的には、選択肢ごとに設けられたラジオボタンへのチェックを受け付け、変更指示を受け付ける。
Then, in step S14, the processing unit 22 uses the
Audio data of the audio output in step S12, that is, "this message only"
"Consolidate and change by message type" including audio data of the audio output in step S12
"Batch change" to collectively change with voice G" including the voice data of the voice output in step S12
The processing unit 22 receives a selection from the user via the
そして、ステップS15において、処理部22は、通信部23を用いて、変更する音声データについてのダウンロード指示を、音声管理装置10へ通知する。このダウンロード指示には、ステップS13において変更が指定された音声データの音声データIDおよびステップS14で指示された纏め変更が含まれる。なお、具体的なステップS14で指示された纏め変更の内容は、上述の3つの選択肢である。
Then, in step S<b>15 , the processing unit 22 uses the
ここで、このダウンロード指示に、纏め変更の内容を含めることで、複数の音声データを纏めてダウンロードすることが可能になり、ネットワークリソースをより効率的に利用できる。もちろん、変更指示毎に、音声データをダウンロードする構成としてもよい。つまり、ダウンロード指示は、ダウンロードする音声を特定できればよい。 Here, by including the contents of the collective change in this download instruction, it becomes possible to collectively download a plurality of audio data, and network resources can be used more efficiently. Of course, the configuration may be such that voice data is downloaded for each change instruction. In other words, the download instruction only needs to specify the audio to be downloaded.
次に、ステップS16において、音声管理装置10の音声管理部13は、入力部11を介して受け付けたダウンロード指示に対応する音声データを特定する。そして、音声管理部13は、これらを送信するための集約処理を実行する。集約処理には、音声データの圧縮処理などが含まれる。また、音声管理部13は、利用者情報141の音声データIDを更新する。つまり、音声管理部13は、利用者情報141の音声データIDを、ダウンロード対象の音声データIDに変更する。
Next, in step S<b>16 , the
そして、ステップS17において、音声管理部13は、出力部12を用いて、ステップS16で集約された音声データを、利用者端末20に対してダウンロード配信で配信する。つまり、なお、音声管理部13は、音声データを、変更単位でダウンロード配信する。この配信は、掃除機30に対して実行してもよい。
Then, in step S17, the
次に、ステップS18において、利用者端末20の処理部22が、利用者音声管理情報252に対して、ダウンロード配信された音声データについての更新処理を実行する。つまり、処理部22が、掃除機30に設定されている音声データとして、ダウンロード配信された音声データを識別する情報に更新する。そして、ステップS19において、ダウンロード配信された音声データを、通信部23を用いて掃除機30に転送する。なお、ステップS18とステップS19の処理順序は問わず、並行処理を実行してもよい。
Next, in step S18, the processing unit 22 of the
最後に、掃除機30の制御部34が、通信部31を用いて、転送された音声データを受信する。そして、制御部34が、転送された音声データを記憶部33に記憶する。この際、制御部34は、転送された音声データを、デフォルトで設定された音声データ等記憶済の音声データに対して上書き保存することが望ましい。以上で、音声データが設定され、掃除機30は、この音声データを出力することが可能になる。以上の処理を行うことで、本実施例では、ネットワークリソースを効率的に使用しつつ、利用者の好みや聴力などの状況に応じた音声を掃除機30で利用することができる。
Finally, the controller 34 of the cleaner 30 uses the
以上で、本実施例の説明を終了するが、本発明はこの記載内容に限定されず、種々の変形、応用が可能である。例えば、掃除機以外の電気製品に適用可能である。電気製品として、洗濯機、電子レンジ、冷蔵庫などが想定できる。さらに、利用者端末20の処理を、電気製品で実行してもよい。
Although the description of the present embodiment is completed above, the present invention is not limited to the contents of this description, and various modifications and applications are possible. For example, it is applicable to electric appliances other than vacuum cleaners. A washing machine, a microwave oven, a refrigerator, etc. can be assumed as an electric product. Furthermore, the processing of the
10…音声管理装置、11…入力部、12…出力部、13…音声管理部、14…記憶部、141…利用者情報、142…音声管理情報、143…音声データ、20…利用者端末、30…掃除機、40…ルータ、50…ネットワーク
DESCRIPTION OF
Claims (8)
前記電気製品の利用者が利用する利用者端末から、前記電気製品が出力する音声データについての選択を受け付ける入力部と、
前記選択に応じて、出力部を用いて前記利用者端末へ、記憶部に記憶された音声データを、出力部を用いて試聴データとしてストリーミング配信し、
前記入力部を介して前記利用者端末から受け付けた音声データのダウンロード指示に応じた音声データを特定し、
特定された前記音声データを、前記出力部を用いてダウンロード配信する音声管理部を有し、
ダウンロード配信された前記音声データを前記電気製品の記憶部に設定し、前記電気製品において当該音声データを出力可能とする音声管理装置。 In a voice management device that manages voice data output by electrical products,
an input unit that receives a selection of audio data output by the electrical product from a user terminal used by a user of the electrical product;
streaming the audio data stored in the storage unit as audition data to the user terminal using the output unit according to the selection;
specifying audio data according to an instruction to download audio data received from the user terminal via the input unit;
an audio management unit that downloads and distributes the specified audio data using the output unit;
A voice management device that sets the downloaded and distributed voice data in a storage unit of the electric product, and enables the electric product to output the voice data.
前記ダウンロード指示には、前記音声データの変更単位が含まれ、
前記音声管理部は、前記音声データのダウンロード配信を、前記変更単位で実行する音声管理装置。 A voice management device according to claim 1, wherein
the download instruction includes a change unit of the audio data;
The voice management unit is a voice management device that downloads and distributes the voice data in units of the change.
前記変更単位には、音声データにおける出力メッセージ、前記出力メッセージの種類を示す出力メッセージ種別および前記音声データで特性が共通する複数の音声データを含む音声グループが含まれる音声管理装置。 The voice management device according to claim 2,
The change unit includes an output message in voice data, an output message type indicating a type of the output message, and a voice group including a plurality of voice data having characteristics common to the voice data.
前記音声管理部は、
前記利用者端末から前記利用者の属性を含む試聴要求を受け付け、
前記記憶部に記憶された音声データから前記属性に応じた試聴候補データを特定し、
前記試聴データを、前記試聴候補データから特定する音声管理装置。 The voice management device according to any one of claims 1 to 3,
The voice management unit
receiving a trial listening request including the attribute of the user from the user terminal;
identifying audition candidate data corresponding to the attribute from the audio data stored in the storage unit;
An audio management device that identifies the trial data from the trial candidate data.
電気製品で出力される音声データの選択を受け付ける機能と、
前記選択に応じてストリーミング配信される音声データを試聴データとして受信する機能と、
ストリーミング配信された前記音声データについてのダウンロード指示を受け付ける機能と、
前記ダウンロード指示に応じてダウンロード配信された音声データを受信する機能と、
受信された前記音声データを、前記電気製品に転送する機能を実現させ、
転送された前記音声データが、前記電気製品の記憶部に設定され、当該前記電気製品において設定された前記音声データを出力可能とするプログラム。 on the user terminal, which is a computer,
A function to accept selection of audio data output by electrical products;
a function of receiving, as audition data, audio data streamed according to the selection;
a function of accepting a download instruction for the streamed audio data;
a function of receiving audio data downloaded and distributed according to the download instruction;
Realizing a function of transferring the received audio data to the electrical product,
A program for setting the transferred audio data in a storage unit of the electrical product, and for outputting the audio data set in the electrical product.
前記ダウンロード指示には、前記音声データの変更単位が含まれ、
前記ダウンロード配信された音声データを受信する機能は、前記変更単位で当該受信を実行するプログラム。 In the program according to claim 5,
the download instruction includes a change unit of the audio data;
The function of receiving the download-distributed audio data is a program for executing the reception in units of the change.
前記変更単位には、音声データにおける出力メッセージ、前記出力メッセージの種類を示す出力メッセージ種別および前記音声データで特性が共通する複数の音声データを含む音声グループ含まれるプログラム。 In the program according to claim 6,
The change unit includes an audio group including an output message in audio data, an output message type indicating a type of the output message, and a plurality of audio data having characteristics common to the audio data.
前記電気製品の利用者の属性を含む試聴要求を特定する機能と、
前記属性に応じた試聴候補データから前記試聴データの選択を受け付ける機能をさらに実行するプログラム。 In the program according to any one of claims 5 to 7,
a function of identifying a trial request including attributes of a user of the electronic product;
A program for further executing a function of accepting selection of the trial data from the trial candidate data corresponding to the attribute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021048591A JP7456963B2 (en) | 2021-03-23 | 2021-03-23 | Voice management devices and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021048591A JP7456963B2 (en) | 2021-03-23 | 2021-03-23 | Voice management devices and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022147379A true JP2022147379A (en) | 2022-10-06 |
JP7456963B2 JP7456963B2 (en) | 2024-03-27 |
Family
ID=83463543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021048591A Active JP7456963B2 (en) | 2021-03-23 | 2021-03-23 | Voice management devices and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7456963B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003090889A (en) | 2001-09-18 | 2003-03-28 | Seiko Epson Corp | Alarm sound setting system, alarm clock, and alarm sound data providing server |
JP3693326B2 (en) | 2001-12-12 | 2005-09-07 | 株式会社ナビタイムジャパン | Map display system, voice guidance support device, map display device |
US7991759B2 (en) | 2003-09-29 | 2011-08-02 | Sony Corporation | Communication apparatus, communication method and communication program |
JP2008046424A (en) | 2006-08-17 | 2008-02-28 | Toshiba Corp | Electric appliance and electric appliance network system |
JP2011129032A (en) | 2009-12-21 | 2011-06-30 | Cybird Co Ltd | System and method for providing content |
-
2021
- 2021-03-23 JP JP2021048591A patent/JP7456963B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7456963B2 (en) | 2024-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107465959B (en) | Online interaction method, device and system | |
US11621022B2 (en) | Video file generation method and device, terminal and storage medium | |
US9361017B2 (en) | Method of displaying information by category and electronic device | |
US9240763B2 (en) | Loudness normalization based on user feedback | |
CN111050203B (en) | Video processing method and device, video processing equipment and storage medium | |
US20140115467A1 (en) | Creating multiple recommended stations based on purchase history | |
CN104685854B (en) | Method and system for providing social service based on music information | |
CN105739834B (en) | Menu display method and device | |
CN105553688A (en) | Equipment working state setting method, device and system | |
US10147426B1 (en) | Method and device to select an audio output circuit based on priority attributes | |
CN102567447A (en) | Information processing device and method, information processing system, and program | |
US20050132055A1 (en) | System and method to control appliances using adaptive interfaces | |
CN112732217A (en) | Information interaction method, terminal and storage medium of intelligent glasses for 5G messages | |
JP6559192B2 (en) | Control device, input / output device, control method, and control program | |
KR101336622B1 (en) | System for providing presence infromation audio data, apparatus and method thereof | |
JP2022147379A (en) | Voice management device and program | |
JP2003061163A (en) | System capable of utilizing the same user interface | |
US11392981B2 (en) | In-real life media platform analytics (IRL-MPA) system | |
JP2004521431A (en) | Recommendation system with user-selectable input limiting factor and output maturity indicator | |
JP2003308237A (en) | Server device, client device, system and program for distribution, and client program | |
CN104468706A (en) | Audio file transmission method and device | |
CN108694207B (en) | Method and system for displaying file icons | |
JP7349642B2 (en) | Presentation system that accepts turning off notifications | |
US20240168619A1 (en) | Information Processing Terminal, Information Processing Method, And Program | |
US20220046319A1 (en) | Adapting interactions with a television user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7456963 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |