JP2019049742A - Voice response device - Google Patents
Voice response device Download PDFInfo
- Publication number
- JP2019049742A JP2019049742A JP2018206748A JP2018206748A JP2019049742A JP 2019049742 A JP2019049742 A JP 2019049742A JP 2018206748 A JP2018206748 A JP 2018206748A JP 2018206748 A JP2018206748 A JP 2018206748A JP 2019049742 A JP2019049742 A JP 2019049742A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- input
- schedule
- response
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004044 response Effects 0.000 title claims abstract description 117
- 230000008094 contradictory effect Effects 0.000 claims description 11
- 230000009118 appropriate response Effects 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 106
- 230000008569 process Effects 0.000 description 104
- 230000008859 change Effects 0.000 description 41
- 238000012545 processing Methods 0.000 description 28
- 238000012790 confirmation Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 230000008451 emotion Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 229920006254 polymer film Polymers 0.000 description 3
- 235000021438 curry Nutrition 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000010349 pulsation Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 235000015220 hamburgers Nutrition 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本国際出願は、2012年8月10日に日本国特許庁に出願された日本国特許出願第2012−178454号に基づく優先権を主張するものであり、日本国特許出願第2012−178454号の全内容を参照により本国際出願に援用する。 This international application claims priority based on Japanese Patent Application No. 2012-178454 filed on Aug. 10, 2012 in the Japanese Patent Office, and the international application is based on Japanese Patent Application No. 2012-178454. The entire contents are incorporated into this international application by reference.
本発明は、入力された音声に対する応答を音声で行わせる音声応答装置に関する。 The present invention relates to a voice response device that causes voice to respond to input voice.
上記の音声応答装置として、入力された質問に対する回答を辞書から検索し、検索した回答を音声で出力するものが知られている(例えば特許文献1参照)。また、使用者との対話の内容に基づいて質問に対する回答を生成する技術も知られている(例えば特許文献2参照)。 As the above-mentioned voice response device, one is known which searches for an answer to an input question from a dictionary and outputs the searched answer as voice (see, for example, Patent Document 1). There is also known a technology for generating an answer to a question based on the content of a dialog with a user (see, for example, Patent Document 2).
上記技術では、単に1つの質問に対して辞書によって特定される1つの回答を行うように設定されている。
入力された音声に対する応答を音声で行わせる音声応答装置において、使用者にとってより使い勝手をよくすることが本発明の一側面である。
In the above technology, only one question is set to make one answer specified by the dictionary.
It is an aspect of the present invention to make it easier for the user to use a voice response device that makes voice responses to input voice.
第1局面の発明は、
入力された音声に対する応答を音声で行わせる音声応答装置であって、
入力された音声の特徴を記録する音声特徴記録部と、
入力された音声の特徴が以前に前記音声特徴記録部により記録された音声の特徴と一致するか否かを判定する音声一致判定部と、
前記音声一致判定部により音声の特徴が一致しないと判定された場合、音声の特徴が一致すると判定された場合とは異なる応答を出力させる音声出力部と、
を備えたことを特徴とする。
The invention of the first aspect is
A voice response device for making a voice response to input voice
A voice feature recording unit that records features of the input voice;
A voice match determination unit that determines whether the features of the input voice match the features of the voice previously recorded by the voice feature recording unit;
A voice output unit that outputs a response different from that in the case where it is determined that the voice features do not match if the voice match determination unit determines that the voice features do not match;
It is characterized by having.
このような音声応答装置によれば、音声を入力した人物が以前と異なる場合には、音声を入力した人物が以前と同様の場合とは異なる応答を返すことができる。よって、音声を入力した人物が以前と同じか否かに拘わらず同様の回答をする場合と比較して、使用者にとってより使い勝手をよくすることができる。 According to such a voice response device, when the person who has input the voice is different from before, it is possible to return a different response from the case where the person who has input the voice is the same as before. Therefore, it is possible to improve usability for the user as compared with the case where the person who has input the voice makes the same answer regardless of whether the person is the same as before.
ところで、上記音声応答装置においては、第2局面の発明のように、
入力された音声の特徴に基づいて音声を入力した人物を特定する人物特定部と、
入力された音声に従って被制御部を制御する制御部と、を備え、
前記制御部は、異なる人物から矛盾する指示を受けると予め人物毎に設定された優先順位に従って前記優先順位の上位の者による指示を優先して制御を実施するようにしてもよい。
By the way, in the above voice response apparatus, as in the invention of the second aspect,
A person specifying unit for specifying a person who has input a voice based on the feature of the input voice;
A control unit that controls the controlled unit in accordance with the input voice;
When the control unit receives an instruction contradicting from a different person, control may be performed by giving priority to an instruction by a person higher in priority according to the priority order set in advance for each person.
このような音声応答装置によれば、異なる人物から矛盾する指示を受けた場合であったとしても、優先順位に従って被制御部に対する制御を実施することができる。
なお、矛盾する指示を受けた場合に、音声による応答で矛盾を指摘する、或いは、代替案を提示するようにしてもよい。この際、代替案を提示する場合には、天候などを加味した応答を出力してもよい。
According to such a voice response device, even if a contradictory instruction is received from a different person, it is possible to control the controlled unit according to the priority.
In addition, in the case of receiving a contradictory instruction, a voice response may be used to point out the contradiction or present an alternative. At this time, when presenting an alternative, a response may be output in consideration of the weather and the like.
さらに、上記音声応答装置においては、第3局面の発明のように、
入力された音声の特徴に基づいて音声を入力した人物を特定する人物特定部と、
入力された音声に基づくスケジュールを前記人物毎に記録するスケジュール記録部と、を備えていてもよい。
Furthermore, in the voice response device, as in the invention of the third aspect,
A person specifying unit for specifying a person who has input a voice based on the feature of the input voice;
And a schedule recording unit configured to record a schedule based on the input voice for each of the persons.
このような音声応答装置によれば、人物毎にスケジュールを管理することができる。
なお、本発明において人物特定部を除き、スケジュール記録部を第2局面に係る発明に従属させることができる。また、本発明においては、予定の属性に応じて予定の優先度を変更してもよい。予定の属性とは、例えば、変更できるか否か(相手への影響があるかどうか)などによって区分される。
According to such a voice response device, a schedule can be managed for each person.
In the present invention, the schedule recording unit can be subordinate to the invention according to the second aspect except for the person specifying unit. In the present invention, the priority of the schedule may be changed according to the attribute of the schedule. The scheduled attributes are classified, for example, according to whether or not they can be changed (whether or not there is an influence on the other party).
予定属性によって先に登録されたスケジュールを変更したり、後から登録されるスケジュールを空いている時間に登録したりすればよい。また、スケジュールを登録する際には、前のスケジュールの場所と後のスケジュールの場所とを考慮し、これらの間を移動するための時間を検索し、これらの間を移動するための移動時間を考慮して後から登録されるスケジュールを登録するようにしてもよい。 The schedule registered earlier according to the schedule attribute may be changed, or the schedule registered later may be registered at a vacant time. Also, when registering a schedule, consider the location of the previous schedule and the location of the later schedule, search for the time to move between them, and search for the time to move between them. A schedule to be registered later may be registered in consideration of it.
また、当該装置が管理する複数の人物が打ち合わせを行う場合のように、同じスケジュール(予定が実施される時間帯)を複数の人物が共有する場合には、これらの複数の人物のスケジュールが空いている時間帯を検索し、この時間に打ち合わせを設定するようにしてもよい。また、空いている時間帯がない場合には、予定属性に応じて既に登録されているスケジュールを変更するようにしてもよい。 In addition, when a plurality of persons share the same schedule (time zone in which a schedule is to be implemented), as in the case where a plurality of persons managed by the device make a meeting, the schedules of the plurality of persons are vacant. It is also possible to search for the time zone in which you are working and set up a meeting at this time. In addition, when there is no vacant time zone, the already registered schedule may be changed according to the schedule attribute.
このようにスケジュールを変更する際には、その旨を音声の応答として出力することが好ましい。
また、上記音声応答装置においては、第4局面の発明のように、入力された音声が聞き取れない場合(つまり、文字に変換したときに文章として誤りがあると推定できる場合)に所定の連絡先に問い合わせるようにしてもよい。この際、位置情報を利用して問い合わせ元や問い合わせ先を特定するようにしてもよい。
When changing the schedule in this way, it is preferable to output that effect as a voice response.
Further, in the voice response device, as in the invention of the fourth aspect, the predetermined contact can not be heard if the input voice can not be heard (that is, if it can be estimated that there is an error as a sentence when converted into characters) You may ask to At this time, the inquiry source and the inquiry destination may be specified by using the position information.
このような音声応答装置によれば、例えば、子供が話す内容が聞き取れない場合、母親に問い合わせることや、老人が話す内容が聞き取れない場合、その老人の家族に問い合わせることによって、正しい内容を他の者から入力させることができるので、入力された音声の正確性に担保することができる。 According to such a voice response device, for example, when the content that the child speaks can not be heard, the correct content is referred to by inquiring the mother, or when the content that the elderly person speaks can not be heard, by asking the family of the elderly person. It is possible to secure the accuracy of the input voice because it can be input from the
さらに、上記音声応答装置においては、第5局面の発明のように、予め使用者(音声を入力した者)の年齢または年齢層を示す年齢情報に応じて準備された複数のデータベースを備えておき、使用者の年齢情報に従って使用するデータベースを選択し、この選択したデータベースに従って音声を認識するようにしてもよい。 Furthermore, in the voice response device, as in the invention of the fifth aspect, the voice response device is provided with a plurality of databases prepared in advance according to age information indicating the age or age group of the user (the person who input the voice). Alternatively, a database to be used may be selected according to the user's age information, and speech may be recognized according to the selected database.
このような音声応答装置によれば、年齢に応じて音声認識の際に参照するデータベースを変更するので、年齢に応じて使用頻度が高い単語、言葉の言い回しなどを登録しておけば、音声認識の精度を向上させることができる。 According to such a voice response device, the database to be referred to at the time of voice recognition is changed according to the age. Therefore, if words and phrases used frequently according to the age are registered, the voice recognition is performed. Accuracy can be improved.
また、上記音声応答装置においては、第6局面の発明のように、使用者(音声を入力した者)の年齢を推定し、推定した年齢を年齢情報として利用してもよい。
使用者の年齢を推定する際には、例えば、入力された音声の特徴(声の波形、声の高さ等)に応じて推定してもよいし、使用者が音声を入力する際にカメラ等の撮像部によって使用者の顔を撮像することによって推定してもよい。
In the voice response apparatus, as in the invention of the sixth aspect, the age of the user (the person who has input the voice) may be estimated, and the estimated age may be used as age information.
When the user's age is to be estimated, for example, it may be estimated according to the characteristics of the input voice (voice waveform, voice height, etc.), or the camera when the user inputs voice. It may estimate by imaging a user's face by an imaging part, such as.
また、使用者の顔を撮像する際には、使用者の識別や年齢認証を行ってもよい。
さらに、現金自動支払機等の対面型の装置に本発明を適用してもよい。この場合、本発明を用いて年齢の認証などの本人確認を行うことができる。
In addition, when imaging the face of the user, identification of the user or age authentication may be performed.
Furthermore, the present invention may be applied to a face-to-face device such as a cash dispenser. In this case, identity verification such as age verification can be performed using the present invention.
また、本発明を車両に適用してもよい。この場合、人物を特定する構成を車両の鍵に代わる構成として利用することができる。
なお、上記発明は音声応答装置として説明したが、入力された音声を認識する構成を備えた音声認識装置として構成してもよい。また、各局面の発明は、他の発明を前提とする必要はなく、可能な限り独立した発明とすることができる。
In addition, the present invention may be applied to a vehicle. In this case, the configuration for identifying a person can be used as an alternative to the key of the vehicle.
Although the above-mentioned invention was explained as a voice response device, it may be constituted as a voice recognition device provided with the composition which recognizes the inputted voice. In addition, the invention of each aspect does not have to be premised on other inventions, and can be independent inventions as much as possible.
以下に本発明にかかる実施の形態を図面と共に説明する。
[本実施形態の構成]
本発明が適用された音声応答システム100は、端末装置1において入力された音声に対して、サーバ90にて適切な応答を生成し、端末装置1で応答を音声で出力するよう構成されたシステムである。また、入力された音声に指令が含まれている場合に、対象となる装置(被制御部95)に対して制御指令を出力する。さらに、使用者のスケジュールを管理する機能も有する。
Embodiments of the present invention will be described below with reference to the drawings.
[Configuration of this embodiment]
The
詳細には、図1に示すように、音声応答システム100は、複数の端末装置1や車両に搭載されたエアコン等の各種機器(被制御部95)とサーバ90とが通信基地局80、81やインターネット網85を介して互いに通信可能に構成されている。なお、端末装置1は他の端末装置1や被制御部95と直接通信を行うよう構成されていてもよい。
In detail, as shown in FIG. 1, in the
サーバ90は、通常のサーバ装置としての機能を備えている。特にサーバ90は、演算部101と、各種データベース(DB)とを備えている。演算部101は、CPUと、ROM、RAM等のメモリを備えた周知の演算装置として構成されており、メモリ内のプログラムに基づいて、インターネット網85を介した端末装置1等との通信や、各種DB内のデータの読み書き、或いは、端末装置1を利用する使用者との会話を行うための音声認識や応答生成といった各種処理を実施する。
The
各種DBとしては、図1に示すように、音声認識DB102、予測変換DB103、音声DB104、応答候補DB105、性格DB106、学習DB107、嗜好DB108、ニュースDB109、天気DB110、優先順位DB111、スケジュールDB112、端末情報DB113、感情判定DB114、健康判定DB115、通報先DB117等を備えている。なお、これらのDBの詳細については、処理の説明の都度述べることにする。
As various DBs, as shown in FIG. 1,
次に、端末装置1は、図2に示すように、行動センサユニット10と、通信部50と、報知部60と、操作部70と、が所定の筐体に備えられて構成されている。
行動センサユニット10は、周知のMPU31(マイクロプロセッサユニット)、ROM、RAM等のメモリ39、および各種センサを備えており、MPU31は各種センサを構成するセンサ素子が検査対象(湿度、風速等)を良好に検出することができるように、例えば、センサ素子の温度に最適化するためのヒータを駆動させる等の処理を行う。
Next, as shown in FIG. 2, the terminal device 1 is configured such that the
The
行動センサユニット10は、各種センサとして、3次元加速度センサ11(3DGセンサ)と、3軸ジャイロセンサ13と、筐体の背面に配置された温度センサ15と、筐体の背面に配置された湿度センサ17と、筐体の正面に配置された温度センサ19と、筐体の正面に配置された湿度センサ21と、筐体の正面に配置された照度センサ23と、筐体の背面に配置された濡れセンサ25と、端末装置1の現在地を検出するGPS受信機27と、風速センサ29とを備えている。
The
また、行動センサユニット10は、各種センサとして、心電センサ33、心音センサ35、マイク37、カメラ41も備えている。なお、各温度センサ15,19、および各湿度センサ17,21は、筐体の外部空気の温度または湿度を検査対象として測定を行う。
The
3次元加速度センサ11は、端末装置1に加えられる互いに直交する3方向(鉛直方向(Z方向)、筐体の幅方向(Y方向)、および筐体の厚み方向(X方向))における加速度を検出し、この検出結果を出力する。 The three-dimensional acceleration sensor 11 receives accelerations applied to the terminal device 1 in three mutually orthogonal directions (vertical direction (Z direction), width direction of the case (Y direction), and thickness direction of the case (X direction)). Detect and output this detection result.
3軸ジャイロセンサ13は、端末装置1に加えられる角速度として、鉛直方向(Z方向)と、該鉛直方向とは直交する任意の2方向(筐体の幅方向(Y方向)、および筐体の厚み方向(X方向))における角加速度(各方向における左回りの各速度を正とする)を検出し、この検出結果を出力する。 The triaxial gyro sensor 13 has an angular velocity applied to the terminal device 1 in the vertical direction (Z direction) and in any two directions orthogonal to the vertical direction (the width direction of the housing (Y direction) and the housing The angular acceleration in the thickness direction (X direction) (each counterclockwise velocity in each direction is made positive) is detected, and the detection result is output.
温度センサ15,19は、例えば温度に応じて電気抵抗が変化するサーミスタ素子を備えて構成されている。なお、本実施例においては、温度センサ15,19は摂氏温度を検出し、以下の説明に記載する温度表示は全て摂氏温度で行うものとする。
The
湿度センサ17,21は、例えば周知の高分子膜湿度センサとして構成されている。この高分子膜湿度センサは、相対湿度の変化に応じて高分子膜に含まれる水分の量が変化し、誘電率が変化するコンデンサとして構成されている。
The
照度センサ23は、例えばフォトトランジスタを備えた周知の照度センサとして構成さ
れている。
風速センサ29は、例えば周知の風速センサであって、ヒータ温度を所定温度に維持する際に必要な電力(放熱量)から風速を算出する。
The
The
心音センサ35は、使用者の心臓の拍動による振動を捉える振動センサとして構成されており、MPU31は心音センサ35による検出結果とマイク37から入力される心音とを鑑みて、拍動による振動や騒音と、他の振動や騒音とを識別する。
The
濡れセンサ25は筐体表面の水滴を検出し、心電センサ33は使用者の鼓動を検出する。
カメラ41は、端末装置1の筐体内において、端末装置1の外部を撮像範囲とするように配置されている。特に、本実施形態においては、端末装置1の使用者を撮像可能な位置にカメラ41が配置されている。
The
The
通信部50は、周知のMPU51と、無線電話ユニット53と、連絡先メモリ55と、を備え、図示しない入出力インターフェイスを介して行動センサユニット10を構成する各種センサからの検出信号を取得可能に構成されている。そして、通信部50のMPU51は、この行動センサユニット10による検出結果や、操作部70を介して入力される入力信号、ROM(図示省略)に格納されたプログラムに応じた処理を実行する。
The
具体的には、通信部50のMPU51は、使用者が行う特定の動作を検出する動作検出装置としての機能、使用者との位置関係を検出する位置関係検出装置としての機能、使用者により行われる運動の負荷を検出する運動負荷検出装置としての機能、およびMPU51による処理結果を送信する機能を実行する。
Specifically, the
無線電話ユニット53は、例えば携帯電話の基地局と通信可能に構成されており、通信部50のMPU51は、該MPU51による処理結果を報知部60に対して出力したり、無線電話ユニット53を介して予め設定された送信先(連絡先メモリ55に記録された連絡先)に対して送信したりする。
The
連絡先メモリ55は、使用者の訪問先の位置情報を記憶するための記憶領域として機能する。この連絡先メモリ55には、使用者に異常が生じた場合に連絡をすべき連絡先(電話番号など)の情報が記録されている。
The
報知部60は、例えば、LCDや有機ELディスプレイとして構成されたディスプレイ61と、例えば7色に発光可能なLEDからなる電飾63と、スピーカ65とを備えている。報知部60を構成する各部は、通信部50のMPU51により駆動制御される。
The
次に、操作部70としては、タッチパッド71と、確認ボタン73と、指紋センサ75と、救援依頼レバー77とを備えている。
タッチパッド71は、使用者(使用者や使用者の保護者等)により触れられた位置や圧力に応じた信号を出力する。
Next, the
The
確認ボタン73は、使用者に押下されると内蔵されたスイッチの接点が閉じるように構成されており、通信部50にて確認ボタン73が押下されたことを検出することができるようにされている。
The
指紋センサ75は、周知の指紋センサであって、例えば、光学式センサを用いて指紋を読みとることができるよう構成されている。なお、指紋センサ75に換えて、例えば掌の静脈の形状を認識するセンサ等、人間の身体的特徴を認識することができる手段(バイオ
メトリクス認証をすることができる手段:個人を特定することができる手段)であれば、採用することができる。
The
また、操作されると所定の連絡先に接続される救援依頼レバー77も備えている。
[本実施形態の処理]
このような音声応答システム100において実施される処理について以下に説明する。
It also has a
[Process of this embodiment]
The process implemented in such a
端末装置1にて実施される音声応答端末処理は、使用者による音声入力を受付けてこの音声をサーバ90に送り、サーバ90から出力すべき応答を受けるとこの応答を音声で再生する処理である。なお、この処理は、使用者が操作部70を介して音声入力を行う旨を入力すると開始される。
The voice response terminal process implemented in the terminal device 1 is a process of receiving a voice input by the user and sending this voice to the
詳細には、図3に示すように、まず、マイク37からの入力を受け付ける状態(ON状態)とし(S2)、カメラ41による撮像(録画)を開始する(S4)。そして、音声入力があったか否かを判定する(S6)。
Specifically, as shown in FIG. 3, first, the input from the
音声入力がなければ(S6:NO)、タイムアウトしたか否かを判定する(S8)。ここで、タイムアウトとは、処理を待機する際の許容時間を超えたことを示し、ここでは許容時間は例えば5秒程度に設定される。 If there is no voice input (S6: NO), it is determined whether or not a timeout has occurred (S8). Here, the timeout indicates that the allowable time for waiting for processing has exceeded, and in this case, the allowable time is set to, for example, about 5 seconds.
タイムアウトしていれば(S8:YES)、後述するS30の処理に移行する。また、タイムアウトしていなければ(S8:NO)、S6の処理に戻る。
音声入力があれば(S6:YES)、音声をメモリに記録し(S10)、音声の入力が終了したか否かを判定する(S12)。ここでは、音声が一定時間以上途切れた場合や、操作部70を介して音声入力を終了する旨が入力された場合に、音声の入力が終了したと判定する。
If it has timed out (S8: YES), it will shift to the processing of S30 mentioned later. Moreover, if it has not timed out (S8: NO), it will return to the process of S6.
If there is a voice input (S6: YES), the voice is recorded in the memory (S10), and it is determined whether the voice input is completed (S12). Here, when the voice is interrupted for a predetermined time or more, or when it is input that the voice input is to be terminated through the
音声の入力が終了していなければ(S12:NO)、S10の処理に戻る。また、音声の入力が終了していれば(S12:YES)、自身を特定するためのID、音声、および撮像画像等のデータをサーバ90に対してパケット送信する(S14)。なお、データを送信する処理は、S10とS12の間で行ってもよい。
If the voice input is not completed (S12: NO), the process returns to S10. If the voice input is completed (S12: YES), data such as an ID for identifying itself, voice, and a captured image are transmitted to the
続いて、データの送信が完了したか否かを判定する(S16)。送信が完了していなければ(S16:NO)、S14の処理に戻る。
また、送信が完了していれば(S16:YES)、後述する音声応答サーバ処理にて送信されるデータ(パケット)を受信したか否かを判定する(S18)。データを受信していなければ(S18:NO)、タイムアウトしたか否かを判定する(S20)。
Subsequently, it is determined whether transmission of data is completed (S16). If the transmission is not completed (S16: NO), the process returns to S14.
If the transmission is completed (S16: YES), it is determined whether the data (packet) to be transmitted in the voice response server process described later has been received (S18). If the data has not been received (S18: NO), it is determined whether or not a timeout has occurred (S20).
タイムアウトしていれば(S20:YES)、後述するS30の処理に移行する。また、タイムアウトしていなければ(S20:NO)、S18の処理に戻る。
また、データを受信していれば(S18:YES)、パケットを受信する(S22)。この処理では、文字情報に対する応答を取得する。
If it has timed out (S20: YES), the process proceeds to the process of S30 described later. Moreover, if it has not timed out (S20: NO), it will return to the process of S18.
If data is received (S18: YES), a packet is received (S22). In this process, a response to character information is acquired.
そして、受信が完了したか否かを判定する(S24)。受信が完了していなければ(S24:NO)、タイムアウトしたか否かを判定する(S26)。
タイムアウトしていれば(S26:YES)、エラーが発生した旨を報知部60を介して出力し、音声応答端末処理を終了する。また、タイムアウトしていなければ(S26:NO)、S22の処理に戻る。
Then, it is determined whether the reception is completed (S24). If the reception has not been completed (S24: NO), it is determined whether or not a timeout has occurred (S26).
If it has timed out (S26: YES), the
また、受信が完了していれば(S24:YES)、受信したパケットに基づく応答を音
声でスピーカ65から出力させる(S28)。このような処理が終了すると、音声応答端末処理を終了する。
If the reception is completed (S24: YES), the response based on the received packet is output from the
続いて、サーバ90(外部装置)にて実施される音声応答サーバ処理について図4を用いて説明する。音声応答サーバ処理は、端末装置1から音声を受信し、この音声を文字情報に変換する音声認識を行うとともに、音声に対する応答を生成して端末装置1に返す処理である。 Subsequently, a voice response server process performed by the server 90 (external device) will be described with reference to FIG. The voice response server process is a process of receiving a voice from the terminal device 1, performing voice recognition for converting the voice into character information, and generating a response to the voice and returning it to the terminal device 1.
音声応答サーバ処理の詳細としては、図4(および図5)に示すように、まず、何れかの端末装置1からのパケットを受信したか否かを判定する(S42)。パケットを受信していなければ(S42:NO)、S42の処理を繰り返す。 As the details of the voice response server process, as shown in FIG. 4 (and FIG. 5), first, it is determined whether or not a packet from any of the terminal devices 1 has been received (S42). If a packet has not been received (S42: NO), the process of S42 is repeated.
また、パケットを受信していれば(S42:YES)、通信相手の端末装置1を特定する(S44)。この処理では、パケットに含まれる端末装置1のIDによって端末装置1を特定する。 If the packet is received (S42: YES), the terminal device 1 of the communication partner is specified (S44). In this process, the terminal device 1 is identified by the ID of the terminal device 1 contained in the packet.
続いて、パケットに含まれるカメラ41による撮像画像を取得し(S70)、パケットに含まれる音声の特徴を検出する(S72)。この処理では、音声波形の特徴(声紋)や音の高低などの特徴を検出する。
Subsequently, an image captured by the
続いて、使用者を撮像した撮像画像や音声の特徴から音声を入力した者の年齢層を特定する(S74)。この処理では、音声の特徴と年齢層との傾向を予め音声認識DB102に格納しておき、この音声認識DB102を参照することで年齢層を特定する。また、撮像画像から使用者の年齢を推定する周知の技術を併用する。
Subsequently, the age group of the person who has input the voice is specified from the features of the captured image and the voice obtained by imaging the user (S74). In this process, the tendency of the voice feature and the age group is stored in advance in the
次に、これらの音声の特徴から人物を特定する(S76)。ここで、音声認識DB102には、人物毎の音声の特徴が人物の名前と対応して予め記憶されており、この処理では、この音声認識DB102を参照することによって人物を特定する。
Next, a person is specified from these voice features (S76). Here, in the
なお、各人物の音声の特徴を記録する際には、例えば、名前のみを音声や文字で使用者に入力させ、名前が入力されたときや、その後の音声入力のときに、音声特徴を捉えて記録するようにすればよい。また、画像による本人認証の技術を本実施形態において併用してもよい。 When recording the characteristics of each person's voice, for example, only the name is input by the user as voice or characters, and the voice feature is captured when the name is input or when voice input is performed thereafter. Recording should be done. In addition, the technique of personal identification by an image may be used in the present embodiment.
続いて、この音声や検出した音声特徴を音声認識DB102に記録し(S78)、音声認識を行う際に利用するデータベースを選択する(S80)。ここで、音声認識DB102には、図6Aに示すように、4歳までを対象にした幼児DB、5歳から10歳までを対象とした子供DB、10代(10歳〜19歳)を対象とした若年DB、20代(20歳〜29歳)を対象とした青年DB、30〜50代(30歳〜59歳)を対象とした中年DB、60代以上を対象として壮年DBを備えている。
Subsequently, the voice and the detected voice feature are recorded in the voice recognition DB 102 (S78), and a database to be used when performing voice recognition is selected (S80). Here, as shown in FIG. 6A, the
各DBには、音声を文字として認識するための、音声の波形と文字(音または単語)とを対応付ける辞書データベースを備えている。そして、各DBでは、年齢層毎に、使用者の喋り方(音声特徴の傾向)や、年齢層に使用される傾向がある単語などが、異なる情報として記録されている。 Each DB is provided with a dictionary database that associates speech waveforms with letters (sounds or words) for recognizing speech as letters. Then, in each DB, the manner in which the user speaks (the tendency of the audio feature), the word having a tendency to be used for the age group, and the like are recorded as different information for each age group.
特に、各DBは、若い年齢ほど使用される年齢幅が狭く設定されている。このようにしているのは、若い年齢ほど喋り方の変化や、新たな単語の創造能力が高く、これらの変化に直ちに対応できるようにするためである。 In particular, in each DB, the age range to be used is set narrower as the younger age. The reason for this is that the younger the age, the more likely you are to change the manner in which you speak and the ability to create new words so that you can respond immediately to these changes.
S80の処理では、推定した使用者の年齢に応じて年齢層に合致する1つのデータベース(図6Aに示すもののうちの何れか)を選択し、設定する。続いて、パケットに含まれる音声を認識する(S46)。 In the process of S80, one database (any of those shown in FIG. 6A) matching the age group is selected and set according to the estimated user age. Subsequently, the voice contained in the packet is recognized (S46).
ここで、予測変換DB103には、ある単語に続いて利用されがちな単語が対応付けられている。この処理では、音声認識DB102のうちの選択されたデータベースおよび予測変換DB103を参照することで、周知の音声認識処理を実施し、音声を文字情報に変換する。
Here, in the
続いて、撮像画像を画像処理することによって、撮像画像中の物体を特定する(S48)。そして、音声の波形や言葉の語尾などに基づいて、使用者の感情を判定する(S50)。 Subsequently, an object in the captured image is specified by performing image processing on the captured image (S48). Then, the emotion of the user is determined based on the waveform of the voice, the ending of the word, etc. (S50).
この処理では、音声の波形(声色)や言葉の語尾などと、通常、怒り、喜び、困惑、悲しみ、高揚などの感情の区分とが対応付けられた感情判定DB114を参照することによって、使用者の感情が何れかの区分に該当するかを判定し、この判定結果をメモリに記録する。続いて、学習DB107を参照することによって、この使用者がよく話す単語を検索し、音声認識にて生成した文字情報が曖昧であった部位を補正する。
In this process, the user refers to the
なお、学習DB107には、使用者がよく話す単語や発音時の癖など、使用者の特徴が使用者ごとに記録されている。また、使用者との会話において学習DB107へのデータの追加・修正がなされる。また、予測変換DB103、感情判定DB104等においても、音声認識DB102同様に、年齢層毎に区分してデータを保持してもよい。
In addition, in the
続いて、補正後の文字情報を入力された文字情報として特定する(S54)。そして、これらの処理の結果、音声を文字情報として認識できたか否かを判定する(S82)。
この処理では、文章として不具合がある場合(例えば、文法的に誤りがある場合など)には、文章が完成していたとしても認識できなかったものとみなす。文字情報として認識できていなければ(S82:NO)、予め通報先DB117に登録された所定の連絡先(端末装置1毎に設定された連絡先)に、所定の音声(例えば、「以下の言葉が認識できませんでした。録音した音声を再生しますので、正しい文章をお話しください。」といった文章)と、使用者が入力した音声とを送信することで、問い合わせを行う(S84)。
Subsequently, the corrected character information is specified as the input character information (S54). Then, as a result of these processes, it is determined whether the voice can be recognized as character information (S82).
In this process, when there is a defect as a sentence (for example, when there is a grammatical error), it is considered that even if the sentence is completed, it can not be recognized. If it can not be recognized as text information (S 82: NO), a predetermined voice (for example, the following words) is sent to a predetermined contact address (contact address set for each terminal device 1) registered in advance in the
この処理は、例えば滑舌の悪い子供が使用者となる場合に、文字情報として認識できない場合、所定の連絡先として登録された母親の端末装置1に問い合わせをしたり、老人が使用者となる場合に、その家族に問い合わせをしたりする。 In this process, for example, when a child having a bad tongue is a user, if it can not be recognized as character information, the mother terminal device 1 registered as a predetermined contact is inquired or an old man becomes a user In that case, ask the family.
続いて、問い合わせ先によって音声が入力されたパケットを受信したか否かを判定する(S86)。パケットを受信していなければ(S86:NO)、この処理を繰り返す。また、パケットを受信していれば(S86:YES)、S54の処理に戻る。 Subsequently, it is determined whether the packet to which the voice has been input by the inquired party has been received (S86). If the packet is not received (S86: NO), this process is repeated. If a packet is received (S86: YES), the process returns to S54.
さらに、S82の処理にて、文字情報として認識できていれば(S82:YES)、文字情報がスケジュールを入力するものであるか否かを判定する(S88)。スケジュールを入力するものでなければ(S88:NO)、後述するS92の処理に移行する。 Further, if the character information can be recognized in the process of S82 (S82: YES), it is determined whether the character information is for inputting a schedule (S88). If the schedule is not to be input (S88: NO), the process proceeds to S92 described later.
また、スケジュールを入力するものであれば(S88:YES)、スケジュールの管理を行うスケジュール入力処理を実施する(S90)。この処理では、図7に示すように、まず、スケジュールを入力する対象となる特定人物のスケジュールを抽出する(S102)。 If the schedule is to be input (S88: YES), schedule input processing is performed to manage the schedule (S90). In this process, as shown in FIG. 7, first, the schedule of the specific person who is the target of inputting the schedule is extracted (S102).
この処理では、図8に示すように、特定人物と時刻とがマトリクス状に配置されたスケジュールデータをスケジュールDB112から抽出し(S102)、入力された予定(時間帯、予定の内容、場所の情報を含むもの)を仮登録する(S104)。 In this process, as shown in FIG. 8, schedule data in which a specific person and time are arranged in a matrix is extracted from the schedule DB 112 (S102), and the input schedule (time zone, schedule content, location information) Is temporarily registered (S104).
続いて、スケジュール(予定)に競合があるか否かを判定する(S106)。例えば、A氏については図8に示すように9月1日の10時から会議の予定が既に登録されているが、この同じ時間に別の予定を入れるよう指示があった場合には、競合ありとして判定する。 Subsequently, it is determined whether there is a conflict in the schedule (schedule) (S106). For example, for Mr. A, as shown in FIG. 8, a meeting schedule has already been registered from 10 o'clock on September 1st, but if it is instructed to put another schedule at this same time, a conflict will occur. Judge as yes.
競合があれば(S106:YES)、後述するS128の処理に移行する。また、競合がなければ(S106:NO)、前後の予定について、予定が実施される場所を抽出する(S108)。 If there is a conflict (S106: YES), the process proceeds to S128 described later. Moreover, if there is no competition (S106: NO), the place where the schedule is implemented is extracted for the schedule before and after (S108).
続いて、前後の予定が実施される時間と場所とを鑑みて、仮登録した予定が実施される場所に移動するまでの移動時間を算出する(S110)。この処理では、例えば周知の乗換案内プログラムを利用して、移動に必要な時間を演算する。例えば、東京の丸の内から名古屋まで移動するには、約2時間の移動時間を必要とされる。 Then, in consideration of the time and place where the schedule before and after is implemented, the movement time until moving to the place where the temporarily registered schedule is implemented is calculated (S110). In this process, the time required for movement is calculated using, for example, a known transfer guidance program. For example, to move from Marunouchi in Tokyo to Nagoya requires approximately 2 hours of travel time.
続いて、仮登録された予定が実施される場所と、前後の予定が実施される場所との移動が可能か否かを判定する(S122)。この処理では、移動に要する時間と空き時間の長さとを比較し、空き時間が長ければ移動可とする。 Subsequently, it is determined whether it is possible to move between the place where the temporarily registered schedule is implemented and the place where the preceding and subsequent schedules are implemented (S122). In this process, the time required for movement is compared with the length of idle time, and if the idle time is long, movement is permitted.
移動が可能であれば(S122:YES)、この予定をスケジュールDB112に本登録し(S124)、登録完了した旨を記録し(S126)、スケジュール入力処理を終了する。 If it is possible to move (S122: YES), this schedule is officially registered in the schedule DB 112 (S124), the fact that the registration is completed is recorded (S126), and the schedule input process is ended.
また、移動が不可能であれば(S122:NO)、前後の予定または仮登録した予定を変更可能か否かを判定する(S128)。ここで、スケジュールDB112に記録される各予定には、予定属性が設定されており、予定属性は、図9に示すように、重要度に応じたレベルが設定されている。例えば、レベルAには、客先とのアポイント(面会の約束)が対応し、予定の変更は不可とされる。
In addition, if the movement is not possible (S122: NO), it is determined whether or not the schedule before or after or the temporarily registered schedule can be changed (S128). Here, for each schedule recorded in the
また、レベルBには、客先以外の例えば社内でのアポイントが対応し、予定の変更は不可とされる。また、レベルCには、私的な用事が対応し、予定の変更が可能とされる。
ここで、本処理では、予定について登録する際(S124の処理の際)には、その内容から予定属性を認識し、予定属性についても登録する。また、仮登録された予定についてはこの処理において予定属性を認識する。
Also, at level B, for example, appointments other than the customer correspond in the company, and it is impossible to change the schedule. Also, at Level C, private events correspond and it is possible to change the schedule.
Here, in the present process, when registering a schedule (in the case of the process of S124), the schedule attribute is recognized from the content, and the schedule attribute is also registered. Also, with regard to temporarily registered schedules, this process recognizes schedule attributes.
前後の予定または仮登録した予定を変更可能であれば(S128:YES)、変更案を提示する(S130)。ここで、変更案とは、変更可能な予定(つまりレベルCに属する予定)を移動させ、競合がなくかつ予定が実施される場所間で使用者(対象者)が移動可能になるような案を提示する。 If it is possible to change the previous or subsequent schedule or the temporarily registered schedule (S128: YES), a proposed change is presented (S130). Here, the proposal for change is to move a changeable schedule (that is, a schedule belonging to level C), and to allow a user (target person) to move between places where there is no conflict and the schedule is implemented. To present.
そして、変更フラグをONに設定し(S132)、スケジュール入力処理を終了する。
また、前後の予定または仮登録した予定を変更可能でなければ(S128:NO)、予定が重複した旨を記録し(S134)、スケジュール入力処理を終了する。
Then, the change flag is set to ON (S132), and the schedule input process is ended.
Also, if it is not possible to change the previous or subsequent schedule or the temporarily registered schedule (S128: NO), the fact that the schedule has been duplicated is recorded (S134), and the schedule input process is ended.
このようなスケジュール入力処理が終了すると、図5に戻り、文字情報が被制御部95を操作するための指令である操作入力であるか否かを判定する(S92)。操作入力でなければ(S92:NO)、後述するS96の処理に移行する。 When such a schedule input process is completed, the process returns to FIG. 5 to determine whether the character information is an operation input that is an instruction for operating the controlled unit 95 (S92). If it is not operation input (S92: NO), it will transfer to the process of S96 mentioned later.
また、操作入力であれば(S92:YES)、操作入力処理を実施する(S94)。この処理は、入力された音声に従って被制御部95の作動を制御する処理である。詳細には、図10に示すように、まず、指令内容を認識する(S202)。指令内容としては、例えば、被制御部95に該当するテレビ受像器の受信チャンネルや音量を変更することや、被制御部95に該当する車両のエアコンの設定温度を1℃高くする、等が該当する。
If it is an operation input (S 92: YES), the operation input processing is performed (S 94). This process is a process of controlling the operation of the controlled
続いて、同じ被制御部95に対する過去の指令(例えば過去所定時間(10分以内など)のもの)があったか否かを判定する(S204)。同じ被制御部95に対する過去の指令がなければ(S204:NO)、後述するS216の処理に移行する。 Subsequently, it is determined whether or not there has been a previous instruction (for example, one in the past predetermined time (for example, within 10 minutes) to the same controlled unit 95) (S204). If there is no past command to the same controlled unit 95 (S204: NO), the process proceeds to the process of S216 described later.
また、同じ被制御部95に対する過去の指令があれば(S204:YES)、この過去の指令を抽出し(S206)、過去の指令との矛盾があるか否かを判定する(S208)。ここで、矛盾とは、例えば、被制御部95に車両のエアコンが該当する場合、設定温度を1℃低くする、という過去の指令があったのに対して、これに相反する、車両のエアコンの設定温度を1℃高くする、という指令が入力された場合等が該当する。
If there is a command in the past for the same controlled unit 95 (S204: YES), the command in the past is extracted (S206), and it is determined whether there is any contradiction with the command in the past (S208). Here, contradiction, for example, when the air conditioner of the vehicle corresponds to the controlled
また、例えば、被制御部95にテレビ受像器が該当する場合、受信チャンネルを変更した直後に、他の受信チャンネルに変更する指令を受けた場合や、音量を変更した直後に、さらに音量を変更する指令が入力された場合等が該当する。
Further, for example, when the television receiver corresponds to the controlled
矛盾がなければ(S208:NO)、S216の処理に移行する。また、矛盾があった場合には(S208:YES)、矛盾する指令を入力した者が一致するか否かを判定する(S210)。矛盾する指令を入力した者が一致しない場合には(S210:NO)、これらの矛盾する指令を入力した者についての優先順位を取得する(S212)。 If there is no contradiction (S208: NO), the process proceeds to S216. In addition, when there is a contradiction (S208: YES), it is determined whether or not the person who has input the contradictory command matches (S210). If the person who inputs the contradictory command does not match (S210: NO), the priority order of the person who has input these contradictory commands is acquired (S212).
ここで、優先順位DB111には、図6Bに示すように、人物と優先順位とが対応付けて記録されている。例えば、A氏とB氏とが矛盾する指令をそれぞれ入力した場合には、A氏の1位とB氏の4位とが優先順位DB111から取得される。
Here, in the
続いて、優先順位が最も高いものからの指令を設定する。例えば、優先順位が1位のA氏が「車両のエアコンの設定温度を1℃高くする」旨を指令し、優先順位が4位のB氏が「車両のエアコンの設定温度を1℃低くする」旨を指令した場合には、A氏の指令が適用され、B氏の指令は無効になる。 Subsequently, the instruction from the one with the highest priority is set. For example, Mr. A, who has the first priority, gives a command to "increase the air conditioner setting temperature of the vehicle by 1 ° C." and Mr. B, who has the fourth priority, decreases the setting temperature of the vehicle air conditioner by 1 ° C. If the command is issued, Mr. A's directive is applied and Mr. B's directive becomes invalid.
そして、設定された指令を被制御部95に送信し(S218)、操作入力処理を終了する。また、S210の処理にて、矛盾する指令を入力した者が一致する場合には(S210:YES)、直近に入力された指令を設定し(S216)、前述のS218の処理を実施し、操作入力処理を終了する。 Then, the set command is transmitted to the controlled unit 95 (S218), and the operation input process is ended. If the person who inputs the contradictory command matches in the process of S210 (S210: YES), the most recently input command is set (S216), the process of S218 described above is performed, and the operation is performed. End input processing.
このような操作入力処理が終了すると、図5に戻り、変更フラグがONに設定されているか否かを判定する(S96)。変更フラグがOFFであれば(S96:NO)、後述するS56の処理に移行する。 When such an operation input process is completed, the process returns to FIG. 5, and it is determined whether the change flag is set to ON (S96). If the change flag is OFF (S96: NO), the process proceeds to S56 described later.
また、変更フラグがONであれば(S96:YES)、変更確認処理を実施する(S98)。変更確認処理は、スケジュールの変更案を提示した際に、提示した変更案のようにスケジュールを変更してもよいか、使用者の意思を確認する処理である。 If the change flag is ON (S96: YES), a change confirmation process is performed (S98). The change confirmation process is a process of confirming the user's intention whether the schedule may be changed like the proposed change, when the proposed change of the schedule is presented.
変更確認処理では、図11に示すように、まず、変更案に対する回答があったか否かを判定する(S402)。変更案に対する回答がなければ(S402:NO)、本予定につ
いての登録が完了したか否かを判定する(S404)。つまり、使用者自身が予定の入力をやり直すなどして、登録が完了しているかどうかを判定する。
In the change confirmation process, as shown in FIG. 11, first, it is determined whether or not there is an answer to the proposed change (S402). If there is no response to the proposed change (S402: NO), it is determined whether the registration for this schedule has been completed (S404). In other words, it is determined whether the registration has been completed by, for example, the user re-entering the schedule.
本予定についての登録が完了していれば(S404:YES)、変更フラグをOFFに設定し(S412)、変更確認処理を終了する。また、本予定についての登録が完了していれば(S404:NO)、変更確認処理を終了する。 If the registration for this schedule has been completed (S404: YES), the change flag is set to OFF (S412), and the change confirmation process is ended. If the registration for this schedule has been completed (S404: NO), the change confirmation process is ended.
また、S402の処理において、変更案に対する回答があれば(S402:YES)、例えば、「それでいいよ」など、変更案通りでよい旨の回答が得られたか否かを判定する(S406)。変更案通りでよい旨の回答が得られていれば(S406:YES)、提示した変更案をスケジュールとして登録し(S408)、登録完了を記録する(S410)。そして、前述のS412の処理を実施し、変更確認処理を終了する。 Further, in the process of S402, if there is an answer to the proposed change (S402: YES), for example, it is determined whether or not an answer indicating that the proposed change is acceptable is obtained (S406). If the answer indicating that the proposed change is acceptable is obtained (S406: YES), the presented proposed change is registered as a schedule (S408), and the registration completion is recorded (S410). Then, the process of S412 described above is performed, and the change confirmation process is ended.
例えば、「それじゃダメ」など、変更案通りではよくない旨の回答が得られていれば(S406:NO)、別の変更案を提示し(S414)、変更確認処理を終了する。
このような変更確認処理が終了すると、図5に戻り、文字情報に類似する文章を入力として応答候補DB105から検索することによって、応答候補DB105から応答を取得する(S56)。ここで、応答候補DB105には、入力となる文字情報と応答となる出力とが一義に対応付けられている。
For example, if an answer indicating that it is not good according to the proposed change is obtained (S406: NO), another proposed change is presented (S414), and the change confirmation process is ended.
When such a change confirmation process is completed, the process returns to FIG. 5, and a response is obtained from the
例えば、スケジュールが入力された場合において、登録が完了した場合には、「登録が完了しました。」などの応答が出力され、予定が重複した旨が記録された場合には、「予定が重複しています」などの応答が出力される。また、変更フラグがONにされた場合には、「この予定では前後の予定を考慮すると移動ができません。・・・のようにしてはいかがですか。」などと、生成した変更案に関する応答が出力される。 For example, when a schedule is input, when registration is completed, a response such as “registration completed.” Is output, and when it is recorded that a schedule is duplicated, “a schedule is duplicated”. Response is output. In addition, when the change flag is turned on, the response to the generated change proposal is such as "This move is not possible considering the schedule before and after this schedule ... ... How is it like?" It is output.
また、指令が入力され、指示通りに制御を行う場合には、「了解しました」などの応答が出力され、指示通りに制御できない場合には、「指示が矛盾しています」などの応答が出力される。 If a command is input and control is performed as instructed, a response such as "OK" is output, and if control can not be performed as instructed, a response such as "Inconsistent instructions" It is output.
また、「今日の※の天気」という文字情報が入力されると、「今日の※の天気は※です」という音声が出力される。ただし、「※」の部分は、地域名とその地域での数日間の天気予報とが対応付けられた天気DB110にアクセスすることで取得される。
Also, when the text information "Today's ※ weather" is input, a voice "Today's ※ weather is ※" is output. However, the part “※” is acquired by accessing the
続いて、応答内容を音声に変換する(S62)。この処理では、音声DB104に格納されたデータベースに基づいて、応答内容(文字情報)を音声として出力する処理を行う。
Subsequently, the response content is converted into voice (S62). In this process, based on the database stored in the
そして、生成した応答(音声)を通信相手の端末装置1にパケット送信する(S64)。なお、応答内容の音声を生成しつつパケット送信してもよい。
続いて、会話内容を記録する(S68)。この処理では、入力された文字情報と出力された応答内容を会話内容として学習DB107に記録する。この際、会話内容に含まれるキーワード(音声認識DB102に記録された単語)や発音時の特徴などを学習DB107に記録する。
Then, the generated response (voice) is transmitted as a packet to the terminal device 1 of the communication partner (S64). The packet may be transmitted while generating the voice of the response content.
Subsequently, the contents of the conversation are recorded (S68). In this process, the input character information and the output response content are recorded in the
このような処理が終了すると、音声応答サーバ処理を終了する。
[本実施形態による効果]
以上のように詳述した音声応答システム100において、サーバ90(演算部101)は、入力された音声の特徴を記録し、入力された音声の特徴が以前に記録された音声の特徴と一致するか否かを判定する。そして、サーバ90は、音声の特徴が一致しないと判定
した場合、音声の特徴が一致すると判定した場合とは異なる応答を出力させる。
When such processing ends, the voice response server processing ends.
[Effect by this embodiment]
In the
このような音声応答システム100によれば、音声を入力した人物が以前と異なる場合には、音声を入力した人物が以前と同様の場合とは異なる応答を返すことができる。よって、音声を入力した人物が以前と同じか否かに拘わらず同様の回答をする場合と比較して、使用者にとってより使い勝手をよくすることができる。
According to such a
また、上記音声応答システム100においてサーバ90は、入力された音声の特徴に基づいて音声を入力した人物を特定し、入力された音声に従って被制御部95を制御する。このとき、サーバ90は、異なる人物から矛盾する指示を受けると予め人物毎に設定された優先順位に従って優先順位の上位の者による指示を優先して制御を実施する。
Further, in the
このような音声応答システム100によれば、異なる人物から矛盾する指示を受けた場合であったとしても、優先順位に従って被制御部95に対する制御を実施することができる。
According to such a
さらに、上記音声応答システム100においてサーバ90は、入力された音声に基づくスケジュールを人物毎に記録する。
このような音声応答システム100によれば、人物毎にスケジュールを管理することができる。
Furthermore, in the
According to such a
また、上記音声応答システム100においてサーバ90は、予定の属性に応じて予定の優先度を変更する。ここで、予定の属性とは、例えば、変更できるか否か(相手への影響があるかどうか)などによって区分される。
Also, in the
そして、予定属性によって先に登録されたスケジュールを変更したり、後から登録されるスケジュールを空いている時間に登録したりする。また、スケジュールを登録する際には、前のスケジュールの場所と後のスケジュールの場所とを考慮し、これらの間を移動するための時間を検索し、これらの間を移動するための移動時間を考慮して後から登録されるスケジュールを登録する。 Then, the schedule registered earlier according to the schedule attribute is changed, or the schedule registered later is registered as the vacant time. Also, when registering a schedule, consider the location of the previous schedule and the location of the later schedule, search for the time to move between them, and search for the time to move between them. Register the schedule to be registered later in consideration.
また、上記音声応答システム100においてサーバ90は、当該システム100が管理する複数の人物が打ち合わせを行う場合のように、同じスケジュールを複数の人物が共有する場合には、これらの複数の人物のスケジュールが空いている時間帯を検索し、この時間に打ち合わせを設定する。また、スケジュールが空いていない場合には、予定属性に応じて既に登録されているスケジュールを変更する。
Further, in the
このような音声応答システムによれば、より使い勝手をよくすることができる。
さらに、上記音声応答システム100においてサーバ90は、このようにスケジュールを変更する際には、その旨を音声の応答として出力する。このような音声応答システムによれば、スケジュールを変更する際に、使用者に確認を取ることができる。
According to such a voice response system, the usability can be further improved.
Furthermore, in the
また、上記音声応答システム100においてサーバ90は、入力された音声が聞き取れない場合(つまり、文字に変換したときに文章として誤りがある場合)に所定の連絡先に発言内容を問い合わせる。また、聞き取れなかった音声を録音し、所定の連絡先に音声を送信し、この連絡先の人物に音声を再度入力する。
Further, in the
このような音声応答システム100によれば、例えば、子供が話す内容が聞き取れない場合、母親に問い合わせることや、老人が話す内容が聞き取れない場合、老人の家族に問い合わせることによって、入力された音声の正確性に担保することができる。なお、この
際、位置情報を利用して問い合わせ元や問い合わせ先を特定するようにしてもよい。
According to such a
さらに、上記音声応答システム100においてサーバ90には、予め使用者(音声を入力した者)の年齢または年齢層を示す年齢情報に応じて準備された複数のデータベースを備えておき、サーバ90は使用者の年齢情報に従って使用するデータベースを選択し、この選択したデータベースに従って音声を認識する。
Further, in the
このような音声応答システム100によれば、年齢に応じて音声認識の際に参照するデータベースを変更するので、年齢に応じて使用頻度が高い単語、言葉の言い回しなどを登録しておけば、音声認識の精度を向上させることができる。
According to such a
また、上記音声応答システム100においては、使用者(音声を入力した者)の年齢を推定し、推定した年齢を年齢情報として利用する。
使用者の年齢を推定する際には、例えば、入力された音声の特徴(声の波形、声の高さ等)に応じて推定してもよいし、使用者が音声を入力する際にカメラ等の撮像部によって使用者の顔を撮像することによって推定する。
Further, in the
When the user's age is to be estimated, for example, it may be estimated according to the characteristics of the input voice (voice waveform, voice height, etc.), or the camera when the user inputs voice. And so on by imaging the face of the user by the imaging unit.
また、使用者の顔を撮像する際には、使用者の識別や年齢認証を行う。
このような音声応答システム100によれば、より正確に音声の認識を行うことができる。
In addition, when imaging the face of the user, identification of the user and age verification are performed.
According to such a
[その他の実施形態]
本発明の実施の形態は、上記の実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。
Other Embodiments
The embodiment of the present invention is not limited to the above embodiment, and can take various forms within the technical scope of the present invention.
例えば、図7に示すスケジュール入力処理において、「9月1日から3日までの間」というように期間(日程および時間帯など)を指定して、スケジュール設定を音声応答システム100に任せるようにしてもよい。このようにする場合には、例えば、S102の処理とS104の処理との間において、例えば、「9月1日にBさん、Cさんと1時間の打ち合わせ。」というような、期間を指定したスケジュール設定依頼があったか否かを判定する(S103)。
For example, in the schedule input process shown in FIG. 7, a period (such as a schedule and a time zone) is designated as “between September 1 and 3”, and the schedule setting is left to the
このようなスケジュール設定依頼がなければ(S103:NO)、前述のS104以下の処理を実施する。また、このようなスケジュール設定依頼があれば(S103:YES)、期間指定処理を実施し(S136)、この処理が終了するとスケジュール入力処理を終了する。 If there is no such schedule setting request (S103: NO), the processing of the above-mentioned S104 and thereafter is performed. Further, if there is such a schedule setting request (S103: YES), a period designation process is performed (S136), and when this process ends, the schedule input process is ended.
期間指定処理では、図12に示すように、まず、入力された依頼が複数人のスケジュールの調整を必要とするものか否かを判定する。例えば、A氏によって、「9月1日にBさん、Cさんと1時間の打ち合わせ。」と入力された場合には、A氏だけでなく、B氏およびC氏のスケジュールも参照する必要があるため、複数人のスケジュールの調整を必要と判定される。 In the period designation process, as shown in FIG. 12, first, it is determined whether the input request requires adjustment of a schedule of a plurality of persons. For example, if Mr. A enters "A meeting with Mr. B, Mr. C for one hour on Sept. 1.", it is necessary to refer not only to Mr. A but also to Mr. B and Mr. C's schedule. Because of this, it is determined that it is necessary to adjust the schedule of multiple persons.
複数人のスケジュールの調整を必要とすれば(S302:YES)、使用者以外の対象者(音声を入力したA氏以外のスケジュールに関与するB氏、C氏)のスケジュールを抽出し(S304)、S306の処理に移行する。 If it is necessary to adjust the schedule of multiple persons (S302: YES), the schedule of target persons other than the user (Ms. B and C involved in a schedule other than Mr. A who has input the voice) is extracted (S304) , And proceeds to the process of S306.
また、複数人のスケジュールの調整を必要としなければ(S302:NO)、指定された期間内において、対象者全員の予定が空いている時間があるか否かを判定する(S306)。 If it is not necessary to adjust the schedule of a plurality of people (S302: NO), it is determined whether there is a time when the schedule of all the target persons is available within the designated period (S306).
全員の予定が空いている時間があれば(S306:YES)、この予定をスケジュールDB112に登録し(S308)、登録完了した旨を記録し(S310)、スケジュール入力処理を終了する。また、全員の予定が空いている時間がなければ(S306:NO)、前後の予定についての情報(時間、場所)を抽出する(S312)。 If it is a time for which everyone's schedule is open (S306: YES), this schedule is registered in the schedule DB 112 (S308), recording completion of registration is recorded (S310), and the schedule input process is ended. Also, if there is no time when all the plans are open (S306: NO), information (time, place) about the previous and subsequent plans is extracted (S312).
続いて、前後の予定を変更可能か否かを判定する(S314)。前後の予定を変更可能であれば(S314:YES)、変更案を提示する(S316)。
そして、変更フラグをONに設定し(S318)、スケジュール入力処理を終了する。また、前後の予定を変更可能でなければ(S314:NO)、予定が重複した旨を記録し(S320)、スケジュール入力処理を終了する。
Subsequently, it is determined whether or not the schedule before and after can be changed (S314). If it is possible to change the schedule before and after (S314: YES), a proposed change is presented (S316).
Then, the change flag is set to ON (S318), and the schedule input process is ended. Also, if it is not possible to change the schedule before and after (S314: NO), the fact that the schedule has been duplicated is recorded (S320), and the schedule input process is ended.
なお、期間指定処理では、S110、S112の処理を省略したが、これらの処理を実施してもよい。
さらに、操作入力処理においては、図13に示すように、S212およびS214の処理に換えて、天気予報を取得し(S232)、天気予報に応じて代替案を設定してもよい(S234)。例えば、天気予報を取得した結果、これから気温が上がる傾向にある場合には、エアコンの設定温度を下げる案を提案し、これから気温が下がる傾向にある場合には、エアコンの設定温度を上げる案を提案する。また、これから雨が降りそうであれば、窓を閉める提案を行う。
In addition, although the process of S110 and S112 was abbreviate | omitted in a period designation process, you may implement these processes.
Furthermore, in the operation input process, as shown in FIG. 13, instead of the processes of S212 and S214, a weather forecast may be acquired (S232), and an alternative plan may be set according to the weather forecast (S234). For example, as a result of acquiring the weather forecast, if the temperature tends to rise from now on, we propose a proposal to lower the set temperature of the air conditioner, and if the temperature tends to fall from now on, the proposal to raise the set temperature of the air conditioner suggest. Also, if it is likely to rain from now on, we will propose to close the window.
このようにしても、使い勝手をよくすることができる。
また、上記実施形態においては、文字情報を入力する構成として音声認識を利用したが、音声認識に限らず、キーボードやタッチパネル等の入力手段(操作部70)を利用して入力されてもよい。また、「入力された音声を文字情報に変換」する作動についてはサーバ90で行ったが、端末装置1で行ってもよい。
Even in this way, usability can be improved.
Although voice recognition is used as a configuration for inputting character information in the above embodiment, the present invention is not limited to voice recognition, and may be input using an input unit (operation unit 70) such as a keyboard or a touch panel. Further, although the operation of “converting the input voice into character information” is performed by the
さらに、上記音声応答システム100において演算部101は、使用者の行動(会話、移動した場所、カメラに映ったもの)を学習(記録および解析)しておき、使用者の会話における言葉足らずを補うようにしてもよい。
Furthermore, in the
例えば、「今日はハンバーグでいい?」との質問に対して「カレーがいいな。」と使用者が回答する会話に対して、本装置が「昨日ハンバーグだったからね」と補うと、使用者が、カレーがいいと発言した理由が伝わる。 For example, in response to the question that "the curry is good" for the question "Today is the hamburger?" However, the reason for saying that curry is good is transmitted.
また、このような構成は、電話中に実施することもでき、また、使用者の会話に勝手に参加するよう構成してもよい。
さらに、上記音声応答システム100においてサーバ90は、応答候補を所定のサーバ、またはインターネット上から取得するようにしてもよい。
Also, such a configuration can be implemented during a telephone call, and can also be configured to freely participate in the user's conversation.
Furthermore, in the
このような音声応答システム100によれば、応答候補をサーバ90だけでなく、インターネットや専用線等で接続された任意の装置から取得することができる。
さらに、現金自動支払機等の対面型の装置に本発明を適用してもよい。この場合、本発明を用いて年齢の認証などの本人確認を行うことができる。
According to such a
Furthermore, the present invention may be applied to a face-to-face device such as a cash dispenser. In this case, identity verification such as age verification can be performed using the present invention.
また、本発明を車両に適用してもよい。この場合、人物を特定する構成を車両の鍵に代わる構成として利用することができる。なお、上記発明は音声応答システム100として説明したが、入力された音声を認識する音声認識装置として構成してもよい。
In addition, the present invention may be applied to a vehicle. In this case, the configuration for identifying a person can be used as an alternative to the key of the vehicle. Although the above-mentioned invention was explained as
また、上記実施形態では、端末装置1とサーバ90とが通信しながら主たる処理をサー
バ90で行う、いわゆるクラウドシステムとして構成したが、一部または全ての処理(フローチャートで示す処理)を端末装置1で実施してもよい。この場合には、端末装置1およびサーバ90間の通信に関する処理を省略することができる。
In the above embodiment, the
また、被制御部95については、外部からの指令に応じた制御を行う任意の装置が該当する。
さらに、音声応答システム100において、発せられる音声に機械音であることを示す音である識別音を含むようにしてもよい。機械音と人が話す声とを識別できるようにするためである。この場合、識別音には何れの装置が発した音声であるかを示す識別子を含むようにするとよく、このようにすると複数種類の機械音の発生元を特定することができる。
The controlled
Furthermore, in the
このような識別音は、可聴音であってもよいし、非可聴音であってもよい。識別音を非可聴音とする場合、電子透かしの技術を利用して識別子を音声に埋め込むようにしてもよい。 Such identification sound may be an audible sound or an inaudible sound. When the identification sound is an inaudible sound, an identifier may be embedded in the voice by using a digital watermark technology.
また、上記実施形態においては、入力された音声に対応する応答を音声で出力するよう構成したが、音声による入力に限られることなく、この入力に対応する応答を音声で出力してもよい。例えば、使用者の口の形状の変化を検出するカメラを備えておき、使用者の口の形状によって使用者がどのような言葉を話しているかを推定する手段を備えていてもよい。 In the above embodiment, the response corresponding to the input voice is output as voice. However, the response is not limited to voice input, and the response corresponding to this input may be voice output. For example, a camera for detecting a change in the shape of the user's mouth may be provided, and means for estimating what kind of language the user is speaking may be provided based on the shape of the user's mouth.
この場合、口の形状と音との対応関係をデータベースとして準備しておき、口の形状から音を推定し、この音から言葉を推定すればよい。このような構成によれば、使用者は実際に音を発することなく音声を入力することができる。 In this case, the correspondence relationship between the shape of the mouth and the sound may be prepared as a database, the sound may be estimated from the shape of the mouth, and the words may be estimated from the sound. According to such a configuration, the user can input voice without actually making a sound.
また、音声を用いて入力を行う際の補助として口の形状を利用してもよい。このようにすれば、使用者の滑舌が悪い場合であってもより確実に音声認識を行うことができる。
さらに、使用者が音声を入力できない場合に備えて、使用者による入力の履歴をディスプレイ上で選択することで音声に代わる入力ができるよう構成してもよい。この場合、単に履歴を新しい順に表示してもよいし、履歴に含まれる入力内容の利用頻度や入力内容が入力された時間帯等を考慮して、利用される可能性が高いと推定される内容から順に表示させるようにしてもよい。
In addition, the shape of the mouth may be used as an aid when performing input using voice. In this manner, voice recognition can be performed more reliably even if the user's slippage is bad.
Furthermore, in preparation for the case where the user can not input the voice, the user may be configured to be able to perform an input instead of the voice by selecting the history of the input by the user on the display. In this case, the history may be simply displayed in the order of newness, and it is estimated that the possibility of being used is high in consideration of the usage frequency of the input content included in the history and the time zone in which the input content is input. The contents may be displayed in order.
また、車両に端末装置1が搭載されている場合には、車両に対する呼び掛けに対して、持ち主(使用者)からの呼び掛けにだけに応答して解錠する等の特定の作動を行うようにしてもよい。このようにすれば、音声を鍵として利用できるとともに、車両の持ち主が広い駐車場などで自身の車両を見失った場合でも車両に呼び掛けを行うことで自身の車両を見つけることができる。 When the terminal device 1 is mounted on a vehicle, a specific action such as unlocking is performed in response to a call from the owner (user) in response to a call to the vehicle. It is also good. In this way, the voice can be used as a key, and even if the owner of the vehicle loses sight of the vehicle in a large parking lot or the like, the vehicle can be found by calling the vehicle.
[本発明の構成と実施形態の構成との関係]
本実施形態における音声応答システム100は、本発明でいう音声応答装置の一例に相当する。また、サーバ90が実行する処理のうち、S74の処理は本発明でいう人物特定部の一例に相当し、S78の処理は本発明でいう音声特徴記録部の一例に相当する。
[Relationship between the configuration of the present invention and the configuration of the embodiment]
The
さらに、S210の処理は本発明でいう音声一致判定部の一例に相当し、S214,S216の処理は本発明でいう音声出力部の一例に相当する。また、S208、S218の処理は本発明でいう制御部の一例に相当し、S90の処理は本発明でいうスケジュール記録部の一例に相当する。 Further, the process of S210 corresponds to an example of the speech match determination section in the present invention, and the processes of S214 and S216 correspond to an example of the speech output section in the present invention. The processes of S208 and S218 correspond to an example of the control unit in the present invention, and the process of S90 corresponds to an example of the schedule recording unit in the present invention.
1…端末装置、10…行動センサユニット、11…3次元加速度センサ、13…3軸ジャイロセンサ、15…温度センサ、17…湿度センサ、19…温度センサ、21…湿度センサ、23…照度センサ、25…濡れセンサ、27…GPS受信機、29…風速センサ、33…心電センサ、35…心音センサ、37…マイク、39…メモリ、41…カメラ、50…通信部、53…無線電話ユニット、55…連絡先メモリ、60…報知部、61…ディスプレイ、63…電飾、65…スピーカ、70…操作部、71…タッチパッド、73…確認ボタン、75…指紋センサ、77…救援依頼レバー、80…通信基地局、85…インターネット網、90…サーバ、95…被制御部、100…音声応答システム、101…演算部。 DESCRIPTION OF SYMBOLS 1 ... Terminal device, 10 ... Behavior sensor unit, 11 ... 3 dimensional acceleration sensor, 13 ... 3 axis gyro sensor, 15 ... Temperature sensor, 17 ... Humidity sensor, 19 ... Temperature sensor, 21 ... Humidity sensor, 23 ... Illuminance sensor, 25: wetness sensor, 27: GPS receiver, 29: wind speed sensor, 33: electrocardiogram sensor, 35: heart sound sensor, 37: microphone, 39: memory, 41: camera, 50: communication unit, 53: wireless telephone unit, 55: contact memory, 60: notification unit, 61: display, 63: illumination, 65: speaker, 70: operation unit, 71: touch pad, 73: confirmation button, 75: fingerprint sensor, 77: rescue request lever, 80: Communication base station, 85: Internet network, 90: Server, 95: Controlled unit, 100: Voice response system, 101: Arithmetic unit.
Claims (3)
入力された音声の特徴を記録する音声特徴記録部と、
入力された音声の特徴が以前に前記音声特徴記録部により記録された音声の特徴と一致するか否かを判定する音声一致判定部と、
前記音声一致判定部により音声の特徴が一致しないと判定された場合、音声の特徴が一致すると判定された場合とは異なる応答を出力させる音声出力部と、
を備えたことを特徴とする音声応答装置。 A voice response device for making a voice response to input voice
A voice feature recording unit that records features of the input voice;
A voice match determination unit that determines whether the features of the input voice match the features of the voice previously recorded by the voice feature recording unit;
A voice output unit that outputs a response different from that in the case where it is determined that the voice features do not match if the voice match determination unit determines that the voice features do not match;
A voice response device comprising:
入力された音声の特徴に基づいて音声を入力した人物を特定する人物特定部と、
入力された音声に従って被制御部を制御する制御部と、を備え、
前記制御部は、異なる人物から矛盾する指示を受けると予め人物毎に設定された優先順位に従って前記優先順位の上位の者による指示を優先して制御を実施すること
を特徴とする音声応答装置。 In the voice response device according to claim 1,
A person specifying unit for specifying a person who has input a voice based on the feature of the input voice;
A control unit that controls the controlled unit in accordance with the input voice;
The voice response device characterized in that, when the control unit receives an contradictory instruction from a different person, control is performed by prioritizing an instruction from a person higher in priority according to a priority order set in advance for each person.
入力された音声の特徴に基づいて音声を入力した人物を特定する人物特定部と、
入力された音声に基づくスケジュールを前記人物毎に記録するスケジュール記録部と、
を備えたことを特徴とする音声応答装置。 In the voice response device according to claim 1,
A person specifying unit for specifying a person who has input a voice based on the feature of the input voice;
A schedule recording unit for recording a schedule based on the input voice for each of the persons;
A voice response device comprising:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012178454 | 2012-08-10 | ||
JP2012178454 | 2012-08-10 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017182574A Division JP2018036653A (en) | 2012-08-10 | 2017-09-22 | Voice response device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020133867A Division JP2020194184A (en) | 2012-08-10 | 2020-08-06 | Voice response device and voice response system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019049742A true JP2019049742A (en) | 2019-03-28 |
JP2019049742A5 JP2019049742A5 (en) | 2019-05-09 |
Family
ID=50067982
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014529447A Pending JPWO2014024751A1 (en) | 2012-08-10 | 2013-07-31 | Voice response device |
JP2017182574A Pending JP2018036653A (en) | 2012-08-10 | 2017-09-22 | Voice response device |
JP2018206748A Pending JP2019049742A (en) | 2012-08-10 | 2018-11-01 | Voice response device |
JP2020133867A Pending JP2020194184A (en) | 2012-08-10 | 2020-08-06 | Voice response device and voice response system |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014529447A Pending JPWO2014024751A1 (en) | 2012-08-10 | 2013-07-31 | Voice response device |
JP2017182574A Pending JP2018036653A (en) | 2012-08-10 | 2017-09-22 | Voice response device |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020133867A Pending JP2020194184A (en) | 2012-08-10 | 2020-08-06 | Voice response device and voice response system |
Country Status (2)
Country | Link |
---|---|
JP (4) | JPWO2014024751A1 (en) |
WO (1) | WO2014024751A1 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017054241A (en) * | 2015-09-08 | 2017-03-16 | 株式会社東芝 | Display control device, method, and program |
EP3460791A4 (en) * | 2016-05-16 | 2019-05-22 | Sony Corporation | Information processing device |
JP6659514B2 (en) | 2016-10-12 | 2020-03-04 | 東芝映像ソリューション株式会社 | Electronic device and control method thereof |
KR102170201B1 (en) | 2017-10-03 | 2020-10-27 | 구글 엘엘씨 | Vehicle function control through sensor-based verification |
US11328716B2 (en) * | 2017-12-22 | 2022-05-10 | Sony Corporation | Information processing device, information processing system, and information processing method, and program |
WO2019198186A1 (en) * | 2018-04-11 | 2019-10-17 | 東芝映像ソリューション株式会社 | Electronic device and control method for same |
CN109036406A (en) * | 2018-08-01 | 2018-12-18 | 深圳创维-Rgb电子有限公司 | A kind of processing method of voice messaging, device, equipment and storage medium |
KR102068422B1 (en) * | 2018-12-26 | 2020-02-11 | 이청종 | Schedule Management Service System and Method |
CN109960754A (en) * | 2019-03-21 | 2019-07-02 | 珠海格力电器股份有限公司 | A kind of speech ciphering equipment and its voice interactive method, device and storage medium |
JP7286368B2 (en) * | 2019-03-27 | 2023-06-05 | 本田技研工業株式会社 | VEHICLE DEVICE CONTROL DEVICE, VEHICLE DEVICE CONTROL METHOD, AND PROGRAM |
US11257493B2 (en) * | 2019-07-11 | 2022-02-22 | Soundhound, Inc. | Vision-assisted speech processing |
CN113096654B (en) * | 2021-03-26 | 2022-06-24 | 山西三友和智慧信息技术股份有限公司 | Computer voice recognition system based on big data |
CN114708875A (en) * | 2022-03-29 | 2022-07-05 | 青岛海尔空调器有限总公司 | Tone switching method and device |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1118633A (en) * | 1993-12-29 | 1996-03-13 | 美国电报电话公司 | Voice command control and verification system and method |
JPH11259085A (en) * | 1998-03-13 | 1999-09-24 | Toshiba Corp | Voice recognition device and recognized result presentation method |
JP2003289587A (en) * | 2002-03-28 | 2003-10-10 | Fujitsu Ltd | Appliance control apparatus and method therefor |
JP2004094077A (en) * | 2002-09-03 | 2004-03-25 | Nec Corp | Speech recognition device and control method, and program |
JP2004212533A (en) * | 2002-12-27 | 2004-07-29 | Ricoh Co Ltd | Voice command adaptive equipment operating device, voice command adaptive equipment, program, and recording medium |
JP2005301017A (en) * | 2004-04-14 | 2005-10-27 | Sony Corp | Apparatus and method for information processing, and program |
JP2005300958A (en) * | 2004-04-13 | 2005-10-27 | Mitsubishi Electric Corp | Talker check system |
JP2010066519A (en) * | 2008-09-11 | 2010-03-25 | Brother Ind Ltd | Voice interactive device, voice interactive method, and voice interactive program |
WO2011040056A1 (en) * | 2009-10-02 | 2011-04-07 | 独立行政法人情報通信研究機構 | Speech translation system, first terminal device, speech recognition server device, translation server device, and speech synthesis server device |
JP2012088370A (en) * | 2010-10-15 | 2012-05-10 | Denso Corp | Voice recognition system, voice recognition terminal and center |
JP2012141449A (en) * | 2010-12-28 | 2012-07-26 | Toshiba Corp | Voice processing device, voice processing system and voice processing method |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06186996A (en) * | 1992-12-18 | 1994-07-08 | Sony Corp | Electronic equipment |
US8355912B1 (en) * | 2000-05-04 | 2013-01-15 | International Business Machines Corporation | Technique for providing continuous speech recognition as an alternate input device to limited processing power devices |
JP2002182895A (en) * | 2000-12-14 | 2002-06-28 | Sony Corp | Conversation method, conversation method in information supply server, information supply server, storage medium and computer program |
JP2002372991A (en) * | 2001-06-13 | 2002-12-26 | Olympus Optical Co Ltd | Voice control device |
JP2003255991A (en) * | 2002-03-06 | 2003-09-10 | Sony Corp | Interactive control system, interactive control method, and robot apparatus |
JP2004033624A (en) * | 2002-07-05 | 2004-02-05 | Nti:Kk | Remote controller by pet type robot |
JP2004163541A (en) * | 2002-11-11 | 2004-06-10 | Mitsubishi Electric Corp | Voice response device |
JP4109091B2 (en) * | 2002-11-19 | 2008-06-25 | 株式会社山武 | Schedule management apparatus and method, program |
JP3883066B2 (en) * | 2003-03-07 | 2007-02-21 | 日本電信電話株式会社 | Voice dialogue system and method, voice dialogue program and recording medium therefor |
JP2004286805A (en) * | 2003-03-19 | 2004-10-14 | Sony Corp | Method, apparatus, and program for identifying speaker |
JP2005147925A (en) * | 2003-11-18 | 2005-06-09 | Hitachi Ltd | On-vehicle terminal device, and information exhibiting method for vehicle |
JP2005227510A (en) * | 2004-02-12 | 2005-08-25 | Ntt Docomo Inc | Voice recognition device and voice recognition method |
US20050229185A1 (en) * | 2004-02-20 | 2005-10-13 | Stoops Daniel S | Method and system for navigating applications |
JP4385949B2 (en) * | 2005-01-11 | 2009-12-16 | トヨタ自動車株式会社 | In-vehicle chat system |
JP5011686B2 (en) * | 2005-09-02 | 2012-08-29 | トヨタ自動車株式会社 | Remote control system |
US8788589B2 (en) * | 2007-10-12 | 2014-07-22 | Watchitoo, Inc. | System and method for coordinating simultaneous edits of shared digital data |
JP4869268B2 (en) * | 2008-03-04 | 2012-02-08 | 日本放送協会 | Acoustic model learning apparatus and program |
JP2010107614A (en) * | 2008-10-29 | 2010-05-13 | Mitsubishi Motors Corp | Voice guidance and response method |
-
2013
- 2013-07-31 JP JP2014529447A patent/JPWO2014024751A1/en active Pending
- 2013-07-31 WO PCT/JP2013/070756 patent/WO2014024751A1/en active Application Filing
-
2017
- 2017-09-22 JP JP2017182574A patent/JP2018036653A/en active Pending
-
2018
- 2018-11-01 JP JP2018206748A patent/JP2019049742A/en active Pending
-
2020
- 2020-08-06 JP JP2020133867A patent/JP2020194184A/en active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1118633A (en) * | 1993-12-29 | 1996-03-13 | 美国电报电话公司 | Voice command control and verification system and method |
JPH08507392A (en) * | 1993-12-29 | 1996-08-06 | エイ・ティ・アンド・ティ・コーポレーション | Voice command control and verification system |
US6081782A (en) * | 1993-12-29 | 2000-06-27 | Lucent Technologies Inc. | Voice command control and verification system |
JPH11259085A (en) * | 1998-03-13 | 1999-09-24 | Toshiba Corp | Voice recognition device and recognized result presentation method |
JP2003289587A (en) * | 2002-03-28 | 2003-10-10 | Fujitsu Ltd | Appliance control apparatus and method therefor |
JP2004094077A (en) * | 2002-09-03 | 2004-03-25 | Nec Corp | Speech recognition device and control method, and program |
JP2004212533A (en) * | 2002-12-27 | 2004-07-29 | Ricoh Co Ltd | Voice command adaptive equipment operating device, voice command adaptive equipment, program, and recording medium |
JP2005300958A (en) * | 2004-04-13 | 2005-10-27 | Mitsubishi Electric Corp | Talker check system |
JP2005301017A (en) * | 2004-04-14 | 2005-10-27 | Sony Corp | Apparatus and method for information processing, and program |
JP2010066519A (en) * | 2008-09-11 | 2010-03-25 | Brother Ind Ltd | Voice interactive device, voice interactive method, and voice interactive program |
WO2011040056A1 (en) * | 2009-10-02 | 2011-04-07 | 独立行政法人情報通信研究機構 | Speech translation system, first terminal device, speech recognition server device, translation server device, and speech synthesis server device |
JP2012088370A (en) * | 2010-10-15 | 2012-05-10 | Denso Corp | Voice recognition system, voice recognition terminal and center |
JP2012141449A (en) * | 2010-12-28 | 2012-07-26 | Toshiba Corp | Voice processing device, voice processing system and voice processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2018036653A (en) | 2018-03-08 |
JPWO2014024751A1 (en) | 2016-07-25 |
JP2020194184A (en) | 2020-12-03 |
WO2014024751A1 (en) | 2014-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019049742A (en) | Voice response device | |
JP6969811B2 (en) | Voice response device | |
US11004446B2 (en) | Alias resolving intelligent assistant computing device | |
US11100384B2 (en) | Intelligent device user interactions | |
US20180293221A1 (en) | Speech parsing with intelligent assistant | |
CN110288987B (en) | System for processing sound data and method of controlling the same | |
US10289381B2 (en) | Methods and systems for controlling an electronic device in response to detected social cues | |
CN101795831B (en) | Robot control system, robot, program, and information recording medium | |
BR112015018905B1 (en) | Voice activation feature operation method, computer readable storage media and electronic device | |
CN105580071B (en) | Method and apparatus for training a voice recognition model database | |
JP2001083984A (en) | Interface device | |
US20210118449A1 (en) | Speech processing method and apparatus therefor | |
US20200402498A1 (en) | Information processing apparatus, information processing method, and program | |
KR102511517B1 (en) | Voice input processing method and electronic device supportingthe same | |
WO2019221894A1 (en) | Intelligent device user interactions | |
WO2019118147A1 (en) | Speech parsing with intelligent assistant | |
JP2017211430A (en) | Information processing device and information processing method | |
US20240176818A1 (en) | Content playback system, information processing apparatus, and content playback controlling application | |
KR20180082231A (en) | Method and Device for sensing user designated audio signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190917 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191118 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20191118 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200602 |