JP2020060730A - Voice recognition device - Google Patents

Voice recognition device Download PDF

Info

Publication number
JP2020060730A
JP2020060730A JP2018193348A JP2018193348A JP2020060730A JP 2020060730 A JP2020060730 A JP 2020060730A JP 2018193348 A JP2018193348 A JP 2018193348A JP 2018193348 A JP2018193348 A JP 2018193348A JP 2020060730 A JP2020060730 A JP 2020060730A
Authority
JP
Japan
Prior art keywords
voice recognition
scene
control
unit
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018193348A
Other languages
Japanese (ja)
Inventor
慧悟 堀
Keigo Hori
慧悟 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018193348A priority Critical patent/JP2020060730A/en
Publication of JP2020060730A publication Critical patent/JP2020060730A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a voice recognition device with improved operability of device control by voice recognition.SOLUTION: The voice recognition device controls a device according to an input voice. The voice recognition device includes: a voice recognition unit which accepts a voice input, performs voice recognition, and identifies the utterance content; a scene identification unit which acquires a state of a device, and identifies a scene determined based on the state as a current scene from a plurality of scenes; a storage unit which previously stores combinations of one or more utterance contents and control contents in association for each of a plurality of scenes; and a device control unit which refers to the storage unit, and executes the control content combined with the utterance content identified by the voice recognition unit associated with the current scene when the utterance content identified by the voice recognition unit is associated with the current scene.SELECTED DRAWING: Figure 2

Description

本発明は、車両等に搭載される音声認識装置に関する。   The present invention relates to a voice recognition device mounted on a vehicle or the like.

各種の音声認識技術が提案されている(特許文献1、2)。とくに特許文献1は、特定のウェイクアップワードの発話によって各種設備を起動させる音声ウェイクアップ技術を開示している。   Various voice recognition techniques have been proposed (Patent Documents 1 and 2). In particular, Patent Document 1 discloses a voice wakeup technique for activating various equipment by uttering a specific wakeup word.

特開2017−129860号公報JP, 2017-129860, A 特開2018−87838号公報JP, 2018-87838, A

音声ウェイクアップ技術を、車載機器に適用すると、ユーザーは運転中に機器を操作するのにステアリングホイールから手を離さなくてよいので便利である。例えば、車内にあるユーザーの携帯電話と近距離無線通信を用いて通信し、通話音声の中継等を行う車載機器に、音声ウェイクアップ技術を適用することで、電話着信シーンにおいて、音声のみで着信に応答するようにできる。   When the voice wake-up technology is applied to an in-vehicle device, it is convenient for the user to operate the device while driving because the user does not have to take his / her hand off the steering wheel. For example, by applying voice wake-up technology to an in-vehicle device that communicates with a user's mobile phone in the vehicle using short-range wireless communication, and relays call voice, etc. Can be responded to.

この場合、まず、特定のウェイクアップワードの発話によって、その後の音声入力を受け付け可能とし、つぎに、着信応答に対応する特定の発話によって、着信応答指示をすることが考えられる。しかし、これでは、2回の発話が必要であり、また発話間で音声認識処理の起動を待つ必要がある。このように音声認識による車載機器等の制御には、操作性向上の観点で改善の余地があった。   In this case, it is conceivable that the subsequent voice input can be accepted by the utterance of the specific wakeup word, and then the incoming call response instruction is given by the specific utterance corresponding to the incoming call response. However, in this case, it is necessary to utter twice, and it is necessary to wait for activation of the voice recognition processing between utterances. As described above, there is room for improvement in controlling the in-vehicle device or the like by voice recognition from the viewpoint of improving operability.

本発明は、上記課題を鑑みてなされたものであり、音声認識による機器制御の操作性を向上した音声認識装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a voice recognition device with improved operability of device control by voice recognition.

上記課題を解決するために、本発明の一局面は、入力された音声に応じて機器の制御を行うことができる音声認識装置であって、音声入力を受け付けて音声認識を行い、発話内容を特定する音声認識部と、機器の状態を取得し、状態に基づいて定まるシーンを現在のシーンとして、複数のシーンから特定するシーン特定部と、複数のシーンのそれぞれに1つ以上の発話内容および制御内容の組み合わせを対応付けて予め記憶する記憶部と、記憶部を参照し、現在のシーンに、音声認識部が特定した発話内容が対応付けられていれば、現在のシーンに対応付けられた、音声認識部が特定した発話内容に組み合わせられた制御内容を実行する機器制御部とを備える、音声認識装置である。   In order to solve the above-mentioned problems, one aspect of the present invention is a voice recognition device capable of controlling a device in accordance with an input voice, which receives voice input, performs voice recognition, and outputs speech content. A voice recognition unit that identifies a device, a scene identification unit that obtains the state of a device, and determines a scene determined based on the state as a current scene, and a scene identification unit that identifies from a plurality of scenes, and one or more utterance contents for each of the plurality of scenes. If the utterance content specified by the voice recognition unit is associated with the current scene by referring to the storage unit and the storage unit that stores the combination of the control contents in advance, it is associated with the current scene. And a device control unit that executes control content combined with the utterance content specified by the voice recognition unit.

本発明は、音声認識による機器制御の操作性を向上した音声認識装置を提供することができる。   INDUSTRIAL APPLICABILITY The present invention can provide a voice recognition device with improved operability of device control by voice recognition.

本発明の一実施形態に係る音声認識装置の機能ブロックを示す図The figure which shows the functional block of the speech recognition apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る音声認識装置の処理の例を示すフローチャートThe flowchart which shows the example of a process of the speech recognition apparatus which concerns on one Embodiment of this invention.

(実施形態)
本発明の一実施形態に係る音声認識装置は、1回の発話によって、音声認識処理を開始するだけでなく、制御対象機器の動作状況等を表すシーンに応じて制御対象機器の制御内容を特定し実行する。これにより、上述したような2回の発話やその間の待機が不要となり操作性が向上する。以下、本実施形態について、図面を参照しながら詳細に説明する。
(Embodiment)
A voice recognition device according to an embodiment of the present invention not only starts voice recognition processing by one utterance, but also specifies the control content of a control target device according to a scene representing an operation state of the control target device. Then run. This eliminates the need for the two utterances and the waiting time between them, thus improving the operability. Hereinafter, the present embodiment will be described in detail with reference to the drawings.

<構成>
図1に、本実施形態に係る音声認識装置10の機能ブロック図を示す。音声認識装置10は、車両に搭載され、音声認識部11、シーン特定部12、記憶部13、機器制御部14を含む。音声認識装置10は、一例として車両に搭載されたマイク20、第1機器31、第2機器32と有線で接続され、車室内に存在する第3機器33とBlueTooth(登録商標)のような近距離無線通信によって通信可能となっている。マイク20はユーザーの音声を収音し、音声認識装置10に入力する。第1機器31、第2機器32、第3機器33は、音声認識装置10による制御対象機器であり、例えば、オーディオ装置、空調装置、携帯電話である。制御対象機器の種類や数はこれに限定されない。
<Structure>
FIG. 1 shows a functional block diagram of the voice recognition device 10 according to the present embodiment. The voice recognition device 10 is mounted on a vehicle and includes a voice recognition unit 11, a scene identification unit 12, a storage unit 13, and a device control unit 14. As an example, the voice recognition device 10 is connected to the microphone 20, the first device 31, and the second device 32 mounted on the vehicle by wire, and is close to the third device 33 existing in the vehicle compartment such as BlueTooth (registered trademark). Communication is possible by distance wireless communication. The microphone 20 picks up the user's voice and inputs it to the voice recognition device 10. The first device 31, the second device 32, and the third device 33 are devices to be controlled by the voice recognition device 10, and are, for example, an audio device, an air conditioner, and a mobile phone. The type and number of control target devices are not limited to this.

音声認識部11は、マイク20から音声入力を受け付け、入力された音声から、音素列を抽出して発話内容を特定する。   The voice recognition unit 11 accepts a voice input from the microphone 20, extracts a phoneme string from the input voice, and specifies the utterance content.

シーン特定部12は、例えば、第1機器31、第2機器32、第3機器33のような制御対象機器の動作状態等を表す所定の情報を取得し、これに基づいて現在のシーンを特定する。シーンの特定に必要であれば、制御対象機器以外の機器やセンサからも、例えば車両の電源状態や速度等の情報を所定の情報として取得してもよい。シーンとは、例えば制御対象機器の動作状況を表す情報であり、予め定められた複数の種別がある。   The scene identification unit 12 acquires predetermined information indicating the operating state of the control target device such as the first device 31, the second device 32, and the third device 33, for example, and identifies the current scene based on this information. To do. If necessary for identifying the scene, information such as the power supply state and speed of the vehicle may be acquired as predetermined information from a device or sensor other than the control target device. The scene is, for example, information indicating the operating status of the control target device, and has a plurality of predetermined types.

記憶部13は、複数のシーンのそれぞれに発話内容を対応付けて予め記憶している。   The storage unit 13 stores the utterance content in association with each of the plurality of scenes in advance.

機器制御部14は、記憶部13を参照して、シーン特定部12が特定したシーンに対応付けられた発話内容を取得する。また、音声認識部11が特定した発話内容を取得する。これらの発話内容を比較し、一致すれば、特定されたシーンに応じて、制御対象機器の制御を行う。   The device control unit 14 refers to the storage unit 13 and acquires the utterance content associated with the scene identified by the scene identification unit 12. Further, the speech content specified by the voice recognition unit 11 is acquired. These utterance contents are compared, and if they match, the control target device is controlled according to the identified scene.

<処理>
図2は、音声認識装置10の処理の一例を示すフローチャートである。図2を参照して、処理の例を説明する。本フローチャートは、マイク20から音声入力が行われることにより開始される。
<Process>
FIG. 2 is a flowchart showing an example of processing of the voice recognition device 10. An example of the process will be described with reference to FIG. The present flowchart is started by voice input from the microphone 20.

(ステップS101):音声認識部11は、入力された音声から、音素列を抽出して発話内容を特定する。   (Step S101): The voice recognition unit 11 extracts a phoneme string from the input voice and specifies the utterance content.

(ステップS102):シーン特定部12は、第1機器31、第2機器32、第3機器33のような制御対象機器等から、動作状態等の情報を取得し、シーンを特定する。   (Step S102): The scene identification unit 12 obtains information such as an operation state from a control target device such as the first device 31, the second device 32, and the third device 33, and identifies the scene.

(ステップS103):機器制御部14は、記憶部13を参照して、ステップS102で特定されたシーンに対応付けられた発話内容と、ステップS101で特定された発話内容とを比較する。ステップS102で特定されたシーンに対応付けられた発話内容のいずれかと、ステップS101で特定された発話内容とが、一致すればステップS104に進み、一致しなければ本フローチャートの処理を終了する。すなわち、現在のシーンに、ステップS101で特定された発話内容が対応付けられていれば、ステップS104に進み、対応付けられていなければ本フローチャートの処理を終了する。   (Step S103): The device control section 14 refers to the storage section 13 and compares the utterance content associated with the scene identified in step S102 with the utterance content identified in step S101. If any of the utterance contents associated with the scene identified in step S102 and the utterance contents identified in step S101 match, the process proceeds to step S104, and if they do not match, the process of this flowchart ends. That is, if the utterance content identified in step S101 is associated with the current scene, the process proceeds to step S104, and if not, the process of this flowchart ends.

ここで、記憶部13が記憶しているシーンおよび発話内容の例を説明する。表1に、記憶部13の記憶内容の例を示す。この例では、第1機器31、第2機器32、第3機器33はそれぞれ、オーディオ装置、空調装置、携帯電話である。また、この例では、記憶部13はさらに、シーンごとに発話内容および制御内容の組み合わせを1つ以上記憶している。   Here, an example of scenes and utterance contents stored in the storage unit 13 will be described. Table 1 shows an example of the stored contents of the storage unit 13. In this example, the first device 31, the second device 32, and the third device 33 are an audio device, an air conditioner, and a mobile phone, respectively. Further, in this example, the storage unit 13 further stores one or more combinations of utterance content and control content for each scene.

Figure 2020060730
Figure 2020060730

シーン特定部12は、ステップS102で、例えば、オーディオ装置、空調装置、携帯電話等の動作状態を取得し、表1のシーンのうち該当するいずれかを特定する。なお、複数のシーンが該当する場合は、例えば所定の優先度に基づいて1つを選択すればよい。   In step S102, the scene identification unit 12 acquires, for example, the operating states of the audio device, the air conditioner, the mobile phone, etc., and identifies any of the scenes in Table 1 as applicable. If a plurality of scenes are applicable, one may be selected based on a predetermined priority, for example.

例えばステップS102で特定されたシーンが「携帯電話着信中」であり、ステップS101で特定された発話内容が「もしもし」である場合、「もしもし」はシーン「携帯電話着信中」に対応付けられた発話内容であるため、本ステップS103の処理の結果として、ステップS104に進む。   For example, when the scene specified in step S102 is "incoming mobile phone call" and the utterance content specified in step S101 is "hello", "what if" is associated with the scene "incoming mobile phone call". Since it is the utterance content, as a result of the processing in step S103, the process proceeds to step S104.

(ステップS104):機器制御部14は、ステップS102で特定されたシーンに応じて、ステップS101で特定された発話内容に基づいた制御を行う。すなわち、現在のシーンに対応付けられた組み合わせを参照し、そのうち、ステップS101で特定された発話内容に組み合わせられた制御内容を実行する。機器制御部14は、記憶部13を参照して制御内容を特定することができる。例えば、ステップS102で特定されたシーンが「携帯電話着信中」であり、ステップS101で特定された発話内容が「もしもし」である場合、機器制御部14は、携帯電話である第3機器33に対して、表1に記載のように着信に応答する指示を行う。その後、本フローチャートの処理を終了する。   (Step S104): The device control unit 14 performs control based on the utterance content identified in step S101 according to the scene identified in step S102. That is, the control associated with the utterance content identified in step S101 is executed by referring to the combination associated with the current scene. The device control unit 14 can identify the control content by referring to the storage unit 13. For example, when the scene specified in step S102 is “incoming mobile phone call” and the utterance content specified in step S101 is “hello”, the device control unit 14 causes the third device 33, which is a mobile phone, to access the third device 33. On the other hand, as shown in Table 1, the instruction to answer the incoming call is issued. Then, the process of this flowchart is completed.

以上、音声認識装置10の処理の例を説明したが、本処理は、マイク20から音声入力が行われるごとに繰り返し実行される。   The example of the process of the voice recognition device 10 has been described above, but this process is repeatedly executed each time a voice is input from the microphone 20.

なお、1つのシーンに、2つ以上の発話内容および制御内容を対応付ければ、そのシーンにおいて、複数種類の制御を行うことができる。しかし、これに限定されず、1つのシーンに1つの発話内容および制御内容を対応付けてもよい。また、あるシーンにおいて、1つの発話内容に2つ以上の制御内容を対応付けてもよいし、2つ以上の発話内容に同一の制御内容を対応付けてもよい。   If two or more utterance contents and control contents are associated with one scene, a plurality of types of control can be performed in that scene. However, the present invention is not limited to this, and one utterance content and one control content may be associated with one scene. Further, in a certain scene, one utterance content may be associated with two or more control contents, or two or more utterance contents may be associated with the same control content.

また、音声認識装置10は、車内のタッチディスプレイ装置のようなGUIやスピーカーを用いて、上述した制御の内容やその結果をユーザーに提示する制御部を設けてもよい。また、制御部は、例えば携帯電話の着信に応答した後、通話継続中は、マイク20およびスピーカーと、携帯電話との間で通話音声の中継を行い、その間は上述したような発話内容に基づく機器制御を抑制してもよい。   Further, the voice recognition device 10 may be provided with a control unit that presents the contents of the above-mentioned control and the result thereof to the user by using a GUI or a speaker like a touch display device in the vehicle. Also, for example, after responding to an incoming call of the mobile phone, the control unit relays the call voice between the mobile phone and the microphone 20 and the speaker while the call continues, and during that time, it is based on the utterance content as described above. Device control may be suppressed.

<効果>
本発明によれば、特定されたシーンに応じて定められた発話内容の発話によって、制御対象機器の制御内容を指示することができる。すなわち、従来は、まず、1回目の発話によって、その後の音声入力を受付可能状態とし、2回目の発話によって機器制御内容を指示していたのに対し、本発明では、1回の発話によって、機器制御を行うことができる。また、シーンに応じて発話内容を設定することで、比較的短い直観的な発話によって、所望の制御内容を指示することができる。これらにより、音声認識装置による機器制御の操作性を向上することができる。
<Effect>
According to the present invention, it is possible to instruct the control content of the control target device by the utterance of the utterance content determined according to the specified scene. That is, in the past, first, the first utterance was set to the state in which the subsequent voice input can be accepted, and the second utterance was used to instruct the device control content. Device control can be performed. Further, by setting the utterance content according to the scene, it is possible to instruct the desired control content with a relatively short intuitive utterance. As a result, the operability of device control by the voice recognition device can be improved.

(変形例)
上述の例では、シーン特定部12は、ステップS102で、複数のシーンが該当する場合は、そのうち1つを選択すればよいものとしたが、該当する複数のシーンのうち2つ以上を選択してもよい。この場合、以下の表2のようにシーン間で重複しない発話内容をさらに設け、選択したシーンのうち重複する発話内容による機器制御は無効とし、重複しない発話内容による機器制御を有効とすればよい。例えば、オーディオ装置と空調装置とがいずれも動作しており、シーン特定部12が「オーディオ装置動作中」および「空調装置動作中」のシーンを選択した場合、機器制御部14は、これらのシーン間で重複する「あげて」、「さげて」の発話に基づく制御は行わないものとし、重複しない「おんりょうあげて」、「おんりょうさげて」、「おんどあげて」、「おんどさげて」の発話に基づく制御は行うようにする。これにより、オーディオ装置および空調装置のような複数の機器を同時に制御対象としても、誤制御を抑制できる。
(Modification)
In the above example, the scene identifying unit 12 selects one of the plurality of scenes in step S102 when the plurality of scenes correspond, but selects two or more of the plurality of corresponding scenes. May be. In this case, as shown in Table 2 below, utterance contents that do not overlap between scenes are further provided, and device control based on utterance contents that overlap among the selected scenes may be invalidated, and device control based on utterance contents that do not overlap may be enabled. . For example, when both the audio device and the air conditioner are operating and the scene specifying unit 12 selects the scenes “audio device is operating” and “air conditioner is operating”, the device control unit 14 causes the scenes to be selected. Control based on the utterances of "Agete" and "Sagete" that are duplicated between each other shall not be performed. Control based on the utterance "Sagete" should be performed. As a result, erroneous control can be suppressed even when a plurality of devices such as an audio device and an air conditioner are controlled at the same time.

Figure 2020060730
Figure 2020060730

このように、発話内容、シーン特定部12や機器制御部14による処理内容は、制御対象機器の種類、制御内容等に応じて適宜好適に設計することができる。また、シーンの種別も、1つの制御対象機器に対してその複数の動作状態に応じて設けてもよく、2つ以上の制御対象機器の動作状態の組み合わせに応じて設けてもよい。   As described above, the utterance content and the processing content by the scene identification unit 12 and the device control unit 14 can be appropriately designed according to the type of the control target device, the control content, and the like. Further, the types of scenes may be provided for one control target device according to a plurality of operation states thereof, or may be provided for a combination of operation states of two or more control target devices.

(参考例)
上述の各例では、シーンごとに機器制御のための発話内容を対応付けたが、以下の表3のように複数のシーンを設けず、発話内容と制御内容との対応付けのみ行ってもよい。この場合、上述のシーン特定部12は設けず、音声認識部11が音声入力を受け付けて音声認識を行って発話内容を特定し、記憶部13が、表3のように、2つ以上の発話内容と制御内容とを対応付けて記憶し、機器制御部14が、記憶部13が記憶している発話内容と音声認識部が特定した発話内容とが一致する場合に、発話内容に対応付けられた制御内容を実行するようにすればよい。なお、機器制御部14は、制御対象機器が所定の状態であることを前提とする制御を行う場合、制御対象機器の動作状態を取得して、所定の状態にない場合は、制御を実行しないようにしてもよいし、あるいは、制御対象機器が所定の状態にない場合はその状態を前提とする制御指示を受け付けないようにしてもよい。
(Reference example)
In each of the above examples, the utterance content for device control is associated with each scene, but a plurality of scenes may not be provided as shown in Table 3 below, and only the utterance content and the control content may be associated with each other. . In this case, the above-mentioned scene specifying unit 12 is not provided, the voice recognition unit 11 receives voice input and performs voice recognition to specify the utterance content, and the storage unit 13 stores two or more utterances as shown in Table 3. The contents and the control contents are stored in association with each other, and when the device control unit 14 matches the utterance contents stored in the storage unit 13 with the utterance contents specified by the voice recognition unit, they are associated with the utterance contents. It suffices to execute the controlled contents. Note that the device control unit 14 acquires the operating state of the control target device when performing control assuming that the control target device is in the predetermined state, and does not execute the control when the control target device is not in the predetermined state. Alternatively, if the device to be controlled is not in a predetermined state, the control instruction based on that state may not be accepted.

Figure 2020060730
Figure 2020060730

以上、本発明の実施形態等を説明したが、本発明は、音声認識装置、音声認識装置のコンピュータが実行する音声認識方法、音声認識プログラムおよびこれを記憶したコンピュータ読み取り可能な非一時的な記録媒体、音声認識システム、機器制御装置、車両等として捉えることができる。   Although the embodiments of the present invention have been described above, the present invention is directed to a voice recognition device, a voice recognition method executed by a computer of the voice recognition device, a voice recognition program, and a computer-readable non-transitory recording in which the program is stored. It can be considered as a medium, a voice recognition system, a device control device, a vehicle, or the like.

本発明は、車両等に搭載される音声認識装置に有用である。   INDUSTRIAL APPLICABILITY The present invention is useful for a voice recognition device mounted on a vehicle or the like.

10 音声認識装置
11 音声認識部
12 シーン特定部
13 記憶部
14 機器制御部
20 マイク
31 第1機器
32 第2機器
33 第2機器
10 voice recognition device 11 voice recognition unit 12 scene identification unit 13 storage unit 14 device control unit 20 microphone 31 first device 32 second device 33 second device

Claims (1)

入力された音声に応じて機器の制御を行うことができる音声認識装置であって、
音声入力を受け付けて音声認識を行い、発話内容を特定する音声認識部と、
前記機器の状態を取得し、前記状態に基づいて定まるシーンを現在のシーンとして、複数のシーンから特定するシーン特定部と、
前記複数のシーンのそれぞれに1つ以上の発話内容および制御内容の組み合わせを対応付けて予め記憶する記憶部と、
前記記憶部を参照し、前記現在のシーンに、前記音声認識部が特定した発話内容が対応付けられていれば、前記現在のシーンに対応付けられた、前記音声認識部が特定した発話内容に組み合わせられた制御内容を実行する機器制御部とを備える、音声認識装置。
A voice recognition device capable of controlling a device according to an input voice,
A voice recognition unit that accepts voice input, performs voice recognition, and specifies the utterance content,
Acquiring the state of the device, as a current scene a scene determined based on the state, a scene specifying unit for specifying from a plurality of scenes,
A storage unit that stores in advance one or more combinations of utterance content and control content in association with each of the plurality of scenes,
If the utterance content identified by the voice recognition unit is associated with the current scene by referring to the storage unit, the utterance content identified by the voice recognition unit is associated with the current scene. A voice recognition device, comprising: a device control unit that executes combined control contents.
JP2018193348A 2018-10-12 2018-10-12 Voice recognition device Pending JP2020060730A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018193348A JP2020060730A (en) 2018-10-12 2018-10-12 Voice recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018193348A JP2020060730A (en) 2018-10-12 2018-10-12 Voice recognition device

Publications (1)

Publication Number Publication Date
JP2020060730A true JP2020060730A (en) 2020-04-16

Family

ID=70220192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018193348A Pending JP2020060730A (en) 2018-10-12 2018-10-12 Voice recognition device

Country Status (1)

Country Link
JP (1) JP2020060730A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112786055A (en) * 2020-12-25 2021-05-11 北京百度网讯科技有限公司 Resource mounting method, device, equipment, storage medium and computer program product

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004301875A (en) * 2003-03-28 2004-10-28 Toyota Central Res & Dev Lab Inc Speech recognition device
JP2009109587A (en) * 2007-10-26 2009-05-21 Panasonic Electric Works Co Ltd Voice recognition control device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004301875A (en) * 2003-03-28 2004-10-28 Toyota Central Res & Dev Lab Inc Speech recognition device
JP2009109587A (en) * 2007-10-26 2009-05-21 Panasonic Electric Works Co Ltd Voice recognition control device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112786055A (en) * 2020-12-25 2021-05-11 北京百度网讯科技有限公司 Resource mounting method, device, equipment, storage medium and computer program product

Similar Documents

Publication Publication Date Title
JP6570651B2 (en) Voice dialogue apparatus and voice dialogue method
US20180204569A1 (en) Voice Assistant Tracking And Activation
CN111095400A (en) Selection system and method
US20150039316A1 (en) Systems and methods for managing dialog context in speech systems
US10553212B2 (en) Vehicle-based remote control system and method
WO2016110068A1 (en) Voice switching method and apparatus for voice recognition device
US9293142B2 (en) Voice recognition system
JP2018049132A (en) Voice dialogue system and method for voice dialogue
KR20130063091A (en) Speech recognition apparatus for vehicle
CN112735411A (en) Control method, client, vehicle, voice system, and storage medium
CN105529025B (en) Voice operation input method and electronic equipment
JP2020060730A (en) Voice recognition device
JP6167605B2 (en) Speech recognition system
JP2015028566A (en) Response control system, on-vehicle device and center
JP2018124484A (en) Speech recognition device
CN110400568B (en) Awakening method of intelligent voice system, intelligent voice system and vehicle
JP7242248B2 (en) ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM THEREOF
JP2018116206A (en) Voice recognition device, voice recognition method and voice recognition system
JP2004301875A (en) Speech recognition device
WO2014141574A1 (en) Voice control system, voice control method, program for voice control, and program for voice output with noise canceling
US20180135998A1 (en) Method for improved user experience during driver distraction lockout modes
CN111557030B (en) Method, device and computer-readable storage medium with instructions for processing speech input, motor vehicle with speech processing and user terminal device
JP6226911B2 (en) Server apparatus, system, method for managing voice recognition function, and program for controlling information communication terminal
JP2014134604A (en) On-vehicle information system and sound recognition adaptation method
KR20220125523A (en) Electronic device and method for processing voice input and recording in the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131