JP2020144285A - Agent system, information processing device, control method for mobile body mounted apparatus, and program - Google Patents
Agent system, information processing device, control method for mobile body mounted apparatus, and program Download PDFInfo
- Publication number
- JP2020144285A JP2020144285A JP2019041994A JP2019041994A JP2020144285A JP 2020144285 A JP2020144285 A JP 2020144285A JP 2019041994 A JP2019041994 A JP 2019041994A JP 2019041994 A JP2019041994 A JP 2019041994A JP 2020144285 A JP2020144285 A JP 2020144285A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- unit
- utterance command
- command
- meaning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000010365 information processing Effects 0.000 title claims abstract description 10
- 239000003795 chemical substances by application Substances 0.000 description 128
- 238000004891 communication Methods 0.000 description 44
- 238000012545 processing Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000001052 transient effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000003028 elevating effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000021189 garnishes Nutrition 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、エージェントシステム、情報処理装置、移動体搭載機器制御方法、及びプログラムに関する。 The present invention relates to an agent system, an information processing device, a mobile body-mounted device control method, and a program.
人間と音声対話によって情報を提供するヒューマンマシンインターフェースの研究が進められている。これに関連し、ロボットのコミュニケーションの対象とする人物の状況に基づいて、当該人物に対する発話の可否や発話音量、発話口調を決定する技術や、語彙が登録された辞書を利用して、乗員が発話した音声を認識し、複数の車載機器を、認識した音声の内容に応じて制御する技術が知られている(例えば、特許文献1、2参照)。
Research on human-machine interfaces that provide information through voice dialogue with humans is underway. In connection with this, the occupants use a technique to determine whether or not to speak to the person, the volume of speech, and the tone of speech based on the situation of the person to be communicated by the robot, and a dictionary in which vocabulary is registered. A technique of recognizing an uttered voice and controlling a plurality of in-vehicle devices according to the content of the recognized voice is known (see, for example,
ここで、乗員は、よく利用する制御対象機器に対する指示は、簡単な言葉や短い言葉によって行いたい場合がある、しかしながら、従来の技術では、乗員が所望する音声によって車載機器を制御することは困難であった。 Here, the occupant may want to give instructions to the frequently used controlled device by simple words or short words, however, with the conventional technology, it is difficult to control the in-vehicle device by the voice desired by the occupant. Met.
本発明の態様は、このような事情を考慮してなされたものであり、乗員が所望する音声によって車載機器を制御することができるようにするエージェントシステム、情報処理装置、移動体搭載機器制御方法、及びプログラムを提供することを目的の一つとする。 Aspects of the present invention have been made in consideration of such circumstances, and are an agent system, an information processing device, and a mobile body-mounted device control method that enable an in-vehicle device to be controlled by a voice desired by an occupant. , And one of the purposes is to provide a program.
本発明に係るエージェントシステム、情報処理装置、移動体搭載機器制御方法、及びプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るエージェントシステムは、乗員が搭乗する移動体に搭載された移動体搭載機器と、前記移動体搭載機器を制御する命令であり、マイクにより収音される前記乗員の音声である発話コマンドを含む音声を認識する音声認識部と、前記音声認識部により認識された前記音声の意味を解釈する意味解釈部と、を備え、前記意味解釈部は、前記音声の意味が、新たな発話コマンドを登録する指示を含むと解釈された場合には、前記新たな発話コマンドを記憶部に登録するものである。
The agent system, information processing device, mobile body-mounted device control method, and program according to the present invention have the following configurations.
(1): The agent system according to one aspect of the present invention is a command for controlling a mobile body-mounted device mounted on a moving body on which an occupant is on board and the mobile body-mounted device, and the sound is picked up by a microphone. The voice recognition unit includes a voice recognition unit that recognizes a voice including an utterance command that is a voice of an occupant, and a meaning interpretation unit that interprets the meaning of the voice recognized by the voice recognition unit. When the meaning is interpreted to include an instruction to register a new utterance command, the new utterance command is registered in the storage unit.
(2):上記(1)の態様において、前記意味解釈部は、前記音声の意味が、登録されている前記発話コマンドを削除する指示を含むと解釈した場合、当該発話コマンドを記憶部から削除するものである。 (2): In the aspect of (1) above, when the meaning interpreting unit interprets that the meaning of the voice includes an instruction to delete the registered utterance command, the utterance command is deleted from the storage unit. To do.
(3):上記(1)又は(2)の態様において、前記発話コマンドを登録した前記記憶部を備え、前記記憶部には、前記発話コマンドと該発話コマンドが示す制御の内容とが互いに対応付けられて登録された発話コマンド辞書が記憶されているものである。 (3): In the embodiment (1) or (2), the storage unit in which the utterance command is registered is provided, and the utterance command and the content of control indicated by the utterance command correspond to each other in the storage unit. The utterance command dictionary attached and registered is stored.
(4):上記(1)〜(3)のいずれかの態様において、エージェントシステムは、前記発話コマンド辞書を用いて、前記音声認識部により認識された音声から、前記意味解釈部が解釈した音声の意味に基づいて前記移動体搭載機器を制御する搭載機器制御部を更に備えるものである。 (4): In any of the above aspects (1) to (3), the agent system uses the utterance command dictionary to interpret the voice recognized by the voice recognition unit by the meaning interpretation unit. It is further provided with an on-board device control unit that controls the mobile on-board device based on the meaning of.
(5):上記(3)の態様において、前記意味解釈部は、前記音声認識部により認識された音声を、新たな発話コマンドを登録する指示を含むと解釈した場合であって、前記移動体搭載機器の基本的な制御命令である基本音声コマンドと前記基本音声コマンドに対する制御の内容とが互いに対応付けられた基本発話コマンド辞書に基づいて、前記新たな発話コマンドが、前記基本発話コマンド辞書に含まれていない場合、前記発話コマンド辞書に登録するものである。 (5): In the aspect of (3) above, the semantic interpretation unit interprets the voice recognized by the voice recognition unit as including an instruction to register a new utterance command, and the moving body. The new utterance command is added to the basic utterance command dictionary based on the basic utterance command dictionary in which the basic voice command, which is the basic control command of the on-board device, and the content of control for the basic voice command are associated with each other. If it is not included, it is registered in the utterance command dictionary.
(6):上記(3)又は(5)の態様において、前記意味解釈部は、前記音声認識部により認識された音声を、前記乗員が直前に行った前記移動体搭載機器に対する制御の指示に係る新たな発話コマンドを登録する指示を含むと解釈した場合、前記新たな発話コマンドを、前記移動体の乗員が直前に行った前記移動体搭載機器に対する制御の内容と共に前記発話コマンド辞書に登録するものである。 (6): In the embodiment (3) or (5) above, the semantic interpretation unit uses the voice recognized by the voice recognition unit as an instruction for control of the mobile-mounted device immediately before by the occupant. When it is interpreted that the instruction to register the new utterance command is included, the new utterance command is registered in the utterance command dictionary together with the content of the control performed by the occupant of the mobile body on the mobile body-mounted device immediately before. It is a thing.
(7):上記(3)〜(6)のいずれかの態様において、前記移動体の乗員のうち、前記マイクにより収音された前記発話コマンドが含まれる音声の発話者の位置を特定する発話者位置特定部と、前記発話者位置特定部により特定された前記発話者の位置情報と、前記移動体に搭載される移動体搭載機器に対する操作権限を有する乗員の位置を示す操作権限位置情報と、前記意味解釈部により解釈された前記発話コマンドの意味に含まれる移動体搭載機器情報とに基づいて、前記発話コマンドが含まれる音声の当該発話者が、当該移動体搭載機器の操作権限を有するか否かを判定する操作権限判定部とを更に備え、前記意味解釈部は、前記音声認識部により認識された音声を、新たな発話コマンドを登録する指示を含むと解釈した場合において、前記操作権限判定部により前記発話コマンドが含まれる音声の当該発話者が、当該移動体搭載機器の操作権限を有すると判定された場合に、前記新たな発話コマンドを、前記新たな発話コマンドが示す制御の内容と共に前記発話コマンド辞書に登録するものである。 (7): In any of the above aspects (3) to (6), an utterance that specifies the position of the speaker of the voice including the utterance command picked up by the microphone among the occupants of the moving body. The person position specifying unit, the position information of the speaker specified by the speaker position specifying unit, and the operation authority position information indicating the position of an occupant who has the operation authority for the moving body mounted device mounted on the moving body. , The speaker of the voice including the utterance command has the operation authority of the mobile-mounted device based on the mobile-mounted device information included in the meaning of the utterance command interpreted by the utterance interpreting unit. The operation authority determination unit for determining whether or not the utterance is further provided, and the semantic interpretation unit interprets the voice recognized by the voice recognition unit as including an instruction to register a new utterance command. When the authority determination unit determines that the speaker of the voice including the utterance command has the operation authority of the mobile body-mounted device, the new utterance command is controlled by the new utterance command. It is registered in the utterance command dictionary together with the contents.
(8):上記(4)の態様において、エージェントシステムは、前記移動体の乗員のうち、前記マイクにより収音された前記発話コマンドが含まれる音声の発話者の位置を特定する発話者位置特定部と、前記発話者位置特定部により特定された前記発話者の位置情報と、前記移動体に搭載される移動体搭載機器に対する操作権限を有する乗員の位置を示す操作権限位置情報と、前記意味解釈部により解釈された前記発話コマンドの意味に含まれる移動体搭載機器情報とに基づいて、前記発話コマンドが含まれる音声の当該発話者が、当該移動体搭載機器の操作権限を有するか否かを判定する操作権限判定部とを更に備え、前記搭載機器制御部は、前記意味解釈部により前記音声の意味が、前記移動体搭載機器の制御を指示していることを認識され、且つ、前記操作権限判定部により前記発話コマンドが含まれる音声の当該発話者が、当該移動体搭載機器の操作権限を有すると判定された場合に、前記移動体搭載機器を制御するものである。 (8): In the aspect of (4) above, the agent system identifies the position of the speaker of the voice including the utterance command picked up by the microphone among the occupants of the moving body. The unit, the position information of the speaker specified by the speaker position specifying unit, the operation authority position information indicating the position of an occupant having the operation authority for the mobile body-mounted device mounted on the moving body, and the meaning thereof. Whether or not the speaker of the voice including the utterance command has the operation authority of the mobile-mounted device based on the mobile-mounted device information included in the meaning of the utterance command interpreted by the interpretation unit. The on-board device control unit is further provided with an operation authority determination unit for determining the above, and the on-board device control unit recognizes that the meaning of the utterance indicates control of the mobile on-board device by the meaning interpretation unit. When the operation authority determination unit determines that the speaker of the voice including the utterance command has the operation authority of the mobile body-mounted device, the operation authority-mounted device is controlled.
(9):この発明の一態様に係る情報処理装置は、移動体に搭載される移動体搭載機器を制御する命令であり、前記移動体に搭乗している乗員の音声である発話コマンドを含む音声を取得する取得部と、前記発話コマンドと該発話コマンドが示す制御されるべき移動体搭載機器の情報が含まれる制御の内容とが互いに対応付けられた発話コマンド辞書を記憶する記憶部と、前記音声を認識する音声認識部と、前記音声認識部により認識された音声の意味を解釈する意味解釈部と、前記意味解釈部により解釈された音声の意味内容に対応する情報を生成する生成部と、を備える。 (9): The information processing device according to one aspect of the present invention is a command for controlling a mobile body-mounted device mounted on the moving body, and includes an utterance command which is a voice of an occupant on the moving body. An acquisition unit that acquires voice, a storage unit that stores an utterance command dictionary in which the utterance command and the content of control including information on a mobile device mounted to be controlled indicated by the utterance command are associated with each other, and a storage unit. A voice recognition unit that recognizes the voice, a meaning interpretation unit that interprets the meaning of the voice recognized by the voice recognition unit, and a generation unit that generates information corresponding to the meaning content of the voice interpreted by the meaning interpretation unit. And.
(10):上記(9)の態様において、情報処理装置は、前記生成部により生成された音声の意味内容に対応する前記情報に基づいて、前記移動体搭載機器を制御する搭載機器制御部を更に備える。 (10): In the aspect of (9) above, the information processing apparatus controls the on-board device control unit that controls the mobile on-board device based on the information corresponding to the meaning and content of the voice generated by the generation unit. Further prepare.
(11):この発明の一態様に係る移動体搭載機器制御方法は、発話コマンドと該発話コマンドが示す制御されるべき移動体搭載機器の情報が含まれる制御の内容とが互いに対応付けられた発話コマンド辞書を記憶する記憶部を備えるシステムにおける単一又は複数のコンピュータが、移動体に搭乗している乗員が発話した発話コマンドを含む音声を認識するステップと、認識された音声の意味を解釈するステップと、前記発話コマンド辞書を参照して、制御されるべき移動体搭載機器の情報及び制御の内容を取得するステップと、解釈された音声の意味に基づいて、制御されるべき移動体搭載機器を制御するステップ、認識された音声中に、新たな発話コマンドを登録する指示が含まれると解釈した場合、前記新たな発話コマンドを、前記新たな発話コマンドが示す制御の内容と共に前記発話コマンド辞書に登録するステップと、を有する。 (11): In the mobile body-mounted device control method according to one aspect of the present invention, the utterance command and the content of the control including the information of the mobile-mounted device to be controlled indicated by the utterance command are associated with each other. A single or multiple computers in a system with a storage unit that stores an utterance command dictionary interpret the steps of recognizing a voice containing an utterance command spoken by an occupant on a moving object and the meaning of the recognized voice. Steps to be performed, steps to acquire information on the mobile device mounted device to be controlled and control contents by referring to the utterance command dictionary, and mobile mounted to be controlled based on the meaning of the interpreted voice. When it is interpreted that the step of controlling the device and the recognized voice include an instruction to register a new utterance command, the new utterance command is combined with the control content indicated by the new utterance command. It has a step of registering in a dictionary.
(12):上記(11)の態様において、移動体搭載機器制御方法は、前記音声の意味を解釈するステップの後、前記音声の意味に対して、前記発話コマンド辞書に、該音声の意味と対応する制御の内容がある場合には、前記音声の意味を解釈するステップにより生成された音声の意味の解釈内容を、前記発話コマンド辞書を参照して、標準的な文字情報の制御の内容に置き換えるステップを更に有する。 (12): In the aspect of (11) above, the mobile body-mounted device control method displays the meaning of the voice in the utterance command dictionary with respect to the meaning of the voice after the step of interpreting the meaning of the voice. If there is a corresponding control content, the interpretation content of the voice meaning generated by the step of interpreting the voice meaning is added to the standard character information control content by referring to the utterance command dictionary. It has additional steps to replace.
(13):この発明の一態様に係るプログラムは、発話コマンドと該発話コマンドが示す制御されるべき移動体搭載機器の情報が含まれる制御の内容とが互いに対応付けられた発話コマンド辞書を記憶する記憶部を備えるシステムにおける単一又は複数のコンピュータにインストールされ、移動体に搭乗している乗員が発話した発話コマンドを含む音声を認識する処理と、認識された音声の意味を解釈する処理と、前記発話コマンド辞書を参照して、制御されるべき前記移動体搭載機器の情報及び制御の内容を取得する処理と、解釈された音声の意味に基づいて、制御されるべき前記移動体搭載機器を制御する処理と、認識された音声中に、新たな発話コマンドを登録する指示が含まれると解釈した場合、前記新たな発話コマンドを、前記新たな発話コマンドが示す制御の内容と共に前記発話コマンド辞書に登録する処理と、を含む前記コンピュータに実施させるものである。 (13): The program according to one aspect of the present invention stores an utterance command dictionary in which an utterance command and a control content including information on a mobile device to be controlled indicated by the utterance command are associated with each other. A process of recognizing a voice including an utterance command uttered by an occupant on a moving object and a process of interpreting the meaning of the recognized voice, which is installed in one or more computers in a system having a storage unit. , The process of acquiring the information and the content of control of the mobile-mounted device to be controlled by referring to the utterance command dictionary, and the mobile-mounted device to be controlled based on the meaning of the interpreted voice. When it is interpreted that the process of controlling the above and the recognized voice include an instruction to register a new utterance command, the new utterance command is combined with the control content indicated by the new utterance command. It is to be performed by the computer including the process of registering in the dictionary.
(1)〜(13)の態様によれば、乗員が所望する音声によって車載機器を制御することができるようにすることができる。 According to the aspects (1) to (13), it is possible to enable the vehicle-mounted device to be controlled by the voice desired by the occupant.
以下、図面を参照し、本発明のエージェントシステム、情報処理装置、移動体搭載機器制御方法、及びプログラムの実施形態について説明する。 Hereinafter, embodiments of the agent system, the information processing device, the mobile body-mounted device control method, and the program of the present invention will be described with reference to the drawings.
<実施形態>
[システム構成]
図1は、第1実施形態に係る車載機器制御装置を利用したエージェントシステム1の構成の一例を示す図である。第1実施形態に係るエージェントシステム1は、例えば、車両(以下、車両M)に搭載されるエージェント装置100と、サーバ装置200とを備える。車両Mは、例えば、二輪や三輪、四輪等の車両である。これらの車両の駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせであってよい。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
<Embodiment>
[System configuration]
FIG. 1 is a diagram showing an example of a configuration of an
エージェント装置100とサーバ装置200とは、ネットワークNWを介して通信可能に接続される。ネットワークNWは、LAN(Local Area Network)やWAN(Wide Area Network)等が含まれる。ネットワークNWには、例えば、Wi−FiやBluetooth(登録商標、以下省略)等無線通信を利用したネットワークが含まれてよい。エージェントシステム1は、複数のエージェント装置100および複数のサーバ装置200により構成されてもよい。
The
エージェント装置100は、エージェント機能を用いて車両Mの乗員からの音声を取得し、取得した音声をサーバ装置200に送信する。また、エージェント装置100は、サーバ装置から得られるデータ(例えば、エージェント設定データ)等に基づいて、乗員と対話したり、画像や映像等の情報を提供したり、車載機器VEや他の装置を制御したりする。車両Mには、例えば、複数の車載機器VEが搭載される。車載機器VEは、例えば、自動運転や高度運転支援(例えば、ACC(Adaptive Cruise Control)に係る機器、VSA(Vehicle Stability Assist)等)に係る機器、エアコン、パワーウィンドウ、オーディオ、カーナビゲーション等である。
The
サーバ装置200は、車両Mに搭載されたエージェント装置100と通信し、エージェント装置100から各種データを取得する。サーバ装置200は、取得したデータに基づいて、音声等による問い合わせに関するエージェント設定データを生成し、生成したエージェント設定データをエージェント装置100に提供する。第1実施形態に係るサーバ装置200の機能は、エージェント機能に含まれる。また、サーバ装置200の機能は、エージェント装置100におけるエージェント機能を、より高精度な機能に更新する。
The
[エージェント装置の構成]
図2は、第1実施形態に係るエージェント装置100の構成の一例を示す図である。第1実施形態に係るエージェント装置100は、例えば、エージェント側通信部102と、マイク(マイクロフォン)106と、スピーカ108と、表示部110と、エージェント側制御部120と、エージェント側記憶部150とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続されてよい。なお、図2に示すエージェント装置100の構成はあくまでも一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
[Agent device configuration]
FIG. 2 is a diagram showing an example of the configuration of the
エージェント側通信部102は、NIC(Network Interface controller)等の通信インターフェースを含む。エージェント側通信部102は、ネットワークNWを介してサーバ装置200等と通信する。
The agent-
マイク106は、車室内の音声を電気信号化し収音する音声入力装置である。マイク106は、収音した音声のデータ(以下、音声データ)をエージェント側制御部120に出力する。例えば、マイク106は、乗員が車室内のシートに着座したときの前方付近に設置される。例えば、マイク106は、マットランプ、ステアリングホイール、インストルメントパネル、またはシートの付近に設置される。マイク106は、車室内に複数設置されてよい。
The
スピーカ108は、例えば、車室内のシート付近または表示部110付近に設置される。スピーカ108は、エージェント側制御部120により出力される情報に基づいて音声を出力する。
The
表示部110は、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイ等の表示装置を含む。表示部110は、エージェント側制御部120により出力される情報に基づいて画像を表示する。
The
図3は、運転席から見た車室内の一例を示す図である。図示の例の車室内には、マイク106A〜106Cと、スピーカ108A〜108Cと、表示部110A〜110Cとが設置される。マイク106Aは、例えば、ステアリングホイールに設けられ、主に運転者が発話した音声を収音する。マイク106Bは、例えば、助手席正面のインストルメントパネル(ダッシュボードまたはガーニッシュ)IPに設けられ、主に助手席の乗員が発話した音声を収音する。マイク106Cは、例えば、インストルメントパネルの中央(運転席と助手席との間)付近に設置される。
FIG. 3 is a diagram showing an example of the vehicle interior as seen from the driver's seat.
スピーカ108Aは、例えば、運転席側のドアの下部に設置され、スピーカ108Bは、例えば、助手席側のドアの下部に設置され、スピーカ108Cは、例えば、表示部110Cの付近、つまり、インストルメントパネルIPの中央付近に設置される。
The
表示部110Aは、例えば運転者が車外を視認する際の視線の先に虚像を表示させるHUD(Head-Up Display)装置である。HUD装置は、例えば、車両Mのフロントウインドシールド、或いはコンバイナーと呼ばれる光の透過性を有する透明な部材に光を投光することで、乗員に虚像を視認させる装置である。乗員は、主に運転者であるが、運転者以外の乗員であってもよい。
The
表示部110Bは、運転席(ステアリングホイールに最も近い座席)の正面付近のインストルメントパネルIPに設けられ、乗員がステアリングホイールの間隙から、或いはステアリングホイール越しに視認可能な位置に設置される。表示部110Bは、例えば、LCDや有機EL表示装置等である。表示部110Bには、例えば、車両Mの速度、エンジン回転数、燃料残量、ラジエータ水温、走行距離、その他の情報の画像が表示される。
The
表示部110Cは、インストルメントパネルIPの中央付近に設置される。表示部110Cは、例えば、表示部110Bと同様に、LCDや有機EL表示装置等である。表示部110Cは、テレビ番組や映画等のコンテンツを表示する。
The
なお、車両Mには、更に、後部座席付近にマイクとスピーカが設けられてよい。図4は、車両Mを上から見た車室内の一例を示す図である。車室内には、図3で例示したマイクスピーカに加えて、更に、マイク106D、106Eと、スピーカ108D、108Eとが設置されてよい。
The vehicle M may be further provided with a microphone and a speaker near the rear seats. FIG. 4 is a diagram showing an example of the vehicle interior when the vehicle M is viewed from above. In addition to the microphone speakers illustrated in FIG. 3,
マイク106Dは、例えば、助手席ST2の後方に設置された左後部座席ST3の付近(例えば、助手席ST2の後面)に設けられ、主に、左後部座席ST3に着座する乗員が発話した音声を収音する。マイク106Eは、例えば、運転席ST1の後方に設置された右後部座席ST4の付近(例えば、運転席ST1の後面)に設けられ、主に、右後部座席ST4に着座する乗員が発話した音声を収音する。
The
スピーカ108Dは、例えば、左後部座席ST3側のドアの下部に設置され、スピーカ108Eは、例えば、右後部座席ST4側のドアの下部に設置される。以降の説明において、運転席ST1、助手席ST2、左後部座席ST3、及び右後部座席ST4を互いに区別しない場合には、単に座席STと記載する。
The
なお、図1に例示した車両Mは、図3または図4に例示するように、乗員である運転手が操作可能なステアリングホイールを備える車両であるものとして説明したがこれに限られない。例えば、車両Mは、ルーフがない、すなわち車室がない(またはその明確な区分けがない)車両であってもよい。また、図3または図4の例では、車両Mを運転操作する運転手が座る運転席と、その他の運転操作をしない乗員が座る助手席や後部座席とが一つの室内にあるものとして説明しているがこれに限られない。また、図3または図4の例では、車両Mが、ステアリングホイールを備える車両であるものとして説明しているがこれに限られない。例えば、車両Mは、ステアリングホイールのような運転操作機器が設けられていない自動運転車両であってもよい。自動運転車両とは、例えば、乗員の操作に依らずに車両の操舵または加減速のうち一方または双方を制御して運転制御を実行することである。 The vehicle M illustrated in FIG. 1 has been described as being a vehicle provided with a steering wheel that can be operated by a driver who is an occupant, as illustrated in FIG. 3 or 4, but is not limited thereto. For example, vehicle M may be a vehicle without a roof, i.e., without a cabin (or without a clear division thereof). Further, in the example of FIG. 3 or 4, it is assumed that the driver's seat in which the driver who drives the vehicle M sits and the passenger's seat and the rear seat in which the occupant who does not drive the vehicle M sits are in one room. However, it is not limited to this. Further, in the example of FIG. 3 or 4, the vehicle M is described as being a vehicle provided with a steering wheel, but the present invention is not limited to this. For example, the vehicle M may be an autonomous driving vehicle that is not provided with a driving operation device such as a steering wheel. The autonomous driving vehicle is, for example, to execute driving control by controlling one or both of steering and acceleration / deceleration of the vehicle without depending on the operation of an occupant.
図2の説明に戻り、エージェント側制御部120は、例えば、取得部122と、音声合成部124と、出力制御部126と、通信制御部128と、発話者位置特定部130と、操作権限判定部132と、車載機器制御部134とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めエージェント側記憶部150(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでエージェント側記憶部150にインストールされてもよい。
Returning to the description of FIG. 2, the agent-
エージェント側記憶部150は、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。エージェント側記憶部150には、例えば、プロセッサによって参照されるプログラム等と、車載機器情報152と、操作権限位置情報154とが格納される。車載機器情報152は、車両Mに搭載されている車載機器VE(の一覧)を示す情報である。
The agent-
図5は、操作権限位置情報154の内容の一例を示す図である。操作権限位置情報154は、例えば、車両M内における乗員の位置(この一例では、乗員の座席)と、当該位置に乗車する乗員が操作権限を有する車載機器VEとを、乗員の位置毎に対応付けた情報である。操作権限位置情報154には、例えば、車両Mの挙動や状態に影響しない車載機器VE(例えば、オーディオ、エアコン等)は、どの位置の乗員も操作権限を有し、車両Mの挙動や状態に影響する車載機器VE(例えば、窓の開閉、ドアロック、運転支援に係る機器、方向指示器、前照灯等)は、当該車載機器VEの近傍の位置の乗員か、又は運転席に位置する乗員のみが操作権限を有することが示される。
FIG. 5 is a diagram showing an example of the contents of the operation
図2に戻り、取得部122は、マイク106から音声データを取得したり、他の情報を取得したりする。
Returning to FIG. 2, the
音声合成部124は、エージェント側通信部102がサーバ装置200から受信したエージェント設定データに音声制御内容が含まれる場合に、音声制御として発話によって指示(つまり、音声指示)された音声データに基づいて、人工的な合成音声(以下、エージェント音声と称する)を生成する。
The
出力制御部126は、音声合成部124によってエージェント音声が生成されると、そのエージェント音声をスピーカ108に出力させる。また、出力制御部126は、エージェント設定データに画像制御内容が含まれる場合に、画像制御として指示された画像データを表示部110に表示させる。また、出力制御部126は、音声データの認識結果(フレーズ等のテキストデータ)の画像を表示部110に表示させてもよい。
When the agent voice is generated by the
通信制御部128は、エージェント側通信部102を介して、取得部122によって取得された音声データをサーバ装置200に送信する。
The
発話者位置特定部130は、車両Mの乗員のうち、マイク106によって収音された音声を発話した乗員の位置を特定する。発話者位置特定部130は、例えば、マイク106A〜106Eのうち、ある発話について最も大きい音量によって音声を収音したマイク106の近傍に設置されている座席STを、音声を発話した乗員の位置として特定する。なお、発話者位置特定部130は、車内カメラ(不図示)によって乗員が撮像された画像に基づいて、マイク106によって音声が収音されたタイミングに口を動かしている乗員の位置を、音声を発話した乗員の位置として特定してもよい。
The speaker
操作権限判定部132は、例えば、エージェント設定データに車載機器VEの制御を示す情報が含まれる場合、発話者位置特定部130によって特定された位置に乗車する乗員が、指示対象の車載機器VEについて操作権限を有するか否かを、操作権限位置情報154に基づいて判定する。まず、操作権限判定部132は、発話者位置特定部130によって特定された乗員の位置を検索キーとして操作権限位置情報154を検索する。そして、操作権限判定部132は、特定した乗員の位置に対応付けられた操作権限を有する車載機器VEに、エージェント設定データに示される指示対象の車載機器VEが対応付けられている場合、発話した乗員が操作権限を有すると判定する。操作権限判定部132は、発話した乗員が操作権限を有することを示す情報をエージェント側通信部102によってサーバ装置200に送信する。
For example, when the agent setting data includes information indicating control of the in-vehicle device VE, the operation
また、操作権限判定部132は、例えば、エージェント設定データに車載機器VEの制御を指示する新たな発話コマンドを登録する制御内容が含まれる場合、発話者位置特定部130によって特定された位置に乗車する乗員が、指示対象の車載機器VEについて操作権限を有するか否かを、操作権限位置情報154に基づいて判定する。操作権限判定部132が新たな発話コマンドを登録する処理に伴い、乗員の操作権限を判定する処理は、上述した、車載機器VEの制御に伴い乗員の操作権限を判定する処理と同様であるため、説明を省略する。
Further, the operation
車載機器制御部134は、エージェント設定データに車載機器VEの制御内容が含まれ、且つ操作権限判定部132の判定結果が、指示語を発話した乗員が指示対象の車載機器VEの操作権限を有することを示す場合に、車載機器VEの動作を制御する。
In the in-vehicle
[サーバ装置の構成]
図6は、第1実施形態に係るサーバ装置200の構成の一例を示す図である。第1実施形態に係るサーバ装置200は、例えば、サーバ側通信部202と、サーバ側制御部210と、サーバ側記憶部230とを備える。
[Server device configuration]
FIG. 6 is a diagram showing an example of the configuration of the
サーバ側通信部202は、NIC等の通信インターフェースを含む。サーバ側通信部202は、ネットワークNWを介して各車両Mに搭載されたエージェント装置100等と通信する。
The server-
サーバ側制御部210は、例えば、取得部212と、発話区間抽出部214と、音声認識部216と、意味解釈部218と、エージェント設定データ生成部222と、通信制御部224とを備える。これらの構成要素は、例えば、CPUやGPU等のプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めサーバ側記憶部230(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでサーバ側記憶部230にインストールされてもよい。
The server-
サーバ側記憶部230は、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。サーバ側記憶部230には、例えば、プロセッサによって参照されるプログラムのほかに、基本発話コマンド辞書232、ユーザ発話コマンド辞書234等が格納される。基本発話コマンド辞書232には、例えば、予め登録されている音声コマンドが含まれる発話命令文や句等(以下、音声コマンド)が含まれ、ユーザ発話コマンド辞書234には、例えば、車両Mの乗員によって登録された発話命令文や句等(以下、ユーザ発話コマンド)が含まれる。
The server-
図7は、基本発話コマンド辞書232の内容の一例を示す図である。基本発話コマンド辞書232には、例えば、予め登録されている音声コマンドが含まれる命令を標準的に発話した文や句例である基本音声コマンドと、基本音声コマンドと、基本音声コマンドによって動作が指示される制御対象の車載機器VEと、エージェント側制御部120に実行させる制御内容とが互いに(共に)対応付けられる。基本音声コマンドには、例えば、制御対象の車載機器VEの名称と、制御対象の車載機器VEに対する指示・命令(させたい事)が含まれる。制御内容には、例えば、車載機器VEに対する動作の制御(動作させたい事)について、その制御が入力されている。例えば、基本発話コマンド辞書232では、車載機器制御内容「エアコンを起動させる(エアコンの電源を入れる)」に対して、「エアコン ON」「エアコン 起動」「エアコン 作動」という3つの予め登録された基本音声コマンドが対応付けられている。
FIG. 7 is a diagram showing an example of the contents of the basic
図8は、ユーザ発話コマンド辞書234の内容の一例を示す図である。ユーザ発話コマンド辞書234には、例えば、乗員により登録されたユーザ発話コマンドと、ユーザ発話コマンドによって動作が指示される制御対象の車載機器VEと、エージェント側制御部120に実行させる制御内容とが互いに(共に)対応付けられる。ユーザ発話コマンドには、例えば、車載機器VEに対する指示を示す言葉(例えば、指示を示す代名詞「あれやって」等)が含まれる。制御内容には、例えば、車載機器VEに対する動作制御(動作させたい事)について、当該車載機器VEの名称を含む当該制御が登録されている。例えば、ユーザ発話コマンド辞書234では、「運転席の窓(車載機器VE)を20%開ける」車載機器制御に対して、「いつものやって」というユーザ発話コマンドに対して、「運転席窓の昇降装置(車載機器VE)で運転席の窓を20%開ける」という車載機器制御内容が対応付けられている。
FIG. 8 is a diagram showing an example of the contents of the user
なお、基本発話コマンド辞書232やユーザ発話コマンド辞書234において、制御内容には、車載機器制御の他、出力制御部126がスピーカ108に音声を出力させる音声制御や、出力制御部126が表示部110に画像を表示させる表示制御が含まれていてもよい。
In the basic
図6に戻り、取得部212は、サーバ側通信部202を介して、エージェント装置100から、音声データを取得する。
Returning to FIG. 6, the
発話区間抽出部214は、取得部122によって取得された音声データから、乗員が発話している期間(以下、発話区間と称する)を抽出する。例えば、発話区間抽出部214は、零交差法を利用して、音声データに含まれる音声信号の振幅に基づいて発話区間を抽出してよい。また、発話区間抽出部214は、混合ガウス分布モデル(GMM;Gaussian mixture model)に基づいて、音声データから発話区間を抽出してもよいし、発話区間特有の音声信号をテンプレート化したデータベースとテンプレートマッチング処理を行うことで、音声データから発話区間を抽出してもよい。
The utterance
音声認識部216は、発話区間抽出部214によって抽出された発話区間ごとに音声データを認識し、認識した音声データをテキスト化することで、発話内容を含むテキストデータを生成する。例えば、音声認識部216は、発話区間の音声信号を、低周波数や高周波数等の複数の周波数帯に分離し、分類した各音声信号をフーリエ変換することで、スペクトログラムを生成する。音声認識部216は、生成したスペクトログラムを、再帰的ニューラルネットワークに入力することで、スペクトログラムから文字列を得る。再帰的ニューラルネットワークは、例えば、学習用の音声から生成したスペクトログラムに対して、その学習用の音声に対応した既知の文字列が教師ラベルとして対応付けられた教師データを利用することで、予め学習されていてよい。そして、音声認識部216は、再帰的ニューラルネットワークから得た文字列のデータを、テキストデータとして出力する。
The
意味解釈部218は、音声認識部216により認識されたテキストデータに基づいて、自然言語のテキストデータの構文解析を行って、テキストデータを形態素に分け、各形態素からテキストデータに含まれる文言の意味を解釈する。意味解釈部218は、例えば、サーバ側記憶部230に記憶された基本発話コマンド辞書232やユーザ発話コマンド辞書234を用いて、音声認識部216により認識されたテキストデータの意味が、車載機器VEの制御を指示していることを解釈する。具体的には、認識されたテキストデータ(発話内容)から、少なくとも指示制御対象としての車載機器VEの名称と車載機器制御内容とを把握することである。
The
エージェント設定データ生成部222は、意味解釈部218により意味が解釈された発話内容が、車載機器VEの制御を指示していると解釈された(基本音声コマンド、又はユーザ発話コマンドが発話内容に含まれると認識された)場合、基本発話コマンド辞書232、及びユーザ発話コマンド辞書234を参照し、合致する基本音声コマンド、又はユーザ発話コマンドに対応付けられた制御内容を取得する。エージェント設定データ生成部222は、取得した制御内容(例えば、車載機器制御、音声制御、または表示制御のうち少なくとも一つ)に対応する処理を実行させるためのエージェント設定データを生成する。なお、解釈結果として、「ON エアコン」、「エアコン 作動」等の意味が解釈された場合、エージェント設定データ生成部222は、上述の意味を標準文字情報「エアコンを起動させる」や、標準コマンド情報「TURN AC ON」等に置き換える。これにより、発話内容の要求に文字揺らぎがあった場合にも要求にあった制御内容を取得し易くすることができる。
The agent setting
通信制御部224は、エージェント設定データ生成部222により生成されたエージェント設定データを、サーバ側通信部202を介して車両Mに送信する。これにより、車両Mは、エージェント側制御部120によって、エージェント設定データに対応する制御が実行される。
The
[ユーザ発話コマンド辞書234への新たな発話コマンドの登録]
また、意味解釈部218は、音声認識部216により認識されたテキストデータの意味が、新たな発話コマンドを登録する指示を含むことを解釈する。『新たな発話コマンドを登録する指示』は、例えば、新たな発話コマンドそのものと、新たな発話コマンドによって指示される車載機器VEに対する指示とを少なくとも含む言葉によって示され、例えば、『運転席の窓(車載機器VE)を20%開けることを、「いつものやって」で登録して。』等の指示である。この場合、車載機器VEの名称は、「運転席の窓」であり、「いつものやって」は、この一例における、新たな発話コマンドである。エージェント設定データ生成部222は、意味解釈部218によって新たな発話コマンドを登録する指示が含まれると解釈された場合、解釈された新たな発話コマンドと、新たな発話コマンドの制御対象の車載機器VEを示す情報(例えば、車載機器VEの名称)と、新たな発話コマンドを登録する制御内容と含むエージェント設定データを生成し、サーバ側通信部202によってエージェント装置100に送信する。
[Registration of new utterance commands in the user utterance command dictionary 234]
Further, the meaning
上述したように、操作権限判定部132は、新たな発話コマンドを登録する制御内容を含むエージェント設定データを受信した場合、ユーザ発話コマンドの制御対象の車載機器VEについて、新たな発話コマンドの登録を指示した乗員が操作権限を有するか否かを判定し、判定結果を示す情報をエージェント側通信部102によってサーバ装置200に送信する。
As described above, when the operation
意味解釈部218は、サーバ側通信部202によって受信した当該情報が発話した乗員が車載機器VEの操作権限を有することを示す場合、解釈した新たな発話コマンドと、当該新たな発話コマンドによって指示される車載機器VEの制御内容とを対応付けて、ユーザ発話コマンド辞書234に登録する。
When the information received by the server-
[新たな発話コマンドの登録の例外]
なお、意味解釈部218が、新たな発話コマンドを検索キーとして基本発話コマンド辞書232を検索し、新たな発話コマンドが既に予め登録される基本音声コマンドとして登録されている場合には、新たな発話コマンドをユーザ発話コマンド辞書234に登録する処理を実行しない。この場合、意味解釈部218は、エージェント設定データ生成部222に新たな発話コマンドを登録する処理に係るエージェント設定データを生成させない。
[Exception to registration of new utterance command]
The
[直前の動作に対してユーザ発話コマンドを登録]
また、意味解釈部218は、音声認識部216により認識されたテキストデータの意味が、乗員が車載機器VEに対して直前に行った指示(或いは、制御)を新たな発話コマンドとして登録する指示を含むことを解釈する。『直前に行った指示を新たな発話コマンドとして登録する指示』は、例えば、新たな発話コマンドそのものを含む言葉であり、例えば、『今やった制御を、「いつものやって」で登録して。』等の指示である。今やった制御とは、乗員が直前に行った指示に応じて車載機器VEに行われた制御や、乗員が自ら操作して車載機器VEに行った制御等である。エージェント設定データ生成部222は、意味解釈部218によって直前に行った指示を新たな発話コマンドを登録する指示が含まれると解釈された場合、解釈された新たな発話コマンドと、直前に行った指示を新たな発話コマンドを登録する制御内容と含むエージェント設定データを生成し、サーバ側通信部202によってエージェント装置100に送信する。
[Register user utterance command for the previous operation]
Further, the meaning
この場合、操作権限判定部132は、直前に行った指示を新たな発話コマンドを登録する制御内容を含むエージェント設定データを受信し、車載機器VEに対して行われた制御の履歴を示す履歴に基づいて、直前に行われた制御内容における制御対象の車載機器VEを特定する。履歴情報は、例えば、エージェント側記憶部150に蓄積(記憶)されている。操作権限判定部132は、特定した車載機器VEについて、新たな発話コマンドの登録を指示した乗員が操作権限を有するか否かを判定し、判定結果を示す情報と、直前に行われた制御内容とを示す情報をエージェント側通信部102によってサーバ装置200に送信する。
In this case, the operation
意味解釈部218は、サーバ側通信部202によって受信した情報に基づいて判定結果が、発話した乗員が車載機器VEの操作権限を有することを示す場合、解釈した新たな発話コマンドと、受信した直前に行われた制御内容とを対応付けて、ユーザ発話コマンド辞書234に登録する。
When the determination result based on the information received by the server-
[処理フロー]
次に、第1実施形態に係るエージェントシステム1の処理の流れについてフローチャートを用いて説明する。なお、以下では、エージェント装置100の処理と、サーバ装置200との処理を分けて説明するものとする。また、以下に示す処理の流れは、所定のタイミングで繰り返し実行されてよい。所定のタイミングとは、例えば、音声データからエージェント装置を起動させる特定ワード(例えば、ウェイクアップワード)が抽出されたタイミングや、車両Mに搭載される各種スイッチのうち、エージェント装置100を起動させるスイッチの選択を受け付けたタイミング等である。
[Processing flow]
Next, the processing flow of the
図9は、第1実施形態に係るエージェント装置100の一連の処理の流れを示すフローチャートである。まず、エージェント側制御部120の取得部122は、マイク106によって乗員の音声データが収集されたか否かを判定する(ステップS100)。取得部122は、乗員の音声データが収集されるまでの間、待機する。次に、通信制御部128は、エージェント側通信部102を介して、音声データをサーバ装置200に送信する(ステップS102)。
FIG. 9 is a flowchart showing a series of processing flows of the
次に、通信制御部128は、サーバ装置200からエージェント設定データを受信する(ステップS104)。次に、操作権限判定部132は、受信したエージェント設定データに含まれる車載機器VEを特定する(ステップS106)。発話者位置特定部130は、ステップS100において収集された音声を発話した乗員の位置を特定する(ステップS108)。操作権限判定部132は、受信したエージェント設定データに車載機器VEの制御を指示する新たな発話コマンドを登録する制御内容が含まれるか否かを判定する(ステップS110)。操作権限判定部132は、エージェント設定データに新たな発話コマンドを登録する制御内容が含まれない場合、エージェント設定データにそれ以外の指示が含まれる(例えば、音声制御、表示制御、車載機器制御等である)ものとして、処理をステップS118に進める。
Next, the
操作権限判定部132は、エージェント設定データに新たな発話コマンドを登録する制御内容が含まれる場合、操作権限位置情報154に基づいて、特定した車載機器VEについて、発話者位置特定部130により位置が特定された乗員が操作権限を有するか否かを判定する(ステップS112)。操作権限判定部132は、乗員が車載機器VEの操作権限を有しないと判定した場合、乗員が車載機器VEの操作権限を有しないことを示す情報を、エージェント側通信部102によりサーバ装置200に送信する(ステップS114)。操作権限判定部132は、乗員が車載機器VEの操作権限を有すると判定した場合、乗員が車載機器VEの操作権限を有することを示す情報をエージェント側通信部102によりサーバ装置200に送信する(ステップS116)。
When the agent setting data includes the control content for registering a new utterance command, the operation
操作権限判定部132は、エージェント設定データに車載機器VEに対する制御内容が含まれる場合、操作権限位置情報154に基づいて、特定した車載機器VEについて、発話者位置特定部130によって位置が特定された乗員が操作権限を有するか否かを判定する(ステップS118)。車載機器制御部134は、操作権限判定部132により乗員が車載機器VEの操作権限を有しないと判定した場合、車載機器VEに対する制御を実行せず、処理を終了する(ステップS120)。車載機器制御部134は、操作権限判定部132によって乗員が車載機器VEの操作権限を有すると判定した場合、エージェント設定データに含まれる制御内容に基づいて、車載機器VEに対する制御を実行する(ステップS122)。これにより、本フローチャートの処理は、終了する。
When the agent setting data includes the control content for the in-vehicle device VE, the operation
図10は、第1実施形態に係るサーバ装置200の一例の処理の流れを示すフローチャートである。まず、サーバ側通信部202は、エージェント装置100から音声データ、第1画像データ、第2画像データを取得する(ステップS200)。次に、発話区間抽出部214は、音声データに含まれる発話区間を抽出する(ステップS202)。次に、音声認識部216は、抽出された発話区間における音声データの音声認識をする(ステップS203)。次に、意味解釈部218は、抽出された発話区間における音声データの意味を解釈する(ステップS204)。意味解釈部218は、解釈した音声の意味が、新たな発話コマンドを登録する指示を示すか否かを判定する(ステップS206)。エージェント設定データ生成部222は、意味解釈部218によって解釈した音声の意味が、新たな発話コマンドを登録する指示を示さない(つまり、音声制御、表示制御、或いは車載機器制御を示す)と判定された場合、発話内容全体の意味に基づくエージェント設定データを生成する(ステップS208)。サーバ側制御部210の通信制御部224は、サーバ側通信部202を介して、エージェント設定データをエージェント装置100に送信する(ステップS210)。
FIG. 10 is a flowchart showing a processing flow of an example of the
エージェント設定データ生成部222は、意味解釈部218によって解釈した音声の意味が、新たな発話コマンドを登録する指示を示すと判定された場合、解釈された新たな発話コマンドと、新たな発話コマンドの制御対象の車載機器VEを示す情報と、新たな発話コマンドを登録する制御内容と含むエージェント設定データを生成する(ステップS212)。サーバ側制御部210の通信制御部224は、サーバ側通信部202を介して、エージェント設定データをエージェント装置100に送信する(ステップS214)。意味解釈部218は、ステップS214によってエージェント設定データがサーバ装置200により送信されたことに伴い、上述したステップS114やステップS116において生成/送信された情報が、乗員が車載機器VEの操作権限を有することを示すか否かを判定する(ステップS216)。
When the agent setting
意味解釈部218は、受信した情報が、乗員が車載機器VEの操作権限を有することを示さない場合、新たな発話コマンドをユーザ発話コマンド辞書234に登録せず、処理を終了する。意味解釈部218は、受信した情報が、乗員が車載機器VEの操作権限を有することを示す場合、解釈した新たな発話コマンドが基本発話コマンド辞書232に含まれるか否かを判定する(ステップS218)。意味解釈部218は、新たな発話コマンドが基本発話コマンド辞書232に含まれる場合、当該新たな発話コマンドをユーザ発話コマンドとして登録することができないため、処理を終了する。意味解釈部218は、乗員が車載機器VEの操作権限を有し、且つ新たな発話コマンドが基本発話コマンド辞書232に含まれないと判定した場合、新たな発話コマンドと、当該新たな発話コマンドによって指示される車載機器VEの制御内容とを対応付けて、ユーザ発話コマンド辞書234に登録する(ステップS220)。これにより、本フローチャートの処理は、終了する。
If the received information does not indicate that the occupant has the operation authority of the in-vehicle device VE, the
以上説明した第1実施形態のエージェントシステム1によれば、乗員が所望する音声によって車載機器VEを制御することができるようにし、乗員がより簡便に車載機器VEを操作できるようにすることができる。
According to the
<第2実施形態>
上述した第1実施形態では、車両Mに搭載されたエージェント装置100と、サーバ装置200とが互いに異なる装置であるものとして説明したがこれに限定されるものではない。例えば、エージェント機能に係るサーバ装置200の構成要素は、エージェント装置100の構成要素に含まれてもよい。この場合、サーバ装置200は、エージェント装置100のエージェント側制御部120によって仮想的に実現される仮想マシンとして機能させてもよい。以下、サーバ装置200の構成要素を含むエージェント装置100Aを第2実施形態として説明する。この場合、エージェント装置100Aが「エージェントシステム」の一例である。なお、第2実施形態において、上述した第1実施形態と同様の構成要素については、同様の符号を付するものとし、ここでの具体的な説明は省略する。
<Second Embodiment>
In the above-described first embodiment, the
図11は、第2実施形態に係るエージェント装置100Aの一例を示す図である。エージェント装置100Aは、例えば、エージェント側通信部102と、マイク106と、スピーカ108と、表示部110と、エージェント側制御部120Aと、エージェント側記憶部150Aとを備える。エージェント側制御部120Aは、例えば、取得部122と、音声合成部124と、出力制御部126と、通信制御部128と、発話者位置特定部130と、操作権限判定部132と、車載機器制御部134と、取得部212Aと、発話区間抽出部214Aと、音声認識部216Aと、意味解釈部218Aと、エージェント設定データ生成部222Aとを備える。
FIG. 11 is a diagram showing an example of the
また、エージェント側記憶部150Aは、例えば、プロセッサによって参照されるプログラムのほかに、車載機器情報152、操作権限位置情報154、基本発話コマンド辞書232A、ユーザ発話コマンド辞書234A等が格納される。基本発話コマンド辞書232Aは、サーバ装置200から取得した最新の情報によって更新されてもよい。
Further, the agent-
[処理フロー]
図12、及び図13は、第2実施形態に係るエージェント装置100Aの一連の処理の流れを示すフローチャートである。また、以下に示す処理の流れは、第1実施形態における処理の流れと同様に所定のタイミングで繰り返し実行されてよい。まず、エージェント側制御部120の取得部122は、マイク106によって乗員の音声データが収集されたか否かを判定する(ステップS300)。次に、発話区間抽出部214は、音声データに含まれる発話区間を抽出する(ステップS302)。次に、意味解釈部218は、抽出された発話区間における音声データの意味を解釈する(ステップS304)。
[Processing flow]
12 and 13 are flowcharts showing a series of processing flows of the
意味解釈部218は、解釈した音声の意味が、新たな発話コマンドを登録する指示を示すか否かを判定する(ステップS306)。エージェント設定データ生成部222は、意味解釈部218によって解釈した音声の意味が、新たな発話コマンドを登録する指示を示さない(つまり、音声制御、表示制御、或いは車載機器制御を示す)と判定された場合、発話内容全体の意味に基づくエージェント設定データを生成する(ステップS308)。エージェント設定データ生成部222は、意味解釈部218によって解釈した音声の意味が、新たな発話コマンドを登録する指示を示すと判定された場合、解釈された新たな発話コマンドと、新たな発話コマンドの制御対象の車載機器VEを示す情報と、新たな発話コマンドを登録する制御内容と含むエージェント設定データを生成する(ステップS310)。操作権限判定部132は、ステップS208、又はステップS212において生成されたエージェント設定データに含まれる車載機器VEを特定する(ステップS312)。発話者位置特定部130は、ステップS100において収集された音声を発話した乗員の位置を特定する(ステップS314)。
The meaning
操作権限判定部132は、エージェント設定データに車載機器VEの制御を指示する新たな発話コマンドを登録する制御内容が含まれるか否かを判定する(ステップS316)。操作権限判定部132は、エージェント設定データにユーザ発話コマンドを登録する制御内容が含まれず、車載機器VEに対する制御内容が含まれる場合、操作権限位置情報154に基づいて、特定した車載機器VEについて、発話者位置特定部130によって位置が特定された乗員が操作権限を有するか否かを判定する(ステップS318)。車載機器制御部134は、操作権限判定部132によって乗員が車載機器VEの操作権限を有しないと判定した場合、車載機器VEに対する制御を実行せず、処理を終了する(ステップS320)。車載機器制御部134は、操作権限判定部132によって乗員が車載機器VEの操作権限を有すると判定した場合、エージェント設定データに含まれる制御内容に基づいて、車載機器VEに対する制御を実行する(ステップS322)。
The operation
操作権限判定部132は、エージェント設定データに新たな発話コマンドを登録する制御内容が含まれる場合、操作権限位置情報154に基づいて、特定した車載機器VEについて、発話者位置特定部130により位置が特定された乗員が操作権限を有するか否かを判定する(ステップS324)。意味解釈部218は、操作権限判定部132が、乗員が車載機器VEの操作権限を有しないと判定した場合、新たな発話コマンドをユーザ発話コマンド辞書234に登録せず、処理を終了する。意味解釈部218は、操作権限判定部132が、乗員が車載機器VEの操作権限を有すると判定した場合、解釈した新たな発話コマンドが基本発話コマンド辞書232に含まれるか否かを判定する(ステップS326)。意味解釈部218は、新たな発話コマンドが基本発話コマンド辞書232に含まれる場合、当該新たな発話コマンドをユーザ発話コマンドとして登録することができないため、処理を終了する。意味解釈部218は、乗員が車載機器VEの操作権限を有し、且つ新たな発話コマンドが基本発話コマンド辞書232に含まれないと判定した場合、新たな発話コマンドと、当該新たな発話コマンドによって指示される車載機器VEの制御内容とを対応付けて、ユーザ発話コマンド辞書234に登録する(ステップS328)。
When the agent setting data includes the control content for registering a new utterance command, the operation
以上説明した第2実施形態のエージェント装置100Aによれば、第1実施形態と同様の効果を奏する他、乗員からの音声を取得するたびに、ネットワークNWを介してサーバ装置200との通信を行う必要がないため、より迅速に発話内容を認識することができる。また、車両Mがサーバ装置200と通信できない状態であっても、乗員が所望する音声によって車載機器VEを制御することができるようにし、乗員がより簡便に車載機器VEを操作できるようにすることができる。
According to the
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
例えば、上述した実施形態では、一例として、移動体が車両であるものとして説明したがこれに限定されるものではない。例えば、移動体は、船舶や飛行物体等の他の移動体であってもよい。この場合、例えば、複数の遊覧船や複数の遊覧飛行機等のキャビン等にエージェント装置100が配設されていればよい。さらに、これらの移動体には、移動体を運転操作する操舵手がいれば、エージェント装置100が、運転操作をしない他の乗員(乗客)と音声対話を行うことで接客することができるため、キャビンアテンダントは乗客への他のサービスに注力することができる。また、エージェント装置100は、タクシーやバス等に配設されてもよい。この場合、エージェント装置100が乗客と音声対話を行うことで接客することができるため、それらの車両の運転手は運転操作に注力することができる。
For example, in the above-described embodiment, the moving body is described as a vehicle as an example, but the present invention is not limited to this. For example, the moving body may be another moving body such as a ship or a flying object. In this case, for example, the
1…エージェントシステム、100…エージェント装置、100A…エージェント装置、102…エージェント側通信部、106、106、106A、106B、106C、106D、106E…マイク、108、108A、108B、108C、108D、108E…スピーカ、110、110A、110B、110C…表示部、120、120A…エージェント側制御部、122…取得部、124…音声合成部、126…出力制御部、128…通信制御部、130…発話者位置特定部、132…操作権限判定部、134…車載機器制御部、150、150A…エージェント側記憶部、152…車載機器情報、154…操作権限位置情報、200…サーバ装置、202…サーバ側通信部、210…サーバ側制御部、212、212A…取得部、214、214A…発話区間抽出部、216、216A…音声認識部、218、218A…意味解釈部、222、222A…エージェント設定データ生成部、224…通信制御部、230…サーバ側記憶部、232、232A…基本発話コマンド辞書、234、234A…ユーザ発話コマンド辞書、M…車両、VE…車載機器 1 ... Agent system, 100 ... Agent device, 100A ... Agent device, 102 ... Agent side communication unit, 106, 106, 106A, 106B, 106C, 106D, 106E ... Mike, 108, 108A, 108B, 108C, 108D, 108E ... Speaker, 110, 110A, 110B, 110C ... Display unit, 120, 120A ... Agent side control unit, 122 ... Acquisition unit, 124 ... Voice synthesis unit, 126 ... Output control unit, 128 ... Communication control unit, 130 ... Speaker position Specific unit, 132 ... Operation authority determination unit, 134 ... In-vehicle device control unit, 150, 150A ... Agent side storage unit, 152 ... In-vehicle device information, 154 ... Operation authority position information, 200 ... Server device, 202 ... Server side communication unit , 210 ... Server-side control unit, 212, 212A ... Acquisition unit, 214, 214A ... Speech section extraction unit, 216, 216A ... Speech recognition unit, 218, 218A ... Semantic interpretation unit, 222, 222A ... Agent setting data generation unit, 224 ... Communication control unit, 230 ... Server side storage unit, 232, 232A ... Basic utterance command dictionary, 234, 234A ... User utterance command dictionary, M ... Vehicle, VE ... In-vehicle device
Claims (13)
前記移動体搭載機器を制御する命令であり、マイクにより収音される前記乗員の音声である発話コマンドを含む音声を認識する音声認識部と、
前記音声認識部により認識された前記音声の意味を解釈する意味解釈部と、を備え、
前記意味解釈部は、前記音声の意味が、新たな発話コマンドを登録する指示を含むと解釈された場合には、前記新たな発話コマンドを記憶部に登録する、
エージェントシステム。 The mobile body-mounted equipment mounted on the mobile body on which the occupants board,
A voice recognition unit that recognizes a voice including a utterance command, which is a command for controlling the mobile body-mounted device and is a voice of the occupant picked up by a microphone.
A meaning interpreting unit for interpreting the meaning of the voice recognized by the voice recognition unit is provided.
When the meaning of the voice is interpreted to include an instruction to register a new utterance command, the meaning interpreting unit registers the new utterance command in the storage unit.
Agent system.
請求項1に記載のエージェントシステム。 When the meaning interpreting unit interprets that the meaning of the voice includes an instruction to delete the registered utterance command, the meaning interpreting unit deletes the utterance command from the storage unit.
The agent system according to claim 1.
前記記憶部には、前記発話コマンドと該発話コマンドが示す制御の内容とが互いに対応付けられて登録された発話コマンド辞書が記憶されている、
請求項1又は請求項2に記載のエージェントシステム。 The storage unit in which the utterance command is registered is provided.
The utterance command dictionary in which the utterance command and the content of the control indicated by the utterance command are associated with each other and registered is stored in the storage unit.
The agent system according to claim 1 or 2.
請求項3に記載のエージェントシステム。 An on-board device control unit that controls the mobile on-board device based on the meaning of the voice interpreted by the meaning interpreting unit from the voice recognized by the voice recognition unit using the utterance command dictionary is further provided.
The agent system according to claim 3.
請求項3に記載のエージェントシステム。 The semantic interpretation unit interprets the voice recognized by the voice recognition unit as including an instruction to register a new utterance command, and is a basic voice which is a basic control command of the mobile device. If the new utterance command is not included in the basic utterance command dictionary, it is registered in the utterance command dictionary based on the basic utterance command dictionary in which the command and the content of control for the basic voice command are associated with each other. To do,
The agent system according to claim 3.
請求項3、又は請求項5に記載のエージェントシステム。 When the semantic interpretation unit interprets the voice recognized by the voice recognition unit as including an instruction to register a new utterance command related to a control instruction to the mobile-mounted device immediately before the occupant. The new utterance command is registered in the utterance command dictionary together with the content of the control performed by the occupant of the mobile body on the mobile body-mounted device immediately before.
The agent system according to claim 3 or 5.
前記発話者位置特定部により特定された前記発話者の位置情報と、前記移動体に搭載される移動体搭載機器に対する操作権限を有する乗員の位置を示す操作権限位置情報と、前記意味解釈部により解釈された前記発話コマンドの意味に含まれる移動体搭載機器情報とに基づいて、前記発話コマンドが含まれる音声の当該発話者が、当該移動体搭載機器の操作権限を有するか否かを判定する操作権限判定部とを更に備え、
前記意味解釈部は、前記音声認識部により認識された音声を、新たな発話コマンドを登録する指示を含むと解釈した場合において、前記操作権限判定部により前記発話コマンドが含まれる音声の当該発話者が、当該移動体搭載機器の操作権限を有すると判定された場合に、前記新たな発話コマンドを、前記新たな発話コマンドが示す制御の内容と共に前記発話コマンド辞書に登録する、
請求項3から請求項6のうちいずれか一項に記載のエージェントシステム。 Among the occupants of the moving body, a speaker position specifying unit for specifying the position of the speaker of the voice including the utterance command picked up by the microphone, and
The position information of the speaker specified by the speaker position specifying unit, the operation authority position information indicating the position of an occupant having the operation authority for the moving body-mounted device mounted on the moving body, and the meaning interpreting unit. Based on the interpreted meaning of the utterance command and the mobile-mounted device information, it is determined whether or not the speaker of the voice including the utterance command has the operation authority of the mobile-mounted device. Further equipped with an operation authority judgment unit
When the semantic interpretation unit interprets the voice recognized by the voice recognition unit as including an instruction to register a new utterance command, the speaker of the voice including the utterance command by the operation authority determination unit. However, when it is determined that the mobile body-mounted device has the operation authority, the new utterance command is registered in the utterance command dictionary together with the control content indicated by the new utterance command.
The agent system according to any one of claims 3 to 6.
前記発話者位置特定部により特定された前記発話者の位置情報と、前記移動体に搭載される移動体搭載機器に対する操作権限を有する乗員の位置を示す操作権限位置情報と、前記意味解釈部により解釈された前記発話コマンドの意味に含まれる移動体搭載機器情報とに基づいて、前記発話コマンドが含まれる音声の当該発話者が、当該移動体搭載機器の操作権限を有するか否かを判定する操作権限判定部とを更に備え、
前記搭載機器制御部は、前記意味解釈部により前記音声の意味が、前記移動体搭載機器の制御を指示していることを認識され、且つ、前記操作権限判定部により前記発話コマンドが含まれる音声の当該発話者が、当該移動体搭載機器の操作権限を有すると判定された場合に、前記移動体搭載機器を制御する、
請求項4に記載のエージェントシステム。 Among the occupants of the moving body, a speaker position specifying unit for specifying the position of the speaker of the voice including the utterance command picked up by the microphone, and
The position information of the speaker specified by the speaker position specifying unit, the operation authority position information indicating the position of an occupant having the operation authority for the moving body-mounted device mounted on the moving body, and the meaning interpreting unit. Based on the interpreted meaning of the utterance command and the mobile-mounted device information, it is determined whether or not the speaker of the voice including the utterance command has the operation authority of the mobile-mounted device. Further equipped with an operation authority judgment unit
The on-board device control unit recognizes that the meaning of the voice indicates control of the mobile body-mounted device by the meaning interpretation unit, and the operation authority determination unit includes the utterance command. When it is determined that the speaker has the operating authority of the mobile body-mounted device, the mobile body-mounted device is controlled.
The agent system according to claim 4.
前記発話コマンドと該発話コマンドが示す制御されるべき移動体搭載機器の情報が含まれる制御の内容とが互いに対応付けられた発話コマンド辞書を記憶する記憶部と、
前記音声を認識する音声認識部と、
前記音声認識部により認識された音声の意味を解釈する意味解釈部と、
前記意味解釈部により解釈された音声の意味内容に対応する情報を生成する生成部と、
を備える情報処理装置。 An acquisition unit that acquires a voice including a utterance command, which is a command for controlling a mobile body-mounted device mounted on the moving body and is a voice of an occupant on the moving body.
A storage unit that stores an utterance command dictionary in which the utterance command and the content of control including information on the mobile body-mounted device to be controlled indicated by the utterance command are associated with each other.
A voice recognition unit that recognizes the voice and
A meaning interpretation unit that interprets the meaning of the voice recognized by the voice recognition unit,
A generation unit that generates information corresponding to the meaning content of the voice interpreted by the meaning interpretation unit, and a generation unit.
Information processing device equipped with.
請求項9に記載の情報処理装置。 An on-board device control unit that controls the mobile body-mounted device is further provided based on the information corresponding to the meaning and content of the voice generated by the generation unit.
The information processing device according to claim 9.
移動体に搭乗している乗員が発話した発話コマンドを含む音声を認識するステップと、
認識された音声の意味を解釈するステップと、
前記発話コマンド辞書を参照して、制御されるべき移動体搭載機器の情報及び制御の内容を取得するステップと、
解釈された音声の意味に基づいて、制御されるべき移動体搭載機器を制御するステップ、
認識された音声中に、新たな発話コマンドを登録する指示が含まれると解釈した場合、前記新たな発話コマンドを、前記新たな発話コマンドが示す制御の内容と共に前記発話コマンド辞書に登録するステップと、
を有する移動体搭載機器制御方法。 A single or multiple computers in a system including a storage unit that stores an utterance command dictionary in which an utterance command and a control content including information on a mobile device to be controlled indicated by the utterance command are associated with each other. ,
The step of recognizing the voice including the utterance command spoken by the occupant on the moving body, and
Steps to interpret the meaning of the recognized speech,
With reference to the utterance command dictionary, a step of acquiring information on the mobile device to be controlled and the content of control, and
Steps to control mobile-mounted equipment to be controlled, based on the interpreted audio meaning,
When it is interpreted that the recognized voice includes an instruction to register a new utterance command, the step of registering the new utterance command in the utterance command dictionary together with the control content indicated by the new utterance command. ,
Mobile body-mounted device control method having.
前記音声の意味に対して、前記発話コマンド辞書に、該音声の意味と対応する制御の内容がある場合には、前記音声の意味を解釈するステップにより生成された音声の意味の解釈内容を、前記発話コマンド辞書を参照して、標準的な文字情報の制御の内容に置き換えるステップを更に有する、
請求項11に記載の移動体搭載機器制御方法。 After the step of interpreting the meaning of the speech
When the speech command dictionary has a control content corresponding to the voice meaning with respect to the voice meaning, the interpretation content of the voice meaning generated by the step of interpreting the voice meaning is displayed. Further having a step of referring to the speech command dictionary and replacing it with the content of standard character information control.
The mobile body-mounted device control method according to claim 11.
移動体に搭乗している乗員が発話した発話コマンドを含む音声を認識する処理と、
認識された音声の意味を解釈する処理と、
前記発話コマンド辞書を参照して、制御されるべき前記移動体搭載機器の情報及び制御の内容を取得する処理と、
解釈された音声の意味に基づいて、制御されるべき前記移動体搭載機器を制御する処理と、
認識された音声中に、新たな発話コマンドを登録する指示が含まれると解釈した場合、前記新たな発話コマンドを、前記新たな発話コマンドが示す制御の内容と共に前記発話コマンド辞書に登録する処理と、
を含む前記コンピュータに実施させるプログラム。 A single or multiple computers in a system having a storage unit that stores an utterance command dictionary in which an utterance command and a control content including information on a mobile device to be controlled indicated by the utterance command are associated with each other. Installed and
The process of recognizing the voice including the utterance command spoken by the occupant on the moving object, and
The process of interpreting the meaning of the recognized voice,
With reference to the utterance command dictionary, a process of acquiring information on the mobile body-mounted device to be controlled and the content of control, and
The process of controlling the mobile-mounted device to be controlled based on the meaning of the interpreted voice,
When it is interpreted that the recognized voice includes an instruction to register a new utterance command, the process of registering the new utterance command in the utterance command dictionary together with the control content indicated by the new utterance command. ,
A program to be executed by the computer including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019041994A JP2020144285A (en) | 2019-03-07 | 2019-03-07 | Agent system, information processing device, control method for mobile body mounted apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019041994A JP2020144285A (en) | 2019-03-07 | 2019-03-07 | Agent system, information processing device, control method for mobile body mounted apparatus, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020144285A true JP2020144285A (en) | 2020-09-10 |
Family
ID=72353563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019041994A Pending JP2020144285A (en) | 2019-03-07 | 2019-03-07 | Agent system, information processing device, control method for mobile body mounted apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020144285A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022088512A (en) * | 2021-06-08 | 2022-06-14 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | Command execution method, device, electronic apparatus, storage medium, and computer program |
JP2023026072A (en) * | 2021-08-12 | 2023-02-24 | Necパーソナルコンピュータ株式会社 | Voice command recognition system, voice command recognition method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003005781A (en) * | 2001-06-20 | 2003-01-08 | Denso Corp | Controller with voice recognition function and program |
JP2004354930A (en) * | 2003-05-30 | 2004-12-16 | Calsonic Kansei Corp | Speech recognition system |
JP2008096541A (en) * | 2006-10-06 | 2008-04-24 | Canon Inc | Speech processing device and control method therefor |
JP2011170087A (en) * | 2010-02-18 | 2011-09-01 | Fujitsu Ltd | Voice recognition apparatus |
-
2019
- 2019-03-07 JP JP2019041994A patent/JP2020144285A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003005781A (en) * | 2001-06-20 | 2003-01-08 | Denso Corp | Controller with voice recognition function and program |
JP2004354930A (en) * | 2003-05-30 | 2004-12-16 | Calsonic Kansei Corp | Speech recognition system |
JP2008096541A (en) * | 2006-10-06 | 2008-04-24 | Canon Inc | Speech processing device and control method therefor |
JP2011170087A (en) * | 2010-02-18 | 2011-09-01 | Fujitsu Ltd | Voice recognition apparatus |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022088512A (en) * | 2021-06-08 | 2022-06-14 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | Command execution method, device, electronic apparatus, storage medium, and computer program |
JP7352680B2 (en) | 2021-06-08 | 2023-09-28 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | Instruction execution method, device, electronic device, storage medium and computer program |
JP2023026072A (en) * | 2021-08-12 | 2023-02-24 | Necパーソナルコンピュータ株式会社 | Voice command recognition system, voice command recognition method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106663422B (en) | Speech recognition system and speech recognition method thereof | |
US11508368B2 (en) | Agent system, and, information processing method | |
JP7133029B2 (en) | Agent device, agent control method, and program | |
JP2017090613A (en) | Voice recognition control system | |
US11508370B2 (en) | On-board agent system, on-board agent system control method, and storage medium | |
CN111007968A (en) | Agent device, agent presentation method, and storage medium | |
JP2020144285A (en) | Agent system, information processing device, control method for mobile body mounted apparatus, and program | |
CN111724798B (en) | Vehicle-mounted device control system, vehicle-mounted device control apparatus, vehicle-mounted device control method, and storage medium | |
US11518398B2 (en) | Agent system, agent server, method of controlling agent server, and storage medium | |
US11325605B2 (en) | Information providing device, information providing method, and storage medium | |
JP2020060861A (en) | Agent system, agent method, and program | |
CN112908320B (en) | Agent device, agent method, and storage medium | |
JP7239359B2 (en) | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM | |
JP7266418B2 (en) | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM | |
US20200320997A1 (en) | Agent apparatus, agent apparatus control method, and storage medium | |
JP7239365B2 (en) | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM | |
JP7254689B2 (en) | Agent system, agent method and program | |
CN110843790A (en) | Method, device and equipment for cooperative control of hardware in vehicle | |
JP2021033929A (en) | Control system and control method | |
JP2020060623A (en) | Agent system, agent method, and program | |
JP7217209B2 (en) | VOICE DIALOGUE DEVICE, VOICE DIALOGUE METHOD, AND PROGRAM | |
JP7297483B2 (en) | AGENT SYSTEM, SERVER DEVICE, CONTROL METHOD OF AGENT SYSTEM, AND PROGRAM | |
JP2020079865A (en) | Information processing device, agent system, information processing method, and program | |
JP2020166075A (en) | Voice interface system | |
JP2020135110A (en) | Agent device, control method of agent device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230418 |