JP2022076399A - Control system - Google Patents

Control system Download PDF

Info

Publication number
JP2022076399A
JP2022076399A JP2020186810A JP2020186810A JP2022076399A JP 2022076399 A JP2022076399 A JP 2022076399A JP 2020186810 A JP2020186810 A JP 2020186810A JP 2020186810 A JP2020186810 A JP 2020186810A JP 2022076399 A JP2022076399 A JP 2022076399A
Authority
JP
Japan
Prior art keywords
ecu
unit
function
utterance
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020186810A
Other languages
Japanese (ja)
Inventor
健 保科
Takeshi Hoshina
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020186810A priority Critical patent/JP2022076399A/en
Publication of JP2022076399A publication Critical patent/JP2022076399A/en
Pending legal-status Critical Current

Links

Images

Abstract

To enable accuracy of voice recognition to be increased without adding a device for understanding of the intention of utterance, and to reflect a user's will in control of a function.SOLUTION: A control system 10 has a plurality of ECUs 20 connected to each other. Each of the ECUs 20 includes: a receiving unit that receives user's utterance as voice information; a calculation unit that calculates a priority coefficient set as a coefficient including at least a degree of certainty in a case in which a function associated with the voice information received by the receiving unit is executed in its own device; a notification unit that notifies other control devices of the calculated priority coefficient of the own device; a comparison unit that compares priority coefficients of the respective other control devices; and an execution unit that in a case in which the priority coefficient of the own device is the largest as a result of a comparison made by the comparison unit, causes the own device to execute the function.SELECTED DRAWING: Figure 1

Description

本発明は、複数の制御装置により制御を行う制御システムに関する。 The present invention relates to a control system that is controlled by a plurality of control devices.

特許文献1には、複数のユーザが同時に音声を発した場合における複数の実行コマンドの実行を可能とする音声認識制御装置が開示されている。当該音声認識制御装置は、異なる位置に配置された複数のマイクロフォンと、音声送信制御ユニットとを備えている。ここで、音声送信制御ユニットは、各マイクロフォンから入力された音声に基づくデータと、各マイクロフォン間での順位に関する時間データとを記憶し、予め設定された条件に基づいて時間データを用いて複数のマイクロフォンを順位付けし、順位付けの順でマイクロフォンに対応する音声データ信号を音声認識実行制御ユニットに送信する。そして、音声認識実行制御ユニットは、音声送信制御ユニットから送信された音声データ信号の順序に応じて音声認識処理を行う。 Patent Document 1 discloses a voice recognition control device that enables execution of a plurality of execution commands when a plurality of users simultaneously emit voice. The voice recognition control device includes a plurality of microphones arranged at different positions and a voice transmission control unit. Here, the voice transmission control unit stores data based on the voice input from each microphone and time data regarding the ranking between the microphones, and uses the time data based on a plurality of preset conditions. The microphones are ranked, and the voice data signal corresponding to the microphone is transmitted to the voice recognition execution control unit in the order of ranking. Then, the voice recognition execution control unit performs voice recognition processing according to the order of the voice data signals transmitted from the voice transmission control unit.

特開2014-203031号公報Japanese Unexamined Patent Publication No. 2014-203031

特許文献1の音声認識制御装置は、複数のユーザによる複数の発話がある場合に発話を順序付けして音声認識を行う発明であって、一のユーザによる一の発話に対して複数の装置がそれぞれ音声認識を行うものではない。また、当該装置では、発話に基づいて音声認識を行う場合、発話を取得する装置とは別の装置で発話の意図を正確に理解できなければ、発話を機能の動作に反映させることはできない。 The voice recognition control device of Patent Document 1 is an invention in which voice recognition is performed by ordering utterances when there are a plurality of utterances by a plurality of users, and a plurality of devices are used for one utterance by one user. It does not perform voice recognition. Further, in the case of performing voice recognition based on an utterance, the utterance cannot be reflected in the operation of the function unless the intention of the utterance can be accurately understood by a device other than the device that acquires the utterance.

本発明は、発話の意図を理解させるための装置を追加することなく音声認識の精度を高めることができ、ユーザの意思を機能の制御に反映させることを可能とする制御システムを提供することを目的とする。 The present invention provides a control system capable of improving the accuracy of speech recognition without adding a device for understanding the intention of utterance and reflecting the intention of the user in the control of the function. The purpose.

請求項1に記載の制御システムは、相互に接続された複数の制御装置を有する制御システムであって、前記制御装置は、ユーザの発話を音声情報として受け付ける受付部と、前記受付部にて受け付けられた音声情報に関連する機能が自装置において実行される場合の確度、を少なくとも含めて係数化した優先係数を算出する算出部と、算出された前記自装置の優先係数を他の前記制御装置に対して通知する通知部と、各前記制御装置の優先係数を比較する比較部と、前記比較部における比較の結果、前記自装置の優先係数が最大である場合、前記自装置において前記機能を実行させる実行部と、を備えている。 The control system according to claim 1 is a control system having a plurality of control devices connected to each other, and the control device receives a user's speech as voice information and a reception unit. A calculation unit that calculates a priority coefficient that is quadratured by at least including the probability that a function related to the obtained voice information is executed in the own device, and another control device that calculates the calculated priority coefficient of the own device. As a result of comparison between the notification unit that notifies the user, the comparison unit that compares the priority coefficient of each control device, and the comparison unit, when the priority coefficient of the own device is the maximum, the function is performed in the own device. It has an execution unit to be executed.

請求項1に記載の制御システムは、相互に接続された複数の制御装置を有している。当該制御システムにおいて各制御装置は、受付部がユーザの発話を音声情報として受け付けると、算出部が優先係数を算出する。ここで、優先係数とは、受付部にて受け付けられた音声情報に関連する機能が自装置である制御装置において実行される場合の確度を少なくとも含む。そして、各制御装置では、通知部が優先係数を他の制御装置に対して通知すると、比較部が各制御装置から取得した優先係数を比較し、実行部が自装置の優先係数が最大である場合に、自装置において受け付けられた音声情報に関する機能を実行させる。当該制御システムによれば、発話の意図理解及び機能の実行が制御装置において完結する。そのため、発話の意図を理解させるための装置を追加することなく音声認識の精度を高めることができ、ユーザの意思を機能の制御に反映させることができる。 The control system according to claim 1 has a plurality of control devices connected to each other. In the control system, when the reception unit receives the user's utterance as voice information, the calculation unit calculates the priority coefficient. Here, the priority coefficient includes at least the accuracy when the function related to the voice information received by the reception unit is executed by the control device which is the own device. Then, in each control device, when the notification unit notifies the other control devices of the priority coefficient, the comparison unit compares the priority coefficients acquired from each control device, and the execution unit has the maximum priority coefficient of its own device. In this case, the function related to the voice information received by the own device is executed. According to the control system, the understanding of the intention of the utterance and the execution of the function are completed in the control device. Therefore, the accuracy of voice recognition can be improved without adding a device for understanding the intention of utterance, and the intention of the user can be reflected in the control of the function.

本発明によれば、発話の意図を理解させるための装置を追加することなく音声認識の精度を高めることができ、ユーザの意思を機能の制御に反映させることができる。 According to the present invention, the accuracy of voice recognition can be improved without adding a device for understanding the intention of utterance, and the intention of the user can be reflected in the control of the function.

第1の実施形態に係る制御システムの概略構成を示す図である。It is a figure which shows the schematic structure of the control system which concerns on 1st Embodiment. 第1の実施形態に係るECU及びその周辺装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware composition of the ECU and its peripheral device which concerns on 1st Embodiment. 第1の実施形態に係るECUの機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the ECU which concerns on 1st Embodiment. 第1の実施形態に係るECUにおいて実行される処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process executed in the ECU which concerns on 1st Embodiment.

本発明の制御システム及び当該制御システムを搭載する車両について説明する。 The control system of the present invention and a vehicle equipped with the control system will be described.

[第1の実施形態]
図1に示されるように、第1の実施形態の制御システム10は、車両12に対して設けられている。制御システム10は、制御装置としてのECU(Electronic Control Unit)20を複数含んで構成されている。ECU20は、カーナビゲーションECU20Aと、ADAS(Advanced Driver Assistance System、先進運転支援システム)-ECU20Bと、メータECU20Cと、を有している。各ECU20は、外部バス14を介して、相互に接続されている。
[First Embodiment]
As shown in FIG. 1, the control system 10 of the first embodiment is provided for the vehicle 12. The control system 10 includes a plurality of ECUs (Electronic Control Units) 20 as control devices. The ECU 20 includes a car navigation ECU 20A, an ADAS (Advanced Driver Assistance System) -ECU 20B, and a meter ECU 20C. The ECUs 20 are connected to each other via an external bus 14.

各ECU20には、少なくとも、マイク24及びモニタ26が接続されている。なお、ADAS-ECU20には、マイク24及びモニタ26に加えて、カメラ28が接続されている。 At least a microphone 24 and a monitor 26 are connected to each ECU 20. A camera 28 is connected to the ADAS-ECU 20 in addition to the microphone 24 and the monitor 26.

図2に示されるように、ECU20は、CPU(Central Processing Unit)20A、ROM(Read Only Memory)20B、RAM(Random Access Memory)20C、車内通信I/F(Inter Face)20D及び入出力I/F20Fを含んで構成されている。CPU20A、ROM20B、RAM20C、車内通信I/F20D及び入出力I/F20Fは、内部バス20Gを介して相互に通信可能に接続されている。 As shown in FIG. 2, the ECU 20 includes a CPU (Central Processing Unit) 20A, a ROM (Read Only Memory) 20B, a RAM (Random Access Memory) 20C, an in-vehicle communication I / F (Inter Face) 20D, and an input / output I / O. It is configured to include F20F. The CPU 20A, ROM 20B, RAM 20C, in-vehicle communication I / F20D, and input / output I / O 20F are connected to each other so as to be communicable with each other via the internal bus 20G.

CPU20Aは、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU20Aは、ROM20Bからプログラムを読み出し、RAM20Cを作業領域としてプログラムを実行する。 The CPU 20A is a central arithmetic processing unit that executes various programs and controls each unit. That is, the CPU 20A reads the program from the ROM 20B and executes the program using the RAM 20C as a work area.

ROM20Bは、各種プログラム及び各種データを記憶している。本実施形態のROM20Bには、ECU20を制御するための制御プログラム100が記憶されている。 The ROM 20B stores various programs and various data. The ROM 20B of the present embodiment stores a control program 100 for controlling the ECU 20.

RAM20Cは、作業領域として一時的にプログラム又はデータを記憶する。 The RAM 20C temporarily stores a program or data as a work area.

車内通信I/F20Dは、他のECU20と接続するためのインタフェースである。当該インタフェースは、イーサネット(登録商標)が適用される。なお、車内通信I/F20Dは、CANプロトコルによる通信規格を適用してもよい。車内通信I/F20Dは、外部バス14に対して接続されている。 The in-vehicle communication I / F20D is an interface for connecting to another ECU 20. Ethernet® is applied to the interface. The communication standard based on the CAN protocol may be applied to the in-vehicle communication I / F20D. The in-vehicle communication I / F20D is connected to the external bus 14.

入出力I/F20Fは、車両12に搭載されるマイク24、モニタ26、カメラ28及び車両機器30と通信するためのインタフェースである。なお、上述のように、カメラ28は、ADAS-ECU20Bにのみ接続されている。 The input / output I / F 20F is an interface for communicating with the microphone 24, the monitor 26, the camera 28, and the vehicle equipment 30 mounted on the vehicle 12. As described above, the camera 28 is connected only to the ADAS-ECU 20B.

音声入力装置としてのマイク24は、ユーザである車両12の乗員が発した音声を集音する装置である。マイク24は、各ECU20に接続されたモニタ26の近傍に設置されている。本実施形態のマイク24は、指向性を有する指向性マイクである。 The microphone 24 as a voice input device is a device that collects the voice emitted by the occupant of the vehicle 12 who is the user. The microphone 24 is installed in the vicinity of the monitor 26 connected to each ECU 20. The microphone 24 of the present embodiment is a directional microphone having directivity.

表示装置としてのモニタ26は、車両12の機能に係る画像、及び当該機能の説明に係る画像を表示するための液晶モニタである。一例として、カーナビゲーションECU20Aに係るモニタ26は、インストルメントパネルの車幅方向中央部に設けられている。ADAS-ECU20Bに係るモニタ26は、ヘッドアップディスプレイとして構成されている。また、メータECU20Cに係るモニタ26は、メータディスプレイとして構成されている。 The monitor 26 as a display device is a liquid crystal monitor for displaying an image related to the function of the vehicle 12 and an image related to the explanation of the function. As an example, the monitor 26 related to the car navigation ECU 20A is provided at the center of the instrument panel in the vehicle width direction. The monitor 26 according to the ADAS-ECU 20B is configured as a head-up display. Further, the monitor 26 related to the meter ECU 20C is configured as a meter display.

撮像装置としてのカメラ28は、車両12のフロントピラー、ルームミラー、又はステアリングコラム等に設けられ、車両12の乗員を撮像する装置である。なお、上述のようにカメラ28は、ADAS-ECU20に対してのみ設けられているが、他のECU20に設けられていてもよい。 The camera 28 as an image pickup device is a device provided on the front pillar, the rearview mirror, the steering column, or the like of the vehicle 12 to take an image of the occupant of the vehicle 12. As described above, the camera 28 is provided only for the ADAS-ECU 20, but may be provided for another ECU 20.

車両機器30は、車両12の機能を実現するための装置である。例えば、カーナビゲーションECU20Aには、車両機器30としてのGPS装置が接続されている。また例えば、ADAS-ECU20Bには、車両機器として、スロットルアクチュエータ、ブレーキアクチュエータ等が接続されている。また、メータECU20Cには、車両機器30としての灯火装置、及びワイパー装置が接続されている。 The vehicle device 30 is a device for realizing the function of the vehicle 12. For example, a GPS device as a vehicle device 30 is connected to the car navigation ECU 20A. Further, for example, a throttle actuator, a brake actuator, or the like is connected to the ADAS-ECU 20B as a vehicle device. Further, a lighting device as a vehicle device 30 and a wiper device are connected to the meter ECU 20C.

図3に示されるように、本実施形態のECU20では、CPU20Aが、制御プログラム100を実行することで、受付部200、算出部210、通知部220、比較部230及び実行部240として機能する。 As shown in FIG. 3, in the ECU 20 of the present embodiment, the CPU 20A functions as a reception unit 200, a calculation unit 210, a notification unit 220, a comparison unit 230, and an execution unit 240 by executing the control program 100.

受付部200は、乗員の発話を音声情報として受け付ける。そして、受付部200は、受け付けた音声情報に基づいて、発話の意図と対応する発話コマンドを取得する。この発話コマンドは、音声情報に関連する車両12の機能(以下、「関連機能」とする)を実行させるためのコマンドである。 The reception unit 200 receives the utterances of the occupants as voice information. Then, the reception unit 200 acquires the utterance command corresponding to the intention of the utterance based on the received voice information. This utterance command is a command for executing a function of the vehicle 12 related to voice information (hereinafter, referred to as "related function").

算出部210は、優先係数を算出する。優先係数は次の3つの要素を係数化したものである。 The calculation unit 210 calculates the priority coefficient. The priority coefficient is a coefficient of the following three elements.

(1)関連機能が自装置であるECU20において実行される場合の確度
本実施形態では、マイク24に対する乗員の発話の方向が正しいほど、確度が高くなるように構成されている。例えば、乗員がメータディスプレイを向いて発話した場合、メータECU20Cの確度を最も高くする。そして、算出部210は、確度が高い程、優先係数を高くする。
(1) Accuracy when the related function is executed in the ECU 20 which is the own device In the present embodiment, the accuracy is higher as the direction of the occupant's utterance to the microphone 24 is correct. For example, when the occupant speaks toward the meter display, the accuracy of the meter ECU 20C is maximized. Then, the calculation unit 210 increases the priority coefficient as the accuracy increases.

(2)自装置であるECU20におけるリソース量
本実施形態では、各ECU20におけるCPU20A、RAM20C、及び車両機器30であるアクチュエータのリソース量を取得し、算出部210は、機能の実行に必要なリソースの準備完了までの時間が短いほど、優先係数を高くする。例えば、自装置において他の機能が実行されておらず、リソース量に余裕があるほど、優先係数が高くなるように構成されている。
(2) Amount of resources in the ECU 20 which is the own device In the present embodiment, the resource amounts of the CPU 20A, the RAM 20C, and the actuator which is the vehicle equipment 30 in each ECU 20 are acquired, and the calculation unit 210 obtains the resources necessary for executing the function. The shorter the time to completion, the higher the priority factor. For example, it is configured so that the priority coefficient becomes higher as the amount of resources is sufficient because other functions are not executed in the own device.

(3)関連機能の優先順度
本実施形態では、他の情報に基づいて関連機能を実行する優先順度を算出し、当該優先順度が高いほど、優先係数が高くなるように構成されている。例えば、雨滴センサ等により降雨を確認した場合、算出部210は、雨滴センサが接続されたメータECU20Cにおける優先順度を上げる。また、天気予報が雨であることを受信した場合、算出部210は、天気予報を受信したカーナビゲーションECU20Aにおける優先順度を上げる。
(3) Priority order of related functions In this embodiment, the priority order of executing related functions is calculated based on other information, and the higher the priority order is, the higher the priority coefficient is configured. There is. For example, when rain is confirmed by a raindrop sensor or the like, the calculation unit 210 raises the priority order in the meter ECU 20C to which the raindrop sensor is connected. When receiving that the weather forecast is rain, the calculation unit 210 raises the priority order in the car navigation ECU 20A that has received the weather forecast.

以上の(1)~(3)の要素を踏まえて、「ワイパー」を動作させる場合の優先係数の計算例を例示する。まず、(1)の確度に関して算出部210は、各マイク24に対して発話の方向が向いているほど高く、例えば、カーナビゲーションECU20Aは2ポイント、ADAS-ECU20Bは6ポイント、メータECU20Cは8ポイントが付与されたとする。また、(2)のリソース量に関して算出部210は、他の機能が実行されていないECU20Aほど高く、例えば、カーナビゲーションECU20Aは4ポイント、ADAS-ECU20Bは4ポイント、メータECU20Cは8ポイントが付与されたとする。さらに、(3)の優先順度に関して算出部210は、関連機能が実行される可能性の高いECU20ほど高く、例えば、カーナビゲーションECU20Aは5ポイント、ADAS-ECU20Bは0ポイント、メータECU20Cは10ポイントが付与されたとする。 Based on the above factors (1) to (3), an example of calculating the priority coefficient when operating the "wiper" will be illustrated. First, regarding the accuracy of (1), the calculation unit 210 is so high that the direction of utterance is directed toward each microphone 24, for example, the car navigation ECU 20A has 2 points, the ADAS-ECU 20B has 6 points, and the meter ECU 20C has 8 points. Is given. Further, regarding the resource amount of (2), the calculation unit 210 is as high as the ECU 20A in which other functions are not executed. For example, the car navigation ECU 20A is given 4 points, the ADAS-ECU 20B is given 4 points, and the meter ECU 20C is given 8 points. Suppose. Further, regarding the priority order of (3), the calculation unit 210 is higher as the ECU 20 is more likely to execute the related function, for example, the car navigation ECU 20A has 5 points, the ADAS-ECU 20B has 0 points, and the meter ECU 20C has 10 points. Is given.

以上、各要素のポイントを積算すると、カーナビゲーションECU20Aは11ポイント、ADAS-ECU20Bは10ポイント、メータECU20Cは26ポイントとなり、メータECU20Cの優先係数が最も高くなる。 As described above, when the points of each element are integrated, the car navigation ECU 20A has 11 points, the ADAS-ECU 20B has 10 points, and the meter ECU 20C has 26 points, and the priority coefficient of the meter ECU 20C is the highest.

通知部220は、算出された優先係数を他のECU20に対して通知する機能を有している。 The notification unit 220 has a function of notifying another ECU 20 of the calculated priority coefficient.

比較部230は、各ECU20から取得した優先係数を比較する機能を有している。 The comparison unit 230 has a function of comparing the priority coefficients acquired from each ECU 20.

実行部240は、比較部230における比較の結果、自装置であるECU20の優先係数が最大である場合、当該ECU20において発話コマンドを実行させる機能を有している。 The execution unit 240 has a function of executing an utterance command in the ECU 20 when the priority coefficient of the ECU 20 which is the own device is the maximum as a result of the comparison in the comparison unit 230.

(制御の流れ)
本実施形態の制御システム10において実行される処理の流れについて、図4のフローチャートを用いて説明する。図4は、一のECU20における処理を例示しているが、他のECU20においても同様の処理が実行される。同図の処理は、CPU20Aが、受付部200、算出部210、通知部220、比較部230及び実行部240として機能することで実現される。
(Control flow)
The flow of processing executed in the control system 10 of the present embodiment will be described with reference to the flowchart of FIG. FIG. 4 illustrates the processing in one ECU 20, but the same processing is executed in the other ECU 20. The process shown in the figure is realized by the CPU 20A functioning as a reception unit 200, a calculation unit 210, a notification unit 220, a comparison unit 230, and an execution unit 240.

図4のステップS100において、CPU20Aは乗員の発話を受け付ける。これにより、CPU20Aは発話の意図を理解できた場合、当該意図に対応する発話コマンドを取得する。 In step S100 of FIG. 4, the CPU 20A receives the utterance of the occupant. As a result, when the CPU 20A can understand the intention of the utterance, the CPU 20A acquires the utterance command corresponding to the intention.

ステップS101において、CPU20Aは認識係数を計算する。 In step S101, the CPU 20A calculates the recognition coefficient.

ステップS102において、CPU20Aは認識係数を各ECU20に送信する。 In step S102, the CPU 20A transmits the recognition coefficient to each ECU 20.

ステップS103において、CPU20Aは各ECU20から認識係数を受信する。 In step S103, the CPU 20A receives the recognition coefficient from each ECU 20.

ステップS104において、CPU20Aは自装置であるECU20の認識係数が最大であるか否かを判定する。CPU20Aは自装置であるECU20の認識係数が最大であると判定した場合(ステップS104でYESの場合)、ステップS105に進む。一方、CPU30Aは自装置であるECU20の認識係数が最大ではないと判定した場合(ステップS104でNOの場合)、ステップS100に戻る。 In step S104, the CPU 20A determines whether or not the recognition coefficient of the ECU 20 which is its own device is the maximum. When the CPU 20A determines that the recognition coefficient of the ECU 20 which is its own device is the maximum (YES in step S104), the CPU 20A proceeds to step S105. On the other hand, when the CPU 30A determines that the recognition coefficient of the ECU 20 which is its own device is not the maximum (NO in step S104), the CPU 30A returns to step S100.

ステップS105において、CPU20Aは発話コマンドを実行する。これにより、関連機能が実行される。そして、ステップS100に戻る。 In step S105, the CPU 20A executes an utterance command. This will perform the relevant function. Then, the process returns to step S100.

(第1の実施形態のまとめ)
本実施形態の制御システム10は、相互に接続された複数のECU20を有している。この制御システム10において各ECU20は、受付部200がユーザの発話を音声情報として受け付けると、算出部210が優先係数を算出する。そして、各ECU20では、通知部220が優先係数を他のECU20に対して通知すると、比較部230が各ECU20から取得した優先係数を比較し、実行部240が自装置の優先係数が最大である場合に、関連機能を実行させる。
(Summary of the first embodiment)
The control system 10 of the present embodiment has a plurality of ECUs 20 connected to each other. In the control system 10, when the reception unit 200 receives the user's utterance as voice information, the calculation unit 210 calculates the priority coefficient in each ECU 20. Then, in each ECU 20, when the notification unit 220 notifies the other ECUs of the priority coefficient, the comparison unit 230 compares the priority coefficients acquired from each ECU 20, and the execution unit 240 has the maximum priority coefficient of its own device. In some cases, perform related functions.

本実施形態の制御システム10によれば、発話の意図理解及び機能の実行が個々のECU20において完結する。そのため、発話の意図を理解させるための装置を追加することなく音声認識の精度を高めることができ、乗員の意思を機能の制御に反映させることができる。また、本実施形態によれば、発話の意図を外部の装置で理解させる必要がなく、発話に対する機能の実行のリアルタイム性を高めることができる。 According to the control system 10 of the present embodiment, the understanding of the intention of the utterance and the execution of the function are completed in each ECU 20. Therefore, the accuracy of voice recognition can be improved without adding a device for understanding the intention of utterance, and the intention of the occupant can be reflected in the control of the function. Further, according to the present embodiment, it is not necessary to make the intention of the utterance understood by an external device, and it is possible to enhance the real-time property of executing the function for the utterance.

本実施形態における優先係数は、関連機能が自装置であるECU20において実行される場合の確度を少なくとも含む。当該確度に基づいて優先係数を算出する場合、算出部210は、自装置に対応するマイク24に対する乗員による発話の指向度を、優先係数の算出に加味する。すなわち、本実施形態によれば、乗員が発話をした対象のECU20を特定することにより、音声認識の精度をさらに高めることができる。 The priority coefficient in this embodiment includes at least the accuracy when the related function is executed in the ECU 20 which is the own device. When calculating the priority coefficient based on the accuracy, the calculation unit 210 adds the directionality of the utterance by the occupant to the microphone 24 corresponding to the own device to the calculation of the priority coefficient. That is, according to the present embodiment, the accuracy of voice recognition can be further improved by specifying the target ECU 20 to which the occupant has spoken.

また、本実施形態では、各ECU20におけるCPU20A、RAM20C、及び車両機器30であるアクチュエータのリソース量を優先係数の算出に加味している。すなわち、本実施形態によれば、稼動していないECU20を識別することにより、音声認識の精度をさらに高めることができる。 Further, in the present embodiment, the resource amounts of the CPU 20A, the RAM 20C, and the actuator of the vehicle device 30 in each ECU 20 are added to the calculation of the priority coefficient. That is, according to the present embodiment, the accuracy of voice recognition can be further improved by identifying the ECU 20 that is not in operation.

[第2の実施形態]
第2の実施形態は、優先係数の算出方法が第1の実施形態と異なる。以下、第1の実施形態との相違点について説明する。なお、第1の実施形態とハードウェアの構成は同じであるため、説明は割愛する。
[Second Embodiment]
In the second embodiment, the method of calculating the priority coefficient is different from that in the first embodiment. Hereinafter, the differences from the first embodiment will be described. Since the hardware configuration is the same as that of the first embodiment, the description thereof is omitted.

本実施形態の算出部210は、ADAS-ECU20に接続されたカメラ28による撮像画像に基づいて取得した各モニタ26に対する乗員の注視度を、優先係数の算出に加味することを特徴としている。例えば、乗員が発話した際にカーナビゲーションシステムのモニタ26を注視している場合、カーナビゲーションECU20Aにおける注視度が高くなる。この場合、算出部210は、注視度が高まることに応じてカーナビゲーションECU20Aの優先係数を高くする。 The calculation unit 210 of the present embodiment is characterized in that the gaze degree of the occupant to each monitor 26 acquired based on the image captured by the camera 28 connected to the ADAS-ECU 20 is added to the calculation of the priority coefficient. For example, when the occupant is gazing at the monitor 26 of the car navigation system when speaking, the degree of gazing in the car navigation ECU 20A is high. In this case, the calculation unit 210 increases the priority coefficient of the car navigation ECU 20A as the gaze level increases.

本実施形態によれば、乗員が注視をした対象のECU20を特定することにより、音声認識の精度をさらに高めることができる。 According to the present embodiment, the accuracy of voice recognition can be further improved by specifying the target ECU 20 that the occupant gazes at.

[第3の実施形態]
第3の実施形態は、優先係数の算出方法が第1及び第2の実施形態と異なる。以下、第1の実施形態との相違点について説明する。なお、第1の実施形態とハードウェアの構成は同じであるため、説明は割愛する。
[Third Embodiment]
In the third embodiment, the method of calculating the priority coefficient is different from that of the first and second embodiments. Hereinafter, the differences from the first embodiment will be described. Since the hardware configuration is the same as that of the first embodiment, the description thereof is omitted.

本実施形態の算出部210は、優先係数の算出に用いる各要素の重み付けを変更可能に構成されている。各要素とは上述のように(1)関連機能が自装置であるECU20において実行される場合の確度、(2)自装置であるECU20におけるリソース量、(3)関連機能の優先順度を含む。各要素の重み付けはモニタ26に表示される設定メニューにおいて変更される。なお、各要素の重み付けは車両12外部の装置、例えば、車両12に接続されたサーバ、又はダイアグツールである車両診断機において変更してもよい。 The calculation unit 210 of the present embodiment is configured so that the weighting of each element used for calculating the priority coefficient can be changed. As described above, each element includes (1) the accuracy when the related function is executed in the own device ECU 20, (2) the amount of resources in the own device ECU 20, and (3) the priority order of the related functions. .. The weighting of each element is changed in the setting menu displayed on the monitor 26. The weighting of each element may be changed by a device outside the vehicle 12, for example, a server connected to the vehicle 12 or a vehicle diagnostic machine which is a diagnostic tool.

本実施形態によれば、発話に基づいて機能を作動させる場合における、音声認識の最適化を図ることができる。
なお、各要素の重み付けに際し、乗員の好みを反映させてもよい。例えば、ACC(Adaptive Cruise Control)等の走行系の機能を好む乗員が乗車している場合に、関連機能が走行系の機能である場合には、優先係数が高くなるように構成してもよい。
According to the present embodiment, it is possible to optimize voice recognition when the function is activated based on the utterance.
In addition, when weighting each element, the preference of the occupant may be reflected. For example, when an occupant who prefers a driving system function such as ACC (Adaptive Cruise Control) is on board and the related function is a driving system function, the priority coefficient may be set to be high. ..

[備考]
上記各実施形態では、優先係数が最も高いECU20において、発話コマンドによる関連機能が実行されるが、実行される機能が車両12の走行に係る装置の場合、実行前に機能の作動の提案を行ってもよい。
[remarks]
In each of the above embodiments, the related function is executed by the utterance command in the ECU 20 having the highest priority coefficient, but when the function to be executed is a device related to the running of the vehicle 12, the operation of the function is proposed before the execution. You may.

上記各実施形態では、各ECU20に対し、それぞれマイク24が設けられているが、この限りではなく、指向性が高いマイク24であれば一つでもよい。 In each of the above embodiments, the microphone 24 is provided for each ECU 20, but the present invention is not limited to this, and any microphone 24 having high directivity may be used.

なお、上記実施形態でCPU20Aがソフトウェア(プログラム)を読み込んで実行した各種処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、上述した処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。 In addition, various processors other than the CPU may execute various processes executed by the CPU 20A by reading the software (program) in the above embodiment. In this case, the processor includes a PLD (Programmable Logic Device) whose circuit configuration can be changed after manufacturing an FPGA (Field-Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), and the like. An example is a dedicated electric circuit or the like, which is a processor having a circuit configuration designed exclusively for it. Further, the above-mentioned processing may be executed by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs and a combination of a CPU and an FPGA). Etc.). Further, the hardware-like structure of these various processors is, more specifically, an electric circuit in which circuit elements such as semiconductor elements are combined.

また、上記実施形態において、各プログラムはコンピュータが読み取り可能な非一時的記録媒体に予め記憶(インストール)されている態様で説明した。例えば、ECU20における制御プログラム100はROM20Bに予め記憶されている。しかしこれに限らず、各プログラムは、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。 Further, in the above embodiment, each program has been described in a manner in which each program is stored (installed) in a non-temporary recording medium readable by a computer in advance. For example, the control program 100 in the ECU 20 is stored in the ROM 20B in advance. However, the present invention is not limited to this, and each program is recorded on a non-temporary recording medium such as a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versaille Disc Read Only Memory), and a USB (Universal Serial Bus) memory. May be provided in the form provided. Further, the program may be downloaded from an external device via a network.

10 制御システム
20 ECU(制御装置)
200 受付部
210 算出部
220 通知部
230 比較部
240 実行部
10 Control system 20 ECU (control device)
200 Reception Department 210 Calculation Department 220 Notification Department 230 Comparison Department 240 Execution Department

Claims (1)

相互に接続された複数の制御装置を有する制御システムであって、
前記制御装置は、
ユーザの発話を音声情報として受け付ける受付部と、
前記受付部にて受け付けられた音声情報に関連する機能が自装置において実行される場合の確度、を少なくとも含めて係数化した優先係数を算出する算出部と、
算出された前記自装置の優先係数を他の前記制御装置に対して通知する通知部と、
各前記制御装置の優先係数を比較する比較部と、
前記比較部における比較の結果、前記自装置の優先係数が最大である場合、前記自装置において前記機能を実行させる実行部と、
を備えた制御システム。
A control system that has multiple control devices connected to each other.
The control device is
A reception unit that accepts user utterances as voice information,
A calculation unit that calculates a priority coefficient that is coefficiented by including at least the accuracy when a function related to voice information received by the reception unit is executed in the own device.
A notification unit that notifies other control devices of the calculated priority coefficient of the own device, and
A comparison unit that compares the priority coefficients of each of the control devices,
As a result of comparison in the comparison unit, when the priority coefficient of the own device is the maximum, the execution unit for executing the function in the own device and the execution unit.
Control system with.
JP2020186810A 2020-11-09 2020-11-09 Control system Pending JP2022076399A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020186810A JP2022076399A (en) 2020-11-09 2020-11-09 Control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020186810A JP2022076399A (en) 2020-11-09 2020-11-09 Control system

Publications (1)

Publication Number Publication Date
JP2022076399A true JP2022076399A (en) 2022-05-19

Family

ID=81606636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020186810A Pending JP2022076399A (en) 2020-11-09 2020-11-09 Control system

Country Status (1)

Country Link
JP (1) JP2022076399A (en)

Similar Documents

Publication Publication Date Title
US10266182B2 (en) Autonomous-vehicle-control system and method incorporating occupant preferences
US8301317B2 (en) Driver information device
CN106537335B (en) Operating system boot acceleration
JP2003252130A (en) Vehicle agent system and ecu
US10040353B2 (en) Information display system
US20210276484A1 (en) Driver assist device and adaptive warning method thereof
JP2020091523A (en) Information processing system, program, and control method
JP2021190986A (en) Ultrasonic radar array, and obstacle detection method and system
EP3796159B1 (en) Operating system startup acceleration
US9925867B2 (en) Fuel control regulator system with acoustic pliability
WO2020050315A1 (en) Vehicle control system
JP2021117941A (en) Agent device, agent system, and program
CN106663009B (en) Operating system boot acceleration
JP2022076399A (en) Control system
WO2017018052A1 (en) Navigation system and navigation device
CN113829994B (en) Early warning method and device based on car external whistling, car and medium
JP2021117942A (en) Agent device, agent system, and program
US20210018908A1 (en) Remote driving system
JP7388329B2 (en) Vehicle display system and vehicle display method
JP2022148823A (en) Agent device
JP2021128531A5 (en)
JP2022083350A (en) Agent device
Every et al. A Software-Centric Solution to Automotive Audio for General Purpose CPUs
CN113682320B (en) Intelligent body control device
US11884156B2 (en) Vehicle display control device, vehicle display device, vehicle, vehicle display control method, non-transitory recording medium