JP2020112733A - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP2020112733A
JP2020112733A JP2019004713A JP2019004713A JP2020112733A JP 2020112733 A JP2020112733 A JP 2020112733A JP 2019004713 A JP2019004713 A JP 2019004713A JP 2019004713 A JP2019004713 A JP 2019004713A JP 2020112733 A JP2020112733 A JP 2020112733A
Authority
JP
Japan
Prior art keywords
operator
response
information processing
unit
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019004713A
Other languages
Japanese (ja)
Inventor
修 久木元
Osamu Kukimoto
修 久木元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019004713A priority Critical patent/JP2020112733A/en
Publication of JP2020112733A publication Critical patent/JP2020112733A/en
Pending legal-status Critical Current

Links

Images

Abstract

To respond to an operation performed in a proper output mode corresponding to an operator.SOLUTION: An information processing apparatus according to an embodiment is configured to respond to an operation performed by an operator, and comprises an acquisition part, a specifying part, and an output control part. The acquisition part acquires the operation by the operator. The specifying part specifies the operator of the operation acquired by the acquisition part based upon setting information in which a predetermined operation and the operator are associated with each other in advance. The output control part controls, based upon a specification result of the specifying part, an output mode of responding to those other than the operator.SELECTED DRAWING: Figure 2

Description

開示の実施形態は、情報処理装置および情報処理方法に関する。 The disclosed embodiments relate to an information processing apparatus and an information processing method.

従来、カーナビゲーション機能等の各種機能を有し、車両に搭載される車載装置が知られている。かかる車載装置は、たとえばドライバからカーナビゲーションに関する操作を受け付けたならば、かかる操作に対する応答を車載ディスプレイや車載スピーカから出力する。また、近年では、音声操作に対した車載装置も普及してきている(たとえば、特許文献1参照)。 Conventionally, an in-vehicle device which has various functions such as a car navigation function and which is mounted on a vehicle is known. When receiving an operation related to car navigation from a driver, such an in-vehicle device outputs a response to the operation from an in-vehicle display or an in-vehicle speaker. In recent years, in-vehicle devices that respond to voice operations have become widespread (for example, see Patent Document 1).

特開2007−225902号公報JP, 2007-225902, A

しかしながら、上述した従来技術は、なされた操作に対し、操作者に応じた適切な出力態様での応答を行ううえで、さらなる改善の余地がある。 However, the above-described conventional technique has room for further improvement in responding to the performed operation in an appropriate output mode according to the operator.

たとえば、現状、車載装置の操作者は基本的にドライバであり、操作に対する応答はドライバに向けて出力されるという考え方が主流である。しかし、上述の音声操作は今後ますます普及していくことが予想されており、ドライバ以外の搭乗者によって車載装置が操作される機会も増していくと考えられる。 For example, at present, the idea that the operator of the vehicle-mounted device is basically a driver and the response to the operation is output to the driver is the mainstream. However, it is expected that the above-mentioned voice operation will become more and more popular in the future, and it is considered that there are more opportunities for passengers other than the driver to operate the in-vehicle device.

そうなると、異なる操作者によってなされた異なる操作それぞれに対する応答を、逐一搭乗者全員に同じ態様で出力していては、煩わしさを感じさせるおそれがある。 Then, if the responses to the different operations performed by the different operators are output to all the passengers one by one in the same manner, it may be annoying.

なお、かかる課題は、車載装置に限らず、操作者によってなされた操作に対し応答する情報処理装置全般に共通する課題である。 It should be noted that such a problem is not limited to an in-vehicle device, but is a problem common to all information processing devices that respond to an operation performed by an operator.

実施形態の一態様は、上記に鑑みてなされたものであって、なされた操作に対し、操作者に応じた適切な出力態様での応答を行うことができる情報処理装置および情報処理方法を提供することを目的とする。 One aspect of the embodiment has been made in view of the above, and provides an information processing apparatus and an information processing method capable of responding to an operation performed in an appropriate output mode according to an operator. The purpose is to do.

実施形態の一態様に係る情報処理装置は、操作者によってなされる操作に対し応答する情報処理装置であって、取得部と、特定部と、出力制御部とを備える。前記取得部は、前記操作者の操作を取得する。前記特定部は、前記取得部によって取得された操作の前記操作者を、予め所定の操作と前記操作者とが関連付けられた設定情報に基づいて特定する。前記出力制御部は、前記特定部の特定結果に基づいて、前記操作者以外に対する応答の出力態様を制御する。 An information processing apparatus according to an aspect of the embodiment is an information processing apparatus that responds to an operation performed by an operator, and includes an acquisition unit, a specification unit, and an output control unit. The acquisition unit acquires the operation of the operator. The specifying unit specifies the operator of the operation acquired by the acquisition unit based on setting information in which a predetermined operation is associated with the operator in advance. The output control unit controls an output mode of a response to a person other than the operator based on the identification result of the identification unit.

実施形態の一態様によれば、なされた操作に対し、操作者に応じた適切な出力態様での応答を行うことができる。 According to the aspect of the embodiment, it is possible to respond to the performed operation in an appropriate output mode according to the operator.

図1は、実施形態に係る情報処理方法の概要説明図である。FIG. 1 is a schematic explanatory diagram of an information processing method according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the information processing system according to the embodiment. 図3は、実施形態に係る設定情報の一例を示す図である。FIG. 3 is a diagram showing an example of setting information according to the embodiment. 図4Aは、実施形態に係る出力制御部による出力制御の具体例を示す図(その1)である。FIG. 4A is a diagram (part 1) illustrating a specific example of output control by the output control unit according to the embodiment. 図4Bは、実施形態に係る出力制御部による出力制御の具体例を示す図(その2)である。FIG. 4B is a diagram (part 2) illustrating a specific example of output control by the output control unit according to the embodiment. 図4Cは、実施形態に係る出力制御部による出力制御の具体例を示す図(その3)である。FIG. 4C is a diagram (part 3) illustrating a specific example of output control by the output control unit according to the embodiment. 図4Dは、実施形態に係る出力制御部による出力制御の具体例を示す図(その4)である。FIG. 4D is a diagram (part 4) showing a specific example of output control by the output control unit according to the embodiment. 図4Eは、実施形態に係る出力制御部による出力制御の具体例を示す図(その5)である。FIG. 4E is a diagram (No. 5) showing a specific example of output control by the output control unit according to the embodiment. 図4Fは、実施形態に係る出力制御部による出力制御の具体例を示す図(その6)である。FIG. 4F is a diagram (No. 6) showing a specific example of the output control by the output control unit according to the embodiment. 図4Gは、実施形態に係る出力制御部による出力制御の具体例を示す図(その7)である。FIG. 4G is a diagram (No. 7) showing a specific example of the output control by the output control unit according to the embodiment. 図4Hは、実施形態に係る出力制御部による出力制御の具体例を示す図(その8)である。FIG. 4H is a diagram (No. 8) showing a specific example of the output control by the output control unit according to the embodiment. 図5は、実施形態に係る車載装置が実行する処理手順を示すフローチャートである。FIG. 5 is a flowchart showing a processing procedure executed by the vehicle-mounted device according to the embodiment. 図6は、その他の実施形態に係る情報処理システムの構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of an information processing system according to another embodiment.

以下、添付図面を参照して、本願の開示する情報処理装置および情報処理方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of an information processing apparatus and an information processing method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to the embodiments described below.

また、以下では、実施形態に係る情報処理装置が、車両Vに搭載され、カーナビゲーション機能等を有する車載装置10である場合を例に挙げて説明を行う。また、以下では、実施形態に係る車載装置10が音声操作に対応しており、車両Vの搭乗者から音声操作される場合を例に挙げて説明を行う。 Further, in the following, the case where the information processing apparatus according to the embodiment is the vehicle-mounted apparatus 10 mounted on the vehicle V and having a car navigation function and the like will be described as an example. Further, in the following, the case where the vehicle-mounted device 10 according to the embodiment is compatible with voice operation and the voice operation is performed by the passenger of the vehicle V will be described as an example.

まず、実施形態に係る情報処理方法の概要について、図1を用いて説明する。図1は、実施形態に係る情報処理方法の概要説明図である。なお、図1では、実施形態に係る情報処理方法を適用した情報処理システム1を例に挙げる。 First, the outline of the information processing method according to the embodiment will be described with reference to FIG. FIG. 1 is a schematic explanatory diagram of an information processing method according to an embodiment. In FIG. 1, an information processing system 1 to which the information processing method according to the embodiment is applied is taken as an example.

図1に示すように、実施形態に係る情報処理システム1は、車載装置10と、マイク22−FR,22−FL,22−RR,22−RLと、スピーカ41−FR,41−FL,41−RR,41−RLと、ディスプレイ42−H,42−C,42−RR,42−RLとを含む。 As shown in FIG. 1, the information processing system 1 according to the embodiment includes an in-vehicle device 10, microphones 22-FR, 22-FL, 22-RR, 22-RL, and speakers 41-FR, 41-FL, 41. -RR, 41-RL and displays 42-H, 42-C, 42-RR, 42-RL are included.

車載装置10は、カーナビゲーション機能等の各種機能を有する情報処理装置である。マイク22−FR,22−FL,22−RR,22−RLは、車室Cの、たとえば搭乗者それぞれの近傍に位置するように設けられる。 The vehicle-mounted device 10 is an information processing device having various functions such as a car navigation function. The microphones 22-FR, 22-FL, 22-RR, 22-RL are provided so as to be located in the passenger compartment C, for example, in the vicinity of respective passengers.

マイク22−FRは、搭乗者のうちのドライバDに向けて指向性が設定されている。マイク22−FLは、同乗者P1に向けて指向性が設定されている。マイク22−RRは、同乗者P2に向けて指向性が設定されている。マイク22−RLは、同乗者P3に向けて指向性が設定されている。 The microphone 22-FR has directivity set toward the driver D of the passengers. The microphone 22-FL has directivity set toward the passenger P1. The microphone 22-RR has directivity set toward the passenger P2. The directivity of the microphone 22-RL is set toward the passenger P3.

スピーカ41−FR,41−FL,41−RR,41−RLは、車室Cの、たとえば搭乗者それぞれの近傍に位置するように設けられる。 The speakers 41-FR, 41-FL, 41-RR, 41-RL are provided so as to be located in the passenger compartment C, for example, in the vicinity of respective passengers.

スピーカ41−FRは、搭乗者のうちのドライバDに向けて指向性が設定されている。スピーカ41−FLは、同乗者P1に向けて指向性が設定されている。スピーカ41−RRは、同乗者P2に向けて指向性が設定されている。スピーカ41−RLは、同乗者P3に向けて指向性が設定されている。 The directivity of the speaker 41-FR is set toward the driver D of the passengers. The speaker 41-FL has directivity set toward the passenger P1. The directivity of the speaker 41-RR is set toward the passenger P2. The directivity of the speaker 41-RL is set toward the passenger P3.

ディスプレイ42−Hは、たとえばHUD(Head-Up Display)であり、運転席の前方に情報出力可能に設けられる。ディスプレイ42−Cは、たとえばCID(Center Information Display)であり、ダッシュボード中央部に設けられる。ディスプレイ42−RR,42−RLは、たとえばRSE(Rear Seat Entertainment)であり、フロントシートそれぞれの背面に設けられる。 The display 42-H is, for example, a HUD (Head-Up Display), and is provided in front of the driver's seat so that information can be output. The display 42-C is, for example, a CID (Center Information Display), and is provided in the center of the dashboard. The displays 42-RR and 42-RL are, for example, RSE (Rear Seat Entertainment), and are provided on the back surface of each front seat.

このような構成例において、実施形態に係る車載装置10は、たとえばマイク22−FR,22−FL,22−RR,22−RLを通じて、ドライバDおよび同乗者P1,P2,P3の各々からの音声操作が可能に設けられている。 In such a configuration example, the vehicle-mounted device 10 according to the embodiment uses the microphones 22-FR, 22-FL, 22-RR, and 22-RL to output sounds from the driver D and the passengers P1, P2, and P3, respectively. It is provided so that it can be operated.

ただし、ある操作者の行った音声操作に対し、スピーカ41−FR,41−FL,41−RR,41−RLや、ディスプレイ42−H,42−C,42−RR,42−RLを用いて同様の出力態様で応答しては、操作者以外(たとえば、操作者がドライバDであれば、同乗者P1,P2,P3)は煩わしさを感じるおそれがある。ここで、ある操作に対しての応答は、当該操作の操作者が所望しているのが通常であり、基本的にかかる操作者に対してのみ行われれば事足りる。 However, for a voice operation performed by an operator, the speakers 41-FR, 41-FL, 41-RR, 41-RL and the displays 42-H, 42-C, 42-RR, 42-RL are used. Responding in the same output mode may cause annoyance to anyone other than the operator (for example, if the operator is the driver D, the passengers P1, P2, P3). Here, the response to a certain operation is usually desired by the operator of the operation, and basically, it is sufficient if the response is performed only to the operator.

そこで、実施形態に係る情報処理方法では、操作を取得し、かかる操作の操作者を特定し、当該操作に対する応答の、操作者以外への出力態様を制御することとした。具体的には、図1に示すように、実施形態に係る情報処理方法では、まず車載装置10は、マイク22−FR,22−FL,22−RR,22−RLを通じ、音声操作を取得する(ステップS1)。 Therefore, in the information processing method according to the embodiment, an operation is acquired, an operator of the operation is specified, and an output mode of a response to the operation to a person other than the operator is controlled. Specifically, as shown in FIG. 1, in the information processing method according to the embodiment, first, the in-vehicle device 10 acquires a voice operation through the microphones 22-FR, 22-FL, 22-RR, 22-RL. (Step S1).

そして、車載装置10は、取得した音声操作を音声認識処理によって解析し、操作者を特定する(ステップS2)。一例として、車載装置10は、事前に所定の操作ごとに操作者が関連付けられた情報を有しており、音声認識処理によって抽出した音声操作の内容をかかる情報に照合して操作者を特定する。かかる情報の具体例については、図3を用いた説明で後述する。 Then, the in-vehicle device 10 analyzes the acquired voice operation by the voice recognition process and identifies the operator (step S2). As an example, the in-vehicle device 10 has information associated with an operator in advance for each predetermined operation, and identifies the operator by collating the content of the voice operation extracted by the voice recognition process with the information. .. A specific example of such information will be described later with reference to FIG.

そのうえで、車載装置10は、当該操作に対する応答の、操作者以外への出力態様を制御する(ステップS3)。言い換えれば、車載装置10は、操作者以外が、当該操作に対する応答を受ける対象者となるかならないかを出力制御する。 After that, the in-vehicle device 10 controls the output mode of the response to the operation to a person other than the operator (step S3). In other words, the in-vehicle device 10 controls the output of whether or not a person other than the operator becomes a target person who receives a response to the operation.

たとえば車載装置10は、当該操作に対する応答が操作者に対してのみ提示されるように出力制御する。一例を挙げれば、ドライバDが操作者として特定された場合、車載装置10は、スピーカ41−FRおよびディスプレイ42−Hのみを用いてドライバDへ向けて応答を出力する一方で、スピーカ41−FL,41−RR,41−RLや、ディスプレイ42−C,42−RR,42−RLを用いた同乗者P1,P2,P3に向けての出力を行わない。 For example, the in-vehicle device 10 controls the output so that the response to the operation is presented only to the operator. For example, when the driver D is specified as the operator, the in-vehicle device 10 outputs a response to the driver D using only the speaker 41-FR and the display 42-H, while the speaker 41-FL is used. , 41-RR, 41-RL and the displays 42-C, 42-RR, 42-RL are not output to the passengers P1, P2, P3.

これにより、操作に対する応答が必要な当事者に向けてのみ応答を出力することができ、当事者以外には、不要な応答により煩わしさを感じさせるのを軽減することができる。したがって、実施形態に係る情報処理方法によれば、なされた操作に対し、操作者に応じた適切な出力態様での応答を行うことができる。 As a result, the response can be output only to the party who needs the response to the operation, and it is possible to reduce the feeling of annoyance caused by the unnecessary response to other parties. Therefore, according to the information processing method of the embodiment, it is possible to respond to the performed operation in an appropriate output mode according to the operator.

以下、上述した実施形態に係る情報処理方法を適用した情報処理システム1の構成例について、より具体的に説明する。 Hereinafter, a configuration example of the information processing system 1 to which the information processing method according to the above-described embodiment is applied will be described more specifically.

図2は、実施形態に係る情報処理システム1の構成例を示すブロック図である。なお、図2では、実施形態の特徴を説明するために必要な構成要素のみを表しており、一般的な構成要素についての記載を省略している。 FIG. 2 is a block diagram showing a configuration example of the information processing system 1 according to the embodiment. It should be noted that FIG. 2 shows only the components necessary for explaining the features of the embodiment, and omits the description of general components.

換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component shown in FIG. 2 is functionally conceptual, and does not necessarily have to be physically configured as shown. For example, the specific form of the distribution/integration of each block is not limited to that shown in the figure, and all or part of the distribution/integration may be functionally or physically distributed in arbitrary units according to various loads or usage conditions. It can be integrated and configured.

また、図2を用いた説明では、既に説明済みの構成要素については、説明を簡略するか、省略する場合がある。 In addition, in the description using FIG. 2, the description of the already described constituent elements may be simplified or omitted.

図2に示すように、実施形態に係る情報処理システム1は、入力部2と、各種センサ3と、出力部4と、車載装置10とを含む。 As shown in FIG. 2, the information processing system 1 according to the embodiment includes an input unit 2, various sensors 3, an output unit 4, and an in-vehicle device 10.

入力部2は、操作部21と、マイク22とを含む。操作部21は、ディスプレイ42−Cのタッチパネルや、タッチパッド等である。操作者の所有するスマートフォンや、ウェアラブル端末等であってもよい。マイク22は、上述したマイク22−FR,22−FL,22−RR,22−RLを含む。 The input unit 2 includes an operation unit 21 and a microphone 22. The operation unit 21 is a touch panel of the display 42-C, a touch pad, or the like. It may be a smartphone owned by the operator, a wearable terminal, or the like. The microphone 22 includes the microphones 22-FR, 22-FL, 22-RR, 22-RL described above.

各種センサ3は、車両Vに搭載された各種のセンサ、たとえば、カメラや、GPS(Global Positioning System)センサ、加速度センサ、アクセルセンサ、ブレーキセンサ、ステアリングセンサ、生体センサ等である。 The various sensors 3 are various sensors mounted on the vehicle V, for example, a camera, a GPS (Global Positioning System) sensor, an acceleration sensor, an accelerator sensor, a brake sensor, a steering sensor, a biological sensor, and the like.

出力部4は、スピーカ41と、ディスプレイ42とを含む。スピーカ41は、上述したスピーカ41−FR,41−FL,41−RR,41−RLを含む。ディスプレイ42は、上述したディスプレイ42−H,42−C,42−RR,42−RLを含む。 The output unit 4 includes a speaker 41 and a display 42. The speaker 41 includes the above-mentioned speakers 41-FR, 41-FL, 41-RR, 41-RL. The display 42 includes the above-mentioned displays 42-H, 42-C, 42-RR, 42-RL.

車載装置10は、記憶部12と、制御部13とを備える。記憶部12は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、設定情報12aと、音声認識モデル12bと、マップ情報12cと、応答生成モデル12dとを記憶する。なお、応答生成モデル12dは、外部のサーバ装置が記憶することとしてもよい。かかる例については、図6を用いた説明で後述する。 The in-vehicle device 10 includes a storage unit 12 and a control unit 13. The storage unit 12 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. In the example of FIG. 2, the setting information 12a and The voice recognition model 12b, the map information 12c, and the response generation model 12d are stored. The response generation model 12d may be stored in an external server device. Such an example will be described later with reference to FIG.

設定情報12aは、上述した、事前に所定の操作ごとに操作者が関連付けられた情報である。ここで、図3を用いて、設定情報12aの一例について説明しておく。図3は、実施形態に係る設定情報12aの一例を示す図である。 The setting information 12a is the above-described information in which the operator is associated with each predetermined operation in advance. Here, an example of the setting information 12a will be described with reference to FIG. FIG. 3 is a diagram showing an example of the setting information 12a according to the embodiment.

図3に示すように、設定情報12aは、「操作No.」項目と、「設定者」項目と、「操作内容」項目とを含む。「操作No.」項目は、設定情報12aに登録される各操作の識別情報が格納される。 As shown in Fig. 3, the setting information 12a includes an "operation No." item, a "configurator" item, and an "operation content" item. The “operation No.” item stores identification information of each operation registered in the setting information 12a.

「設定者」項目は、図中に示すように、「操作者」項目と言い換えてもよく、各操作を事前に設定し、当該操作を実際に行うこととなる操作者の識別情報が格納される。「操作内容」が、実際の操作の態様、たとえば「ナビ音声操作#1」であれば、「自宅に帰る」等の音声コマンドの内容がテキスト形式等で格納されている。 As shown in the figure, the “configurator” item may be rephrased as the “operator” item, and stores the identification information of the operator who presets each operation and actually performs the operation. It If the “operation content” is an actual operation mode, for example, “navi voice operation #1”, the content of a voice command such as “go home” is stored in a text format or the like.

図2の説明に戻る。音声認識モデル12bは、後述する音声認識部13bが実行する音声認識処理に用いられる言語モデルであって、たとえば隠れマルコフモデル等である。マップ情報12cは、車室Cにおける搭乗者の各位置と、マイク22,スピーカ41,ディスプレイ42とが関連付けられた情報である。たとえば、マップ情報12cは、搭乗者の各位置と、これに最も近いマイク22,スピーカ41,ディスプレイ42とが関連付けられている。 Returning to the explanation of FIG. The voice recognition model 12b is a language model used for voice recognition processing executed by the voice recognition unit 13b described later, and is, for example, a hidden Markov model or the like. The map information 12c is information in which each position of the passenger in the vehicle interior C is associated with the microphone 22, the speaker 41, and the display 42. For example, the map information 12c associates each position of the passenger with the microphone 22, the speaker 41, and the display 42 that are closest to the position.

応答生成モデル12dは、音声認識部13bによる音声認識結果への応答の最適解がディープラーニング等により常に機械学習されている機械学習モデルである。 The response generation model 12d is a machine learning model in which the optimal solution of the response to the voice recognition result by the voice recognition unit 13b is always machine learned by deep learning or the like.

制御部13は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、車載装置10内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部13は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。 The control unit 13 is a controller, and various programs stored in a storage device inside the vehicle-mounted apparatus 10 using the RAM as a work area by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). It is realized by being executed. The control unit 13 can be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部13は、設定部13aと、音声認識部13bと、特定部13cと、応答生成部13dと、負荷状況判定部13eと、出力制御部13fとを有し、以下に説明する情報処理の機能や作用を実現または実行する。 The control unit 13 includes a setting unit 13a, a voice recognition unit 13b, a specification unit 13c, a response generation unit 13d, a load status determination unit 13e, and an output control unit 13f, and performs information processing described below. Realize or execute a function or action.

設定部13aは、入力部2から、上述した設定情報12aの設定内容を受け付け、設定情報12aへ反映する。 The setting unit 13a receives the setting content of the above-described setting information 12a from the input unit 2 and reflects it in the setting information 12a.

音声認識部13bは、マイク22から入力される音声を取得し、音声認識処理を実行する。音声認識部13bは、「取得部」の一例に相当する。具体的には、音声認識部13bは、所定のウェイクワードを検知する。ウェイクワードは、いわゆる音声アシスタント機能を呼び出すトリガとなる音声コマンドであり、音声認識部13bは、常時かかるウェイクワードを検知する待機状態となっている。 The voice recognition unit 13b acquires a voice input from the microphone 22 and executes a voice recognition process. The voice recognition unit 13b corresponds to an example of an “acquisition unit”. Specifically, the voice recognition unit 13b detects a predetermined wake word. The wake word is a voice command that is a trigger for calling a so-called voice assistant function, and the voice recognition unit 13b is always in a standby state for detecting the wake word.

音声認識部13bは、かかるウェイクワードを検知すると、これに続く操作者の発話区間を音声指示として抽出する。また、音声認識部13bは、抽出した音声指示を音声認識モデル12bを用いて自然文による命令として解釈し、解釈結果を特定部13cへ通知する。また、音声認識部13bは、マイク22の各音声入力レベル等を特定部13cへ通知する。 When the voice recognition unit 13b detects the wake word, the voice recognition unit 13b extracts the utterance section of the operator following the wake word as a voice instruction. Further, the voice recognition unit 13b interprets the extracted voice instruction as a command in a natural sentence using the voice recognition model 12b, and notifies the specification unit 13c of the interpretation result. Further, the voice recognition unit 13b notifies the identification unit 13c of each voice input level of the microphone 22 and the like.

特定部13cは、音声認識部13bによる解釈結果と設定情報12aの操作内容とを照合して、操作者を特定する。また、特定部13cは、たとえばマイク22の各音声入力レベルとマップ情報12cとに基づいて操作者の位置を特定する。なお、各種センサ3の検出結果を利用してもよい。 The identification unit 13c identifies the operator by collating the interpretation result by the voice recognition unit 13b with the operation content of the setting information 12a. Further, the specifying unit 13c specifies the position of the operator based on each voice input level of the microphone 22 and the map information 12c, for example. The detection results of various sensors 3 may be used.

また、特定部13cは、特定した操作者の位置と関連付けられたスピーカ41,ディスプレイ42をマップ情報12cから抽出して、出力制御部13fへ通知する。 Further, the identifying unit 13c extracts the speaker 41 and the display 42 associated with the identified operator position from the map information 12c and notifies the output control unit 13f of the extracted information.

応答生成部13dは、音声認識部13bの音声認識結果を応答生成モデル12dへ入力して得られる出力値に基づいて、音声認識結果に対する最適解を生成し、出力制御部13fへ通知する。 The response generation unit 13d generates an optimum solution for the voice recognition result based on the output value obtained by inputting the voice recognition result of the voice recognition unit 13b to the response generation model 12d, and notifies the output control unit 13f of the optimum solution.

負荷状況判定部13eは、各種センサ3の検出結果に基づいて、ドライバDの運転の負荷状況を判定し、判定結果を出力制御部13fへ通知する。たとえば負荷状況判定部13eは、各種センサ3の検出結果に基づいて、道の混雑度合いや、走行中の道路種別、ブレーキ頻度、ステアリング角、ドライバDの視線変化等を導出する。 The load condition determination unit 13e determines the drive load condition of the driver D based on the detection results of the various sensors 3, and notifies the output control unit 13f of the determination result. For example, the load condition determination unit 13e derives the congestion degree of the road, the road type during traveling, the braking frequency, the steering angle, the line-of-sight change of the driver D, and the like, based on the detection results of the various sensors 3.

そして、負荷状況判定部13eは、かかる導出結果に基づいて負荷状況の度合い示す演算値を算出し、かかる演算値が所定の閾値以上であれば、高負荷であると出力制御部13fへ通知する。 Then, the load status determination unit 13e calculates a calculation value indicating the degree of the load status based on the derivation result, and if the calculation value is equal to or more than a predetermined threshold, notifies the output control unit 13f that the load is high. ..

出力制御部13fは、特定部13c、応答生成部13dおよび負荷状況判定部13eからの各通知に基づいて、操作に対する応答の、操作者以外への出力態様を制御する。 The output control unit 13f controls the output mode of the response to the operation other than the operator based on the notifications from the specifying unit 13c, the response generating unit 13d, and the load status determining unit 13e.

出力制御部13fは、原則的には、操作者が、当該操作に対する応答を受ける対象者となるように出力部4を出力制御する。また、出力制御部13fは、例外的には、ドライバDの運転負荷が高い場合は、ドライバDが応答を受ける対象者とはならないように出力部4を出力制御する。 In principle, the output control unit 13f controls the output of the output unit 4 so that the operator is a target person who receives a response to the operation. In addition, the output control unit 13f exceptionally controls the output of the output unit 4 so that the driver D does not become a target person who receives a response when the driving load of the driver D is high.

ここで、出力制御部13fが実行する出力制御の具体例について、図4A〜図4Hを用いて説明する。図4A〜図4Hは、実施形態に係る出力制御部13fによる出力制御の具体例を示す図(その1)〜(その8)である。 Here, a specific example of the output control executed by the output control unit 13f will be described with reference to FIGS. 4A to 4H. 4A to 4H are diagrams (No. 1) to (No. 8) showing specific examples of the output control by the output control unit 13f according to the embodiment.

まず、図4Aに示すように、操作者がドライバDと特定されたものとする。かかる場合に、出力制御部13fは、操作に対する応答を受ける対象者をドライバDとし、かかるドライバDの位置に関連付けられたスピーカ41−FR,ディスプレイ42−Hを介して応答を出力する。 First, as shown in FIG. 4A, the operator is specified as the driver D. In such a case, the output control unit 13f sets the driver D as the target person who receives the response to the operation, and outputs the response via the speaker 41-FR and the display 42-H associated with the position of the driver D.

一方で、出力制御部13fは、同図に示すように、対象者以外に対しては出力を抑制する。具体的には、出力制御部13fは、ドライバD以外の同乗者P1,P2,P3に関連付けられたスピーカ41−FL,41−RR,41−RLおよびディスプレイ42−C,42−RR,42−RLを介した応答の出力を抑制する。 On the other hand, the output control unit 13f suppresses the output to other than the target person, as shown in FIG. Specifically, the output control unit 13f causes the speakers 41-FL, 41-RR, 41-RL and the displays 42-C, 42-RR, 42- associated with the passengers P1, P2, P3 other than the driver D. Suppress the output of responses via the RL.

なお、ここに言う「抑制」は、スピーカ41の場合、音量を下げる、音量を0にする、および、該当の応答については無視する(出力中の音声があれば維持して出力する)場合を含む。また、ディスプレイ42の場合、該当の応答については無視する(出力中の映像があれば維持して出力する)場合を含む。この点は、以下でも同様である。 It should be noted that the “suppression” mentioned here refers to a case where the volume is lowered, the volume is set to 0, and the corresponding response is ignored in the case of the speaker 41 (when there is a voice being output, the voice is maintained and output). Including. In the case of the display 42, it also includes a case of ignoring the corresponding response (maintaining and outputting an image which is being output). This also applies to the following.

また、図4Bに示すように、操作者が同乗者P1と特定されたものとする。かかる場合に、出力制御部13fは、操作に対する応答を受ける対象者を同乗者P1とし、かかる同乗者P1の位置に関連付けられたスピーカ41−FL,ディスプレイ42−Cを介して応答を出力する。 Further, as shown in FIG. 4B, it is assumed that the operator is identified as the fellow passenger P1. In such a case, the output control unit 13f sets the fellow passenger P1 as the target person who receives the response to the operation, and outputs the response via the speaker 41-FL and the display 42-C associated with the position of the fellow passenger P1.

一方で、出力制御部13fは、同図に示すように、同乗者P1以外のドライバD、同乗者P2,P3に関連付けられたスピーカ41−FR,41−RR,41−RLおよびディスプレイ42−H,42−RR,42−RLを介した応答の出力を抑制する。 On the other hand, the output control unit 13f, as shown in the figure, the driver D other than the passenger P1, the speakers 41-FR, 41-RR, 41-RL and the display 42-H associated with the passengers P2, P3. , 42-RR, 42-RL suppresses the output of the response.

また、図4Cに示すように、操作者が同乗者P2と特定されたものとする。かかる場合に、出力制御部13fは、操作に対する応答を受ける対象者を同乗者P2とし、かかる同乗者P2の位置に関連付けられたスピーカ41−RR,ディスプレイ42−RRを介して応答を出力する。 Further, as shown in FIG. 4C, it is assumed that the operator is identified as the fellow passenger P2. In such a case, the output control unit 13f sets the passenger who receives the response to the operation as the fellow passenger P2, and outputs the response via the speaker 41-RR and the display 42-RR associated with the position of the fellow passenger P2.

一方で、出力制御部13fは、同図に示すように、同乗者P2以外のドライバD、同乗者P1,P3に関連付けられたスピーカ41−FR,41−FL,41−RLおよびディスプレイ42−H,42−C,42−RLを介した応答の出力を抑制する。 On the other hand, as shown in the figure, the output control unit 13f causes the driver D other than the passenger P2, the speakers 41-FR, 41-FL, 41-RL and the display 42-H associated with the passengers P1 and P3. , 42-C, 42-RL suppresses the output of the response.

なお、操作者が同乗者P3と特定された場合は、同乗者P2の場合と左右逆になるだけであるので、ここでの説明は省略する。 In addition, when the operator is specified as the fellow passenger P3, the left and right are the same as the case of the fellow passenger P2, and thus the description thereof is omitted here.

また、図4Dに示すように、設定情報12aに設定のない操作が受け付けられたものとする。かかる場合に、出力制御部13fは、搭乗者全員を対象者として取り扱い、すべてのスピーカ41、および、すべてのディスプレイ42を介して応答を出力する。 Further, as shown in FIG. 4D, it is assumed that an operation having no setting in the setting information 12a has been received. In such a case, the output control unit 13f treats all the passengers as target persons, and outputs a response via all the speakers 41 and all the displays 42.

なお、図4Dと同様に、図4Eに示すように、設定情報12aに設定のない操作が受け付けられた場合で、同乗者P1,P2,P3がいない場合でも、出力制御部13fは、搭乗者全員を対象者として取り扱う。 Note that, as in FIG. 4D, as shown in FIG. 4E, even when there is no setting in the setting information 12a and there are no fellow passengers P1, P2, P3, the output control unit 13f determines that the passenger Treat everyone as the target.

すなわち、出力制御部13fは、ドライバDのみを対象者として取り扱い、ドライバDの位置に関連付けられたスピーカ41−FR,ディスプレイ42−Hを介して応答を出力することとなる。 That is, the output control unit 13f treats only the driver D as a target person, and outputs a response via the speaker 41-FR and the display 42-H associated with the position of the driver D.

また、図4Fに示すように、操作者がドライバDと特定されたものとする。ただし、同図に示すように、ドライバDの運転負荷が高い場合、出力制御部13fは、たとえばドライバDに対しては情報量を小さくする。具体的には、かかる場合、出力制御部13fは、ドライバDに向けては、たとえばスピーカ41−FRを介した音声のみにより応答を出力する。 Further, as shown in FIG. 4F, it is assumed that the operator is identified as the driver D. However, as shown in the figure, when the driving load of the driver D is high, the output control unit 13f reduces the information amount for the driver D, for example. Specifically, in such a case, the output control unit 13f outputs a response to the driver D only by, for example, the sound through the speaker 41-FR.

一方で、出力制御部13fは、同図に示すように、ドライバD以外の同乗者P3がいる場合に、同乗者P3に向けては、同乗者P3に関連付けられたスピーカ41−RLおよびディスプレイ42−RLを介して応答を出力する。すなわち、出力制御部13fは、運転負荷の高いドライバDよりも、同乗者P3の方が情報量が大きくなるように応答を出力する。 On the other hand, when there is a fellow passenger P3 other than the driver D, the output control unit 13f directs toward the fellow passenger P3 the speaker 41-RL and the display 42 associated with the fellow passenger P3, as shown in FIG. Output the response via RL. That is, the output control unit 13f outputs a response such that the passenger P3 has a larger amount of information than the driver D having a high driving load.

また、図4Fと同様に、図4Gに示すように、ドライバDの運転負荷が高い場合で、操作者は同乗者P3と特定されたものとする。かかる場合、出力制御部13fは、操作に対する応答を受ける対象者を同乗者P3とし、かかる同乗者P3の位置に関連付けられたスピーカ41−RL,ディスプレイ42−RLを介して応答を出力する。 Further, as in FIG. 4F, as shown in FIG. 4G, when the driving load of the driver D is high, the operator is identified as the fellow passenger P3. In such a case, the output control unit 13f sets the passenger who receives the response to the operation as the fellow passenger P3, and outputs the response via the speaker 41-RL and the display 42-RL associated with the position of the fellow passenger P3.

あわせて、出力制御部13fは、同図に示すように、ドライバDについては応答を受ける非対象者とし、ドライバDに関連付けられたスピーカ41−FRおよびディスプレイ42−Hを介しては、当該応答を一切出力しない。 In addition, as shown in the figure, the output control unit 13f determines that the driver D is a non-target person who receives a response, and the response is received via the speaker 41-FR and the display 42-H associated with the driver D. Is not output at all.

また、図4Hに示すように、出力制御部13fは、操作者がドライバDと特定された場合であっても、すべてのスピーカ41、および、すべてのディスプレイ42を介して応答を出力してもよい。ただし、誰が対象者であるかが認識可能となるように、出力制御部13fは、同図に示すように、たとえば冒頭で「ドライバDさん」と呼びかける音声が挿入されるように応答を出力してもよい。 Further, as shown in FIG. 4H, the output control unit 13f outputs a response through all the speakers 41 and all the displays 42 even when the operator is identified as the driver D. Good. However, in order to be able to recognize who is the target person, the output control unit 13f outputs a response such that a voice calling “Mr. Driver D” is inserted at the beginning as shown in FIG. May be.

次に、実施形態に係る車載装置10が実行する処理手順について、図5を用いて説明する。図5は、実施形態に係る車載装置10が実行する処理手順を示すフローチャートである。 Next, a processing procedure executed by the in-vehicle device 10 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing a processing procedure executed by the in-vehicle device 10 according to the embodiment.

まず、設定部13aが、操作者と操作とを関連付けた設定情報12aを設定する(ステップS101)。そして、音声認識部13bが、音声操作を取得する(ステップS102)。 First, the setting unit 13a sets the setting information 12a that associates the operator with the operation (step S101). Then, the voice recognition unit 13b acquires a voice operation (step S102).

そして、特定部13cが、音声認識部13bによって取得され、音声認識された音声操作と設定情報12aとに基づいて操作者を特定する(ステップS103)。そして、出力制御部13fが、音声操作に対する応答の、操作者以外への出力態様を制御し(ステップS104)、言い換えれば、原則的に、特定された操作者が音声操作に対する応答を受ける対象者となるように出力制御を行い、処理を終了する。 Then, the specifying unit 13c specifies the operator based on the voice operation acquired by the voice recognition unit 13b and voice-recognized and the setting information 12a (step S103). Then, the output control unit 13f controls the output mode of the response to the voice operation to other than the operator (step S104), in other words, in principle, the identified operator receives the response to the voice operation. The output control is performed so that

上述してきたように、実施形態に係る車載装置10(「情報処理装置」の一例に相当)は、操作者によってなされる操作に対し応答する車載装置10であって、音声認識部13b(「取得部」の一例に相当)と、特定部13cと、出力制御部13fとを備える。音声認識部13bは、操作者の操作を取得する。特定部13cは、音声認識部13bによって取得された操作の操作者を、予め所定の操作と操作者とが関連付けられた設定情報12aに基づいて特定する。出力制御部13fは、特定部13cの特定結果に基づいて、操作者以外対する応答の出力態様を制御する。 As described above, the in-vehicle device 10 (corresponding to an example of the “information processing device”) according to the embodiment is the in-vehicle device 10 that responds to the operation performed by the operator, and includes the voice recognition unit 13b (“acquisition”). (Corresponding to an example of a “unit”), a specifying unit 13c, and an output control unit 13f. The voice recognition unit 13b acquires the operation of the operator. The identification unit 13c identifies the operator of the operation acquired by the voice recognition unit 13b based on the setting information 12a in which the predetermined operation is associated with the operator in advance. The output control unit 13f controls the output mode of a response to a person other than the operator based on the identification result of the identification unit 13c.

したがって、実施形態に係る車載装置10によれば、なされた操作に対し、操作者に応じた適切な出力態様での応答を行うことが可能となる。 Therefore, according to the vehicle-mounted device 10 according to the embodiment, it is possible to respond to the performed operation in an appropriate output mode according to the operator.

また、出力制御部13fは、操作者が応答を受ける対象者となるように出力態様を制御する。 In addition, the output control unit 13f controls the output mode so that the operator is the target person who receives the response.

したがって、実施形態に係る車載装置10によれば、操作に対する応答が必要な操作者に対し、適切な出力態様で応答することが可能となる。 Therefore, according to the vehicle-mounted device 10 of the embodiment, it is possible to respond to the operator who needs a response to the operation in an appropriate output mode.

また、出力制御部13fは、音声認識部13bによって取得された操作が設定情報12aに含まれない場合、操作者以外も応答を受けるように出力態様を制御する。 In addition, when the operation acquired by the voice recognition unit 13b is not included in the setting information 12a, the output control unit 13f controls the output mode so that a person other than the operator also receives a response.

したがって、実施形態に係る車載装置10によれば、設定情報12aに設定外の操作であり、誰が応答を受ける対象者であるか特定できない操作については、操作者以外も対象者として取り扱い、応答の出力に抜けが生じるのを防ぐことができる。 Therefore, according to the vehicle-mounted apparatus 10 according to the embodiment, an operation that is not set in the setting information 12a and cannot identify who is the target person to receive a response is handled as a target person other than the operator, and It is possible to prevent omissions in the output.

また、操作者は、車両Vの搭乗者であって、出力制御部13fは、音声認識部13bによって取得された操作が設定情報12aに含まれない場合で、搭乗者がドライバD(「運転者」の一例に相当)のみである場合、ドライバDのみが応答を受けるように出力態様を制御する。 In addition, the operator is a passenger of the vehicle V, and the output control unit 13f causes the driver D (“driver”) to operate when the operation acquired by the voice recognition unit 13b is not included in the setting information 12a. (Corresponding to one example)”, the output mode is controlled so that only the driver D receives the response.

したがって、実施形態に係る車載装置10によれば、設定情報12aに設定外の操作であり、誰が対象者であるか特定できない場合で、かつ、ドライバDしか搭乗していない場合でも、かかるドライバDを対象者として取り扱い、応答の出力に抜けが生じるのを防ぐことができる。 Therefore, according to the vehicle-mounted apparatus 10 according to the embodiment, even if the driver D is an operation that is not set in the setting information 12a and it is not possible to identify who is the target person, and only the driver D is on board, the driver D Can be treated as a target person, and omissions in the output of the response can be prevented.

また、実施形態に係る車載装置10は、ドライバDの運転の負荷状況を判定する負荷状況判定部13e(「判定部」の一例に相当)をさらに備える。出力制御部13fは、負荷状況判定部13eによってドライバDの負荷が高いと判定される場合に、当該ドライバDよりも同乗者P1,P2,P3の方が情報量が大きくなるように出力態様を制御する。 In addition, the in-vehicle device 10 according to the embodiment further includes a load condition determination unit 13e (corresponding to an example of a “determination unit”) that determines the load condition of the driver D driving. When the load condition determination unit 13e determines that the load on the driver D is high, the output control unit 13f sets the output mode so that the passengers P1, P2, and P3 have a larger amount of information than the driver D. Control.

したがって、実施形態に係る車載装置10によれば、ドライバDの負荷が高い状況においては、代替的に同乗者P1,P2,P3を応答の対象者として取り扱うことができる。 Therefore, according to the vehicle-mounted device 10 of the embodiment, the passengers P1, P2, and P3 can be alternatively handled as the respondents when the driver D has a heavy load.

また、出力制御部13fは、負荷状況判定部13eによってドライバDの負荷が高いと判定される場合に、当該ドライバDが応答を受ける非対象者となるように出力態様を制御する。 In addition, when the load condition determination unit 13e determines that the load on the driver D is high, the output control unit 13f controls the output mode so that the driver D becomes a non-target person who receives a response.

したがって、実施形態に係る車載装置10によれば、ドライバDの負荷が高い状況においては、応答を受ける対象者からドライバDを外し、ドライバDの負荷がさらに高まるのを抑えることができるので、車両Vの運転の安全性を確保するのにも資することができる。 Therefore, according to the vehicle-mounted device 10 of the embodiment, in a situation where the load of the driver D is high, it is possible to remove the driver D from the target person who receives the response, and to prevent the load of the driver D from further increasing. It can also contribute to ensuring the safety of V driving.

(その他の実施形態)
ところで、上述した実施形態では、車載装置10単体が音声認識モデル12bおよび応答生成モデル12dを有する場合を例に挙げたが、これらは外部のサーバ装置が有していてもよい。
(Other embodiments)
By the way, in the above-described embodiment, the case where the vehicle-mounted device 10 alone has the voice recognition model 12b and the response generation model 12d has been described as an example, but these may be included in an external server device.

かかる場合の構成例について、図6を用いて説明する。図6は、その他の実施形態に係る情報処理システム1Aの構成例を示すブロック図である。なお、図6は、図2に対応しているため、ここでは、図2と異なる点についてのみ説明する。 A configuration example in such a case will be described with reference to FIG. FIG. 6 is a block diagram showing a configuration example of an information processing system 1A according to another embodiment. Since FIG. 6 corresponds to FIG. 2, only points different from FIG. 2 will be described here.

図6に示すように、その他の実施形態に係る情報処理システム1Aは、車載装置10が、応答生成部13dと、応答生成モデル12dとを有していない点が図2の場合とは異なる。 As shown in FIG. 6, an information processing system 1A according to another embodiment is different from the case of FIG. 2 in that the in-vehicle device 10 does not include the response generation unit 13d and the response generation model 12d.

また、情報処理システム1Aは、サーバ装置100を含む点が図2の場合とは異なる。サーバ装置100は、たとえばスマートスピーカのスピーカメーカ等がクラウドサーバとして提供する音声アシスタントのサーバ装置であり、インターネットや携帯電話回線網等であるネットワークNを介して車載装置10と相互通信可能に設けられる。 In addition, the information processing system 1A is different from the case of FIG. 2 in that the server device 100 is included. The server device 100 is, for example, a server device for a voice assistant provided as a cloud server by a speaker manufacturer of a smart speaker, and is provided so as to be able to communicate with the vehicle-mounted device 10 via a network N such as the Internet or a mobile phone network. ..

サーバ装置100は、音声認識部101aと、応答生成部101bと、音声認識モデル102aと、応答生成モデル102bとを有する。車載装置10の音声認識部13bは、ネットワークNを介し、サーバ装置100の音声認識部101aへ抽出した音声指示の音声データを通知する。 The server device 100 includes a voice recognition unit 101a, a response generation unit 101b, a voice recognition model 102a, and a response generation model 102b. The voice recognition unit 13b of the vehicle-mounted device 10 notifies the voice recognition unit 101a of the server device 100 of the voice data of the extracted voice instruction via the network N.

音声認識部101aは、通知された音声指示を音声認識モデル102aを用いて自然文による命令として解釈した音声認識結果を応答生成部101bへ通知する。応答生成部101bは、通知された音声認識結果を応答生成モデル102bへ入力して得られる出力値に基づいて、音声認識結果に対する最適解を生成し、ネットワークNを介して車載装置10の出力制御部13fへ通知することとなる。 The voice recognition unit 101a notifies the response generation unit 101b of a voice recognition result obtained by interpreting the notified voice instruction as a command in a natural sentence using the voice recognition model 102a. The response generation unit 101b generates an optimal solution for the voice recognition result based on the output value obtained by inputting the notified voice recognition result to the response generation model 102b, and controls the output of the in-vehicle device 10 via the network N. This will be notified to the section 13f.

このようにサーバ装置100を含むことで、サーバ装置100は、数多くの車載装置10から収集される音声指示に基づき、多くの教師データを得て、音声認識モデル102aおよび応答生成モデル102bを機械学習することになる。したがって、情報処理システム1Aによれば、機械学習を重ねた音声認識モデル102aおよび応答生成モデル102bによる高精度な音声認識結果および応答生成結果を得ることが可能となる。 By including the server device 100 in this way, the server device 100 obtains a large amount of teacher data based on voice instructions collected from a large number of vehicle-mounted devices 10 and machine-learns the voice recognition model 102a and the response generation model 102b. Will be done. Therefore, according to the information processing system 1A, it is possible to obtain highly accurate voice recognition results and response generation results by the voice recognition model 102a and the response generation model 102b that have undergone machine learning.

また、上述した各実施形態では、車両Vの搭乗者が音声操作を行う場合を例に挙げて説明したが、無論、音声操作に限られるものではなく、設定情報12aに設定可能な所定の操作であればよい。 Further, in each of the above-described embodiments, the case where the passenger of the vehicle V performs the voice operation has been described as an example, but it goes without saying that the operation is not limited to the voice operation, and a predetermined operation that can be set in the setting information 12a. If

また、上述した各実施形態では、車両Vの搭乗定員が4人である場合を例に挙げたが、無論、その数を限定するものではない。したがって、マイク22や、スピーカ41、ディスプレイ42の数を限定するものでもない。 Further, in each of the above-described embodiments, the case where the number of passengers in the vehicle V is four has been described as an example, but the number of passengers is of course not limited. Therefore, the numbers of the microphones 22, the speakers 41, and the displays 42 are not limited.

また、上述した実施形態では、情報処理装置が車載装置10である場合を例に挙げたが、情報処理装置は、複数の操作者からの操作を受け付け可能であり、なされた操作に対する応答を操作者の位置に対応する複数の出力部から応答可能なものであれば、たとえば移動しない室内空間に設けられるものであってもよい。 Further, in the above-described embodiment, the case where the information processing device is the in-vehicle device 10 has been described as an example, but the information processing device can accept an operation from a plurality of operators and operates a response to the performed operation. As long as it can respond from a plurality of output units corresponding to the position of the person, it may be provided in an indoor space that does not move.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. As such, the broader aspects of the present invention are not limited to the specific details and representative embodiments depicted and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 情報処理システム
10 車載装置
13a 設定部
13b 音声認識部
13c 特定部
13d 応答生成部
13e 負荷状況判定部
13f 出力制御部
100 サーバ装置
N ネットワーク
V 車両
DESCRIPTION OF SYMBOLS 1 Information processing system 10 In-vehicle device 13a Setting unit 13b Voice recognition unit 13c Identification unit 13d Response generation unit 13e Load condition determination unit 13f Output control unit 100 Server device N network V vehicle

Claims (7)

操作者によってなされる操作に対し応答する情報処理装置であって、
前記操作者の操作を取得する取得部と、
前記取得部によって取得された操作の前記操作者を、予め所定の操作と前記操作者とが関連付けられた設定情報に基づいて特定する特定部と、
前記特定部の特定結果に基づいて、前記操作者以外に対する応答の出力態様を制御する出力制御部と
を備えることを特徴とする情報処理装置。
An information processing device that responds to an operation performed by an operator,
An acquisition unit that acquires the operation of the operator,
A specifying unit that specifies the operator of the operation acquired by the acquisition unit based on setting information in which a predetermined operation and the operator are associated in advance,
An output control unit configured to control an output mode of a response to a person other than the operator based on the identification result of the identification unit.
前記出力制御部は、
前記操作者が応答を受ける対象者となるように出力態様を制御する
ことを特徴とする請求項1に記載の情報処理装置。
The output control unit,
The information processing apparatus according to claim 1, wherein the output mode is controlled so that the operator is a target person who receives a response.
前記出力制御部は、
前記取得部によって取得された操作が前記設定情報に含まれない場合、前記操作者以外も応答を受けるように出力態様を制御する
ことを特徴とする請求項1または2に記載の情報処理装置。
The output control unit,
The information processing apparatus according to claim 1 or 2, wherein when the operation acquired by the acquisition unit is not included in the setting information, the output mode is controlled so that the operator other than the operator also receives a response.
前記操作者は、車両の搭乗者であって、
前記出力制御部は、
前記取得部によって取得された操作が前記設定情報に含まれない場合で、前記搭乗者が運転者のみである場合、該運転者のみが応答を受けるように出力態様を制御する
ことを特徴とする請求項3に記載の情報処理装置。
The operator is a passenger of the vehicle,
The output control unit,
When the operation acquired by the acquisition unit is not included in the setting information and the passenger is only a driver, the output mode is controlled so that only the driver receives a response. The information processing device according to claim 3.
前記運転者の運転の負荷状況を判定する判定部
をさらに備え、
前記出力制御部は、
前記判定部によって前記運転者の負荷が高いと判定される場合に、当該運転者よりも同乗者の方が情報量が大きくなるように出力態様を制御する
ことを特徴とする請求項4に記載の情報処理装置。
Further comprising a determination unit for determining the driving load situation of the driver,
The output control unit,
The output mode is controlled such that when the determination unit determines that the load on the driver is high, the information amount of the fellow passenger is larger than that of the driver. Information processing equipment.
前記出力制御部は、
前記判定部によって前記運転者の負荷が高いと判定される場合に、当該運転者が応答を受ける非対象者となるように出力態様を制御する
ことを特徴とする請求項5に記載の情報処理装置。
The output control unit,
The information processing according to claim 5, wherein when the determination unit determines that the load on the driver is high, the output mode is controlled so that the driver becomes a non-target person who receives a response. apparatus.
操作者によってなされる操作に対し応答する情報処理装置を用いた情報処理方法であって、
前記操作者の操作を取得する取得工程と、
前記取得工程によって取得された操作の前記操作者を、予め所定の操作と前記操作者とが関連付けられた設定情報に基づいて特定する特定工程と、
前記特定工程の特定結果に基づいて、前記操作者以外に対する応答の出力態様を制御する出力制御工程と
を含むことを特徴とする情報処理方法。
An information processing method using an information processing device that responds to an operation performed by an operator, comprising:
An acquisition step of acquiring the operation of the operator,
A specific step of specifying the operator of the operation acquired by the acquisition step based on setting information in which a predetermined operation and the operator are associated in advance,
An output control step of controlling an output mode of a response to a person other than the operator based on the identification result of the identification step.
JP2019004713A 2019-01-15 2019-01-15 Information processing apparatus and information processing method Pending JP2020112733A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019004713A JP2020112733A (en) 2019-01-15 2019-01-15 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019004713A JP2020112733A (en) 2019-01-15 2019-01-15 Information processing apparatus and information processing method

Publications (1)

Publication Number Publication Date
JP2020112733A true JP2020112733A (en) 2020-07-27

Family

ID=71666993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019004713A Pending JP2020112733A (en) 2019-01-15 2019-01-15 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP2020112733A (en)

Similar Documents

Publication Publication Date Title
US20180190282A1 (en) In-vehicle voice command control
CN107396249B (en) System for providing occupant-specific acoustic functions in a transportation vehicle
CN110166896B (en) Voice providing method, voice providing system and server
CN109545219A (en) Vehicle-mounted voice exchange method, system, equipment and computer readable storage medium
KR20190106916A (en) Acoustic control system, apparatus and method
US20240127814A1 (en) Dynamic microphone system for autonomous vehicles
CN112805182A (en) Agent device, agent control method, and program
KR20210066985A (en) Vehicle control apparatus and method using speech recognition
CN111007968A (en) Agent device, agent presentation method, and storage medium
US20220005469A1 (en) Providing Interactive Feedback, on a Spoken Announcement, for Vehicle Occupants
JP2020112733A (en) Information processing apparatus and information processing method
JP7294775B2 (en) Information processing device, program, and control method
JP2020144264A (en) Agent device, control method of agent device, and program
JP6332072B2 (en) Dialogue device
JP2019074498A (en) Drive supporting device
US20140136204A1 (en) Methods and systems for speech systems
KR102371513B1 (en) Dialogue processing apparatus and dialogue processing method
JP2019003244A (en) Information providing apparatus, information providing method, and vehicle
US20230419971A1 (en) Dynamic voice assistant system for a vehicle
JP2020157853A (en) In-vehicle agent system, control method of in-vehicle agent system, and program
JP2020144618A (en) Agent device, control method of agent device, and program
JP2020060623A (en) Agent system, agent method, and program
JP2020059401A (en) Vehicle control device, vehicle control method and program
JP7169921B2 (en) AGENT DEVICE, AGENT SYSTEM, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
US20240075944A1 (en) Localized voice recognition assistant