JP7394674B2 - Display control device, display control method, and program - Google Patents

Display control device, display control method, and program Download PDF

Info

Publication number
JP7394674B2
JP7394674B2 JP2020049640A JP2020049640A JP7394674B2 JP 7394674 B2 JP7394674 B2 JP 7394674B2 JP 2020049640 A JP2020049640 A JP 2020049640A JP 2020049640 A JP2020049640 A JP 2020049640A JP 7394674 B2 JP7394674 B2 JP 7394674B2
Authority
JP
Japan
Prior art keywords
image
information
display
agent
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020049640A
Other languages
Japanese (ja)
Other versions
JP2021149615A (en
Inventor
諒 竹林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020049640A priority Critical patent/JP7394674B2/en
Publication of JP2021149615A publication Critical patent/JP2021149615A/en
Application granted granted Critical
Publication of JP7394674B2 publication Critical patent/JP7394674B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示制御装置、表示制御方法、およびプログラムに関する。 The present invention relates to a display control device, a display control method, and a program.

従来、車両の表示装置にキャラクタを表示させ、ユーザと対話を行いながらユーザの要求に応じた運転支援に関する情報や車両の制御、その他のアプリケーション等のサービスを提供する技術が開示されている(例えば、特許文献1参照)。 Conventionally, technologies have been disclosed that display characters on a vehicle's display device and provide services such as driving support information, vehicle control, and other applications according to the user's requests while interacting with the user (e.g. , see Patent Document 1).

特開2006-335231号公報JP2006-335231A

近年では、カーシェアリングサービスの拡大により、様々なユーザが車両を利用する場合があるが、対話を行うキャラクタをユーザに合わせて、より適切な出力態様で表示したり、各種の情報を提供することについては考慮されていなかった。 In recent years, with the expansion of car sharing services, various users may use vehicles, but it is necessary to display characters that interact with each user in a more appropriate output format and provide various information. was not considered.

本発明は、このような事情を考慮してなされたものであり、より適切な出力態様で情報を提供することができる表示制御装置、表示制御方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and one of the objects is to provide a display control device, a display control method, and a program that can provide information in a more appropriate output format. do.

この発明に係る表示制御装置、表示制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る表示制御装置は、出力装置にキャラクタの画像を表示させる表示制御装置であって、前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付ける画像設定部と、前記出力装置に前記付随画像が前記キャラクタの画像とともに表示されることに対応付けて前記出力装置から出力させる付随時情報の設定を受け付ける情報設定部と、を備える、表示制御装置である。
A display control device, a display control method, and a program according to the present invention employ the following configuration.
(1): A display control device according to one aspect of the present invention is a display control device that displays an image of a character on an output device, and displays an accompanying image associated with the character on the output device together with the image of the character. an image setting unit that accepts settings to be displayed; and an information setting unit that accepts settings for incidental information to be output from the output device in association with displaying the accompanying image on the output device together with the image of the character. This is a display control device.

(2):上記(1)の態様において、前記情報設定部は、ユーザごとに前記付随時情報の設定を可能とするものである。 (2): In the aspect of (1) above, the information setting section enables setting of the incidental information for each user.

(3):上記(1)または(2)の態様において、前記付随画像は、前記キャラクタが装備する装飾品の画像または前記キャラクタとは異なる他のキャラクタの画像のうち一方または双方を含むものである。 (3): In the aspect of (1) or (2) above, the accompanying image includes one or both of an image of an accessory equipped by the character and an image of another character different from the character.

(4):上記(3)の態様において、前記出力装置を使用するユーザを認識する認識部と、前記認識部により認識されたユーザに対する前記付随時情報に、前記装飾品を表示させる設定を含む場合に、前記出力装置に、前記キャラクタが前記装飾品を装備した状態の画像を表示させる画像制御部と、をさらに備えるものである。 (4): The aspect of (3) above, including a recognition unit that recognizes a user who uses the output device, and a setting to display the ornament in the incidental information for the user recognized by the recognition unit. In this case, the output device further includes an image control unit that causes the output device to display an image of the character equipped with the accessory.

(5):上記(4)の態様において、前記情報設定部は、前記認識部により認識されたユーザが、前記付随画像を表示させる権限を有する場合に、前記付随時情報の設定を受け付けるものである。 (5): In the aspect of (4) above, the information setting unit accepts the setting of the incidental information when the user recognized by the recognition unit has authority to display the incidental image. be.

(6):上記(4)または(5)の態様において、前記認識部により認識されたユーザが、前記付随画像を表示させる権限を有する場合に、前記付随時情報を前記出力装置に出力させる出力制御部を、さらに備えるものである。 (6): In the aspect of (4) or (5) above, when the user recognized by the recognition unit has the authority to display the accompanying image, output that causes the output device to output the accompanying information. The apparatus further includes a control section.

(7):上記(1)~(6)のうち何れか一つの態様において、前記出力装置は、車両に搭載可能な装置であり、前記情報設定部は、前記付随時情報を、前記車両の状態に対応付けて設定可能とするものである。 (7): In any one of the above (1) to (6), the output device is a device that can be mounted on a vehicle, and the information setting unit is configured to set the incidental information on the vehicle. This allows settings to be made in association with the state.

(8):上記(6)の態様において、前記出力制御部は、前記出力装置に前記キャラクタが装飾品を装備した状態の画像が表示され、且つ前記出力装置に搭載された車両が前記付随時情報の設定に対応付けられた状態にある場合に、前記出力装置に前記付随時情報を出力させるものである。 (8): In the aspect of (6) above, the output control unit displays an image of the character equipped with the accessory on the output device, and displays the vehicle mounted on the output device at the time of the accessory. When the information is in a state associated with the information setting, the output device is caused to output the incidental information.

(9):上記(4)の態様において、前記情報設定部は、前記装飾品にお守りが含まれる場合に、前記付随時情報として前記ユーザによる安全運転に関する情報の設定を受け付けるものである。 (9): In the aspect of (4) above, the information setting section accepts the setting of information regarding safe driving by the user as the incidental information when the ornaments include an amulet.

(10):上記(9)の態様において、前記画像制御部は、前記認識部により複数のユーザが認識され、且つ前記画像設定部により、複数のユーザのうち2以上のユーザについて、前記出力装置に前記キャラクタがお守りを装備した状態の画像を表示させることが設定されている場合において、それぞれのユーザのお守りの種類が同一である場合には、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させ、それぞれのユーザのお守りの種類が同一でない場合に、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させないものである。 (10): In the aspect of (9) above, the image control unit is configured such that the recognition unit recognizes a plurality of users, and the image setting unit sets the output device for two or more users among the plurality of users. If it is set to display an image of the character equipped with the amulet, and if the types of amulets of each user are the same, the output device displays an image of the character equipped with the amulet. An image of the state is displayed, and when the types of amulets of the respective users are not the same, the image of the state in which the character is equipped with the amulet is not displayed on the output device.

(11):上記(9)の態様において、前記画像制御部は、前記認識部により認識された複数のユーザのそれぞれに対して異なる前記キャラクタが設定されている場合において、それぞれのユーザのお守りの種類が同一である場合に、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させ、それぞれのユーザのお守りの種類が同一でない場合に、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させないものである。 (11): In the aspect of (9) above, in the case where a different character is set for each of the plurality of users recognized by the recognition unit, the image control unit controls the talisman of each user. If the types are the same, the output device displays an image of the character equipped with the amulet, and if the types of amulets of each user are not the same, the output device displays the character wearing the amulet. The image of the equipped state is not displayed.

(12):上記(9)の態様において、前記画像制御部は、前記認識部により複数のユーザが認識され、前記出力装置が単一のキャラクタの画像を表示する場合において、それぞれのユーザのお守りの種類が同一である場合に、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させ、それぞれのユーザのお守りの種類が同一でない場合に、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させないものである。 (12): In the aspect of (9) above, when a plurality of users are recognized by the recognition unit and the output device displays an image of a single character, the image control unit provides a talisman for each user. If the types of the amulets are the same, the output device displays an image of the character equipped with the amulet, and if the types of amulets of each user are not the same, the output device displays the character equipped with the amulet. It does not display an image of the equipped state.

(13):本発明の他の態様に係る表示制御方法は、出力装置にキャラクタの画像を表示させる表示制御装置が、前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付け、前記出力装置に前記付随画像が前記キャラクタの画像とともに表示されることに対応付けて前記出力装置から出力させる付随時情報の設定を受け付ける、表示制御方法である。 (13): In a display control method according to another aspect of the present invention, a display control device that displays an image of a character on an output device displays, on the output device, an accompanying image associated with the character together with the image of the character. The present invention is a display control method that receives a setting for causing the incidental image to be displayed on the output device together with an image of the character, and accepts a setting for incidental information that is caused to be output from the output device in association with the incidental image being displayed on the output device together with the image of the character.

(14):本発明の他の態様に係るプログラムは、出力装置にキャラクタの画像を表示させる表示制御装置に、前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付けさせ、前記出力装置に前記付随画像が前記キャラクタの画像とともに表示されることに対応付けて前記出力装置から出力させる付随時情報の設定を受け付けさせる、プログラムである。 (14): A program according to another aspect of the present invention includes a display control device that causes an output device to display a character image, and a display control device that causes the output device to display an accompanying image associated with the character together with the character image. The program causes the output device to accept the setting of incidental information to be outputted from the output device in association with the fact that the incidental image is displayed together with the image of the character.

(1)~(14)の態様によれば、ユーザに、より適切な出力態様で情報を提供することができる。 According to aspects (1) to (14), information can be provided to the user in a more appropriate output format.

エージェント装置100を含むエージェントシステム1の構成図である。1 is a configuration diagram of an agent system 1 including an agent device 100. FIG. 第1実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。1 is a diagram showing the configuration of an agent device 100 and equipment mounted on a vehicle M according to a first embodiment. FIG. 表示・操作装置20の配置例を示す図である。2 is a diagram showing an example of the arrangement of display/operation devices 20. FIG. エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。2 is a diagram showing a configuration of an agent server 200 and a part of the configuration of an agent device 100. FIG. エージェント機能部150の構成例を示す図である。3 is a diagram showing an example of the configuration of an agent function unit 150. FIG. ユーザ設定情報162の内容の一例を示す図である。3 is a diagram illustrating an example of the contents of user setting information 162. FIG. 付随画像設定情報164の内容の一例を示す図である。7 is a diagram illustrating an example of the contents of accompanying image setting information 164. FIG. 付随情報関連DB255の内容の一例を示す図である。It is a figure which shows an example of the content of accompanying information related DB255. エージェント画像に所定の装飾品を着用した態様で表示させる手順を説明するための図である。FIG. 6 is a diagram for explaining a procedure for displaying an agent image wearing a predetermined accessory. 第1場面における出力態様の様子を説明するための図である。FIG. 3 is a diagram for explaining an output mode in a first scene. 第2場面における出力態様の様子を説明するための図である。FIG. 7 is a diagram for explaining an output mode in a second scene. 第3場面における出力態様の様子を説明するための図である。FIG. 7 is a diagram for explaining the output mode in a third scene. 第4場面における出力態様の様子を説明するための図である。FIG. 7 is a diagram for explaining the output mode in a fourth scene. 第5場面における出力態様の様子を説明するための図である。FIG. 7 is a diagram for explaining the output mode in a fifth scene. 第6場面における出力態様の様子を説明するための図である。FIG. 7 is a diagram for explaining the output mode in a sixth scene. 第7場面における出力態様の様子を説明するための図である。FIG. 12 is a diagram for explaining the output mode in a seventh scene. 第8場面における出力態様の様子を説明するための図である。FIG. 12 is a diagram for explaining the output mode in an eighth scene. 画像制御部152および出力制御部158によるエージェントの出力例を一覧形式で示す図である。5 is a diagram showing an example of agent output by the image control unit 152 and the output control unit 158 in a list format. FIG. エージェント装置100による処理の流れの一例を示すフローチャートである。3 is a flowchart showing an example of the flow of processing by the agent device 100. FIG. エージェント装置100による処理の流れの一例を示すフローチャートである。3 is a flowchart showing an example of the flow of processing by the agent device 100. FIG.

以下、図面を参照し、本発明の表示制御装置、表示制御方法、およびプログラムの実施形態について説明する。表示制御装置の一態様であるエージェント装置は、エージェントシステムの一部または全部を実現する装置である。以下では、エージェント装置の一例として、車両(以下、車両M)に搭載され、1種類以上のエージェント機能を備えたエージェント装置について説明する。エージェント機能とは、例えば、車両Mを利用するユーザと対話をしながら、ユーザの発話の中に含まれる要求(コマンド)に基づく各種の情報提供を行ったり、ネットワークサービスを仲介したりする機能である。複数種類のエージェントが実現される場合、複数種類のエージェントはそれぞれに果たす機能、処理手順、制御、出力態様、内容が異なってもよい。また、エージェント機能の中には、車両内の機器(例えば運転制御や車体制御に関わる機器)の制御等を行う機能を有するものがあってよい。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of a display control device, a display control method, and a program according to the present invention will be described below with reference to the drawings. An agent device, which is one aspect of a display control device, is a device that implements part or all of an agent system. Below, as an example of an agent device, an agent device installed in a vehicle (hereinafter referred to as vehicle M) and provided with one or more types of agent functions will be described. The agent function is, for example, a function that provides various information based on requests (commands) included in the user's utterances while interacting with the user using the vehicle M, and mediates network services. be. When multiple types of agents are implemented, the multiple types of agents may have different functions, processing procedures, controls, output modes, and contents. Further, some of the agent functions may have a function of controlling devices in the vehicle (for example, devices related to driving control and vehicle body control).

エージェント機能は、例えば、ユーザの音声を認識する音声認識機能(音声をテキスト化する機能)に加え、自然言語処理機能(テキストの構造や意味を理解する機能)、対話管理機能、ネットワークを介して他装置を検索し、或いは自装置が保有する所定のデータベースを検索するネットワーク検索機能等を統合的に利用して実現される。これらの機能の一部または全部は、AI(Artificial Intelligence)技術によって実現されてよい。また、これらの機能を行うための構成の一部(特に、音声認識機能や自然言語処理解釈機能)は、車両Mの車載通信装置または車両Mに持ち込まれた汎用通信装置と通信可能なエージェントサーバ(外部装置の一例)に搭載されてもよい。以下の説明では、構成の一部がエージェントサーバに搭載されており、エージェント装置とエージェントサーバが協働してエージェントシステムを実現することを前提とする。また、エージェント装置とエージェントサーバが協働して仮想的に出現させるサービス提供主体(サービス・エンティティ)をエージェントと称する。エージェント装置100は、出力装置(ディスプレイなど)にエージェントに関連するキャラクタの画像を表示させる。 Agent functions include, for example, a voice recognition function that recognizes the user's voice (a function that converts voice into text), a natural language processing function (a function that understands the structure and meaning of text), a dialogue management function, and a function that This is realized by integrally using a network search function that searches other devices or searches a predetermined database held by the device itself. Some or all of these functions may be realized by AI (Artificial Intelligence) technology. In addition, a part of the configuration for performing these functions (especially the voice recognition function and the natural language processing interpretation function) is an agent server that can communicate with the in-vehicle communication device of vehicle M or the general-purpose communication device brought into vehicle M. (an example of an external device). The following description assumes that a part of the configuration is installed in an agent server, and that an agent device and an agent server cooperate to realize an agent system. Further, a service providing entity (service entity) that is made to appear virtually through the cooperation of an agent device and an agent server is called an agent. The agent device 100 causes an output device (such as a display) to display an image of a character related to the agent.

<全体構成>
図1は、エージェント装置100を含むエージェントシステム1の構成図である。エージェントシステム1は、例えば、エージェント装置100と、エージェントサーバ200とを備える。本発明におけるエージェントは、サービス提供者により実現されるエージェントである。サービス提供者としては、例えば、自動車メーカー、ネットワークサービス事業者、電子商取引事業者、携帯端末の販売者や製造者などが挙げられ、任意の主体(法人、団体、個人等)がエージェントシステム1のサービス提供者となり得る。
<Overall configuration>
FIG. 1 is a configuration diagram of an agent system 1 including an agent device 100. The agent system 1 includes, for example, an agent device 100 and an agent server 200. The agent in the present invention is an agent realized by a service provider. Examples of service providers include automobile manufacturers, network service providers, e-commerce operators, mobile terminal sellers and manufacturers, and any entity (corporation, organization, individual, etc.) Can be a service provider.

エージェント装置100は、ネットワークNWを介してエージェントサーバ200と通信する。ネットワークNWは、例えば、インターネット、セルラー網、Wi-Fi網、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、電話回線、無線基地局などのうち一部または全部を含む。ネットワークNWには、各種ウェブサーバ300が接続されており、エージェントサーバ200またはエージェント装置100は、ネットワークNWを介して各種ウェブサーバ300からウェブページを取得することができる。 Agent device 100 communicates with agent server 200 via network NW. The network NW includes, for example, some or all of the Internet, a cellular network, a Wi-Fi network, a WAN (Wide Area Network), a LAN (Local Area Network), a public line, a telephone line, a wireless base station, and the like. Various web servers 300 are connected to the network NW, and the agent server 200 or agent device 100 can acquire web pages from the various web servers 300 via the network NW.

エージェント装置100は、例えば、車両Mに搭載可能な装置である。エージェント装置100は、仮想的な主体であるエージェントが、スピーカを用いた音声案内または表示装置を用いた画像表示によって情報提供するサービスをユーザに提供する。エージェント装置100は、例えば、車両Mのユーザと対話を行い、ユーザからの音声をエージェントサーバ200に送信し、エージェントサーバ200から得られた回答を、音声出力や画像表示の形でユーザに提示する。 The agent device 100 is a device that can be mounted on a vehicle M, for example. The agent device 100 provides the user with a service in which an agent, which is a virtual subject, provides information through audio guidance using a speaker or image display using a display device. For example, the agent device 100 interacts with the user of the vehicle M, transmits the voice from the user to the agent server 200, and presents the answer obtained from the agent server 200 to the user in the form of voice output or image display. .

[車両]
図2は、実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。車両Mには、例えば、一以上のマイク10と、表示・操作装置20と、スピーカユニット30と、ナビゲーション装置40と、車両機器50と、車載通信装置60と、乗員認識装置80と、エージェント装置100とが搭載される。また、スマートフォンなどの汎用通信装置70が車室内に持ち込まれ、通信装置として使用される場合がある。これらの装置は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。表示・操作装置20は、「表示装置」の一例である。また、表示・操作装置20とスピーカユニット30とを組み合わせたものが「出力装置」の一例である。
[vehicle]
FIG. 2 is a diagram showing the configuration of the agent device 100 and equipment mounted on the vehicle M according to the embodiment. The vehicle M includes, for example, one or more microphones 10, a display/operation device 20, a speaker unit 30, a navigation device 40, a vehicle device 50, an in-vehicle communication device 60, an occupant recognition device 80, and an agent device. 100 is installed. Additionally, a general-purpose communication device 70 such as a smartphone may be brought into the vehicle interior and used as a communication device. These devices are connected to each other via multiplex communication lines such as CAN (Controller Area Network) communication lines, serial communication lines, wireless communication networks, and the like. Note that the configuration shown in FIG. 2 is just an example, and a part of the configuration may be omitted, or another configuration may be added. The display/operation device 20 is an example of a "display device." Furthermore, a combination of the display/operation device 20 and the speaker unit 30 is an example of an "output device."

マイク10は、車室内で発せられた音声を収集する収音部である。表示・操作装置20は、画像を表示すると共に、入力操作を受付可能な装置(或いは装置群)である。表示・操作装置20は、例えば、タッチパネルとして構成されたディスプレイ装置を含む。表示・操作装置20は、更に、HUD(Head Up Display)や機械式の入力装置を含んでもよい。スピーカユニット30は、例えば、車室内の互いに異なる位置に配設された複数のスピーカ(音出力部)を含む。表示・操作装置20は、エージェント装置100とナビゲーション装置40とで共用されてもよい。これらの詳細については後述する。 The microphone 10 is a sound collection unit that collects sounds emitted inside the vehicle. The display/operation device 20 is a device (or a group of devices) that can display images and accept input operations. The display/operation device 20 includes, for example, a display device configured as a touch panel. The display/operation device 20 may further include a HUD (Head Up Display) and a mechanical input device. The speaker unit 30 includes, for example, a plurality of speakers (sound output sections) arranged at different positions within the vehicle interior. The display/operation device 20 may be shared by the agent device 100 and the navigation device 40. Details of these will be described later.

ナビゲーション装置40は、ナビHMI(Human machine Interface)と、GPS(Global Positioning System)などの位置測位装置と、地図情報を記憶した記憶装置と、経路探索などを行う制御装置(ナビゲーションコントローラ)とを備える。マイク10、表示・操作装置20、およびスピーカユニット30のうち一部または全部がナビHMIとして用いられてもよい。ナビゲーション装置40は、位置測位装置によって特定された車両Mの位置から、ユーザによって入力された目的地まで移動するための経路(ナビ経路)を探索し、経路に沿って車両Mが走行できるように、ナビHMIを用いて案内情報を出力する。経路探索機能は、ネットワークNWを介してアクセス可能なナビゲーションサーバにあってもよい。この場合、ナビゲーション装置40は、ナビゲーションサーバから経路を取得して案内情報を出力する。なお、エージェント装置100は、ナビゲーションコントローラを基盤として構築されてもよく、その場合、ナビゲーションコントローラとエージェント装置100は、ハードウェア上は一体に構成される。 The navigation device 40 includes a navigation HMI (Human Machine Interface), a positioning device such as a GPS (Global Positioning System), a storage device that stores map information, and a control device (navigation controller) that performs route searching and the like. . Some or all of the microphone 10, display/operation device 20, and speaker unit 30 may be used as a navigation HMI. The navigation device 40 searches for a route (navigation route) for traveling from the position of the vehicle M specified by the positioning device to the destination input by the user, and allows the vehicle M to travel along the route. , outputs guidance information using the navigation HMI. The route search function may be located in a navigation server accessible via the network NW. In this case, the navigation device 40 obtains a route from the navigation server and outputs guidance information. Note that the agent device 100 may be constructed based on a navigation controller, and in that case, the navigation controller and the agent device 100 are configured as one piece in terms of hardware.

車両機器50は、例えば、エンジンや走行用モータなどの駆動力出力装置、エンジンの始動モータ、ドアロック装置、ドア開閉装置、窓、窓の開閉装置及び窓の開閉制御装置、シート、シート位置の制御装置、ルームミラー及びその角度位置制御装置、車両内外の照明装置及びその制御装置、ワイパーやデフォッガー及びそれぞれの制御装置、方向指示灯及びその制御装置、空調装置、走行距離やタイヤの空気圧の情報や燃料の残量情報などの車両情報装置などを含む。 The vehicle equipment 50 includes, for example, a driving force output device such as an engine or a driving motor, an engine starting motor, a door lock device, a door opening/closing device, a window, a window opening/closing device, a window opening/closing control device, a seat, and a seat position control device. Control devices, rearview mirrors and their angular position control devices, vehicle interior and exterior lighting devices and their control devices, wipers and defoggers and their respective control devices, turn signal lights and their control devices, air conditioning devices, mileage and tire pressure information This includes vehicle information devices such as information on the amount of fuel left and fuel remaining.

車載通信装置60は、例えば、セルラー網やWi-Fi網を利用してネットワークNWにアクセス可能な無線通信装置である。 The in-vehicle communication device 60 is a wireless communication device that can access the network NW using, for example, a cellular network or a Wi-Fi network.

乗員認識装置80は、例えば、着座センサ、車室内カメラ、画像認識装置などを含む。着座センサは座席の下部に設けられた圧力センサ、シートベルトに取り付けられた張力センサなどを含む。車室内カメラは、車室内に設けられたCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラである。画像認識装置は、車室内カメラの画像を解析し、座席ごとのユーザの有無、ユーザの顔などを認識して、ユーザの着座位置を認識する。また、乗員認識装置80は、予め登録された顔画像とのマッチング処理を行うことで、画像に含まれる運転席や助手席等に着座するユーザを特定してもよい。 The occupant recognition device 80 includes, for example, a seating sensor, an in-vehicle camera, an image recognition device, and the like. The seating sensor includes a pressure sensor provided at the bottom of the seat, a tension sensor attached to the seat belt, and the like. The vehicle interior camera is a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera provided in the vehicle interior. The image recognition device analyzes the image taken by the vehicle interior camera, recognizes the presence or absence of a user in each seat, the user's face, etc., and recognizes the user's seating position. Further, the occupant recognition device 80 may identify the user seated in the driver's seat, passenger seat, etc. included in the image by performing matching processing with a face image registered in advance.

図3は、表示・操作装置20の配置例を示す図である。表示・操作装置20は、例えば、第1ディスプレイ22と、第2ディスプレイ24と、操作スイッチASSY26とを含む。表示・操作装置20は、更に、HUD28を含んでもよい。 FIG. 3 is a diagram showing an example of the arrangement of the display/operation device 20. As shown in FIG. The display/operation device 20 includes, for example, a first display 22, a second display 24, and an operation switch ASSY 26. The display/operation device 20 may further include a HUD 28.

車両Mには、例えば、ステアリングホイールSWが設けられた運転席DSと、運転席DSに対して車幅方向(図中-Y方向)に設けられた助手席ASとが存在する。第1ディスプレイ22は、インストルメントパネルにおける運転席DSと助手席ASとの中間辺りから、助手席ASの左端部に対向する位置まで延在する横長形状のディスプレイ装置である。第2ディスプレイ24は、運転席DSと助手席ASとの車幅方向に関する中間あたり、且つ第1ディスプレイの下方に設置されている。例えば、第1ディスプレイ22と第2ディスプレイ24は、共にタッチパネルとして構成され、表示部としてLCD(Liquid Crystal Display)や有機EL(Electroluminescence)、プラズマディスプレイなどを備えるものである。操作スイッチASSY26は、ダイヤルスイッチやボタン式スイッチなどが集積されたものである。表示・操作装置20は、ユーザによってなされた操作の内容をエージェント装置100に出力する。第1ディスプレイ22または第2ディスプレイ24が表示する内容は、エージェント装置100によって決定されてよい。 The vehicle M includes, for example, a driver's seat DS provided with a steering wheel SW, and a passenger seat AS provided in the vehicle width direction (-Y direction in the figure) with respect to the driver's seat DS. The first display 22 is a horizontally elongated display device that extends from around the middle between the driver's seat DS and the passenger seat AS on the instrument panel to a position facing the left end of the passenger seat AS. The second display 24 is installed approximately midway in the vehicle width direction between the driver's seat DS and the passenger seat AS, and below the first display. For example, both the first display 22 and the second display 24 are configured as touch panels, and include an LCD (Liquid Crystal Display), an organic EL (Electroluminescence), a plasma display, or the like as a display section. The operation switch ASSY 26 is an integrated set of dial switches, button type switches, and the like. The display/operation device 20 outputs the contents of the operation performed by the user to the agent device 100. The content displayed on the first display 22 or the second display 24 may be determined by the agent device 100.

[エージェント装置]
図2に戻り、エージェント装置100は、例えば、管理部110と、エージェント機能部150とを備える。管理部110は、例えば、音響処理部112と、設定部116と、音声制御部118とを備える。設定部116は、例えば、画像設定部116Aと、情報設定部116Bとを備える。図2に示すソフトウェア配置は説明のために簡易に示しており、実際には、例えば、エージェント機能部150と車載通信装置60の間に管理部110が介在してもよいように、任意に改変することができる。
[Agent device]
Returning to FIG. 2, the agent device 100 includes, for example, a management section 110 and an agent function section 150. The management unit 110 includes, for example, an audio processing unit 112, a setting unit 116, and an audio control unit 118. The setting section 116 includes, for example, an image setting section 116A and an information setting section 116B. The software arrangement shown in FIG. 2 is shown simply for explanation, and in reality, it may be arbitrarily modified so that, for example, the management section 110 may be interposed between the agent function section 150 and the in-vehicle communication device 60. can do.

エージェント装置100の各構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 Each component of the agent device 100 is realized by, for example, a hardware processor such as a CPU (Central Processing Unit) executing a program (software). Some or all of these components are hardware (circuit parts) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). (including circuitry), or may be realized by collaboration between software and hardware. The program may be stored in advance in a storage device (a storage device with a non-transitory storage medium) such as an HDD (Hard Disk Drive) or flash memory, or may be stored in a removable storage device such as a DVD or CD-ROM. It is stored in a medium (non-transitory storage medium), and may be installed by loading the storage medium into a drive device.

管理部110は、OS(Operating System)やミドルウェアなどのプログラムが実行されることで機能する。 The management unit 110 functions by executing programs such as an OS (Operating System) and middleware.

音響処理部112は、エージェントを起動させるために、エージェントごとに予め設定されているウエイクアップワードを認識するのに適した状態になるように、入力された音に対して音響処理を行う。 In order to activate the agent, the audio processing unit 112 performs audio processing on the input sound so that the agent is in a state suitable for recognizing a wakeup word preset for each agent.

画像設定部116Aは、表示・操作装置20等の出力装置にキャラクタに関連付けた付随画像をキャラクタの画像とともに表示させる設定を受け付ける。具体的には、画像設定部116Aは、エージェント機能部150からの指示に応じて一部のエージェント機能部150の制御により、例えば、車室内でユーザとのコミュニケーションを行う擬人化されたキャラクタの画像(以下、エージェント画像と称する)の設定を受け付け、受け付けたエージェント画像を第1ディスプレイ22等に表示させる。エージェント画像は、例えば、ユーザに対して話しかける態様の画像である。エージェント画像は、例えば、少なくとも観者(ユーザ)によって表情や顔向きが認識される程度の顔画像を含んでよい。例えば、エージェント画像は、顔領域の中に目や鼻に擬したパーツが表されており、顔領域の中のパーツの位置に基づいて表情や顔向きが認識されるものであってよい。また、エージェント画像は、立体的に感じられ、観者によって三次元空間における頭部画像を含むことでエージェントの顔向きが認識されたり、本体(胴体や手足)の画像を含んだりすることで、キャラクタの動作(振る舞い、姿勢、表情等も含む)等が認識されるものであってもよい。また、エージェント画像は、アニメーション画像であってもよい。また、エージェント画像は、動物や植物、昆虫、アニメキャラクター、ゲームキャラクター等の擬人化が可能な各種の物であってもよい。 The image setting unit 116A accepts settings for displaying an accompanying image associated with a character on an output device such as the display/operation device 20 together with the character image. Specifically, the image setting unit 116A, under the control of some of the agent function units 150 in response to instructions from the agent function unit 150, sets an image of an anthropomorphic character that communicates with the user in the vehicle interior, for example. (hereinafter referred to as an agent image) settings are accepted, and the accepted agent image is displayed on the first display 22 or the like. The agent image is, for example, an image in which the agent speaks to the user. The agent image may include, for example, a facial image whose expression and facial orientation are recognized by at least the viewer (user). For example, the agent image may include parts imitating eyes and a nose in the face area, and facial expressions and facial orientation may be recognized based on the positions of the parts in the face area. In addition, the agent image feels three-dimensional, and the viewer can recognize the direction of the agent's face by including an image of the head in three-dimensional space, and by including an image of the agent's body (torso and limbs). The character's actions (including behavior, posture, facial expressions, etc.) may be recognized. Further, the agent image may be an animated image. Furthermore, the agent image may be any type of object that can be anthropomorphized, such as an animal, a plant, an insect, an anime character, or a game character.

また、エージェント画像は、キャラクタに関連付けられた付随画像と共に表示されてもよい。付随画像には、例えば、装飾品または他のキャラクタ画像のうち一方または双方が含まれる。装飾品には、例えば、お守りやお札、護符、経文、数珠、鈴、メダイ、ロザリオ、ボンフィン、プラクルワン、像などの宗教用具や、宗教的な模様や絵柄各種装飾品(ネックレス、ペンダント、ブレスレット、指輪、ブローチ、メガネ、サングラス、ピアス、イヤリング、髪飾り、帽子、手袋、ネクタイ、スカーフ、マフラー、かばん、傘、キーホルダなど)が含まれる。また、装飾品には、例えば、キャラクタが着用する洋服(例えば、スーツ、ドレス、水着やスキーウェア)や、武器や防具等が含まれてよい。他のキャラクタ画像には、例えば、車両の同乗者(例えば、運転者以外の乗員)に対応付けられたキャラクタの画像や、子供、友人、恋人、家族等をモチーフにしたキャラクタの画像等が含まれる。画像設定部116Aは、例えば、ユーザごとに付随画像の設定を可能とする。また、付随画像は、エージェントサーバ200や各種ウェブサーバ300によって設定されてもよい。 Further, the agent image may be displayed together with an accompanying image associated with the character. The accompanying images include, for example, one or both of ornaments and other character images. Ornaments include religious tools such as amulets, talismans, amulets, sutras, prayer beads, bells, medals, rosaries, bonfins, plakluwans, statues, and various ornaments with religious patterns and designs (necklaces, pendants, bracelets, etc.) (rings, brooches, glasses, sunglasses, earrings, hair accessories, hats, gloves, ties, scarves, mufflers, bags, umbrellas, key chains, etc.). Furthermore, the accessories may include, for example, clothes worn by the character (eg, suits, dresses, swimsuits, ski wear), weapons, armor, and the like. Other character images include, for example, images of characters associated with fellow passengers of the vehicle (e.g., occupants other than the driver), images of characters with motifs of children, friends, lovers, family members, etc. It will be done. The image setting unit 116A allows, for example, setting of accompanying images for each user. Further, the accompanying image may be set by the agent server 200 or various web servers 300.

情報設定部116Bは、表示・操作装置20等の出力装置に、付随画像がキャラクタの画像とともに表示されることに対応付けて出力させる付随時情報の設定を受け付ける。付随時情報は、例えば、付随画像に関連付けられた出力情報(例えば、画像や音声)や出力態様に関する情報である。また、付随時情報には、付随画像が表示される場合のキャラクタの動作に関する情報が含まれてもよい。出力情報には、例えば、ユーザに対してレコメンドするレコメンド情報が含まれる。例えば、情報設定部116Bは、ユーザによる、第1ディスプレイ22にエージェント画像が所定の付随画像とともに表示されることに対応付けて、第1ディスプレイ22、第2ディスプレイ24、スピーカユニット30に含まれるスピーカのうち一部または全部から出力させる付随時情報の設定をマイク10や表示・操作装置20等により受け付ける。また、情報設定部116Bは、付随時情報の設定として、ユーザが付随画像を表示させたり、キャラクタの動作等の出力態様を設定する権限を有するか否かに関する情報を受け付けてもよい。情報設定部116Bは、エージェント装置100を使用するユーザごとに付随時情報の設定を可能とする。また、情報設定部116Bは、付随時情報を、車両の状態に対応付けて設定可能としてもよい。これにより、車両の状態が、情報設定部116Bでの設定時に対応付けた状態にある場合に、出力装置から付随時情報を出力させることができる。車両の状態には、例えば、車両Mのユーザ(乗員)の数や、運転席に着座するユーザが誰であるかなどの車室内の状態、車両が停止中、車両が所定時間以上停止中、走行中、所定速度以上で走行中などの車両の走行状態、車両が手動運転で作動中、車両が自動運転で作動中などの車両の作動モードが含まれる。 The information setting unit 116B accepts settings for incidental information to be outputted to an output device such as the display/operation device 20 in association with the fact that the incidental image is displayed together with the character image. The incidental information is, for example, information regarding output information (eg, images and sounds) and output mode associated with the incidental image. Further, the accompanying information may include information regarding the behavior of the character when the accompanying image is displayed. The output information includes, for example, recommendation information recommended to the user. For example, the information setting unit 116B may configure the first display 22, the second display 24, and the speaker included in the speaker unit 30 in association with the user's display of the agent image on the first display 22 together with a predetermined accompanying image. Settings for incidental information to be output from some or all of them are accepted by the microphone 10, the display/operation device 20, etc. Further, the information setting unit 116B may receive information regarding whether or not the user has the authority to display an accompanying image or set an output mode such as a character's movement, as setting of accompanying information. The information setting unit 116B allows setting of incidental information for each user who uses the agent device 100. Further, the information setting unit 116B may be able to set incidental information in association with the state of the vehicle. Thereby, when the state of the vehicle is in the state associated with the setting in the information setting unit 116B, the incidental information can be output from the output device. The state of the vehicle includes, for example, the number of users (passengers) of the vehicle M, the state of the interior of the vehicle such as who is sitting in the driver's seat, the vehicle being stopped, the vehicle being stopped for a predetermined time or more, This includes the running state of the vehicle, such as when the vehicle is running or traveling at a predetermined speed or higher, and the operation mode of the vehicle, such as when the vehicle is operating in manual operation or when the vehicle is operating in automatic operation.

音声制御部118は、エージェント機能部150からの指示に応じて、スピーカユニット30に含まれるスピーカのうち一部または全部に音声を出力させる。音声制御部118は、複数のスピーカユニット30を用いて、エージェント画像の表示位置に対応する位置にエージェント音声の音像を定位させる制御を行ってもよい。エージェント画像の表示位置に対応する位置とは、例えば、エージェント画像がエージェント音声を喋っているとユーザが感じると予測される位置であり、具体的には、エージェント画像の表示位置付近(例えば、2~3[cm]以内)の位置である。また、音像が定位するとは、例えば、ユーザの左右の耳に伝達される音の大きさを調節することにより、ユーザが感じる音源の空間的な位置を定めることである。 The audio control unit 118 causes some or all of the speakers included in the speaker unit 30 to output audio in response to instructions from the agent function unit 150. The audio control unit 118 may use the plurality of speaker units 30 to perform control to localize the sound image of the agent's voice at a position corresponding to the display position of the agent image. The position corresponding to the display position of the agent image is, for example, the position where the user is predicted to feel that the agent image is speaking the agent voice. Specifically, the position corresponding to the display position of the agent image (for example, 2 ~3 [cm]). Furthermore, localizing a sound image means, for example, determining the spatial position of the sound source that the user perceives by adjusting the volume of the sound transmitted to the user's left and right ears.

エージェント機能部150は、管理部110により取得される各種情報に基づいて、エージェントサーバ200と協働してエージェントを出現させ、車両内に存在するユーザの発話に応じて、音声による応答を含むサービスを提供する。例えば、エージェント機能部150は、音響処理部112により処理された音声にウエイクアップワードが含まれている場合に、ウエイクアップワードに対応付けられたエージェントを起動する。また、エージェント機能部150は、サービス提供後にエージェントを終了させる制御等を行う。また、エージェント機能部150は、音響処理部112により処理された音声ストリームをエージェントサーバ200に送信したり、エージェントサーバ200から得られる情報をユーザに提供する。 The agent function unit 150 cooperates with the agent server 200 to make an agent appear based on various information acquired by the management unit 110, and provides services including voice responses in response to the utterances of the user present in the vehicle. I will provide a. For example, when the wakeup word is included in the audio processed by the audio processing unit 112, the agent function unit 150 activates an agent associated with the wakeup word. Further, the agent function unit 150 performs control such as terminating the agent after providing the service. Further, the agent function unit 150 transmits the audio stream processed by the audio processing unit 112 to the agent server 200, and provides information obtained from the agent server 200 to the user.

また、エージェント機能部150には、車両機器50を制御する権限が付与されたものが含まれてよい。また、エージェント機能部150は、汎用通信装置70と連携し、エージェントサーバ200と通信する機能を備えていてもよい。この場合、エージェント機能部150は、例えば、Bluetooth(登録商標)によって汎用通信装置70とペアリングを行い、エージェント機能部150と汎用通信装置70とを接続させる。また、エージェント機能部150は、USB(Universal Serial Bus)などを利用した有線通信によって汎用通信装置70に接続されるようにしてもよい。エージェント機能部150の機能の詳細については、後述する。 Furthermore, the agent function section 150 may include one that is given authority to control the vehicle equipment 50. Further, the agent function unit 150 may have a function of cooperating with the general-purpose communication device 70 and communicating with the agent server 200. In this case, the agent function unit 150 performs pairing with the general-purpose communication device 70 using Bluetooth (registered trademark), for example, to connect the agent function unit 150 and the general-purpose communication device 70. Further, the agent function unit 150 may be connected to the general-purpose communication device 70 by wired communication using a USB (Universal Serial Bus) or the like. The details of the functions of the agent function section 150 will be described later.

[エージェントサーバ]
図4は、エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。以下、エージェントサーバ200の構成とともにエージェント機能部150等の動作について説明する。ここでは、エージェント装置100からネットワークNWまでの物理的な通信についての説明を省略する。
[Agent server]
FIG. 4 is a diagram showing a configuration of the agent server 200 and a part of the configuration of the agent device 100. The configuration of the agent server 200 and the operations of the agent function unit 150 and the like will be described below. Here, description of physical communication from the agent device 100 to the network NW will be omitted.

エージェントサーバ200は、通信部210を備える。通信部210は、例えばNIC(Network Interface Card)などのネットワークインターフェースである。更に、エージェントサーバ200は、例えば、音声認識部220と、自然言語処理部222と、対話管理部224と、ネットワーク検索部226と、応答文生成部228とを備える。これらの構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 The agent server 200 includes a communication section 210. The communication unit 210 is, for example, a network interface such as a NIC (Network Interface Card). Further, the agent server 200 includes, for example, a speech recognition section 220, a natural language processing section 222, a dialogue management section 224, a network search section 226, and a response sentence generation section 228. These components are realized by, for example, a hardware processor such as a CPU executing a program (software). Some or all of these components may be realized by hardware (including circuitry) such as LSI, ASIC, FPGA, or GPU, or may be realized by collaboration between software and hardware. Good too. The program may be stored in advance in a storage device such as an HDD or flash memory (storage device equipped with a non-transitory storage medium), or may be stored in a removable storage medium (non-transitory storage medium) such as a DVD or CD-ROM. The software may be installed by attaching the storage medium to a drive device.

エージェントサーバ200は、記憶部250を備える。記憶部250は、上記の各種記憶装置により実現される。記憶部250には、例えば、パーソナルプロファイル251、辞書DB(データベース)252、知識ベースDB253、応答規則DB254、付随情報関連DB255などのデータやプログラムが格納される。 Agent server 200 includes a storage unit 250. The storage unit 250 is realized by the various storage devices described above. The storage unit 250 stores data and programs such as a personal profile 251, a dictionary DB (database) 252, a knowledge base DB 253, a response rule DB 254, and an accompanying information related DB 255, for example.

エージェント装置100において、エージェント機能部150は、音声ストリーム、或いは圧縮や符号化などの処理を行った音声ストリームを、エージェントサーバ200に送信する。また、エージェント機能部150は、ローカル処理(エージェントサーバ200を介さない処理)が可能な音声コマンドを認識した場合は、音声コマンドで要求された処理を行ってよい。ローカル処理が可能な音声コマンドとは、エージェント装置100が備える記憶部(不図示)を参照することで回答可能な音声コマンドであったり、エージェント機能部150の場合は車両機器50を制御する音声コマンド(例えば、空調装置をオンにするコマンドなど)であったりする。従って、エージェント機能部150は、エージェントサーバ200が備える機能の一部を有してもよい。 In the agent device 100, the agent function unit 150 transmits an audio stream or an audio stream that has undergone processing such as compression and encoding to the agent server 200. Furthermore, when the agent function unit 150 recognizes a voice command that can be processed locally (processing that does not involve the agent server 200), the agent function unit 150 may perform the process requested by the voice command. A voice command that can be locally processed is a voice command that can be answered by referring to a storage unit (not shown) included in the agent device 100, or, in the case of the agent function unit 150, a voice command that controls the vehicle equipment 50. (for example, a command to turn on an air conditioner). Therefore, the agent function unit 150 may have some of the functions included in the agent server 200.

音声ストリームを取得すると、音声認識部220が音声認識を行ってテキスト化された文字情報を出力し、自然言語処理部222が文字情報に対して辞書DB252を参照しながら意味解釈を行う。辞書DB252は、文字情報に対して抽象化された意味情報が対応付けられたものである。辞書DB252は、同義語や類義語の一覧情報を含んでもよい。音声認識部220の処理と、自然言語処理部222の処理は、段階が明確に分かれるものではなく、自然言語処理部222の処理結果を受けて音声認識部220が認識結果を修正するなど、相互に影響し合って行われてよい。 When the audio stream is acquired, the audio recognition unit 220 performs audio recognition and outputs text information, and the natural language processing unit 222 performs semantic interpretation on the character information while referring to the dictionary DB 252. The dictionary DB 252 has abstracted semantic information associated with character information. The dictionary DB 252 may include list information of synonyms and similar words. The processing of the speech recognition unit 220 and the processing of the natural language processing unit 222 are not clearly separated into stages, and there are mutual interactions such as the speech recognition unit 220 correcting the recognition result in response to the processing result of the natural language processing unit 222. It may be done by influencing each other.

自然言語処理部222は、例えば、認識結果として、「今日の天気は」、「天気はどうですか」等の意味が認識された場合、標準文字情報「今日の天気」に置き換えたコマンドを生成する。これにより、リクエストの音声に文字揺らぎがあった場合にも要求にあった対話をし易くすることができる。また、自然言語処理部222は、例えば、確率を利用した機械学習処理等の人工知能処理を用いて文字情報の意味を認識したり、認識結果に基づくコマンドを生成したりしてもよい。 For example, if the meaning of "Today's weather is" or "Today's weather is" is recognized as a recognition result, the natural language processing unit 222 generates a command in which the standard character information is replaced with "Today's weather". Thereby, even if there is character fluctuation in the voice of the request, it is possible to facilitate the conversation that meets the request. Further, the natural language processing unit 222 may recognize the meaning of character information using artificial intelligence processing such as machine learning processing using probability, or may generate a command based on the recognition result, for example.

対話管理部224は、自然言語処理部222の処理結果(コマンド)に基づいて、パーソナルプロファイル251や知識ベースDB253、応答規則DB254、付随情報関連DB255を参照しながら車両Mのユーザに対する発話の内容を決定する。パーソナルプロファイル251は、ユーザごとに保存されているユーザの個人情報、趣味嗜好、過去の対話の履歴などを含む。知識ベースDB253は、物事の関係性を規定した情報である。応答規則DB254は、コマンドに対してエージェントが行うべき動作(回答や機器制御の内容など)を規定した情報である。付随情報関連DB255には、エージェント画像を所定の付随画像を関連付けて表示させる場合の出力態様に関する情報が格納される。出力態様に関する情報には、例えば、キャラクタ画像や付随画像の表示内容に加え、エージェント画像のキャラクタ等の動作に関する情報が含まれてよい。付随情報関連DB255の詳細については後述する。 Based on the processing results (commands) of the natural language processing unit 222, the dialogue management unit 224 determines the content of the utterance to the user of the vehicle M while referring to the personal profile 251, knowledge base DB 253, response rule DB 254, and accompanying information related DB 255. decide. The personal profile 251 includes the user's personal information, hobbies and preferences, history of past interactions, etc. that are saved for each user. The knowledge base DB 253 is information that defines relationships between things. The response rule DB 254 is information that defines actions (responses, details of device control, etc.) that the agent should perform in response to commands. The accompanying information related DB 255 stores information regarding an output mode when an agent image is displayed in association with a predetermined accompanying image. The information regarding the output mode may include, for example, information regarding the behavior of the character or the like in the agent image in addition to the display contents of the character image and accompanying images. Details of the accompanying information related DB 255 will be described later.

また、対話管理部224は、音声ストリームから得られる特徴情報を用いて、パーソナルプロファイル251と照合を行うことで、ユーザを特定してもよい。この場合、パーソナルプロファイル251には、例えば、音声の特徴情報に、個人情報が対応付けられている。音声の特徴情報とは、例えば、声の高さ、イントネーション、リズム(音の高低のパターン)等の喋り方の特徴や、メル周波数ケプストラム係数(Mel Frequency Cepstrum Coefficients)等による特徴量に関する情報である。音声の特徴情報は、例えば、ユーザの初期登録時に所定の単語や文章等をユーザに発声させ、発声させた音声を認識することで得られる情報である。 Furthermore, the dialogue management unit 224 may identify the user by comparing it with the personal profile 251 using feature information obtained from the audio stream. In this case, in the personal profile 251, for example, voice characteristic information is associated with personal information. Voice feature information is, for example, information about speaking style features such as voice pitch, intonation, and rhythm (patterns of pitch and low pitches), and feature quantities such as Mel Frequency Cepstrum Coefficients. . The voice characteristic information is, for example, information obtained by having the user utter a predetermined word, sentence, etc. at the time of initial registration of the user, and recognizing the uttered voice.

対話管理部224は、コマンドが、ネットワークNWを介して検索可能な情報を要求するものである場合、ネットワーク検索部226に検索を行わせる。ネットワーク検索部226は、ネットワークNWを介して各種ウェブサーバ300にアクセスし、所望の情報を取得する。「ネットワークNWを介して検索可能な情報」とは、例えば、車両Mの周辺にあるレストランの一般ユーザによる評価結果であったり、その日の車両Mの位置に応じた天気予報であったり、乗車人数に応じたレコメンド情報であったりする。 If the command requests information that can be searched via the network NW, the dialogue management unit 224 causes the network search unit 226 to perform the search. The network search unit 226 accesses various web servers 300 via the network NW and obtains desired information. "Information that can be searched via the network NW" is, for example, the evaluation results of restaurants near the vehicle M by general users, the weather forecast according to the location of the vehicle M on that day, or the number of passengers. It may be recommendation information depending on the situation.

また、対話管理部224は、エージェント画像や付随画像等の出力態様に応じたレコメンド情報を生成してもよい。レコメンド情報には、画像や映像、音声等の各コンテンツが含まれる。この場合、対話管理部224は、例えば、車両Mからユーザに出力させるエージェント画像の種類や付随画像の種類等に基づいて、付随情報関連DB255を参照し、合致する情報に対応付けられた出力態様情報(例えば、レコメンド情報)を取得してユーザに提供したり、提供する優先順位を他のコンテンツよりも高くしたりする等の制御を行う。レコメンド情報DB256に含まれるレコメンド情報は、予め記憶部250に記憶されていてもよく、ネットワークNWを介して各種ウェブサーバ300から取得されてもよい。 Further, the dialogue management unit 224 may generate recommendation information according to the output mode of the agent image, accompanying image, and the like. The recommendation information includes various contents such as images, videos, and audio. In this case, the dialogue management unit 224 refers to the accompanying information related DB 255 based on, for example, the type of agent image to be output to the user from the vehicle M, the type of accompanying image, etc., and outputs the output mode associated with the matching information. It performs control such as acquiring information (for example, recommendation information) and providing it to the user, giving it a higher priority than other content, etc. The recommendation information included in the recommendation information DB 256 may be stored in the storage unit 250 in advance, or may be obtained from various web servers 300 via the network NW.

応答文生成部228は、対話管理部224により決定された発話の内容が車両Mのユーザに伝わるように、応答文を生成し、エージェント装置100に送信する。応答文生成部228は、ユーザがパーソナルプロファイルに登録されたユーザであることが特定されている場合に、ユーザの名前を呼んだり、ユーザの話し方に似せた話し方にしたりした応答文を生成してもよい。 The response sentence generation unit 228 generates a response sentence and transmits it to the agent device 100 so that the content of the utterance determined by the dialogue management unit 224 is conveyed to the user of the vehicle M. When the user is identified as a user registered in the personal profile, the response sentence generation unit 228 generates a response sentence that calls the user's name or speaks in a manner similar to the user's speaking style. Good too.

エージェント機能部150は、応答文を取得すると、音声合成を行って音声を出力するように音声制御部118に指示する。また、エージェント機能部150は、音声出力に合わせてエージェントの画像を生成し、生成した画像を表示するように管理部110に指示する。また、エージェント機能部150は、エージェントサーバ200からの指示に従い、スピーカユニット30から出力される音量の調整や、車両機器50(例えば、空調機器)に関する機器制御等を行うための機器制御情報を生成し、生成した機器制御情報を車両機器50等に出力する。このようにして、仮想的に出現させたエージェントが車両Mのユーザに応答するエージェント機能および付随画像の表示内容に対応付けられた出力態様によるサービスの提供が実現される。 When the agent function unit 150 obtains the response sentence, it instructs the voice control unit 118 to perform voice synthesis and output voice. Further, the agent function unit 150 generates an image of the agent in accordance with the audio output, and instructs the management unit 110 to display the generated image. Further, the agent function unit 150 generates device control information for adjusting the volume output from the speaker unit 30 and controlling devices related to the vehicle device 50 (for example, air conditioner) in accordance with instructions from the agent server 200. Then, the generated device control information is output to the vehicle device 50 or the like. In this way, an agent function in which the virtually appearing agent responds to the user of the vehicle M and a service provided in an output mode associated with the display content of the accompanying image are realized.

[エージェント機能部]
次に、エージェント機能部150の詳細について説明する。図5は、エージェント機能部150の構成例を示す図である。エージェント機能部150は、例えば、画像制御部152と、ユーザ認識部154と、エージェント関連情報設定部156と、出力制御部158と、記憶部160とを備える。記憶部160には、例えば、ユーザ設定情報162や、付随画像設定情報164などのデータやプログラムが格納される。ユーザ認識部154は、「認識部」の一例である。
[Agent function section]
Next, details of the agent function section 150 will be explained. FIG. 5 is a diagram showing an example of the configuration of the agent function section 150. The agent function section 150 includes, for example, an image control section 152, a user recognition section 154, an agent-related information setting section 156, an output control section 158, and a storage section 160. The storage unit 160 stores data and programs such as user setting information 162 and accompanying image setting information 164, for example. The user recognition unit 154 is an example of a “recognition unit”.

画像制御部152は、音声案内を含むサービスを提供するエージェント画像を表示・操作装置20に表示させる。例えば、画像制御部152は、エージェントが所定の装飾品を装備した状態の画像や、エージェントにペットや他のエージェントを含めた画像を表示・操作装置20に表示させる。 The image control unit 152 causes the display/operation device 20 to display an image of an agent that provides a service including voice guidance. For example, the image control unit 152 causes the display/operation device 20 to display an image of the agent equipped with a predetermined accessory or an image of the agent including a pet or other agent.

ユーザ認識部154は、出力装置を使用するユーザを認識する。例えば、ユーザ認識部154は、乗員認識装置80により認識されたユーザの動作や口元の動き等に基づいて、表示・操作装置20を操作しているユーザを認識したり、エージェントと対話しているユーザを認識する。また、ユーザ認識部154は、乗員認識装置80により認識されたユーザが、エージェント装置100を使用するユーザとして予め登録されているか、またはエージェント画像に付随画像の設定があるユーザであるか否かを認識する。また、ユーザ認識部154は、出力装置を使用するユーザが、付随画像を表示させたり、キャラクタの動作等の出力態様を設定する権限を有するユーザであるか否かを認識してもよい。 The user recognition unit 154 recognizes the user who uses the output device. For example, the user recognition unit 154 recognizes the user operating the display/operation device 20 or interacts with the agent based on the user's movements and mouth movements recognized by the occupant recognition device 80. Recognize users. Further, the user recognition unit 154 determines whether the user recognized by the occupant recognition device 80 is registered in advance as a user using the agent device 100 or is a user for whom an accompanying image is set for the agent image. recognize. Further, the user recognition unit 154 may recognize whether the user using the output device is a user who has the authority to display an accompanying image or set an output mode such as a character's movement.

エージェント関連情報設定部156は、ユーザ認識部154により認識されたユーザが、エージェント画像や付随画像の設定、エージェントの動作等を含めた出力態様の設定を行うことができる権限を有する場合に、設定部116と連携してユーザからの各種の設定情報を受け付ける。例えば、エージェント関連情報設定部156は、ユーザ認識部154により認識されたユーザが、付随画像を表示させる権限を有する場合に、情報設定部116Bにより設定されたエージェント画像が付随画像がとともに表示される場合におけるエージェント(キャラクタ)の動作の設定を受け付ける。エージェント関連情報設定部156は、ユーザから受け付けたキャラクタの種類や付随画像の種類、出力態様等の情報をユーザ設定情報162として記憶部160に格納する。 The agent-related information setting unit 156 configures the settings when the user recognized by the user recognition unit 154 has the authority to set the agent image and accompanying images, and the output mode including the agent's operation. It cooperates with the unit 116 to receive various setting information from the user. For example, when the user recognized by the user recognition unit 154 has the authority to display an accompanying image, the agent-related information setting unit 156 displays the agent image set by the information setting unit 116B together with the accompanying image. Accepts the settings for the behavior of the agent (character) in the case. The agent-related information setting unit 156 stores information received from the user, such as the type of character, the type of accompanying image, and the output mode, in the storage unit 160 as user setting information 162.

図6は、ユーザ設定情報162の内容の一例を示す図である。ユーザ設定情報162は、ユーザを識別するユーザIDに、エージェントに対応付けられたエージェント画像を識別するエージェントIDと、付随画像情報と、出力態様情報とが対応付けられた情報である。付随画像情報には、例えば、付随画像を識別する付随画像識別IDと、付随画像の具体的な名称が格納されている。出力態様情報には、付随時情報が含まれる。出力態様情報は、例えば、エージェントIDで識別されるエージェント画像の出力態様や、エージェント画像に付随して表示される付随画像の出力態様が格納される。出力態様は、例えば、予め設定またはユーザにより登録された複数の出力パターンの中から何れかを選択することで設定されてもよい。出力パターンには、例えば、エージェント画像のキャラクタの表情や動作(例えば、手を合わせる、手を振る、踊る、歩く)等に関するパターンが含まれる。また、ユーザ設定情報162には、付随画像を表示させるか否かについての条件設定が格納されてもよい。条件設定とは、例えば、「装飾品の画像は他者が乗車しているときには表示させない」、「他者の設定している装飾品の画像を見たくない(表示させない)」、「他者が同乗している場合に、設定している装飾品の画像を見せてもよい(表示させる)」などの、表示の許否に関する条件である。 FIG. 6 is a diagram showing an example of the contents of the user setting information 162. The user setting information 162 is information in which a user ID that identifies a user is associated with an agent ID that identifies an agent image associated with an agent, accompanying image information, and output mode information. The accompanying image information stores, for example, an accompanying image identification ID for identifying an accompanying image and a specific name of the accompanying image. The output mode information includes incidental information. The output mode information stores, for example, the output mode of the agent image identified by the agent ID and the output mode of the accompanying image displayed along with the agent image. The output mode may be set, for example, by selecting one from a plurality of output patterns set in advance or registered by the user. The output patterns include, for example, patterns related to facial expressions and actions (for example, putting hands together, waving hands, dancing, walking), etc. of the character in the agent image. Further, the user setting information 162 may store condition settings regarding whether or not to display an accompanying image. Condition settings include, for example, ``I do not want to display images of decorations when other people are riding the vehicle,'' ``I do not want to see images of decorations set by others (do not display them),'' and ``I do not want to display images of decorations set by others.'' Conditions regarding whether or not display is permitted, such as, "If a person is riding with the vehicle, the image of the accessory that has been set may be shown (displayed)."

また、エージェント関連情報設定部156は、ユーザにより設定された付随画像に関する情報を付随画像設定情報164に格納する。図7は、付随画像設定情報164の内容の一例を示す図である。付随画像設定情報164は、付随画像情報に、画像データと、画像を識別する画像IDとが対応付けられた情報である。画像の種類には、例えば、複数のユーザが車両Mに乗車している場合に、所定の装飾品を同時に表示してもよいか否かを識別するための分類情報が含まれてもよい。例えば、同一の団体が提供する装飾品同士は、親和性が高いため、同時に表示されてもよいことから同一の装飾品の種類に設定する。また、装飾品の提供元である宗教団体のそれぞれが本社(本宮、本山)と支社(末社・摂社、末寺)の関係にある場合には、親和性が高いため、同時に表示されてもよいことから同一の装飾品の種類に設定する。また、宗教性のない装飾品は、同時に表示されてもよいことから同一の装飾品の種類に設定する。 Further, the agent-related information setting unit 156 stores information regarding the accompanying image set by the user in the accompanying image setting information 164. FIG. 7 is a diagram showing an example of the contents of the accompanying image setting information 164. The accompanying image setting information 164 is information in which accompanying image information is associated with image data and an image ID that identifies the image. The type of image may include, for example, classification information for identifying whether or not predetermined ornaments may be displayed at the same time when a plurality of users are riding in the vehicle M. For example, since ornaments provided by the same organization have a high affinity with each other and may be displayed at the same time, the same ornament type is set. In addition, if the religious organizations that provide the ornaments have a relationship between the head office (main shrine, main temple) and branch offices (sub-sha/setsu-sha, sub-temple), they may be displayed at the same time as there is a high degree of affinity. to the same decoration type. Furthermore, since non-religious ornaments may be displayed at the same time, they are set to the same ornament type.

なお、単一のユーザが装飾品の種類の異なる複数の装飾品(例えば、神道の装飾品と仏教の装飾品)を同時にエージェント画像に装備した状態の画像を表示させると設定している場合には、装飾品の種類の違いは無視されてよい。 Note that if a single user has set to display an image of the agent image equipped with multiple ornaments of different types (for example, Shinto ornaments and Buddhist ornaments) at the same time, , differences in the types of ornaments can be ignored.

エージェント関連情報設定部156は、ユーザがキャラクタ画像や付随画像を取得した場合に、取得したキャラクタ画像や付随画像に関するユーザ設定情報162や付随画像設定情報164に格納される情報を設定してもよく、画像を取得する前または取得した後に設定してもよい。また、エージェント関連情報設定部156は、ユーザの設定により、既に設定された情報を変更してもよい。また、エージェント関連情報設定部156は、エージェントサーバ200から取得した情報に基づいて、ユーザ設定情報162や付随画像設定情報164を変更してもよい。ユーザ設定情報162や付随画像設定情報164は、エージェントサーバ200の記憶部250に記憶されていてもよい。 When the user acquires a character image or an accompanying image, the agent-related information setting unit 156 may set information to be stored in the user setting information 162 or the accompanying image setting information 164 regarding the acquired character image or accompanying image. , may be set before or after acquiring the image. Further, the agent-related information setting unit 156 may change already set information according to the user's settings. Further, the agent-related information setting unit 156 may change the user setting information 162 and the accompanying image setting information 164 based on information acquired from the agent server 200. The user setting information 162 and the accompanying image setting information 164 may be stored in the storage unit 250 of the agent server 200.

出力制御部158は、例えば、ユーザが発生した音声にウエイクアップワードを含む音声が含まれる場合、またはユーザからの問い合わせに対する応答を行う場合に、ユーザ設定情報162や付随画像設定情報164に基づいて、表示・操作装置20に表示させるエージェント画像および付随画像を生成する。また、出力制御部158は、エージェントサーバ200から取得した応答結果や出力態様に基づいて、エージェント画像や付随画像を生成したり、エージェントの音声を生成したり、車両機器に関する制御情報を生成する。 For example, when the voice generated by the user includes a wake-up word, or when responding to an inquiry from the user, the output control unit 158 performs the output control based on the user setting information 162 and the accompanying image setting information 164. , generates an agent image and an accompanying image to be displayed on the display/operation device 20. Further, the output control unit 158 generates an agent image and an accompanying image, generates the agent's voice, and generates control information regarding vehicle equipment based on the response result and output mode acquired from the agent server 200.

ここで、エージェントサーバ200の対話管理部224は、例えば、ユーザに表示しているエージェント画像と共に表示される付随画像に基づいて、付随情報関連DB255を参照し、ユーザにレコメンドする内容を決定して出力制御部158に出力する。図8は、付随情報関連DB255の内容の一例を示す図である。付随情報関連DB255は、例えば、付随画像情報に、出力情報と、レコメンド内容とが対応付けられた情報である。出力情報には、例えば、所定の装飾品に対応付けられた安全運転に関する情報や、付随画像の表示制御内容に関する情報が含まれる。例えば、所定の装飾品が交通安全の「お守り」である場合、出力情報には運転アドバイスや、神仏からのお告げ、交通運の占いなどが含まれる。また、所定の装飾品が健康に関連する「お守り」や「アクセサリ」である場合、出力情報には食事に関する専門家のアドバイスや、車内でできるストレッチの情報、目的地周辺のおすすめレストランやスーパーマーケットの案内などが含まれる。また、所定の装飾品が宗教的な意味合いの強い装飾品である場合、出力情報には、装飾品の提供元である宗教に基づいた情報(例えば、その宗教の信仰を促すために、僧侶、神職者、聖職者などの宗教上の指導者の発言)が含まれてもよい。 Here, the dialogue management unit 224 of the agent server 200 refers to the accompanying information related DB 255 and determines the content to be recommended to the user, for example, based on the accompanying image displayed together with the agent image being displayed to the user. It is output to the output control section 158. FIG. 8 is a diagram showing an example of the contents of the accompanying information related DB 255. The accompanying information related DB 255 is, for example, information in which accompanying image information, output information, and recommendation content are associated with each other. The output information includes, for example, information regarding safe driving associated with a predetermined accessory, and information regarding display control details of accompanying images. For example, if a predetermined ornament is a "talisman" for traffic safety, the output information includes driving advice, omens from the gods and Buddha, fortune-telling about traffic luck, and the like. Additionally, if the specified decoration is a health-related ``talisman'' or ``accessory,'' the output information may include expert advice on diet, information on stretching exercises you can do in the car, and recommendations for restaurants and supermarkets near your destination. Includes information, etc. In addition, if a given accessory is an accessory with strong religious meaning, the output information may include information based on the religion that provided the accessory (for example, to promote faith in that religion, statements by religious leaders such as priests and clergy) may also be included.

なお、出力情報は、ユーザにより予め登録された誓い(決意や目標など)の内容が反映されてもよい。誓いは、例えば、ユーザにより所定の装飾品の登録や設定変更が行われる際に、併せて登録されるものであり、ユーザによる他の発話と同様に、エージェントサーバ200の音声認識部220および自然言語処理部222により解析される。これにより、応答文生成部228は、付随情報関連DB255から誓いに関連する情報を読み出してエージェント装置100に送信し、エージェントに誓いの内容が反映された出力情報を出力できるようになる。例えば、所定の装飾品が交通安全のお守りであり、ユーザにより誓いとして「無事故無違反」とあらかじめ登録されている場合、出力情報には、車両Mが事故多発地点に接近する前に警告することや、法定速度の案内などが含まれる。 Note that the output information may reflect the contents of a vow (determination, goal, etc.) registered in advance by the user. For example, when a user registers a predetermined accessory or changes settings, the oath is also registered, and, like other utterances by the user, is recognized by the voice recognition unit 220 of the agent server 200 and the natural voice recognition unit 220 of the agent server 200. It is analyzed by the language processing unit 222. Thereby, the response sentence generation unit 228 can read the information related to the oath from the accompanying information related DB 255 and transmit it to the agent device 100, and can output output information reflecting the content of the oath to the agent. For example, if a predetermined ornament is a traffic safety talisman and the user has registered in advance as a pledge of "no accidents and no violations," the output information may include a message that warns the vehicle M before it approaches an accident-prone area. This includes information on legal speed limits, etc.

また、出力情報に誓いの内容を反映する条件や、誓いの内容を反映させない条件が併せて設定されてもよい。例えば、個人的な誓いを同乗者に知られたくない場合に、ユーザは、装備時情報の出力条件として、「一人で乗車している場合には、誓いの内容が反映された出力情報とするが、他者が乗車している場合には、誓いの内容は出力情報に反映しない」のような設定を行う。 Further, conditions for reflecting the content of the oath in the output information and conditions for not reflecting the content of the oath may also be set. For example, if you do not want your fellow passengers to know your personal oath, the user may set the condition for outputting information when equipped as ``If you are riding alone, output information that reflects the content of your oath.'' However, if someone else is on board, the content of the oath will not be reflected in the output information.

また、付随画像が洋服等のファッションやヘッドホン等の場合、出力情報には、エージェントに着用または装着させるか否かを示す情報(装備情報)や、付随画像に関連付けられたキャラクタの動作がユーザ等により設定されてよい。例えば、付随画像が登山用のファッションである場合に出力情報としてキャラクタが登山用の洋服を着用して歩く動作が設定されたり、付随画像が海向け用のファッションである場合に出力情報としてキャラクタが海用の装備を着用している場合に泳ぐ動作が設定される。また、付随画像が、ペット等の他のキャラクタである場合、出力情報には、表示態様や出力パターンを示す情報(例えば、キャラクタが並んで表示)や、他のキャラクタの動作を示す情報がユーザ等により設定されてもよい。 In addition, if the accompanying image is fashion such as clothes, headphones, etc., the output information includes information indicating whether the agent wears or not (equipment information), and the behavior of the character associated with the accompanying image, such as the user, etc. It may be set by For example, if the accompanying image is fashion for mountain climbing, the output information is set to show the character walking wearing mountain climbing clothes, or if the accompanying image is fashion for the sea, the output information is set to show the character walking while wearing mountain climbing clothes. Swimming behavior is set when wearing marine equipment. In addition, if the accompanying image is another character such as a pet, the output information includes information indicating the display mode and output pattern (for example, characters are displayed side by side), and information indicating the actions of the other character. etc. may be set.

レコメンド内容は、付随画像や付随画像の出力情報に関連してユーザに提供するレコメンド情報である。レコメンド情報は、付随時情報が含まれてもよい。レコメンド情報には、例えば、運転に関する情報(例えば、走行ルート、運転支援情報)、付随画像で示される商品(物品)の販売元や監修者である施設、関連性のある場所が含まれる。例えば、所定の付随画像が交通安全のお守り(装飾品の一例)の画像である場合には、そのお守りの提供元である寺社、お守りの提供元である寺社と同一の宗派の寺社がレコメンド内容に含まれる。付随情報関連DB255は、エージェント装置100から得られるユーザの設定情報によって更新されてよい。 The recommendation content is recommendation information provided to the user in relation to the accompanying image and the output information of the accompanying image. The recommendation information may include incidental information. The recommendation information includes, for example, information related to driving (eg, driving route, driving support information), a facility that is a vendor or supervisor of the product (article) shown in the accompanying image, and a related place. For example, if the predetermined accompanying image is an image of a traffic safety amulet (an example of an ornament), the recommended content will include a temple or shrine that provides the amulet, or a temple or shrine that is of the same sect as the source of the amulet. include. The accompanying information related DB 255 may be updated with user setting information obtained from the agent device 100.

図8の例において、XX神社の交通安全のお守りを付随画像として表示させる場合であって、出力情報として「安全支援に関する情報(パターン1)」が選択された場合、対話管理部224は、事故の少ないルートを優先してレコメンドするとともに、提供元である寺社をレコメンドするための応答文を応答文生成部228に生成させる。事故が少ないルートは、例えば、ネットワーク検索部226がネットワークNWを介して交通情報を管理する管理装置等から取得される。また、出力情報として「安全支援に関する情報(パターン2)」が選択された場合、対話管理部224は、運転支援に関する情報をレコメンドするための応答文を応答文生成部228に生成させる。運転支援に関する情報には、例えば、前方車両との車間距離を調整させる情報や、車線の逸脱を抑制させるための情報、車線変更のタイミングを指示する情報等が含まれる。 In the example of FIG. 8, when the traffic safety amulet of XX Shrine is to be displayed as an accompanying image, and when "information regarding safety support (pattern 1)" is selected as the output information, the dialogue management unit 224 The route with the lowest number is prioritized and recommended, and the response statement generating unit 228 generates a response statement for recommending the temple/shrine that is the provider. The route with fewer accidents is acquired by the network search unit 226 from a management device or the like that manages traffic information via the network NW, for example. Further, when "information regarding safety support (pattern 2)" is selected as the output information, the dialogue management unit 224 causes the response sentence generation unit 228 to generate a response sentence for recommending information regarding driving support. The information related to driving support includes, for example, information for adjusting the distance between the vehicle and the vehicle ahead, information for suppressing lane departure, information for instructing the timing of changing lanes, and the like.

また、図8の例において、対話管理部224は、付随画像として、海向けのファッション画像をエージェント画像に着用させる場合、対話管理部224は、海に関する音楽をレコメンドしたり、海沿いルートをレコメンドしたり、海鮮料理のレストランをレコメンドするための応答文を応答文生成部228に生成させる。 Further, in the example of FIG. 8, when the dialogue management unit 224 causes the agent image to wear a fashion image for the sea as an accompanying image, the dialogue management unit 224 recommends music related to the sea or recommends a seaside route. The response sentence generation unit 228 generates a response sentence for recommending a seafood restaurant.

また、図8の例において、付随画像として、ヘッドホンをエージェント画像に装着させて表示する出力態様が設定された場合、対話管理部224は、音楽に関する情報をレコメンドする。また、対話管理部224は、音楽に関する情報をレコメンドするのに代えて(または加えて)、スピーカユニット30から出力させる音の音量を、エージェント画像がヘッドホンを装着していない場合よりも所定量だけ大きくするといった出力態様に関する情報を、応答文生成部228に生成させてもよい。また、付随画像として、耳栓をエージェント画像に装着させて表示する出力態様が設定された場合、対話管理部224は、スピーカユニット30から出力される音声を小さくする(または音を出力しない)といった出力態様に関する情報を、応答文生成部228に生成させてもよい。 Further, in the example of FIG. 8, when an output mode is set in which the agent image is displayed with headphones attached as an accompanying image, the dialogue management unit 224 recommends information regarding music. Furthermore, instead of (or in addition to) recommending information regarding music, the dialogue management unit 224 increases the volume of the sound output from the speaker unit 30 by a predetermined amount compared to when the agent image is not wearing headphones. The response sentence generation unit 228 may generate information regarding the output mode such as increasing the size. Furthermore, when an output mode is set in which the agent image is displayed with earplugs attached as an accompanying image, the dialogue management unit 224 may reduce the sound output from the speaker unit 30 (or do not output any sound). The response sentence generation unit 228 may generate information regarding the output mode.

また、対話管理部224は、他のキャラクタが表示されていない場合(自己エージェント画像のみ表示させる場合や、表示させる他のキャラクタの人数や属性(例えば、友人や家族)に応じて、レコメンドする内容を変更してもよい。 The dialogue management unit 224 also recommends content when no other characters are displayed (when only the self-agent image is displayed), or according to the number and attributes of other characters to be displayed (for example, friends and family). may be changed.

出力制御部158は、例えば、所定の付随画像に関連するコンテンツ(レコメンド情報等)を他のコンテンツよりも優先的にユーザに提供する。例えば、出力制御部158は、エージェント画像とともに、付随画像として他のキャラクタの画像を出力装置に表示させる場合に、表示されるキャラクタの数や種類に応じたコンテンツを、他のコンテンツよりも優先してユーザに提供させる。例えば、出力制御部158は、付随画像として、ファミリー(家族)が表示を表示させる場合に、ファミリー向けのレストランや音楽をエージェントサーバ200から取得して表示・操作装置20の表示部に表示させる。また、出力制御部158は、エージェント画像が、付随画像であるアロハシャツを着ている場合に、ハワイアン領域のレストランのレコメンド情報を、他のレコメンド情報よりも優先して表示・操作装置20の表示部に表示させる。これにより、エージェント画像や付随画像の数や種類等の内容に応じて、より適切な出力態様でユーザに情報を提供することができる。 For example, the output control unit 158 provides content (recommendation information, etc.) related to a predetermined accompanying image to the user with priority over other content. For example, when displaying an image of another character as an accompanying image on the output device together with the agent image, the output control unit 158 may prioritize content according to the number and type of characters to be displayed over other content. provided to the user. For example, when a family is displayed as an accompanying image, the output control unit 158 obtains a family-friendly restaurant or music from the agent server 200 and causes the display unit of the display/operation device 20 to display the information. Further, when the agent image is wearing an aloha shirt, which is an accompanying image, the output control unit 158 displays the recommended information of a restaurant in the Hawaiian area on the display/operation device 20 with priority over other recommended information. section. This makes it possible to provide information to the user in a more appropriate output format depending on the content such as the number and type of agent images and accompanying images.

また、出力制御部158は、ユーザが、付随画像を表示させる権限を有するユーザである場合に、出力態様情報等の付随時情報を表示・操作装置20等の出力装置に出力させてもよい。例えば、出力制御部158は、ユーザが交通安全のお守りの画像を表示させる設定をしている場合に、予め設定された安全運転に関する情報(図8の例において、パターン1、パターン2)を出力態様情報または出力情報の候補としてユーザに提示し、提示した候補の中からユーザによる選択を受け付けてもよい。これにより、ユーザは、付随時情報を容易に設定することができる。 Further, the output control unit 158 may output incidental information such as output mode information to an output device such as the display/operation device 20 when the user is a user who has the authority to display an incidental image. For example, when the user has set to display an image of a traffic safety charm, the output control unit 158 outputs preset information regarding safe driving (in the example of FIG. 8, pattern 1 and pattern 2). The information may be presented to the user as a candidate for mode information or output information, and the user may select from among the presented candidates. This allows the user to easily set incidental information.

[付随時情報の出力態様]
次に、本実施形態における付随時情報の出力態様について具体的に説明する。図9は、エージェント画像に所定の装飾品を着用した態様で表示させる手順を説明するための図である。例えば、車両Mのユーザは、寺社仏閣で所定の装飾品の現物を購入する。ユーザが購入した装飾品ACには、画像登録用の二次元コードが付随し、ユーザが利用する端末装置T(例えば、スマートフォンやタブレット)や、車両Mの車載カメラを利用して専用のアプリケーションを介して二次元コードを読み取る。その専用のアプリケーションは、二次元コードを読み取ることで取得したVR(Virtual Reality)情報を読み取り、車載に搭載されたエージェント画像A1に仮想的に装飾品画像IMAを装備させることを実現させる。
[Output mode of incidental information]
Next, the output mode of incidental information in this embodiment will be specifically explained. FIG. 9 is a diagram illustrating a procedure for displaying an agent image wearing a predetermined accessory. For example, a user of vehicle M purchases a predetermined ornament in person at a temple or shrine. The accessories AC purchased by the user are accompanied by a two-dimensional code for image registration, and a dedicated application can be run using the terminal device T used by the user (for example, a smartphone or tablet) or the in-vehicle camera of the vehicle M. Read the two-dimensional code through the The dedicated application reads VR (Virtual Reality) information obtained by reading a two-dimensional code, and virtually equips the agent image A1 mounted on the vehicle with the accessory image IMA.

なお、専用のアプリケーションが、車載カメラ等を用いて所定の装飾品の現物の外観が分かる画像情報を取得して、エージェント画像A1に仮想的に装備させる装飾品画像IMAの画像を生成してもよい。また、ユーザは、端末装置Tを介して各種ウェブサーバ300の提供する画像専用のマーケットサイトにアクセスし、エージェント画像A1に仮想的に装備させることができる装飾品画像IMAの画像の利用権を購入してもよい。以下の説明において、所定の装飾品を表示させる権限を有するユーザとは、上述のように購入や譲渡などにより装飾品画像IMAの表示が許諾されたユーザであり、エージェント装置100の利用設定が登録可能な(または予め登録されている)ユーザのことである。 Note that even if a dedicated application uses an in-vehicle camera or the like to acquire image information that shows the actual appearance of a predetermined accessory, and generates an image of the accessory image IMA to be virtually equipped on the agent image A1. good. In addition, the user accesses a market site dedicated to images provided by various web servers 300 via the terminal device T, and purchases the right to use the image of the accessory image IMA that can be virtually equipped to the agent image A1. You may. In the following explanation, a user who has the authority to display a predetermined ornament is a user who has been authorized to display the ornament image IMA through purchase or transfer as described above, and whose usage settings of the agent device 100 are registered. Possible (or pre-registered) users.

画像制御部152は、ユーザ認識部154により認識されたエージェント装置100のユーザが、所定の装飾品を表示させる権限を有する場合に、所定の装飾品を装備したエージェント画像を表示・操作装置20に表示させる。出力制御部158は、画像制御部152により所定の装飾品を装備したエージェント画像を表示・操作装置20に表示させる場合に、付随情報関連DB255を参照し、出力情報をユーザに提供する。「所定の装飾品を装備したエージェント画像を表示・操作装置20に表示させる場合」には、既に所定の装飾品を装備したエージェント画像を表示・操作装置20に表示させた状態であることに加え、これから表示を開始しようとしていること(表示・操作装置20に画像表示を開始すると同時に、または画像表示の直前に)出力情報をユーザに提供することを含む。 The image control unit 152 displays an agent image equipped with a predetermined accessory on the display/operation device 20 when the user of the agent device 100 recognized by the user recognition unit 154 has the authority to display the predetermined accessory. Display. When the image control unit 152 causes the display/operation device 20 to display an agent image equipped with a predetermined accessory, the output control unit 158 refers to the accompanying information related DB 255 and provides output information to the user. “When displaying an agent image equipped with a predetermined accessory on the display/operation device 20,” in addition to the state where an agent image equipped with a predetermined accessory is already displayed on the display/operation device 20, , including providing the user with output information that is about to start displaying (at the same time as starting displaying the image on the display/operation device 20, or immediately before displaying the image).

出力制御部158は、例えば、ユーザが所定の装飾品を表示させる権限を有する場合に、付随時情報をユーザごとに設定の受け付けが可能であり、その設定内容はユーザ設定情報162に格納される。また、出力制御部158は、車両Mの状態(どのユーザが乗車しているか、ユーザが一人か複数人かなど)に対応付けて出力情報を設定することができる。以下、場面ごとの出力態様の様子について具体的に説明する。 For example, when the user has the authority to display a predetermined ornament, the output control unit 158 can accept settings for incidental information for each user, and the setting contents are stored in the user setting information 162. . Further, the output control unit 158 can set output information in association with the state of the vehicle M (which user is on board, whether there is one user or multiple users, etc.). Hereinafter, the output mode for each scene will be specifically explained.

[第1場面]
図10は、第1場面における出力態様の様子を説明するための図である。第1場面は、車両Mの運転席DSにユーザUAが一人で乗車している場合において、お守りの付随画像をエージェント画像A1と共にユーザUAに提供する場面を示している。第1場面において、画像制御部152は、ユーザUAが予め設定している通りにエージェント画像A1が付随画像IMAを装備した状態の画像IM1を生成し、生成した画像IM1を表示・操作装置20の表示部に表示させる。また、出力制御部158は、第1場面における出力情報(付随時情報)OP1として、「XX神社の神様のお告げです。」等の音声をスピーカユニット30に出力させる。
[First scene]
FIG. 10 is a diagram for explaining the output mode in the first scene. The first scene shows a scene where the user UA is alone in the driver's seat DS of the vehicle M, and the accompanying image of the amulet is provided to the user UA along with the agent image A1. In the first scene, the image control unit 152 generates an image IM1 in which the agent image A1 is equipped with the accompanying image IMA as preset by the user UA, and displays the generated image IM1 on the display/operation device 20. Display it on the display. Further, the output control unit 158 causes the speaker unit 30 to output a voice such as "This is an announcement from the god of the XX shrine" as the output information (incidental information) OP1 in the first scene.

[第2場面]
図11は、第2場面における出力態様の様子を説明するための図である。第2場面は、車両Mの運転席DSに着座しているユーザUAと、助手席ASに着座するユーザUBとが乗車していることがユーザ認識部154により認識されている場合において、お守りの付随画像を含む出力情報を、ユーザUAおよびUBに提供する場面を示している。第2場面において、ユーザUAおよびUBは、同一のエージェント画像A1および同一の種類の付随画像IMAを同一の出力パターンで出力すると設定しているものとする。この場合、画像制御部152は、ユーザUAおよびUBが予め表示設定している通りに、単一のエージェント画像A1が付随画像IMAを装備した状態の画像IM1を生成し、生成した画像IM1を表示・操作装置20の表示部に表示させる。また、出力制御部158は、第2場面における出力情報OP1として、第1場面と同様に「XX神社の神様のお告げです。」等の音声をスピーカユニット30に出力させる。
[Second scene]
FIG. 11 is a diagram for explaining the output mode in the second scene. In the second scene, when the user recognition unit 154 recognizes that the user UA who is seated in the driver's seat DS of the vehicle M and the user UB who is seated in the passenger seat AS are in the vehicle, This shows a scene in which output information including accompanying images is provided to users UA and UB. In the second scene, it is assumed that the users UA and UB have set the same agent image A1 and the same type of accompanying image IMA to be output in the same output pattern. In this case, the image control unit 152 generates an image IM1 in which the single agent image A1 is equipped with the accompanying image IMA, and displays the generated image IM1, as the users UA and UB have set the display in advance. -Display on the display section of the operating device 20. Further, the output control unit 158 causes the speaker unit 30 to output a sound such as "This is an announcement from the god of the XX shrine" as output information OP1 in the second scene, similar to the first scene.

なお、第2場面において「付随画像が同一の種類である」とは、例えば、付随画像識別IDが同じであることである。また、「付随画像が同一の種類である」とは、付随画像がお守り等の装飾品の画像である場合に、装飾品の販売元の宗教団体が同一であることや、装飾品の販売元の宗教や宗派が同一であること、装飾品の目的(例えば、「安全」、「健康」など)が同一であること、装飾品の外観が同一であることが含まれてもよい。また、ユーザUAおよびUBが、それぞれ異なる装飾品を表示すると設定しており、ユーザUAおよびUBのそれぞれが設定した所定の装飾品のいずれにも宗教性がない場合には、画像制御部152は、装飾品の種類が同一であるものとして表示制御を行ってもよい。 Note that in the second scene, "the accompanying images are of the same type" means, for example, that the accompanying image identification IDs are the same. In addition, "the accompanying images are of the same type" means that when the accompanying images are images of decorative items such as amulets, the religious organization that sells the decorative items is the same, or that the religious organization that sells the decorative items It may also include that the religion or sect of the two people are the same, that the purpose of the ornaments is the same (for example, "safety", "health", etc.), and that the appearance of the ornaments is the same. Further, if users UA and UB have set different ornaments to be displayed, and none of the predetermined ornaments set by users UA and UB is religious, the image control unit 152 , display control may be performed assuming that the types of ornaments are the same.

なお、ユーザUAとUBとが、異なるエージェント画像、且つ同一の所定の装飾品を出力すると設定していた場合にも、画像制御部152は、第2場面と同様にエージェント画像のそれぞれが所定の装飾品を装備した状態の画像を表示してもよい。また、ユーザUAとUBとが、同一のエージェント画像、且つ同一の種類の所定の装飾品を表示すると設定しており、且つユーザUAとUBがそれぞれ異なる誓いを登録している場合、出力制御部158は、付随時情報として、ユーザUAおよびUBのそれぞれの誓いに基づく出力情報を出力してもよいし、ユーザUAおよびUBのうち、運転席DSに着座するユーザUAの誓いに基づく出力情報を出力してもよいし、誓いに基づく出力情報を出力しないようにしてもよい。例えば、ユーザUAが交通安全に関する誓いを登録しており、ユーザUBが健康に関する誓いを登録している場合に、出力制御部158は、付随情報として、交通安全に関連する出力情報と健康に関連する出力情報の両方を出力する。 Note that even if the users UA and UB have set to output different agent images and the same predetermined ornament, the image control unit 152 outputs the same predetermined ornaments for each of the agent images as in the second scene. An image with the accessory equipped may be displayed. Furthermore, if the users UA and UB have set to display the same agent image and the same type of predetermined ornaments, and the users UA and UB have registered different oaths, the output control unit 158 may output, as incidental information, output information based on the oaths of the users UA and UB, or output information based on the oaths of the user UA seated in the driver's seat DS among the users UA and UB. It may be output, or output information based on the oath may not be output. For example, when user UA has registered a pledge regarding traffic safety and user UB has registered a pledge regarding health, the output control unit 158 outputs output information related to traffic safety and output information related to health as accompanying information. Output both of the output information.

[第3場面]
図12は、第3場面における出力態様の様子を説明するための図である。第3場面は、車両Mの運転席DSに着座するユーザUAと、助手席ASに着座するユーザUCとが存在することがユーザ認識部154により認識されている場面である。第3場面において、ユーザUAとUCとは、同一のエージェント画像であって、且つそれぞれが異なるお守り画像を出力すると設定されているものとする。この場合、画像制御部152は、エージェント画像A1がお守りの画像を装備していない状態の画像IM2を生成し、生成した画像を表示・操作装置20の表示部に表示させる。これは、ユーザUAが設定しているお守り画像と、ユーザUCの設定しているお守り画像とが付随画像設定情報164において異なる装飾品の種類に属するためである。このように、エージェント装置100は、異なる装飾品の場合に、それぞれの装飾品を表示させないように制御することで、ユーザUAおよびUCが、自らが想定していない他の宗教の装飾品の画像を目にすることで不快に感じる可能性を低減させることができる。
[Third scene]
FIG. 12 is a diagram for explaining the output mode in the third scene. The third scene is a scene in which the user recognition unit 154 recognizes that there are a user UA seated in the driver's seat DS of the vehicle M and a user UC seated in the passenger seat AS. In the third scene, it is assumed that users UA and UC are set to output the same agent image and different amulet images. In this case, the image control unit 152 generates an image IM2 in which the agent image A1 is not equipped with an amulet image, and displays the generated image on the display unit of the display/operation device 20. This is because the amulet image set by the user UA and the amulet image set by the user UC belong to different types of accessories in the accompanying image setting information 164. In this way, the agent device 100 controls the display of different ornaments so that the users UA and UC do not display images of ornaments of other religions than they expected. By seeing this, you can reduce the possibility of feeling uncomfortable.

また、第3場面において、出力制御部158は、それぞれの装飾品とは関連しない出力情報OP2を生成して、スピーカユニット30に出力させる。図12の例では、「安全運転を心だけましょう。」という音声が出力されている。これにより、エージェント装置100は、ユーザUAおよびUCが、自らが想定していない他の宗教的な発言を耳にすることで不快に感じたり、出力情報OP2の提供後の車両MでのユーザUAおよびUBのお互いの雰囲気が悪くなる可能性を低減させたりすることができる。 Furthermore, in the third scene, the output control unit 158 generates output information OP2 that is not related to each ornament, and causes the speaker unit 30 to output the output information OP2. In the example of FIG. 12, a voice saying "Let's drive safely." is output. As a result, the agent device 100 may cause the users UA and UC to feel uncomfortable by hearing other religious remarks that they are not expecting, or if the user UA in the vehicle M after providing the output information OP2 It is also possible to reduce the possibility that the mutual atmosphere between the UB and the UB becomes bad.

[第4場面]
図13は、第4場面における出力態様の様子を説明するための図である。第4場面は、車両Mの運転席DSに着座するユーザUAと、助手席ASに着座するユーザUDとが存在することがユーザ認識部154により認識されている場面である。第4場面では、ユーザUAとUDとが、それぞれ異なるエージェント画像A1および画像A2を出力すると設定しており、ユーザUAは所定の装飾品を表示する設定をしているが、ユーザUDは所定の装飾品を表示する設定をしていない場合、画像制御部152は、第4場面において、エージェント画像A1およびエージェント画像A2が所定の装飾品を装備していない状態の画像IM3を生成し、生成した画像IM3を表示・操作装置20の表示部に表示させる。また、出力制御部158は、所定の装飾品とは関連しない出力情報OP2をスピーカユニット30に出力させる。
[Scene 4]
FIG. 13 is a diagram for explaining the output mode in the fourth scene. The fourth scene is a scene in which the user recognition unit 154 recognizes that there are a user UA seated in the driver's seat DS of the vehicle M and a user UD seated in the passenger seat AS. In the fourth scene, users UA and UD are set to output different agent images A1 and A2, respectively, and user UA is set to display a predetermined ornament, but user UD is set to output a predetermined ornament. If no decorations are set to be displayed, the image control unit 152 generates an image IM3 in which agent images A1 and A2 are not equipped with predetermined decorations in the fourth scene. The image IM3 is displayed on the display section of the display/operation device 20. Furthermore, the output control section 158 causes the speaker unit 30 to output output information OP2 that is not related to the predetermined ornament.

これにより、エージェント装置100は、ユーザUAおよびユーザUDが、自らが想定していない他の宗教の装飾品を目にすることで不快に感じる可能性を低減させることができる。また、エージェント装置100は、ユーザUAおよびユーザUDが、自らが想定していない他の宗教的な発言を耳にすることで不快に感じたり、出力情報OP2の提供後の車両Mでの雰囲気を悪くしたりする可能性を低減させることができる。 Thereby, the agent device 100 can reduce the possibility that the user UA and the user UD will feel uncomfortable if they see an ornament of another religion that they are not expecting. In addition, the agent device 100 may make the user UA and the user UD feel uncomfortable by hearing other religious remarks that they do not expect, or may feel uncomfortable about the atmosphere in the vehicle M after providing the output information OP2. This can reduce the possibility of deterioration.

なお、ユーザUAおよびユーザUDが、他のユーザが他の宗教の装飾品を表示してもよいと許可している場合には、画像制御部152は、エージェント画像A1およびエージェント画像A2にそれぞれ所定の装飾品を装備させた画像を表示してもよい。 Note that if user UA and user UD allow other users to display ornaments of other religions, image control unit 152 displays predetermined images on agent image A1 and agent image A2, respectively. You may display an image equipped with accessories.

[第5場面]
図14は、第5場面における出力態様の様子を説明するための図である。第5場面は、エージェント画像が付随画像とともに表示させる場合に、エージェント画像に所定の動作を実行させる場面を示す図である。例えば、車両Mの運転席DSに着座するユーザUAが存在することがユーザ認識部154により認識されている場合、車両Mの運転席DSにユーザUAが一人で乗車している場合において、お守りの付随画像をエージェント画像A1と共にユーザUAに提供する場面を示している。第5場面において、画像制御部152は、ユーザUAが予め設定している通りに、エージェント画像A1が付随画像IMAを装備した状態の画像IM4を生成し、生成した付随画像IM4を表示・操作装置20の表示部に表示させる。ここで、ユーザUAが付随時情報としてエージェント画像A1のキャラクタが手を合わせる動作を設定していた場合に、画像制御部152は、エージェント画像A1のキャラクタが手を合わせる動作を行う画像を生成する。付随画像IM4は、アニメーション画像でもよい。また、出力制御部158は、第1場面における出力情報OP1として、「XX神社の神様のお告げです。」等の音声を出力する。これにより、エージェント画像ともに表示される付随画像に応じて、エージェント画像に所定の動作を行わせることができるため、ユーザに、エージェントを親しみ易くさせることができる。
[Scene 5]
FIG. 14 is a diagram for explaining the output mode in the fifth scene. The fifth scene is a diagram showing a scene in which the agent image is caused to perform a predetermined operation when the agent image is displayed together with the accompanying image. For example, if the user recognition unit 154 recognizes that there is a user UA sitting in the driver's seat DS of the vehicle M, and if the user UA is alone in the driver's seat DS of the vehicle M, the talisman This shows a scene in which the accompanying image is provided to the user UA together with the agent image A1. In the fifth scene, the image control unit 152 generates an image IM4 in which the agent image A1 is equipped with the accompanying image IMA, as set in advance by the user UA, and displays the generated accompanying image IM4 on the display/operation device. 20 on the display section. Here, if the user UA has set an action in which the character of the agent image A1 joins hands together as incidental information, the image control unit 152 generates an image in which the character of the agent image A1 joins hands. . The accompanying image IM4 may be an animation image. Further, the output control unit 158 outputs a sound such as "This is an announcement from the god of the XX shrine" as the output information OP1 in the first scene. This allows the agent image to perform a predetermined action in accordance with the accompanying image displayed together with the agent image, thereby making the agent more familiar to the user.

[第6場面]
図15は、第6場面における出力態様の様子を説明するための図である。第6場面は、上述した第5場面と比較すると、運転席DSに着座するユーザが、ユーザUAではなくユーザUEである点で相違する。この場合、画像制御部152は、ユーザ認識部154により認識されているユーザUEが認識された場合に、ユーザUEが予め設定している通りに、エージェント画像A1が付随画像IMAを装備した状態の画像IM5を生成し、生成した画像IM5を表示・操作装置20の表示部に表示させる。ここで、ユーザUEが付随時情報としてエージェント画像A1のキャラクタにお辞儀をさせる動作を設定していた場合に、画像制御部152は、エージェント画像A1のキャラクタがお辞儀を行う画像を生成する。画像IM5は、エージェント画像A1のキャラクタがお辞儀を行うアニメーション画像でもよい。
[Scene 6]
FIG. 15 is a diagram for explaining the output mode in the sixth scene. The sixth scene is different from the fifth scene described above in that the user sitting in the driver's seat DS is the user UE instead of the user UA. In this case, when the user UE recognized by the user recognition unit 154 is recognized, the image control unit 152 configures the agent image A1 with the associated image IMA as set in advance by the user UE. An image IM5 is generated, and the generated image IM5 is displayed on the display section of the display/operation device 20. Here, if the user UE has set an action in which the character of the agent image A1 bows as incidental information, the image control unit 152 generates an image in which the character of the agent image A1 bows. Image IM5 may be an animation image in which the character of agent image A1 bows.

第5場面および第6場面に示すように、ユーザごとに設定された付随時情報として動作を設定することで、ユーザごとにエージェントに適切な動作を実行させることができる。 As shown in the fifth scene and the sixth scene, by setting the action as incidental information set for each user, it is possible to cause the agent to perform an appropriate action for each user.

また、出力制御部158は、ユーザ認識部154により複数のユーザが認識された場合であって、それぞれのユーザが異なる動作を設定している場合に、キャラクタに動作をさせないように制御してもよい。また、出力制御部158は、それぞれのユーザが共通または関連性の高い動作を設定している場合に、それぞれのキャラクタの動きを同期または連携させて表示させてもよい。例えば、出力制御部158は、複数のキャラクタが一緒に手を振ったり、歩く動作を行わせたり、お互いのキャラクタが握手をしたり、交互にジャンプするといった動作を行わせてもよい。このように、キャラクタ同士が同期または連携して動作させることで、ユーザ同士の親交が深まるように支援することができる。 Furthermore, when multiple users are recognized by the user recognition unit 154 and each user has set a different action, the output control unit 158 may control the character not to perform any action. good. Furthermore, when each user has set common or highly related actions, the output control unit 158 may display the movements of the respective characters in synchronization or coordination. For example, the output control unit 158 may cause a plurality of characters to wave their hands together or perform a walking motion, or have the characters shake hands with each other, or alternately jump. In this way, by having the characters move in synchronization or in cooperation with each other, it is possible to help the users deepen their friendship with each other.

[第7場面]
図16は、第7場面における出力態様の様子を説明するための図である。第7場面は、エージェントに関連付けられた付随時情報に応じて、ユーザにレコメンドする場面を示している。第7場面では、車両Mの運転席にユーザUAが着座しているものとする。画像制御部152は、ユーザ認識部154により認識されているユーザUAが認識された場合に、ユーザUAが予め設定している通りに、エージェント画像A1が海向けのファッションを着用した画像IM6を表示させる。ここで、出力制御部158は、エージェントサーバ200から海に関するレコメンド情報を取得し、取得したレコメンド情報を他のレコメンド情報よりも優先してユーザに出力する。
[Scene 7]
FIG. 16 is a diagram for explaining the output mode in the seventh scene. The seventh scene shows a scene where a recommendation is made to the user according to incidental information associated with the agent. In the seventh scene, it is assumed that the user UA is seated in the driver's seat of the vehicle M. When the user UA recognized by the user recognition unit 154 is recognized, the image control unit 152 displays an image IM6 in which the agent image A1 is wearing fashion for the sea, as set in advance by the user UA. let Here, the output control unit 158 acquires recommendation information regarding the sea from the agent server 200, and outputs the acquired recommendation information to the user with priority over other recommendation information.

図16の例において、ユーザUAが目的地までの走行ルートをエージェントに問い合わせた場合に、問い合わせ結果として得られた経路のうち、エージェント画像が海向けのファッションをしているため、海沿いを走行するルートを優先的に表示させる。また、出力制御部158は、第7場面における出力情報OP3として、「海沿いのルートを走行します。」等の音声を出力する。図7場面によれば、ユーザが設定した付随画像に対応付けられたレコメンド情報を他のレコメンド情報よりも優先してユーザに提供することができる。 In the example of FIG. 16, when the user UA inquires from the agent about the driving route to the destination, among the routes obtained as a result of the inquiry, the agent image is wearing fashion for the sea; Display routes with priority. Further, the output control unit 158 outputs a voice such as "We will travel along the seaside route" as output information OP3 in the seventh scene. According to the scene in FIG. 7, the recommendation information associated with the accompanying image set by the user can be provided to the user with priority over other recommendation information.

[第8場面]
図17は、第8場面における出力態様の様子を説明するための図である。第8場面は、ユーザ認識部154により認識されたユーザが複数人である場合にレコメンド情報を出力する場面を示している。図17の例では、図13と同様に運転席DSにユーザUAが着座し、助手席ASにユーザUDが着座しているものとする。この場合、画像制御部152は、それぞれのユーザUA、UDに対応するエージェント画像A1、A2を表示させると共に、エージェントが二人表示されている場合のレコメンド情報として、二人で楽しめる観光スポット等をレコメンドする。また、出力制御部158は、第8場面における出力情報OP4として、「二人で楽しめる観光スポットを紹介します。」等の音声を出力する。
[Scene 8]
FIG. 17 is a diagram for explaining the output mode in the eighth scene. The eighth scene shows a scene in which recommendation information is output when a plurality of users are recognized by the user recognition unit 154. In the example of FIG. 17, it is assumed that the user UA is seated in the driver's seat DS and the user UD is seated in the passenger seat AS, similarly to FIG. 13. In this case, the image control unit 152 displays agent images A1 and A2 corresponding to the respective users UA and UD, and also recommends sightseeing spots etc. that can be enjoyed by two people as recommendation information when two agents are displayed. Recommend. Further, the output control unit 158 outputs a voice such as "I will introduce a sightseeing spot that two people can enjoy" as output information OP4 in the eighth scene.

これにより、車両Mの乗車しているユーザや、表示されているキャラクタ画像に応じて、より適切なレコメンド情報を優先的にユーザに提供することができる。この結果、より適切な情報をユーザに提供することができる。 Thereby, more appropriate recommendation information can be provided preferentially to the user depending on the user riding in the vehicle M or the displayed character image. As a result, more appropriate information can be provided to the user.

図18は、画像制御部152および出力制御部158によるエージェント画像の出力例を一覧形式で示す図である。図18に示す情報は、例えば、画像制御部152および出力制御部158による制御時に用いられる。図18の例では、エージェントが同一であるか否かを示す情報、装飾品のグループを示す情報、他者の装飾品を表示するか否かを示す情報に、出力イメージが対応付けられている。例えば、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が同一であり、且つ所定の装飾品の種類が同一である場合(図18に示すNo.1の場合)、画像制御部152は、エージェント画像A1が所定の装飾品画像IMAを装備した画像を表示・操作装置20に表示させる。なお、ユーザ認識部154により認識されたユーザが一人であって、所定の装飾品を表示すると設定されている場合も同様に、エージェント画像A1が所定の装飾品画像IMAを装備した画像を生成し、生成した画像を表示・操作装置20に表示させる。このとき、出力制御部158は、装備に関する付随時情報をエージェントに提供させる。 FIG. 18 is a diagram showing examples of output of agent images by the image control unit 152 and the output control unit 158 in a list format. The information shown in FIG. 18 is used, for example, during control by the image control section 152 and the output control section 158. In the example of FIG. 18, the output image is associated with information indicating whether the agents are the same, information indicating a group of decorations, and information indicating whether to display other people's decorations. . For example, when there are multiple users recognized by the user recognition unit 154, the displayed agent images are the same, and the types of predetermined accessories are the same (case No. 1 shown in FIG. 18). , the image control unit 152 causes the display/operation device 20 to display an image in which the agent image A1 is equipped with a predetermined accessory image IMA. Note that even if there is only one user recognized by the user recognition unit 154 and the setting is made to display a predetermined ornament, the agent image A1 will similarly generate an image equipped with the predetermined ornament image IMA. , causes the display/operation device 20 to display the generated image. At this time, the output control unit 158 causes the agent to provide incidental information regarding the equipment.

また、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が同一であり、且つ所定の装飾品の種類が同一でない場合であり、ユーザの少なくとも一人が他者の装飾品画像の表示を不許可とする設定をしている場合(図18に示すNo.2の場合)、画像制御部152は、エージェント画像A1が所定の装飾品画像IMAを装備していない画像を表示・操作装置20に表示させる。このとき、出力制御部158は、付随時情報をエージェントにサービスとして提供させない。 Further, there is a case where there are multiple users recognized by the user recognition unit 154, the displayed agent images are the same, and the types of predetermined decorations are not the same, and at least one of the users recognizes the decorations of others. If the display of the accessory image is not permitted (case No. 2 shown in FIG. 18), the image control unit 152 displays an image in which the agent image A1 is not equipped with the predetermined accessory image IMA. Displayed on the display/operation device 20. At this time, the output control unit 158 does not allow the agent to provide the incidental information as a service.

また、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が同一であり、且つ所定の装飾品の種類が同一でない場合であり、ユーザの全員が他者の装飾品画像の表示を許可する設定をしている場合(図18に示すNo.3の場合)、画像制御部152は、エージェント画像A1がそれぞれのユーザが設定した所定の装飾品画像IMAを重ね付けした画像を表示・操作装置20に表示させる。このとき、出力制御部158は、所定の装飾品のそれぞれに関連する出力情報をエージェントにサービスとして提供させてもよいし、いずれかのユーザの設定した装備時情報のみをサービスとして提供させてもよいし、装備時情報を提供させなくてもよい。 Further, there is a case where there are multiple users recognized by the user recognition unit 154, the displayed agent images are the same, and the types of predetermined accessories are not the same, and all of the users are When the image display is set to be permitted (in the case of No. 3 shown in FIG. 18), the image control unit 152 controls whether the agent image A1 is a superimposed image of a predetermined accessory image IMA set by each user. The image is displayed on the display/operation device 20. At this time, the output control unit 158 may cause the agent to provide output information related to each of the predetermined accessories as a service, or may cause the agent to provide only the equipment information set by one of the users as a service. It's fine, and you don't have to provide information when equipped.

一方、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が異なり、且つ所定の装飾品の種類が同一である場合(図18に示すNo.4の場合)、画像制御部152は、エージェント画像A1とエージェント画像A2のそれぞれが所定の装飾品画像IMAを装備した画像を表示・操作装置20に表示させる。このとき、出力制御部158は、所定の装飾品のそれぞれに関連する出力情報をエージェントにサービスとして提供させてもよいし、いずれかのユーザの設定した装備時情報のみをサービスとして提供させてもよいし、装備時情報を提供させなくてもよい。 On the other hand, when there are multiple users recognized by the user recognition unit 154, the displayed agent images are different, and the types of predetermined accessories are the same (case No. 4 shown in FIG. 18), the image The control unit 152 causes the display/operation device 20 to display images in which each of the agent image A1 and the agent image A2 is equipped with a predetermined accessory image IMA. At this time, the output control unit 158 may cause the agent to provide output information related to each of the predetermined accessories as a service, or may cause the agent to provide only the equipment information set by one of the users as a service. It's fine, and you don't have to provide information when equipped.

また、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が異なり、且つ所定の装飾品の種類が同一でない場合であり、ユーザの少なくとも一人が他者の装飾品画像の表示を不許可とする設定をしている場合(図18に示すNo.5の場合)、画像制御部152は、エージェント画像A1およびエージェント画像A2が所定の装飾品画像IMAを装備していない画像を表示・操作装置20に表示させる。このとき、出力制御部158は、装備時情報をエージェントにサービスとして提供させない。 Further, there is a case where there are multiple users recognized by the user recognition unit 154, the displayed agent images are different, and the types of predetermined accessories are not the same, and at least one of the users (in the case of No. 5 shown in FIG. 18), the image control unit 152 determines that the agent image A1 and the agent image A2 are not equipped with the predetermined accessory image IMA. The image is displayed on the display/operation device 20. At this time, the output control unit 158 does not allow the agent to provide the installation information as a service.

また、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が異なり、且つユーザの全員が他者の装飾品画像の表示を許可する設定をしており、一方のエージェントは所定の装飾品を装備する設定であり、他方のエージェントは装飾品を装備しない設定である場合(図18に示すNo.6の場合)、画像制御部152は、エージェント画像A1がユーザにより設定された所定の装飾品画像IMAを装備し、エージェント画像A2は装飾品を装備していない画像を表示・操作装置20に表示させる。このとき、出力制御部158は、装備時情報をエージェントにサービスとして提供させてもよいし、装備時情報を提供させなくてもよい。 Further, if there are multiple users recognized by the user recognition unit 154, the agent images to be displayed are different, and all of the users are set to allow displaying images of other people's accessories, one agent is set to be equipped with a predetermined accessory, and the other agent is set to be equipped with no accessory (in the case of No. 6 shown in FIG. 18), the image control unit 152 determines that the agent image A1 is set by the user. The agent image A2 is equipped with a predetermined accessory image IMA that has been installed, and the display/operation device 20 displays an image in which the agent image A2 is not equipped with an accessory. At this time, the output control unit 158 may cause the agent to provide the equipment information as a service, or may not provide the equipment information.

また、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が異なり、且つユーザの全員が他者の装飾品画像の表示を許可する設定をしており、それぞれのエージェント画像は異なる所定の装飾品を装備する設定である場合(図18に示すNo.7の場合)、画像制御部152は、エージェント画像A1およびエージェント画像A2がユーザにより設定されたそれぞれ異なる所定の装飾品画像IMAを装備した画像を表示・操作装置20に表示させる。このとき、出力制御部158は、所定の装飾品のそれぞれに関連する出力情報をエージェントにサービスとして提供させてもよいし、いずれかのユーザの設定した装備時情報のみをサービスとして提供させてもよいし、装備時情報を提供させなくてもよい。 Further, if there are multiple users recognized by the user recognition unit 154, the agent images to be displayed are different, and all of the users are set to allow the display of other people's ornament images, each agent When the images are set to be equipped with different predetermined decorations (in the case of No. 7 shown in FIG. 18), the image control unit 152 controls the agent image A1 and the agent image A2 to be equipped with different predetermined decorations set by the user. The image equipped with the product image IMA is displayed on the display/operation device 20. At this time, the output control unit 158 may cause the agent to provide output information related to each of the predetermined accessories as a service, or may cause the agent to provide only the equipment information set by one of the users as a service. It's fine, and you don't have to provide information when equipped.

なお、出力例の一覧形式には、図18に示す情報に加えて、装飾品以外の付属画像のグループや表示を許可するか否かの情報に対応付けた出力イメージが含まれていてもよい。また、図18に示すに示す出力イメージには、エージェントの動作に関する情報(例えば、手を合わせる、お辞儀をする、手を振る、踊る、歩く等)が含まれていてもよい。 In addition to the information shown in FIG. 18, the output example list format may also include output images associated with groups of attached images other than ornaments and information on whether to permit display. . Furthermore, the output image shown in FIG. 18 may include information regarding the agent's actions (for example, joining hands, bowing, waving, dancing, walking, etc.).

[処理フロー]
次に、エージェント装置100における処理の流れについて説明する。なお、以下では、ユーザによるエージェントや付随画像の設定を受け付ける設定処理と、設定された情報とに基づいて、エージェントの表示制御処理とに分けて説明する。
[Processing flow]
Next, the flow of processing in the agent device 100 will be explained. Note that, below, a setting process for accepting settings of an agent and an accompanying image by a user, and a display control process for an agent based on the set information will be explained separately.

図19は、エージェント装置100による設定処理の流れの一例を示すフローチャートである。図19に示す処理フローは、例えば、車両Mにユーザが乗車する前や、ユーザが所定の装飾品を購入したタイミングなどに行われる。 FIG. 19 is a flowchart illustrating an example of the flow of setting processing by the agent device 100. The processing flow shown in FIG. 19 is performed, for example, before the user gets on the vehicle M or at the timing when the user purchases a predetermined accessory.

まず、エージェント装置100は、ユーザによる表示エージェントの設定を受け付ける
(ステップS100)。次に、エージェント関連情報設定部156は、表示・操作装置20に表示するエージェントの画像と併せて表示する付随情報の登録を受け付ける(ステップS102)。付随情報には、例えば、購入した装飾品や洋服等の物品の登録や、登録した物品に関する付随画像が含まれる。また、付随情報には、ユーザの誓いに関する情報が併せて登録されてもよい。次に、出力制御部158は、付随情報関連DB255を参照して出力情報、出力態様等の付随時情報の候補を提示し(ステップS104)、ユーザによる付随時情報の選択を受け付け、ユーザ設定情報162や付随情報関連DB255に反映する(ステップS106)。これにより、本フローチャートの処理は、終了する。
First, the agent device 100 receives display agent settings from the user (step S100). Next, the agent-related information setting unit 156 receives registration of accompanying information to be displayed together with the image of the agent displayed on the display/operation device 20 (step S102). The accompanying information includes, for example, registration of purchased articles such as ornaments and clothes, and accompanying images related to the registered articles. Furthermore, information regarding the user's oath may also be registered in the accompanying information. Next, the output control unit 158 refers to the incidental information related DB 255 and presents candidates for incidental information such as output information and output mode (step S104), accepts the user's selection of incidental information, and provides user setting information. 162 and the accompanying information related DB 255 (step S106). Thereby, the processing of this flowchart ends.

図20は、エージェント装置100による表示制御処理の流れの一例を示すフローチャートである。図20に示す処理フローは、例えば、エージェント機能部150によりエージェント画像を表示してサービスを提供している最中や、エージェント画像の表示を開始するタイミング、乗員認識装置80により新たなユーザが認識されたタイミングに行われる。以下では、付随画像の一例として装飾品の画像を用いて説明する。 FIG. 20 is a flowchart illustrating an example of the flow of display control processing by the agent device 100. The processing flow shown in FIG. 20 may be performed, for example, when the agent function unit 150 is displaying an agent image to provide a service, when the agent image display is started, or when a new user is recognized by the occupant recognition device 80. will be carried out at the specified timing. The following description uses an image of an ornament as an example of an accompanying image.

まず、ユーザ認識部154は、乗員認識装置80により認識されたユーザのユーザ設定情報162を呼び出す(ステップS200)。次に、ユーザ認識部154は、認識されたユーザが一人か否かを判定する(ステップS202)。ユーザが一人であると判定された場合、画像制御部152は、ユーザ設定情報162に格納されたユーザの事前設定に応じて、エージェント画像が所定の装飾品を装備した画像の表示を開始し、出力制御部158は、出力情報の設定に基づく情報提供を行う(ステップS204)。ステップS204の処理において、出力制御部158は、エージェント画像とともに表示される装飾品画像に応じて、エージェントに所定の動作を行わせたり、装飾品画像に応じたレコメンド情報を優先的に出力する制御を行ってもよい。 First, the user recognition unit 154 calls the user setting information 162 of the user recognized by the occupant recognition device 80 (step S200). Next, the user recognition unit 154 determines whether there is only one recognized user (step S202). If it is determined that there is only one user, the image control unit 152 starts displaying an image in which the agent image is equipped with a predetermined accessory according to the user's presettings stored in the user setting information 162, The output control unit 158 provides information based on the output information settings (step S204). In the process of step S204, the output control unit 158 controls the agent to perform a predetermined action according to the accessory image displayed together with the agent image, or to output recommendation information preferentially according to the accessory image. You may do so.

また、ステップS202の処理において、認識されたユーザが一人ではない(複数人である)と判定された場合、画像制御部152は、認識されたユーザのそれぞれが設定している装飾品の種類が同一であるか否かを判定する(ステップS206)。なお、ステップS206の処理において、「装飾品が同一である」とは、装飾品が完全に一致することや、装飾品の種類が同一(または類似)であることが含まれてもよい。また、ステップS206の処理において、少なくとも一方の装飾品の宗教性がない場合には「装飾品が同一」と判定されてもよい。 Further, in the process of step S202, if it is determined that the number of recognized users is not one (there is a plurality of users), the image control unit 152 determines the types of accessories set by each of the recognized users. It is determined whether they are the same (step S206). Note that in the process of step S206, "the ornaments are the same" may include that the ornaments completely match or that the types of the ornaments are the same (or similar). Further, in the process of step S206, if at least one of the ornaments is not religious, it may be determined that "the ornaments are the same".

ステップS206の処理において、同一の装飾品であると判定された場合、画像制御部152は、装飾品を装備したエージェント画像を表示すると決定する(ステップS208)。ステップS206の処理において、同一の種類の装飾品でないと判定された場合、画像制御部152は、ユーザ設定情報162等を参照し、ユーザが装飾品画像の表示を許容しているか否かを判定する(ステップS210)。「表示を許容する」とは、ユーザ設定情報162の出力態様情報において、何らかの出力パターンで付随画像を表示させると設定されている場合を示す。表示を許容する場合、画像制御部152は、ステップS208に処理を進める。表示を許容しない場合、画像制御部152は、装飾品を装備していないエージェント画像を表示すると決定する(ステップS212)。 In the process of step S206, if it is determined that the accessories are the same, the image control unit 152 determines to display the agent image equipped with the accessory (step S208). In the process of step S206, if it is determined that the ornaments are not of the same type, the image control unit 152 refers to the user setting information 162, etc., and determines whether the user allows display of the ornament image. (Step S210). "Allow display" indicates a case where the output mode information of the user setting information 162 is set to display the accompanying image in some output pattern. If display is permitted, the image control unit 152 advances the process to step S208. If display is not permitted, the image control unit 152 determines to display an agent image without accessories (step S212).

ステップS208またはステップS212の処理の後、画像制御部152は、同一のエージェントを表示するか否かを判定する(ステップS214)。同一のエージェント画像を表示すると判定した場合、画像制御部152は、単一のエージェント画像を表示・操作装置20に表示すると決定する(ステップS216)。ステップS214において異なるエージェント画像を表示すると判定した場合、画像制御部152は、複数のエージェント画像を表示・操作装置20に表示すると決定する(ステップS218)。ステップS216またはステップS218の処理の後、画像制御部152は、ステップS204に処理を進める。以上、本フローチャートの処理の説明を終了する。 After the processing in step S208 or step S212, the image control unit 152 determines whether the same agent is to be displayed (step S214). If it is determined that the same agent image is to be displayed, the image control unit 152 determines that a single agent image is to be displayed on the display/operation device 20 (step S216). If it is determined in step S214 that different agent images are to be displayed, the image control unit 152 determines that a plurality of agent images are to be displayed on the display/operation device 20 (step S218). After the processing in step S216 or step S218, the image control unit 152 advances the processing to step S204. This concludes the explanation of the processing of this flowchart.

上記説明した実施形態のエージェント装置100によれば、ユーザに、より適切な出力態様で情報を提供することができる。また、本実施形態によれば、エージェント画像が装飾品を装備した状態の画像を表示させることができる。これによりユーザに、仮想的にお守りなどの装飾品を携行させることができる。また、これによりユーザは、装飾品を携行し忘れたり、車両に装飾品を置き忘れたりするといった煩わしさから解放される。 According to the agent device 100 of the embodiment described above, information can be provided to the user in a more appropriate output mode. Further, according to the present embodiment, an image in which the agent image is equipped with accessories can be displayed. This allows the user to virtually carry accessories such as amulets. Furthermore, this frees the user from the inconvenience of forgetting to carry accessories or leaving accessories behind in the vehicle.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the mode for implementing the present invention has been described above using embodiments, the present invention is not limited to these embodiments in any way, and various modifications and substitutions can be made without departing from the gist of the present invention. can be added.

10 マイク
20 表示・操作装置
30 スピーカユニット
40 ナビゲーション装置
50 車両機器
60 車載通信装置
70 汎用通信装置
80 乗員認識装置
100 エージェント装置
110 管理部
112 音響処理部
114 表示制御部
116 設定部
116A 画像設定部
116B 情報設定部
118 音声制御部
150 エージェント機能部
152 画像制御部
154 ユーザ認識部
156 エージェント関連情報設定部
160、250 記憶部
158 出力制御部
200 エージェントサーバ
220 音声認識部
222 自然言語処理部
224 対話管理部
226 ネットワーク検索部
228 応答文生成部
10 Microphone 20 Display/operation device 30 Speaker unit 40 Navigation device 50 Vehicle equipment 60 In-vehicle communication device 70 General-purpose communication device 80 Occupant recognition device 100 Agent device 110 Management section 112 Sound processing section 114 Display control section 116 Setting section 116A Image setting section 116B Information setting section 118 Voice control section 150 Agent function section 152 Image control section 154 User recognition section 156 Agent related information setting section 160, 250 Storage section 158 Output control section 200 Agent server 220 Speech recognition section 222 Natural language processing section 224 Dialogue management section 226 Network search unit 228 Response sentence generation unit

Claims (12)

出力装置にキャラクタの画像を表示させる表示制御装置であって、
前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付ける画像設定部と、
前記出力装置に前記付随画像が前記キャラクタの画像とともに表示されることに対応付けて前記出力装置から出力させる付随時情報の設定を受け付ける情報設定部と、
前記出力装置を使用する複数のユーザを認識する認識部と、
前記認識部により認識された前記複数のユーザに対する前記付随時情報に、前記付随画像に含まれる装飾品を表示させる設定を含む場合に、前記出力装置に、前記キャラクタが前記装飾品を装備した状態の画像を表示させる画像制御部と、を備え、
前記装飾品は、宗教用具または宗教的な模様や絵柄を含む装飾品を含み、
前記画像制御部は、前記複数のユーザのそれぞれの装飾品の種類が同一であるか否かによって、前記装飾品を表示するか否かを決定する、
表示制御装置。
A display control device that displays a character image on an output device,
an image setting unit that accepts settings for causing the output device to display an accompanying image associated with the character together with the image of the character;
an information setting unit that accepts settings for incidental information to be output from the output device in association with displaying the incidental image together with the image of the character on the output device;
a recognition unit that recognizes a plurality of users who use the output device;
When the incidental information for the plurality of users recognized by the recognition unit includes a setting for displaying an ornament included in the incidental image, a state in which the character is equipped with the ornament is displayed on the output device. an image control unit for displaying an image of the image ;
The ornaments include religious tools or ornaments containing religious patterns or designs,
The image control unit determines whether or not to display the ornament depending on whether the types of ornaments of each of the plurality of users are the same.
Display control device.
前記情報設定部は、ユーザごとに前記付随時情報の設定を可能とする、
請求項1に記載の表示制御装置。
The information setting unit enables setting of the incidental information for each user,
The display control device according to claim 1.
前記情報設定部は、前記認識部により認識されたユーザが、前記付随画像を表示させる権限を有する場合に、前記付随時情報の設定を受け付ける、
請求項に記載の表示制御装置。
The information setting unit accepts the setting of the incidental information when the user recognized by the recognition unit has authority to display the incidental image.
The display control device according to claim 1 .
前記認識部により認識されたユーザが、前記付随画像を表示させる権限を有する場合に、前記付随時情報を前記出力装置に出力させる出力制御部を、さらに備える、
請求項に記載の表示制御装置。
further comprising an output control unit that causes the output device to output the incidental information when the user recognized by the recognition unit has authority to display the incidental image;
The display control device according to claim 1 .
前記出力装置は、車両に搭載可能な装置であり、
前記情報設定部は、前記付随時情報を、前記車両の状態に対応付けて設定可能とする、
請求項1からのうち何れか1項に記載の表示制御装置。
The output device is a device that can be mounted on a vehicle,
The information setting unit is configured to set the incidental information in association with the state of the vehicle.
The display control device according to any one of claims 1 to 4 .
前記出力制御部は、前記出力装置に前記キャラクタが装飾品を装備した状態の画像が表示され、且つ前記出力装置搭載された車両が前記付随時情報の設定に対応付けられた状態にある場合に、前記出力装置に前記付随時情報を出力させる、
請求項に記載の表示制御装置。
The output control unit is configured to control the output control unit when an image of the character equipped with an accessory is displayed on the output device, and a vehicle equipped with the output device is in a state associated with the setting of the incidental information. causing the output device to output the incidental information;
The display control device according to claim 4 .
前記情報設定部は、前記装飾品にお守りが含まれる場合に、前記付随時情報として前記ユーザによる安全運転に関する情報の設定を受け付ける、
請求項に記載の表示制御装置。
The information setting unit receives settings of information regarding safe driving by the user as the incidental information when the accessories include a talisman.
The display control device according to claim 1 .
前記画像制御部は、前記認識部により複数のユーザが認識され、且つ前記画像設定部により、複数のユーザのうち2以上のユーザについて、前記出力装置に前記キャラクタがお守りを装備した状態の画像を表示させることが設定されている場合において、
それぞれのユーザのお守りの種類が同一である場合には、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させ、
それぞれのユーザのお守りの種類が同一でない場合に、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させない、
請求項に記載の表示制御装置。
The image control unit is configured to cause the recognition unit to recognize a plurality of users, and to cause the image setting unit to display an image of the character equipped with an amulet on the output device for two or more users among the plurality of users. If it is set to display,
If the types of amulets of the respective users are the same, displaying an image of the character equipped with the amulet on the output device;
not displaying an image of the character equipped with the amulet on the output device when the types of amulets of the respective users are not the same;
The display control device according to claim 7 .
記画像制御部は、前記認識部により認識された複数のユーザのそれぞれに対して異なる前記キャラクタが設定されている場合において、
それぞれのユーザのお守りの種類が同一である場合に、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させ、
それぞれのユーザのお守りの種類が同一でない場合であって、且つ前記複数のユーザの少なくとも一人が他者の装飾品画像の表示を不許可とする設定をしている場合に、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させない、
請求項に記載の表示制御装置。
The image control unit may set different characters for each of the plurality of users recognized by the recognition unit,
When the types of amulets of the respective users are the same, displaying an image of the character equipped with the amulet on the output device;
If the types of amulets of the respective users are not the same, and if at least one of the plurality of users has set to disallow the display of images of other people's ornaments, the output device displays the Do not display an image of the character equipped with the amulet,
The display control device according to claim 7 .
前記画像制御部は、前記認識部により複数のユーザが認識され、前記出力装置が単一のキャラクタの画像を表示する場合において、
それぞれのユーザのお守りの種類が同一である場合に、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させ、
それぞれのユーザのお守りの種類が同一でない場合に、前記出力装置に前記キャラクタが前記お守りを装備した状態の画像を表示させない、
請求項に記載の表示制御装置。
The image control unit may be arranged such that when a plurality of users are recognized by the recognition unit and the output device displays an image of a single character,
When the types of amulets of the respective users are the same, displaying an image of the character equipped with the amulet on the output device;
not displaying an image of the character equipped with the amulet on the output device when the types of amulets of the respective users are not the same;
The display control device according to claim 7 .
出力装置にキャラクタの画像を表示させる表示制御装置が、
前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付け、
前記出力装置に前記付随画像が前記キャラクタの画像とともに表示されることに対応付けて前記出力装置から出力させる付随時情報の設定を受け付け、
前記出力装置を使用する複数のユーザを認識し、
認識した前記複数のユーザに対する前記付随時情報に、前記付随画像に含まれる装飾品を表示させる設定を含む場合に、前記出力装置に、前記キャラクタが前記装飾品を装備した状態の画像を表示させ、
前記装飾品は、宗教用具または宗教的な模様や絵柄を含む装飾品を含み、
前記複数のユーザのそれぞれの装飾品の種類が同一であるか否かによって、前記装飾品を表示するか否かを決定する、
表示制御方法。
A display control device that displays a character image on an output device is
receiving a setting for causing the output device to display an accompanying image associated with the character together with the image of the character;
accepting settings for incidental information to be output from the output device in association with the incidental image being displayed on the output device together with the image of the character;
recognizing multiple users using the output device;
When the incidental information for the plurality of recognized users includes a setting for displaying accessories included in the incidental image, displaying an image of the character equipped with the ornaments on the output device. ,
The ornaments include religious tools or ornaments containing religious patterns or designs,
determining whether to display the ornaments depending on whether the types of ornaments of each of the plurality of users are the same;
Display control method.
出力装置にキャラクタの画像を表示させる表示制御装置に、
前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付けさせ、
前記出力装置に前記付随画像が前記キャラクタの画像とともに表示されることに対応付けて前記出力装置から出力させる付随時情報の設定を受け付けさせ、
前記出力装置を使用する複数のユーザを認識させ、
認識された前記複数のユーザに対する前記付随時情報に、前記付随画像に含まれる装飾品を表示させる設定を含む場合に、前記出力装置に、前記キャラクタが前記装飾品を装備した状態の画像を表示させ、
前記装飾品は、宗教用具または宗教的な模様や絵柄を含む装飾品を含み、
前記複数のユーザのそれぞれの装飾品の種類が同一であるか否かによって、前記装飾品を表示するか否かを決定させる、
プログラム。
A display control device that displays a character image on an output device,
causing the output device to accept settings for displaying an accompanying image associated with the character together with the image of the character;
causing the output device to accept the setting of incidental information to be output from the output device in association with the display of the incidental image together with the image of the character ;
recognizing a plurality of users using the output device;
If the incidental information for the plurality of recognized users includes a setting for displaying an accessory included in the incidental image, displaying an image of the character equipped with the accessory on the output device. let me,
The ornaments include religious tools or ornaments containing religious patterns or designs,
determining whether to display the ornaments depending on whether the types of ornaments of each of the plurality of users are the same;
program.
JP2020049640A 2020-03-19 2020-03-19 Display control device, display control method, and program Active JP7394674B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020049640A JP7394674B2 (en) 2020-03-19 2020-03-19 Display control device, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020049640A JP7394674B2 (en) 2020-03-19 2020-03-19 Display control device, display control method, and program

Publications (2)

Publication Number Publication Date
JP2021149615A JP2021149615A (en) 2021-09-27
JP7394674B2 true JP7394674B2 (en) 2023-12-08

Family

ID=77849178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049640A Active JP7394674B2 (en) 2020-03-19 2020-03-19 Display control device, display control method, and program

Country Status (1)

Country Link
JP (1) JP7394674B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005147925A (en) 2003-11-18 2005-06-09 Hitachi Ltd On-vehicle terminal device, and information exhibiting method for vehicle
JP2007334685A (en) 2006-06-15 2007-12-27 Kenwood Corp Content retrieval device and content retrieval method, and program
WO2017191696A1 (en) 2016-05-06 2017-11-09 ソニー株式会社 Information processing system and information processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3644100B2 (en) * 1995-12-01 2005-04-27 松下電器産業株式会社 Agent display device
JP3965538B2 (en) * 1998-02-27 2007-08-29 株式会社エクォス・リサーチ Agent device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005147925A (en) 2003-11-18 2005-06-09 Hitachi Ltd On-vehicle terminal device, and information exhibiting method for vehicle
JP2007334685A (en) 2006-06-15 2007-12-27 Kenwood Corp Content retrieval device and content retrieval method, and program
WO2017191696A1 (en) 2016-05-06 2017-11-09 ソニー株式会社 Information processing system and information processing method

Also Published As

Publication number Publication date
JP2021149615A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
JP7340940B2 (en) Agent device, agent device control method, and program
JPH11259446A (en) Agent device
JP7266432B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
JP2001056225A (en) Agent device
US20200152203A1 (en) Agent device, agent presentation method, and storage medium
US20190318740A1 (en) Dialog processing server, control method for dialog processing server, and terminal
CN112837407A (en) Intelligent cabin holographic projection system and interaction method thereof
JPWO2018123041A1 (en) Information processing system and information processing apparatus
CN111661065B (en) Agent device, method for controlling agent device, and storage medium
JP4259054B2 (en) In-vehicle device
CN111746435B (en) Information providing apparatus, information providing method, and storage medium
CN111667824A (en) Agent device, control method for agent device, and storage medium
US11709065B2 (en) Information providing device, information providing method, and storage medium
JP7394674B2 (en) Display control device, display control method, and program
JP7424880B2 (en) Display control device, display control method, and program
JP7386739B2 (en) Display control device, display control method, and program
US11437035B2 (en) Agent device, method for controlling agent device, and storage medium
JP2020154082A (en) Agent device, control method of agent device, and program
CN111724778B (en) In-vehicle apparatus, control method for in-vehicle apparatus, and storage medium
CN111667823B (en) Agent device, method for controlling agent device, and storage medium
JP7245695B2 (en) Server device, information providing system, and information providing method
JP2020142721A (en) Agent system, on-vehicle equipment control method, and program
CN111559317A (en) Agent device, control method for agent device, and storage medium
JP2020154993A (en) Ride-share system, information processing method, and program
US20200166365A1 (en) Navigation device, navigation information processing device, and navigation information acceptance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231128

R150 Certificate of patent or registration of utility model

Ref document number: 7394674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150