JP2021149616A - Display control unit, display control method, and program - Google Patents

Display control unit, display control method, and program Download PDF

Info

Publication number
JP2021149616A
JP2021149616A JP2020049645A JP2020049645A JP2021149616A JP 2021149616 A JP2021149616 A JP 2021149616A JP 2020049645 A JP2020049645 A JP 2020049645A JP 2020049645 A JP2020049645 A JP 2020049645A JP 2021149616 A JP2021149616 A JP 2021149616A
Authority
JP
Japan
Prior art keywords
image
information
agent
output
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020049645A
Other languages
Japanese (ja)
Other versions
JP7386739B2 (en
Inventor
諒 竹林
Ryo Takebayashi
諒 竹林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020049645A priority Critical patent/JP7386739B2/en
Publication of JP2021149616A publication Critical patent/JP2021149616A/en
Application granted granted Critical
Publication of JP7386739B2 publication Critical patent/JP7386739B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a display control unit, a display control method, and a program that can provide information to a user in a more appropriate output mode.SOLUTION: A display control unit causes an output device to display an image of a character, and comprises: an image setting unit that receives settings to cause the output device to display an additional image associated with the character together with the image of the character; and an output control unit that, when the image of the character is displayed on the output device together with the additional image, causes the output device to output a content associated with the additional image preferentially over the other contents.SELECTED DRAWING: Figure 2

Description

本発明は、表示制御装置、表示制御方法、およびプログラムに関する。 The present invention relates to a display control device, a display control method, and a program.

従来、車両の表示装置にキャラクタを表示させ、ユーザと対話を行いながらユーザの要求に応じた運転支援に関する情報や車両の制御、その他のアプリケーション等のサービスを提供する技術が開示されている(例えば、特許文献1参照)。 Conventionally, there has been disclosed a technique of displaying a character on a vehicle display device and providing services such as information on driving support according to a user's request, vehicle control, and other applications while interacting with the user (for example). , Patent Document 1).

特開2006−335231号公報Japanese Unexamined Patent Publication No. 2006-335231

近年では、カーシェアリングサービスの拡大により、様々なユーザが車両を利用する場合があるが、対話を行うキャラクタをユーザに合わせて、より適切な出力態様で表示したり、各種の情報を提供することについては考慮されていなかった。 In recent years, due to the expansion of car sharing services, various users may use the vehicle, but it is necessary to display the characters with whom the dialogue is performed in a more appropriate output mode and provide various information according to the user. Was not considered.

本発明は、このような事情を考慮してなされたものであり、より適切な出力態様で情報を提供することができる表示制御装置、表示制御方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and one of the objects of the present invention is to provide a display control device, a display control method, and a program capable of providing information in a more appropriate output mode. do.

この発明に係る表示制御装置、表示制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る表示制御装置は、出力装置にキャラクタの画像を表示させる表示制御装置であって、前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付ける画像設定部と、前記出力装置に前記キャラクタの画像が前記付随画像がとともに表示される場合に、前記付随画像に対応付けられたコンテンツを、他のコンテンツよりも優先して、前記出力装置に出力させる出力制御部と、を備える、表示制御装置である。
The display control device, the display control method, and the program according to the present invention have the following configurations.
(1): The display control device according to one aspect of the present invention is a display control device that causes an output device to display an image of a character, and causes the output device to display an accompanying image associated with the character together with an image of the character. When the image of the character is displayed together with the accompanying image on the output device and the image setting unit that accepts the setting to be displayed, the content associated with the accompanying image is given priority over other contents. It is a display control device including an output control unit for outputting to the output device.

(2):上記(1)の態様において、前記出力装置に前記付随画像が前記キャラクタの画像とともに表示されることに対応付けて前記出力装置から出力させる付随時情報の設定を受け付ける情報設定部をさらに備え、前記画像設定部は、ユーザごとに前記付随時情報の設定を可能とするものである。 (2): In the aspect of (1) above, an information setting unit that accepts the setting of incidental information to be output from the output device in association with the accompanying image being displayed on the output device together with the image of the character. Further provided, the image setting unit enables each user to set the accompanying information.

(3):上記(1)または(2)の態様において、前記付随画像は、前記キャラクタが装備する装飾品の画像または前記キャラクタとは異なる他のキャラクタの画像のうち一方または双方を含むものである。 (3): In the aspect of (1) or (2) above, the accompanying image includes one or both of an image of an ornament equipped by the character or an image of another character different from the character.

(4):上記(1)〜(3)のうち何れか一つの態様において、前記コンテンツは、前記付随画像に関連付けられたレコメンド情報を含むものである。 (4): In any one of the above (1) to (3), the content includes recommendation information associated with the accompanying image.

(5):上記(2)の態様において、前記出力装置を使用するユーザを認識する認識部をさらに備え、前記情報設定部は、前記認識部により認識されたユーザが、前記付随画像を表示させる権限を有する場合に、前記出力装置に前記キャラクタの画像が前記付随画像がとともに表示される場合における前記付随時情報の設定を受け付けるものである。 (5): In the aspect of (2) above, the recognition unit that recognizes the user who uses the output device is further provided, and the information setting unit causes the user recognized by the recognition unit to display the accompanying image. When authorized, the output device accepts the setting of the accompanying information when the image of the character is displayed together with the accompanying image.

(6):上記(5)の態様において、前記出力制御部は、前記認識部により認識されたユーザが、前記付随画像を表示させる権限を有する場合に、前記付随時情報を前記出力装置に出力させるものである。 (6): In the aspect of (5) above, the output control unit outputs the accompanying time information to the output device when the user recognized by the recognition unit has the authority to display the accompanying image. It is something that makes you.

(7):上記(2)の態様において、前記出力装置は、車両に搭載可能な装置であり、前記情報設定部は、前記付随時情報を前記車両の状態に対応付けて設定可能とするものである。 (7): In the aspect of (2) above, the output device is a device that can be mounted on a vehicle, and the information setting unit can set the incidental information in association with the state of the vehicle. Is.

(8):上記(1)〜(5)のうち何れか一つの態様において、前記出力制御部は、前記付随画像として前記キャラクタと異なる他のキャラクタの画像を前記出力装置に表示させる場合に、表示されるキャラクタの数や種類に応じたコンテンツを他のコンテンツよりも優先して前記出力装置に表示させるものである。 (8): In any one of the above (1) to (5), when the output control unit causes the output device to display an image of another character different from the character as the accompanying image, The content according to the number and types of characters to be displayed is displayed on the output device with priority over other contents.

(9):本発明の他の態様に係る表示制御方法は、出力装置にキャラクタの画像を表示させる表示制御装置が、前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付け、前記出力装置に前記キャラクタの画像が前記付随画像がとともに表示される場合に、前記付随画像に対応付けられたコンテンツを、他のコンテンツよりも優先して、前記出力装置に出力させる、表示制御方法である。 (9): In the display control method according to another aspect of the present invention, the display control device for displaying the image of the character on the output device displays the accompanying image associated with the character on the output device together with the image of the character. When the image of the character is displayed together with the accompanying image on the output device, the content associated with the accompanying image is output to the output device with priority over other contents. This is a display control method.

(10):本発明の他の態様に係るプログラムは、出力装置にキャラクタの画像を表示させる表示制御装置に、前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付けさせ、前記出力装置に前記キャラクタの画像が前記付随画像がとともに表示される場合に、前記付随画像に対応付けられたコンテンツを、他のコンテンツよりも優先して、前記出力装置に出力させる、プログラムである。 (10): The program according to another aspect of the present invention is set so that the display control device for displaying the image of the character on the output device causes the output device to display the accompanying image associated with the character together with the image of the character. Is received, and when the image of the character is displayed together with the accompanying image on the output device, the content associated with the accompanying image is output to the output device with priority over other contents. , The program.

(1)〜(10)の態様によれば、ユーザに、より適切な出力態様で情報を提供することができる。 According to the aspects (1) to (10), information can be provided to the user in a more appropriate output mode.

エージェント装置100を含むエージェントシステム1の構成図である。It is a block diagram of the agent system 1 including the agent apparatus 100. 第1実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。It is a figure which shows the structure of the agent apparatus 100 which concerns on 1st Embodiment, and the apparatus mounted on the vehicle M. 表示・操作装置20の配置例を示す図である。It is a figure which shows the arrangement example of the display / operation apparatus 20. エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。It is a figure which shows the configuration of the agent server 200, and a part of the configuration of the agent apparatus 100. エージェント機能部150の構成例を示す図である。It is a figure which shows the configuration example of the agent function part 150. ユーザ設定情報162の内容の一例を示す図である。It is a figure which shows an example of the content of the user setting information 162. 付随画像設定情報164の内容の一例を示す図である。It is a figure which shows an example of the content of the accompanying image setting information 164. 付随情報関連DB255の内容の一例を示す図である。It is a figure which shows an example of the content of the incidental information-related DB 255. エージェント画像に所定の装飾品を着用した態様で表示させる手順を説明するための図である。It is a figure for demonstrating the procedure which displays the agent image in the manner of wearing a predetermined ornament. 第1場面における出力態様の様子を説明するための図である。It is a figure for demonstrating the state of the output mode in the 1st scene. 第2場面における出力態様の様子を説明するための図である。It is a figure for demonstrating the state of the output mode in the 2nd scene. 第3場面における出力態様の様子を説明するための図である。It is a figure for demonstrating the state of the output mode in the 3rd scene. 第4場面における出力態様の様子を説明するための図である。It is a figure for demonstrating the state of the output mode in the 4th scene. 第5場面における出力態様の様子を説明するための図である。It is a figure for demonstrating the state of the output mode in the 5th scene. 第6場面における出力態様の様子を説明するための図である。It is a figure for demonstrating the state of the output mode in the 6th scene. 第7場面における出力態様の様子を説明するための図である。It is a figure for demonstrating the state of the output mode in the 7th scene. 第8場面における出力態様の様子を説明するための図である。It is a figure for demonstrating the state of the output mode in the 8th scene. 画像制御部152および出力制御部158によるエージェントの出力例を一覧形式で示す図である。It is a figure which shows the output example of the agent by the image control unit 152 and the output control unit 158 in a list format. エージェント装置100による処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow by the agent apparatus 100. エージェント装置100による処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow by the agent apparatus 100.

以下、図面を参照し、本発明の表示制御装置、表示制御方法、およびプログラムの実施形態について説明する。表示制御装置の一態様であるエージェント装置は、エージェントシステムの一部または全部を実現する装置である。以下では、エージェント装置の一例として、車両(以下、車両M)に搭載され、1種類以上のエージェント機能を備えたエージェント装置について説明する。エージェント機能とは、例えば、車両Mを利用するユーザと対話をしながら、ユーザの発話の中に含まれる要求(コマンド)に基づく各種の情報提供を行ったり、ネットワークサービスを仲介したりする機能である。複数種類のエージェントが実現される場合、複数種類のエージェントはそれぞれに果たす機能、処理手順、制御、出力態様、内容が異なってもよい。また、エージェント機能の中には、車両内の機器(例えば運転制御や車体制御に関わる機器)の制御等を行う機能を有するものがあってよい。 Hereinafter, the display control device, the display control method, and the embodiment of the program of the present invention will be described with reference to the drawings. The agent device, which is one aspect of the display control device, is a device that realizes a part or all of the agent system. Hereinafter, as an example of the agent device, an agent device mounted on a vehicle (hereinafter, vehicle M) and having one or more types of agent functions will be described. The agent function is, for example, a function that provides various information based on a request (command) included in a user's utterance or mediates a network service while interacting with a user who uses the vehicle M. be. When a plurality of types of agents are realized, the functions, processing procedures, controls, output modes, and contents performed by the plurality of types of agents may be different. In addition, some of the agent functions may have a function of controlling devices in the vehicle (for example, devices related to driving control and vehicle body control).

エージェント機能は、例えば、ユーザの音声を認識する音声認識機能(音声をテキスト化する機能)に加え、自然言語処理機能(テキストの構造や意味を理解する機能)、対話管理機能、ネットワークを介して他装置を検索し、或いは自装置が保有する所定のデータベースを検索するネットワーク検索機能等を統合的に利用して実現される。これらの機能の一部または全部は、AI(Artificial Intelligence)技術によって実現されてよい。また、これらの機能を行うための構成の一部(特に、音声認識機能や自然言語処理解釈機能)は、車両Mの車載通信装置または車両Mに持ち込まれた汎用通信装置と通信可能なエージェントサーバ(外部装置の一例)に搭載されてもよい。以下の説明では、構成の一部がエージェントサーバに搭載されており、エージェント装置とエージェントサーバが協働してエージェントシステムを実現することを前提とする。また、エージェント装置とエージェントサーバが協働して仮想的に出現させるサービス提供主体(サービス・エンティティ)をエージェントと称する。エージェント装置100は、出力装置(ディスプレイなど)にエージェントに関連するキャラクタの画像を表示させる。 Agent functions include, for example, a voice recognition function that recognizes a user's voice (a function that converts voice into text), a natural language processing function (a function that understands the structure and meaning of text), a dialogue management function, and a network. It is realized by using a network search function that searches for another device or a predetermined database owned by the own device in an integrated manner. Some or all of these functions may be realized by AI (Artificial Intelligence) technology. In addition, a part of the configuration for performing these functions (particularly, the voice recognition function and the natural language processing interpretation function) is an agent server capable of communicating with the in-vehicle communication device of the vehicle M or the general-purpose communication device brought into the vehicle M. It may be mounted on (an example of an external device). In the following description, it is assumed that a part of the configuration is installed in the agent server, and the agent device and the agent server cooperate to realize the agent system. Further, a service provider (service entity) in which an agent device and an agent server cooperate to appear virtually is called an agent. The agent device 100 causes an output device (display or the like) to display an image of a character related to the agent.

<全体構成>
図1は、エージェント装置100を含むエージェントシステム1の構成図である。エージェントシステム1は、例えば、エージェント装置100と、エージェントサーバ200とを備える。本発明におけるエージェントは、サービス提供者により実現されるエージェントである。サービス提供者としては、例えば、自動車メーカー、ネットワークサービス事業者、電子商取引事業者、携帯端末の販売者や製造者などが挙げられ、任意の主体(法人、団体、個人等)がエージェントシステム1のサービス提供者となり得る。
<Overall configuration>
FIG. 1 is a configuration diagram of an agent system 1 including an agent device 100. The agent system 1 includes, for example, an agent device 100 and an agent server 200. The agent in the present invention is an agent realized by a service provider. Examples of service providers include automobile manufacturers, network service providers, electronic commerce businesses, sellers and manufacturers of mobile terminals, and any entity (corporation, group, individual, etc.) is the agent system 1. Can be a service provider.

エージェント装置100は、ネットワークNWを介してエージェントサーバ200と通信する。ネットワークNWは、例えば、インターネット、セルラー網、Wi−Fi網、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、電話回線、無線基地局などのうち一部または全部を含む。ネットワークNWには、各種ウェブサーバ300が接続されており、エージェントサーバ200またはエージェント装置100は、ネットワークNWを介して各種ウェブサーバ300からウェブページを取得することができる。 The agent device 100 communicates with the agent server 200 via the network NW. The network NW includes, for example, a part or all of the Internet, a cellular network, a Wi-Fi network, a WAN (Wide Area Network), a LAN (Local Area Network), a public line, a telephone line, a wireless base station, and the like. Various web servers 300 are connected to the network NW, and the agent server 200 or the agent device 100 can acquire web pages from the various web servers 300 via the network NW.

エージェント装置100は、例えば、車両Mに搭載可能な装置である。エージェント装置100は、仮想的な主体であるエージェントが、スピーカを用いた音声案内または表示装置を用いた画像表示によって情報提供するサービスをユーザに提供する。エージェント装置100は、例えば、車両Mのユーザと対話を行い、ユーザからの音声をエージェントサーバ200に送信し、エージェントサーバ200から得られた回答を、音声出力や画像表示の形でユーザに提示する。 The agent device 100 is, for example, a device that can be mounted on the vehicle M. The agent device 100 provides the user with a service in which an agent, which is a virtual subject, provides information by voice guidance using a speaker or image display using a display device. For example, the agent device 100 interacts with the user of the vehicle M, transmits the voice from the user to the agent server 200, and presents the answer obtained from the agent server 200 to the user in the form of voice output or image display. ..

[車両]
図2は、実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。車両Mには、例えば、一以上のマイク10と、表示・操作装置20と、スピーカユニット30と、ナビゲーション装置40と、車両機器50と、車載通信装置60と、乗員認識装置80と、エージェント装置100とが搭載される。また、スマートフォンなどの汎用通信装置70が車室内に持ち込まれ、通信装置として使用される場合がある。これらの装置は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。表示・操作装置20は、「表示装置」の一例である。また、表示・操作装置20とスピーカユニット30とを組み合わせたものが「出力装置」の一例である。
[vehicle]
FIG. 2 is a diagram showing the configuration of the agent device 100 according to the embodiment and the equipment mounted on the vehicle M. The vehicle M includes, for example, one or more microphones 10, a display / operation device 20, a speaker unit 30, a navigation device 40, a vehicle device 50, an in-vehicle communication device 60, an occupant recognition device 80, and an agent device. 100 and are installed. In addition, a general-purpose communication device 70 such as a smartphone may be brought into the vehicle interior and used as a communication device. These devices are connected to each other by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like. The configuration shown in FIG. 2 is merely an example, and a part of the configuration may be omitted or another configuration may be added. The display / operation device 20 is an example of a “display device”. Further, a combination of the display / operation device 20 and the speaker unit 30 is an example of the “output device”.

マイク10は、車室内で発せられた音声を収集する収音部である。表示・操作装置20は、画像を表示すると共に、入力操作を受付可能な装置(或いは装置群)である。表示・操作装置20は、例えば、タッチパネルとして構成されたディスプレイ装置を含む。表示・操作装置20は、更に、HUD(Head Up Display)や機械式の入力装置を含んでもよい。スピーカユニット30は、例えば、車室内の互いに異なる位置に配設された複数のスピーカ(音出力部)を含む。表示・操作装置20は、エージェント装置100とナビゲーション装置40とで共用されてもよい。これらの詳細については後述する。 The microphone 10 is a sound collecting unit that collects sounds emitted in the vehicle interior. The display / operation device 20 is a device (or device group) capable of displaying an image and accepting an input operation. The display / operation device 20 includes, for example, a display device configured as a touch panel. The display / operation device 20 may further include a HUD (Head Up Display) or a mechanical input device. The speaker unit 30 includes, for example, a plurality of speakers (sound output units) arranged at different positions in the vehicle interior. The display / operation device 20 may be shared by the agent device 100 and the navigation device 40. Details of these will be described later.

ナビゲーション装置40は、ナビHMI(Human machine Interface)と、GPS(Global Positioning System)などの位置測位装置と、地図情報を記憶した記憶装置と、経路探索などを行う制御装置(ナビゲーションコントローラ)とを備える。マイク10、表示・操作装置20、およびスピーカユニット30のうち一部または全部がナビHMIとして用いられてもよい。ナビゲーション装置40は、位置測位装置によって特定された車両Mの位置から、ユーザによって入力された目的地まで移動するための経路(ナビ経路)を探索し、経路に沿って車両Mが走行できるように、ナビHMIを用いて案内情報を出力する。経路探索機能は、ネットワークNWを介してアクセス可能なナビゲーションサーバにあってもよい。この場合、ナビゲーション装置40は、ナビゲーションサーバから経路を取得して案内情報を出力する。なお、エージェント装置100は、ナビゲーションコントローラを基盤として構築されてもよく、その場合、ナビゲーションコントローラとエージェント装置100は、ハードウェア上は一体に構成される。 The navigation device 40 includes a navigation HMI (Human machine Interface), a positioning device such as a GPS (Global Positioning System), a storage device that stores map information, and a control device (navigation controller) that performs route search and the like. .. A part or all of the microphone 10, the display / operation device 20, and the speaker unit 30 may be used as the navigation HMI. The navigation device 40 searches for a route (navigation route) for moving from the position of the vehicle M specified by the positioning device to the destination input by the user, so that the vehicle M can travel along the route. , Navi HMI is used to output guidance information. The route search function may be provided in a navigation server accessible via the network NW. In this case, the navigation device 40 acquires a route from the navigation server and outputs guidance information. The agent device 100 may be constructed based on the navigation controller. In that case, the navigation controller and the agent device 100 are integrally configured on the hardware.

車両機器50は、例えば、エンジンや走行用モータなどの駆動力出力装置、エンジンの始動モータ、ドアロック装置、ドア開閉装置、窓、窓の開閉装置及び窓の開閉制御装置、シート、シート位置の制御装置、ルームミラー及びその角度位置制御装置、車両内外の照明装置及びその制御装置、ワイパーやデフォッガー及びそれぞれの制御装置、方向指示灯及びその制御装置、空調装置、走行距離やタイヤの空気圧の情報や燃料の残量情報などの車両情報装置などを含む。 The vehicle equipment 50 includes, for example, a driving force output device such as an engine or a traveling motor, an engine starting motor, a door lock device, a door opening / closing device, a window, a window opening / closing device, a window opening / closing control device, a seat, and a seat position. Control device, room mirror and its angle position control device, lighting device inside and outside the vehicle and its control device, wiper and defogger and their respective control devices, direction indicator and its control device, air conditioner, mileage and tire pressure information And vehicle information devices such as fuel level information.

車載通信装置60は、例えば、セルラー網やWi−Fi網を利用してネットワークNWにアクセス可能な無線通信装置である。 The in-vehicle communication device 60 is, for example, a wireless communication device that can access the network NW using a cellular network or a Wi-Fi network.

乗員認識装置80は、例えば、着座センサ、車室内カメラ、画像認識装置などを含む。着座センサは座席の下部に設けられた圧力センサ、シートベルトに取り付けられた張力センサなどを含む。車室内カメラは、車室内に設けられたCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラである。画像認識装置は、車室内カメラの画像を解析し、座席ごとのユーザの有無、ユーザの顔などを認識して、ユーザの着座位置を認識する。また、乗員認識装置80は、予め登録された顔画像とのマッチング処理を行うことで、画像に含まれる運転席や助手席等に着座するユーザを特定してもよい。 The occupant recognition device 80 includes, for example, a seating sensor, a vehicle interior camera, an image recognition device, and the like. The seating sensor includes a pressure sensor provided at the bottom of the seat, a tension sensor attached to the seat belt, and the like. The vehicle interior camera is a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera installed in the vehicle interior. The image recognition device analyzes the image of the vehicle interior camera, recognizes the presence / absence of the user for each seat, the face of the user, and the like, and recognizes the seating position of the user. Further, the occupant recognition device 80 may identify a user seated in a driver's seat, a passenger seat, or the like included in the image by performing a matching process with a face image registered in advance.

図3は、表示・操作装置20の配置例を示す図である。表示・操作装置20は、例えば、第1ディスプレイ22と、第2ディスプレイ24と、操作スイッチASSY26とを含む。表示・操作装置20は、更に、HUD28を含んでもよい。 FIG. 3 is a diagram showing an arrangement example of the display / operation device 20. The display / operation device 20 includes, for example, a first display 22, a second display 24, and an operation switch ASSY 26. The display / operation device 20 may further include a HUD 28.

車両Mには、例えば、ステアリングホイールSWが設けられた運転席DSと、運転席DSに対して車幅方向(図中−Y方向)に設けられた助手席ASとが存在する。第1ディスプレイ22は、インストルメントパネルにおける運転席DSと助手席ASとの中間辺りから、助手席ASの左端部に対向する位置まで延在する横長形状のディスプレイ装置である。第2ディスプレイ24は、運転席DSと助手席ASとの車幅方向に関する中間あたり、且つ第1ディスプレイの下方に設置されている。例えば、第1ディスプレイ22と第2ディスプレイ24は、共にタッチパネルとして構成され、表示部としてLCD(Liquid Crystal Display)や有機EL(Electroluminescence)、プラズマディスプレイなどを備えるものである。操作スイッチASSY26は、ダイヤルスイッチやボタン式スイッチなどが集積されたものである。表示・操作装置20は、ユーザによってなされた操作の内容をエージェント装置100に出力する。第1ディスプレイ22または第2ディスプレイ24が表示する内容は、エージェント装置100によって決定されてよい。 The vehicle M includes, for example, a driver's seat DS provided with a steering wheel SW and a passenger seat AS provided in the vehicle width direction (-Y direction in the drawing) with respect to the driver's seat DS. The first display 22 is a horizontally long display device extending from an intermediate portion between the driver's seat DS and the passenger seat AS on the instrument panel to a position facing the left end portion of the passenger seat AS. The second display 24 is installed at the middle of the driver's seat DS and the passenger seat AS in the vehicle width direction and below the first display. For example, both the first display 22 and the second display 24 are configured as a touch panel, and are provided with an LCD (Liquid Crystal Display), an organic EL (Electroluminescence), a plasma display, and the like as display units. The operation switch ASSY26 is an integrated dial switch, button type switch, and the like. The display / operation device 20 outputs the content of the operation performed by the user to the agent device 100. The content displayed by the first display 22 or the second display 24 may be determined by the agent device 100.

[エージェント装置]
図2に戻り、エージェント装置100は、例えば、管理部110と、エージェント機能部150とを備える。管理部110は、例えば、音響処理部112と、設定部116と、音声制御部118とを備える。設定部116は、例えば、画像設定部116Aと、情報設定部116Bとを備える。図2に示すソフトウェア配置は説明のために簡易に示しており、実際には、例えば、エージェント機能部150と車載通信装置60の間に管理部110が介在してもよいように、任意に改変することができる。
[Agent device]
Returning to FIG. 2, the agent device 100 includes, for example, a management unit 110 and an agent function unit 150. The management unit 110 includes, for example, an sound processing unit 112, a setting unit 116, and a voice control unit 118. The setting unit 116 includes, for example, an image setting unit 116A and an information setting unit 116B. The software arrangement shown in FIG. 2 is simply shown for the sake of explanation, and is actually modified arbitrarily so that, for example, the management unit 110 may intervene between the agent function unit 150 and the in-vehicle communication device 60. can do.

エージェント装置100の各構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 Each component of the agent device 100 is realized, for example, by executing a program (software) by a hardware processor such as a CPU (Central Processing Unit). Some or all of these components are hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit) It may be realized by (including circuits), or it may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD (Hard Disk Drive) or a flash memory, or a removable storage device such as a DVD or a CD-ROM. It is stored in a medium (non-transient storage medium) and may be installed by mounting the storage medium in a drive device.

管理部110は、OS(Operating System)やミドルウェアなどのプログラムが実行されることで機能する。 The management unit 110 functions by executing a program such as an OS (Operating System) or middleware.

音響処理部112は、エージェントを起動させるために、エージェントごとに予め設定されているウエイクアップワードを認識するのに適した状態になるように、入力された音に対して音響処理を行う。 In order to activate the agent, the sound processing unit 112 performs sound processing on the input sound so as to be in a state suitable for recognizing a wakeup word preset for each agent.

画像設定部116Aは、表示・操作装置20等の出力装置にキャラクタに関連付けた付随画像をキャラクタの画像とともに表示させる設定を受け付ける。具体的には、画像設定部116Aは、エージェント機能部150からの指示に応じて一部のエージェント機能部150の制御により、例えば、車室内でユーザとのコミュニケーションを行う擬人化されたキャラクタの画像(以下、エージェント画像と称する)の設定を受け付け、受け付けたエージェント画像を第1ディスプレイ22等に表示させる。エージェント画像は、例えば、ユーザに対して話しかける態様の画像である。エージェント画像は、例えば、少なくとも観者(ユーザ)によって表情や顔向きが認識される程度の顔画像を含んでよい。例えば、エージェント画像は、顔領域の中に目や鼻に擬したパーツが表されており、顔領域の中のパーツの位置に基づいて表情や顔向きが認識されるものであってよい。また、エージェント画像は、立体的に感じられ、観者によって三次元空間における頭部画像を含むことでエージェントの顔向きが認識されたり、本体(胴体や手足)の画像を含んだりすることで、キャラクタの動作(振る舞い、姿勢、表情等も含む)等が認識されるものであってもよい。また、エージェント画像は、アニメーション画像であってもよい。また、エージェント画像は、動物や植物、昆虫、アニメキャラクター、ゲームキャラクター等の擬人化が可能な各種の物であってもよい。 The image setting unit 116A accepts a setting for displaying an accompanying image associated with the character on an output device such as the display / operation device 20 together with the image of the character. Specifically, the image setting unit 116A is an image of an anthropomorphic character that communicates with a user in a vehicle interior, for example, by controlling a part of the agent function units 150 in response to an instruction from the agent function unit 150. The setting (hereinafter referred to as an agent image) is accepted, and the accepted agent image is displayed on the first display 22 or the like. The agent image is, for example, an image of a mode of talking to a user. The agent image may include, for example, a face image at least to the extent that the facial expression and face orientation are recognized by the viewer (user). For example, in the agent image, parts imitating eyes and nose are represented in the face area, and the facial expression and face orientation may be recognized based on the positions of the parts in the face area. In addition, the agent image is felt three-dimensionally, and the viewer can recognize the face orientation of the agent by including the head image in the three-dimensional space, or include the image of the main body (body and limbs). The movement (including behavior, posture, facial expression, etc.) of the character may be recognized. Further, the agent image may be an animation image. Further, the agent image may be various objects that can be anthropomorphized, such as animals, plants, insects, anime characters, and game characters.

また、エージェント画像は、キャラクタに関連付けられた付随画像と共に表示されてもよい。付随画像には、例えば、装飾品または他のキャラクタ画像のうち一方または双方が含まれる。装飾品には、例えば、お守りやお札、護符、経文、数珠、鈴、メダイ、ロザリオ、ボンフィン、プラクルワン、像などの宗教用具や、宗教的な模様や絵柄各種装飾品(ネックレス、ペンダント、ブレスレット、指輪、ブローチ、メガネ、サングラス、ピアス、イヤリング、髪飾り、帽子、手袋、ネクタイ、スカーフ、マフラー、かばん、傘、キーホルダなど)が含まれる。また、装飾品には、例えば、キャラクタが着用する洋服(例えば、スーツ、ドレス、水着やスキーウェア)や、武器や防具等が含まれてよい。他のキャラクタ画像には、例えば、車両の同乗者(例えば、運転者以外の乗員)に対応付けられたキャラクタの画像や、子供、友人、恋人、家族等をモチーフにしたキャラクタの画像等が含まれる。画像設定部116Aは、例えば、ユーザごとに付随画像の設定を可能とする。また、付随画像は、エージェントサーバ200や各種ウェブサーバ300によって設定されてもよい。 The agent image may also be displayed with an accompanying image associated with the character. Ancillary images include, for example, one or both of ornaments or other character images. Ornaments include, for example, amulets, bills, amulets, sutras, beads, bells, medai, rosario, bonfin, plaqueruwan, statues and other religious tools, and various ornaments with religious patterns and patterns (necklaces, pendants, bracelets, etc.) Includes rings, broaches, glasses, sunglasses, piercings, earrings, hair ornaments, hats, gloves, ties, scarves, amulets, bags, umbrellas, key holders, etc.). In addition, the ornament may include, for example, clothes worn by the character (for example, suits, dresses, swimwear, ski wear), weapons, armor, and the like. Other character images include, for example, an image of a character associated with a passenger in a vehicle (for example, a occupant other than the driver), an image of a character with a motif of a child, a friend, a lover, a family, or the like. Is done. The image setting unit 116A enables, for example, to set an accompanying image for each user. Further, the accompanying image may be set by the agent server 200 or various web servers 300.

情報設定部116Bは、表示・操作装置20等の出力装置に、付随画像がキャラクタの画像とともに表示されることに対応付けて出力させる付随時情報の設定を受け付ける。付随時情報は、例えば、付随画像に関連付けられた出力情報(例えば、画像や音声)や出力態様に関する情報である。また、付随時情報には、付随画像が表示される場合のキャラクタの動作に関する情報が含まれてもよい。出力情報には、例えば、ユーザに対してレコメンドするレコメンド情報が含まれる。例えば、情報設定部116Bは、ユーザによる、第1ディスプレイ22にエージェント画像が所定の付随画像とともに表示されることに対応付けて、第1ディスプレイ22、第2ディスプレイ24、スピーカユニット30に含まれるスピーカのうち一部または全部から出力させる付随時情報の設定をマイク10や表示・操作装置20等により受け付ける。また、情報設定部116Bは、付随時情報の設定として、ユーザが付随画像を表示させたり、キャラクタの動作等の出力態様を設定する権限を有するか否かに関する情報を受け付けてもよい。情報設定部116Bは、エージェント装置100を使用するユーザごとに付随時情報の設定を可能とする。また、情報設定部116Bは、付随時情報を、車両の状態に対応付けて設定可能としてもよい。これにより、車両の状態が、情報設定部116Bでの設定時に対応付けた状態にある場合に、出力装置から付随時情報を出力させることができる。車両の状態には、例えば、車両Mのユーザ(乗員)の数や、運転席に着座するユーザが誰であるかなどの車室内の状態、車両が停止中、車両が所定時間以上停止中、走行中、所定速度以上で走行中などの車両の走行状態、車両が手動運転で作動中、車両が自動運転で作動中などの車両の作動モードが含まれる。 The information setting unit 116B accepts the setting of the accompanying information to be output to the output device such as the display / operation device 20 in association with the display of the accompanying image together with the character image. The accompanying information is, for example, information related to output information (for example, image or sound) or output mode associated with the accompanying image. In addition, the accompanying information may include information regarding the behavior of the character when the accompanying image is displayed. The output information includes, for example, recommendation information that is recommended to the user. For example, the information setting unit 116B is associated with the user's display of the agent image on the first display 22 together with the predetermined accompanying image, and the speaker included in the first display 22, the second display 24, and the speaker unit 30. The microphone 10, the display / operation device 20, and the like accept the setting of the accompanying information to be output from a part or all of them. Further, the information setting unit 116B may accept information regarding whether or not the user has the authority to display the accompanying image or set the output mode such as the operation of the character as the setting of the accompanying information. The information setting unit 116B enables setting of incidental information for each user who uses the agent device 100. Further, the information setting unit 116B may be able to set the accompanying information in association with the state of the vehicle. As a result, when the state of the vehicle is in the state associated with the setting in the information setting unit 116B, the accompanying information can be output from the output device. The state of the vehicle includes, for example, the number of users (occupants) of the vehicle M, the state of the vehicle interior such as who is the user sitting in the driver's seat, the vehicle is stopped, the vehicle is stopped for a predetermined time or longer, and the like. This includes the running state of the vehicle such as running, running at a predetermined speed or higher, the operating mode of the vehicle such as the vehicle operating by manual driving, and the vehicle operating by automatic driving.

音声制御部118は、エージェント機能部150からの指示に応じて、スピーカユニット30に含まれるスピーカのうち一部または全部に音声を出力させる。音声制御部118は、複数のスピーカユニット30を用いて、エージェント画像の表示位置に対応する位置にエージェント音声の音像を定位させる制御を行ってもよい。エージェント画像の表示位置に対応する位置とは、例えば、エージェント画像がエージェント音声を喋っているとユーザが感じると予測される位置であり、具体的には、エージェント画像の表示位置付近(例えば、2〜3[cm]以内)の位置である。また、音像が定位するとは、例えば、ユーザの左右の耳に伝達される音の大きさを調節することにより、ユーザが感じる音源の空間的な位置を定めることである。 The voice control unit 118 causes a part or all of the speakers included in the speaker unit 30 to output voice in response to an instruction from the agent function unit 150. The voice control unit 118 may use a plurality of speaker units 30 to control the localization of the sound image of the agent voice at a position corresponding to the display position of the agent image. The position corresponding to the display position of the agent image is, for example, a position where the user is expected to feel that the agent image is speaking the agent voice. Specifically, the position is near the display position of the agent image (for example, 2). It is within ~ 3 [cm]). Further, localization of the sound image means, for example, determining the spatial position of the sound source felt by the user by adjusting the loudness of the sound transmitted to the left and right ears of the user.

エージェント機能部150は、管理部110により取得される各種情報に基づいて、エージェントサーバ200と協働してエージェントを出現させ、車両内に存在するユーザの発話に応じて、音声による応答を含むサービスを提供する。例えば、エージェント機能部150は、音響処理部112により処理された音声にウエイクアップワードが含まれている場合に、ウエイクアップワードに対応付けられたエージェントを起動する。また、エージェント機能部150は、サービス提供後にエージェントを終了させる制御等を行う。また、エージェント機能部150は、音響処理部112により処理された音声ストリームをエージェントサーバ200に送信したり、エージェントサーバ200から得られる情報をユーザに提供する。 The agent function unit 150 cooperates with the agent server 200 to make an agent appear based on various information acquired by the management unit 110, and a service including a voice response according to a user's utterance existing in the vehicle. I will provide a. For example, the agent function unit 150 activates the agent associated with the wakeup word when the voice processed by the sound processing unit 112 includes the wakeup word. In addition, the agent function unit 150 controls the termination of the agent after the service is provided. Further, the agent function unit 150 transmits a voice stream processed by the sound processing unit 112 to the agent server 200, and provides the user with information obtained from the agent server 200.

また、エージェント機能部150には、車両機器50を制御する権限が付与されたものが含まれてよい。また、エージェント機能部150は、汎用通信装置70と連携し、エージェントサーバ200と通信する機能を備えていてもよい。この場合、エージェント機能部150は、例えば、Bluetooth(登録商標)によって汎用通信装置70とペアリングを行い、エージェント機能部150と汎用通信装置70とを接続させる。また、エージェント機能部150は、USB(Universal Serial Bus)などを利用した有線通信によって汎用通信装置70に接続されるようにしてもよい。エージェント機能部150の機能の詳細については、後述する。 Further, the agent function unit 150 may include one to which the authority to control the vehicle device 50 is given. Further, the agent function unit 150 may have a function of cooperating with the general-purpose communication device 70 and communicating with the agent server 200. In this case, the agent function unit 150 pairs with the general-purpose communication device 70 by, for example, Bluetooth (registered trademark), and connects the agent function unit 150 and the general-purpose communication device 70. Further, the agent function unit 150 may be connected to the general-purpose communication device 70 by wired communication using USB (Universal Serial Bus) or the like. The details of the function of the agent function unit 150 will be described later.

[エージェントサーバ]
図4は、エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。以下、エージェントサーバ200の構成とともにエージェント機能部150等の動作について説明する。ここでは、エージェント装置100からネットワークNWまでの物理的な通信についての説明を省略する。
[Agent server]
FIG. 4 is a diagram showing a configuration of the agent server 200 and a part of the configuration of the agent device 100. Hereinafter, the operation of the agent function unit 150 and the like together with the configuration of the agent server 200 will be described. Here, the description of the physical communication from the agent device 100 to the network NW will be omitted.

エージェントサーバ200は、通信部210を備える。通信部210は、例えばNIC(Network Interface Card)などのネットワークインターフェースである。更に、エージェントサーバ200は、例えば、音声認識部220と、自然言語処理部222と、対話管理部224と、ネットワーク検索部226と、応答文生成部228とを備える。これらの構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 The agent server 200 includes a communication unit 210. The communication unit 210 is a network interface such as a NIC (Network Interface Card). Further, the agent server 200 includes, for example, a voice recognition unit 220, a natural language processing unit 222, a dialogue management unit 224, a network search unit 226, and a response sentence generation unit 228. These components are realized, for example, by a hardware processor such as a CPU executing a program (software). Some or all of these components may be realized by hardware such as LSI, ASIC, FPGA, GPU (including circuit part; circuitry), or realized by collaboration between software and hardware. May be good. The program may be stored in advance in a storage device such as an HDD or a flash memory (a storage device including a non-transient storage medium), or a removable storage medium such as a DVD or a CD-ROM (non-transient). It is stored in a sex storage medium) and may be installed by attaching the storage medium to a drive device.

エージェントサーバ200は、記憶部250を備える。記憶部250は、上記の各種記憶装置により実現される。記憶部250には、例えば、パーソナルプロファイル251、辞書DB(データベース)252、知識ベースDB253、応答規則DB254、付随情報関連DB255などのデータやプログラムが格納される。 The agent server 200 includes a storage unit 250. The storage unit 250 is realized by the above-mentioned various storage devices. The storage unit 250 stores, for example, data and programs such as a personal profile 251, a dictionary DB (database) 252, a knowledge base DB 253, a response rule DB 254, and ancillary information-related DB 255.

エージェント装置100において、エージェント機能部150は、音声ストリーム、或いは圧縮や符号化などの処理を行った音声ストリームを、エージェントサーバ200に送信する。また、エージェント機能部150は、ローカル処理(エージェントサーバ200を介さない処理)が可能な音声コマンドを認識した場合は、音声コマンドで要求された処理を行ってよい。ローカル処理が可能な音声コマンドとは、エージェント装置100が備える記憶部(不図示)を参照することで回答可能な音声コマンドであったり、エージェント機能部150の場合は車両機器50を制御する音声コマンド(例えば、空調装置をオンにするコマンドなど)であったりする。従って、エージェント機能部150は、エージェントサーバ200が備える機能の一部を有してもよい。 In the agent device 100, the agent function unit 150 transmits a voice stream or a voice stream that has undergone processing such as compression or coding to the agent server 200. Further, when the agent function unit 150 recognizes a voice command capable of local processing (processing that does not go through the agent server 200), the agent function unit 150 may perform the processing requested by the voice command. The voice command that can be locally processed is a voice command that can be answered by referring to a storage unit (not shown) included in the agent device 100, or in the case of the agent function unit 150, a voice command that controls the vehicle device 50. (For example, a command to turn on the air conditioner). Therefore, the agent function unit 150 may have a part of the functions provided in the agent server 200.

音声ストリームを取得すると、音声認識部220が音声認識を行ってテキスト化された文字情報を出力し、自然言語処理部222が文字情報に対して辞書DB252を参照しながら意味解釈を行う。辞書DB252は、文字情報に対して抽象化された意味情報が対応付けられたものである。辞書DB252は、同義語や類義語の一覧情報を含んでもよい。音声認識部220の処理と、自然言語処理部222の処理は、段階が明確に分かれるものではなく、自然言語処理部222の処理結果を受けて音声認識部220が認識結果を修正するなど、相互に影響し合って行われてよい。 When the voice stream is acquired, the voice recognition unit 220 performs voice recognition and outputs the textualized character information, and the natural language processing unit 222 interprets the meaning of the character information while referring to the dictionary DB 252. The dictionary DB 252 is associated with abstract semantic information with respect to character information. The dictionary DB 252 may include list information of synonyms and synonyms. The processing of the voice recognition unit 220 and the processing of the natural language processing unit 222 are not clearly separated in stages, and the voice recognition unit 220 corrects the recognition result in response to the processing result of the natural language processing unit 222. It may be done by influencing each other.

自然言語処理部222は、例えば、認識結果として、「今日の天気は」、「天気はどうですか」等の意味が認識された場合、標準文字情報「今日の天気」に置き換えたコマンドを生成する。これにより、リクエストの音声に文字揺らぎがあった場合にも要求にあった対話をし易くすることができる。また、自然言語処理部222は、例えば、確率を利用した機械学習処理等の人工知能処理を用いて文字情報の意味を認識したり、認識結果に基づくコマンドを生成したりしてもよい。 For example, when the meanings such as "what is the weather today" and "how is the weather" are recognized as the recognition result, the natural language processing unit 222 generates a command replaced with the standard character information "today's weather". As a result, even if there is a character fluctuation in the voice of the request, it is possible to facilitate the dialogue according to the request. Further, the natural language processing unit 222 may recognize the meaning of character information by using artificial intelligence processing such as machine learning processing using probability, or may generate a command based on the recognition result.

対話管理部224は、自然言語処理部222の処理結果(コマンド)に基づいて、パーソナルプロファイル251や知識ベースDB253、応答規則DB254、付随情報関連DB255を参照しながら車両Mのユーザに対する発話の内容を決定する。パーソナルプロファイル251は、ユーザごとに保存されているユーザの個人情報、趣味嗜好、過去の対話の履歴などを含む。知識ベースDB253は、物事の関係性を規定した情報である。応答規則DB254は、コマンドに対してエージェントが行うべき動作(回答や機器制御の内容など)を規定した情報である。付随情報関連DB255には、エージェント画像を所定の付随画像を関連付けて表示させる場合の出力態様に関する情報が格納される。出力態様に関する情報には、例えば、キャラクタ画像や付随画像の表示内容に加え、エージェント画像のキャラクタ等の動作に関する情報が含まれてよい。付随情報関連DB255の詳細については後述する。 Based on the processing result (command) of the natural language processing unit 222, the dialogue management unit 224 refers to the personal profile 251, the knowledge base DB 253, the response rule DB 254, and the accompanying information-related DB 255, and determines the content of the utterance to the user of the vehicle M. decide. The personal profile 251 includes a user's personal information, hobbies and preferences, a history of past dialogues, and the like, which are stored for each user. The knowledge base DB 253 is information that defines the relationship between things. The response rule DB 254 is information that defines the actions (answers, device control contents, etc.) that the agent should perform in response to the command. The incidental information-related DB 255 stores information regarding an output mode when the agent image is displayed in association with a predetermined incidental image. The information regarding the output mode may include, for example, information regarding the operation of the character of the agent image and the like in addition to the display contents of the character image and the accompanying image. Details of the incidental information-related DB 255 will be described later.

また、対話管理部224は、音声ストリームから得られる特徴情報を用いて、パーソナルプロファイル251と照合を行うことで、ユーザを特定してもよい。この場合、パーソナルプロファイル251には、例えば、音声の特徴情報に、個人情報が対応付けられている。音声の特徴情報とは、例えば、声の高さ、イントネーション、リズム(音の高低のパターン)等の喋り方の特徴や、メル周波数ケプストラム係数(Mel Frequency Cepstrum Coefficients)等による特徴量に関する情報である。音声の特徴情報は、例えば、ユーザの初期登録時に所定の単語や文章等をユーザに発声させ、発声させた音声を認識することで得られる情報である。 Further, the dialogue management unit 224 may identify the user by collating with the personal profile 251 using the feature information obtained from the voice stream. In this case, personal information is associated with, for example, voice feature information in the personal profile 251. The voice feature information is, for example, information on the characteristics of how to speak such as voice pitch, intonation, and rhythm (sound pitch pattern), and the feature amount based on Mel Frequency Cepstrum Coefficients and the like. .. The voice feature information is, for example, information obtained by having the user utter a predetermined word or sentence at the time of initial registration of the user and recognizing the uttered voice.

対話管理部224は、コマンドが、ネットワークNWを介して検索可能な情報を要求するものである場合、ネットワーク検索部226に検索を行わせる。ネットワーク検索部226は、ネットワークNWを介して各種ウェブサーバ300にアクセスし、所望の情報を取得する。「ネットワークNWを介して検索可能な情報」とは、例えば、車両Mの周辺にあるレストランの一般ユーザによる評価結果であったり、その日の車両Mの位置に応じた天気予報であったり、乗車人数に応じたレコメンド情報であったりする。 The dialogue management unit 224 causes the network search unit 226 to perform a search when the command requests information that can be searched via the network NW. The network search unit 226 accesses various web servers 300 via the network NW and acquires desired information. The "information that can be searched via the network NW" is, for example, an evaluation result by a general user of a restaurant in the vicinity of the vehicle M, a weather forecast according to the position of the vehicle M on that day, or the number of passengers. It may be recommendation information according to.

また、対話管理部224は、エージェント画像や付随画像等の出力態様に応じたレコメンド情報を生成してもよい。レコメンド情報には、例えば立ち寄り等を推奨するPOI(Point Of Interest)情報、画像や映像、音声等の各コンテンツが含まれる。この場合、対話管理部224は、例えば、車両Mからユーザに出力させるエージェント画像の種類や付随画像の種類等に基づいて、付随情報関連DB255を参照し、合致する情報に対応付けられた出力態様情報(例えば、レコメンド情報)を取得してユーザに提供したり、提供する優先順位を他のコンテンツよりも高くしたりする等の制御を行う。レコメンド情報DB256に含まれるレコメンド情報は、予め記憶部250に記憶されていてもよく、ネットワークNWを介して各種ウェブサーバ300から取得されてもよい。 Further, the dialogue management unit 224 may generate recommendation information according to an output mode such as an agent image or an accompanying image. The recommendation information includes, for example, POI (Point Of Interest) information for recommending a stop-by, and various contents such as images, videos, and sounds. In this case, the dialogue management unit 224 refers to the accompanying information-related DB 255 based on, for example, the type of the agent image to be output from the vehicle M to the user, the type of the accompanying image, and the like, and the output mode associated with the matching information. It controls such as acquiring information (for example, recommendation information) and providing it to a user, or giving a higher priority than other contents. The recommendation information included in the recommendation information DB 256 may be stored in the storage unit 250 in advance, or may be acquired from various web servers 300 via the network NW.

応答文生成部228は、対話管理部224により決定された発話の内容が車両Mのユーザに伝わるように、応答文を生成し、エージェント装置100に送信する。応答文生成部228は、ユーザがパーソナルプロファイルに登録されたユーザであることが特定されている場合に、ユーザの名前を呼んだり、ユーザの話し方に似せた話し方にしたりした応答文を生成してもよい。 The response sentence generation unit 228 generates a response sentence and transmits it to the agent device 100 so that the content of the utterance determined by the dialogue management unit 224 is transmitted to the user of the vehicle M. The response sentence generation unit 228 generates a response sentence that calls the user's name or makes the speech style similar to the user's speech style when the user is identified as a user registered in the personal profile. May be good.

エージェント機能部150は、応答文を取得すると、音声合成を行って音声を出力するように音声制御部118に指示する。また、エージェント機能部150は、音声出力に合わせてエージェントの画像を生成し、生成した画像を表示するように管理部110に指示する。また、エージェント機能部150は、エージェントサーバ200からの指示に従い、スピーカユニット30から出力される音量の調整や、車両機器50(例えば、空調機器)に関する機器制御等を行うための機器制御情報を生成し、生成した機器制御情報を車両機器50等に出力する。このようにして、仮想的に出現させたエージェントが車両Mのユーザに応答するエージェント機能および付随画像の表示内容に対応付けられた出力態様によるサービスの提供が実現される。 When the agent function unit 150 acquires the response sentence, the agent function unit 150 instructs the voice control unit 118 to perform voice synthesis and output the voice. Further, the agent function unit 150 generates an image of the agent according to the audio output, and instructs the management unit 110 to display the generated image. Further, the agent function unit 150 generates device control information for adjusting the volume output from the speaker unit 30 and controlling the device related to the vehicle device 50 (for example, an air conditioner) in accordance with the instruction from the agent server 200. Then, the generated device control information is output to the vehicle device 50 or the like. In this way, it is possible to provide the service by the agent function in which the virtually generated agent responds to the user of the vehicle M and the output mode associated with the display content of the accompanying image.

[エージェント機能部]
次に、エージェント機能部150の詳細について説明する。図5は、エージェント機能部150の構成例を示す図である。エージェント機能部150は、例えば、画像制御部152と、ユーザ認識部154と、エージェント関連情報設定部156と、出力制御部158と、記憶部160とを備える。記憶部160には、例えば、ユーザ設定情報162や、付随画像設定情報164などのデータやプログラムが格納される。ユーザ認識部154は、「認識部」の一例である。
[Agent Function Department]
Next, the details of the agent function unit 150 will be described. FIG. 5 is a diagram showing a configuration example of the agent function unit 150. The agent function unit 150 includes, for example, an image control unit 152, a user recognition unit 154, an agent-related information setting unit 156, an output control unit 158, and a storage unit 160. Data and programs such as user setting information 162 and accompanying image setting information 164 are stored in the storage unit 160, for example. The user recognition unit 154 is an example of the "recognition unit".

画像制御部152は、音声案内を含むサービスを提供するエージェント画像を表示・操作装置20に表示させる。例えば、画像制御部152は、エージェントが所定の装飾品を装備した状態の画像や、エージェントにペットや他のエージェントを含めた画像を表示・操作装置20に表示させる。 The image control unit 152 causes the display / operation device 20 to display an agent image that provides a service including voice guidance. For example, the image control unit 152 causes the display / operation device 20 to display an image in which the agent is equipped with a predetermined accessory or an image in which the agent includes a pet or another agent.

ユーザ認識部154は、出力装置を使用するユーザを認識する。例えば、ユーザ認識部154は、乗員認識装置80により認識されたユーザの動作や口元の動き等に基づいて、表示・操作装置20を操作しているユーザを認識したり、エージェントと対話しているユーザを認識する。また、ユーザ認識部154は、乗員認識装置80により認識されたユーザが、エージェント装置100を使用するユーザとして予め登録されているか、またはエージェント画像に付随画像の設定があるユーザであるか否かを認識する。また、ユーザ認識部154は、出力装置を使用するユーザが、付随画像を表示させたり、キャラクタの動作等の出力態様を設定する権限を有するユーザであるか否かを認識してもよい。 The user recognition unit 154 recognizes a user who uses the output device. For example, the user recognition unit 154 recognizes the user operating the display / operation device 20 or interacts with the agent based on the user's movements recognized by the occupant recognition device 80, the movement of the mouth, and the like. Recognize the user. Further, the user recognition unit 154 determines whether or not the user recognized by the occupant recognition device 80 is a user who is registered in advance as a user who uses the agent device 100, or a user who has an accompanying image set in the agent image. recognize. Further, the user recognition unit 154 may recognize whether or not the user who uses the output device has the authority to display the accompanying image and set the output mode such as the operation of the character.

エージェント関連情報設定部156は、ユーザ認識部154により認識されたユーザが、エージェント画像や付随画像の設定、エージェントの動作等を含めた出力態様の設定を行うことができる権限を有する場合に、設定部116と連携してユーザからの各種の設定情報を受け付ける。例えば、エージェント関連情報設定部156は、ユーザ認識部154により認識されたユーザが、付随画像を表示させる権限を有する場合に、情報設定部116Bにより設定されたエージェント画像が付随画像がとともに表示される場合におけるエージェント(キャラクタ)の動作の設定を受け付ける。エージェント関連情報設定部156は、ユーザから受け付けたキャラクタの種類や付随画像の種類、出力態様等の情報をユーザ設定情報162として記憶部160に格納する。 The agent-related information setting unit 156 is set when the user recognized by the user recognition unit 154 has the authority to set the agent image, the accompanying image, the operation of the agent, and the like. It receives various setting information from the user in cooperation with the unit 116. For example, in the agent-related information setting unit 156, when the user recognized by the user recognition unit 154 has the authority to display the accompanying image, the agent image set by the information setting unit 116B is displayed together with the accompanying image. Accepts the setting of the operation of the agent (character) in the case. The agent-related information setting unit 156 stores information such as a character type, an accompanying image type, and an output mode received from the user in the storage unit 160 as user setting information 162.

図6は、ユーザ設定情報162の内容の一例を示す図である。ユーザ設定情報162は、ユーザを識別するユーザIDに、エージェントに対応付けられたエージェント画像を識別するエージェントIDと、付随画像情報と、出力態様情報とが対応付けられた情報である。付随画像情報には、例えば、付随画像を識別する付随画像識別IDと、付随画像の具体的な名称が格納されている。出力態様情報には、付随時情報が含まれる。出力態様情報は、例えば、エージェントIDで識別されるエージェント画像の出力態様や、エージェント画像に付随して表示される付随画像の出力態様が格納される。出力態様は、例えば、予め設定またはユーザにより登録された複数の出力パターンの中から何れかを選択することで設定されてもよい。出力パターンには、例えば、エージェント画像のキャラクタの表情や動作(例えば、手を合わせる、手を振る、踊る、歩く)等に関するパターンが含まれる。また、ユーザ設定情報162には、付随画像を表示させるか否かについての条件設定が格納されてもよい。条件設定とは、例えば、「装飾品の画像は他者が乗車しているときには表示させない」、「他者の設定している装飾品の画像を見たくない(表示させない)」、「他者が同乗している場合に、設定している装飾品の画像を見せてもよい(表示させる)」などの、表示の許否に関する条件である。 FIG. 6 is a diagram showing an example of the contents of the user setting information 162. The user setting information 162 is information in which the user ID that identifies the user is associated with the agent ID that identifies the agent image associated with the agent, the accompanying image information, and the output mode information. The accompanying image information stores, for example, an accompanying image identification ID for identifying the accompanying image and a specific name of the accompanying image. The output mode information includes incidental information. The output mode information stores, for example, the output mode of the agent image identified by the agent ID and the output mode of the accompanying image displayed accompanying the agent image. The output mode may be set, for example, by selecting one from a plurality of output patterns set in advance or registered by the user. The output pattern includes, for example, a pattern related to the facial expression or movement of the character in the agent image (for example, holding hands, waving, dancing, walking). Further, the user setting information 162 may store the condition setting regarding whether or not to display the accompanying image. The condition settings are, for example, "the image of the ornament is not displayed when another person is on board", "the image of the ornament set by the other person is not displayed (not displayed)", and "the other person is not displayed". It is a condition regarding permission or disapproval of display, such as "You may show (display) the image of the set ornament when you are on board."

また、エージェント関連情報設定部156は、ユーザにより設定された付随画像に関する情報を付随画像設定情報164に格納する。図7は、付随画像設定情報164の内容の一例を示す図である。付随画像設定情報164は、付随画像情報に、画像データと、画像を識別する画像IDとが対応付けられた情報である。画像の種類には、例えば、複数のユーザが車両Mに乗車している場合に、所定の装飾品を同時に表示してもよいか否かを識別するための分類情報が含まれてもよい。例えば、同一の団体が提供する装飾品同士は、親和性が高いため、同時に表示されてもよいことから同一の装飾品の種類に設定する。また、装飾品の提供元である宗教団体のそれぞれが本社(本宮、本山)と支社(末社・摂社、末寺)の関係にある場合には、親和性が高いため、同時に表示されてもよいことから同一の装飾品の種類に設定する。また、宗教性のない装飾品は、同時に表示されてもよいことから同一の装飾品の種類に設定する。 In addition, the agent-related information setting unit 156 stores information about the accompanying image set by the user in the accompanying image setting information 164. FIG. 7 is a diagram showing an example of the contents of the accompanying image setting information 164. The accompanying image setting information 164 is information in which the image data and the image ID that identifies the image are associated with the accompanying image information. The type of image may include, for example, classification information for identifying whether or not a predetermined ornament may be displayed at the same time when a plurality of users are in the vehicle M. For example, since the ornaments provided by the same organization have a high affinity, they may be displayed at the same time, so they are set to the same type of ornaments. In addition, if each of the religious groups that provide the ornaments has a relationship between the head office (Hongu, Motoyama) and the branch offices (Setsu-sha, Setsusha, Sue-ji), they may be displayed at the same time because they have a high affinity. Set to the same ornament type from. In addition, non-religious ornaments may be displayed at the same time, so they are set to the same type of ornaments.

なお、単一のユーザが装飾品の種類の異なる複数の装飾品(例えば、神道の装飾品と仏教の装飾品)を同時にエージェント画像に装備した状態の画像を表示させると設定している場合には、装飾品の種類の違いは無視されてよい。 When a single user is set to display an image in which a plurality of ornaments having different types of ornaments (for example, Shinto ornaments and Buddhist ornaments) are simultaneously equipped on the agent image. The difference in the types of ornaments may be ignored.

エージェント関連情報設定部156は、ユーザがキャラクタ画像や付随画像を取得した場合に、取得したキャラクタ画像や付随画像に関するユーザ設定情報162や付随画像設定情報164に格納される情報を設定してもよく、画像を取得する前または取得した後に設定してもよい。また、エージェント関連情報設定部156は、ユーザの設定により、既に設定された情報を変更してもよい。また、エージェント関連情報設定部156は、エージェントサーバ200から取得した情報に基づいて、ユーザ設定情報162や付随画像設定情報164を変更してもよい。ユーザ設定情報162や付随画像設定情報164は、エージェントサーバ200の記憶部250に記憶されていてもよい。 When the user acquires the character image or the accompanying image, the agent-related information setting unit 156 may set the information stored in the user setting information 162 or the accompanying image setting information 164 regarding the acquired character image or the accompanying image. , May be set before or after the image is acquired. Further, the agent-related information setting unit 156 may change the already set information according to the user's setting. Further, the agent-related information setting unit 156 may change the user setting information 162 and the accompanying image setting information 164 based on the information acquired from the agent server 200. The user setting information 162 and the accompanying image setting information 164 may be stored in the storage unit 250 of the agent server 200.

出力制御部158は、例えば、ユーザが発生した音声にウエイクアップワードを含む音声が含まれる場合、またはユーザからの問い合わせに対する応答を行う場合に、ユーザ設定情報162や付随画像設定情報164に基づいて、表示・操作装置20に表示させるエージェント画像および付随画像を生成する。また、出力制御部158は、エージェントサーバ200から取得した応答結果や出力態様に基づいて、エージェント画像や付随画像を生成したり、エージェントの音声を生成したり、車両機器に関する制御情報を生成する。 The output control unit 158 is based on the user setting information 162 and the accompanying image setting information 164, for example, when the voice generated by the user includes a voice including a wakeup word or when responding to an inquiry from the user. , Generates an agent image and an accompanying image to be displayed on the display / operation device 20. Further, the output control unit 158 generates an agent image and an accompanying image, generates an agent voice, and generates control information about the vehicle device based on the response result and the output mode acquired from the agent server 200.

ここで、エージェントサーバ200の対話管理部224は、例えば、ユーザに表示しているエージェント画像と共に表示される付随画像に基づいて、付随情報関連DB255を参照し、ユーザにレコメンドする内容を決定して出力制御部158に出力する。図8は、付随情報関連DB255の内容の一例を示す図である。付随情報関連DB255は、例えば、付随画像情報に、出力情報と、レコメンド内容とが対応付けられた情報である。出力情報には、例えば、所定の装飾品に対応付けられた安全運転に関する情報や、付随画像の表示制御内容に関する情報が含まれる。例えば、所定の装飾品が交通安全の「お守り」である場合、出力情報には運転アドバイスや、神仏からのお告げ、交通運の占いなどが含まれる。また、所定の装飾品が健康に関連する「お守り」や「アクセサリ」である場合、出力情報には食事に関する専門家のアドバイスや、車内でできるストレッチの情報、目的地周辺のおすすめレストランやスーパーマーケットの案内などが含まれる。また、所定の装飾品が宗教的な意味合いの強い装飾品である場合、出力情報には、装飾品の提供元である宗教に基づいた情報(例えば、その宗教の信仰を促すために、僧侶、神職者、聖職者などの宗教上の指導者の発言)が含まれてもよい。 Here, the dialogue management unit 224 of the agent server 200 refers to the accompanying information-related DB 255 based on the accompanying image displayed together with the agent image displayed to the user, and determines the content to be recommended to the user. Output to the output control unit 158. FIG. 8 is a diagram showing an example of the contents of the incidental information-related DB 255. The accompanying information-related DB 255 is, for example, information in which the output information and the recommended content are associated with the accompanying image information. The output information includes, for example, information on safe driving associated with a predetermined accessory and information on display control contents of an accompanying image. For example, when a predetermined ornament is a "amulet" for traffic safety, the output information includes driving advice, a message from the gods and Buddha, a fortune-telling of traffic transportation, and the like. Also, if the given decoration is a health-related "amulet" or "accessory", the output information includes expert advice on meals, stretch information that can be done in the car, recommended restaurants and supermarkets around the destination. Information etc. are included. In addition, when a predetermined ornament is an ornament having a strong religious meaning, the output information includes information based on the religion from which the ornament is provided (for example, a priest to promote the belief of that religion, etc. Religious leaders such as priests and priests) may be included.

なお、出力情報は、ユーザにより予め登録された誓い(決意や目標など)の内容が反映されてもよい。誓いは、例えば、ユーザにより所定の装飾品の登録や設定変更が行われる際に、併せて登録されるものであり、ユーザによる他の発話と同様に、エージェントサーバ200の音声認識部220および自然言語処理部222により解析される。これにより、応答文生成部228は、付随情報関連DB255から誓いに関連する情報を読み出してエージェント装置100に送信し、エージェントに誓いの内容が反映された出力情報を出力できるようになる。例えば、所定の装飾品が交通安全のお守りであり、ユーザにより誓いとして「無事故無違反」とあらかじめ登録されている場合、出力情報には、車両Mが事故多発地点に接近する前に警告することや、法定速度の案内などが含まれる。 The output information may reflect the contents of the oath (decision, goal, etc.) registered in advance by the user. The oath is, for example, registered when the user registers a predetermined ornament or changes the setting, and like other utterances by the user, the voice recognition unit 220 of the agent server 200 and the natural language. It is analyzed by the language processing unit 222. As a result, the response sentence generation unit 228 can read the information related to the oath from the incidental information-related DB 255 and send it to the agent device 100, and can output the output information reflecting the contents of the oath to the agent. For example, if the specified accessory is a traffic safety amulet and the user has pre-registered "no accidents and no violations" as a vow, the output information should warn the vehicle M before approaching the accident-prone spot. And guidance on legal speeds are included.

また、出力情報に誓いの内容を反映する条件や、誓いの内容を反映させない条件が併せて設定されてもよい。例えば、個人的な誓いを同乗者に知られたくない場合に、ユーザは、装備時情報の出力条件として、「一人で乗車している場合には、誓いの内容が反映された出力情報とするが、他者が乗車している場合には、誓いの内容は出力情報に反映しない」のような設定を行う。 In addition, a condition that reflects the content of the oath in the output information and a condition that does not reflect the content of the oath may be set together. For example, when the passenger does not want to know the personal oath, the user sets the output condition of the equipment information as "If the passenger is riding alone, the output information reflects the contents of the oath. However, if another person is on board, the content of the oath will not be reflected in the output information. "

また、付随画像が洋服等のファッションやヘッドホン等の場合、出力情報には、エージェントに着用または装着させるか否かを示す情報(装備情報)や、付随画像に関連付けられたキャラクタの動作がユーザ等により設定されてよい。例えば、付随画像が登山用のファッションである場合に出力情報としてキャラクタが登山用の洋服を着用して歩く動作が設定されたり、付随画像が海向け用のファッションである場合に出力情報としてキャラクタが海用の装備を着用している場合に泳ぐ動作が設定される。また、付随画像が、ペット等の他のキャラクタである場合、出力情報には、表示態様や出力パターンを示す情報(例えば、キャラクタが並んで表示)や、他のキャラクタの動作を示す情報がユーザ等により設定されてもよい。 In addition, when the accompanying image is fashion such as clothes or headphones, the output information includes information (equipment information) indicating whether or not the agent is worn or worn, and the movement of the character associated with the accompanying image is the user or the like. May be set by. For example, if the accompanying image is fashion for hiking, the character may be set to walk while wearing hiking clothes, or if the accompanying image is fashion for the sea, the character may be output information. The swimming motion is set when wearing marine equipment. When the accompanying image is another character such as a pet, the output information includes information indicating a display mode and an output pattern (for example, characters are displayed side by side) and information indicating the operation of the other character. It may be set by such as.

レコメンド内容は、付随画像や付随画像の出力情報に関連してユーザに提供するレコメンド情報である。レコメンド情報は、付随時情報が含まれてもよい。レコメンド情報には、例えば、運転に関する情報(例えば、走行ルート、運転支援情報)、付随画像で示される商品(物品)の販売元や監修者である施設、関連性のある場所が含まれる。例えば、所定の付随画像が交通安全のお守り(装飾品の一例)の画像である場合には、そのお守りの提供元である寺社、お守りの提供元である寺社と同一の宗派の寺社がレコメンド内容に含まれる。付随情報関連DB255は、エージェント装置100から得られるユーザの設定情報によって更新されてよい。 The recommendation content is the recommendation information provided to the user in relation to the accompanying image and the output information of the accompanying image. The recommendation information may include incidental information. The recommendation information includes, for example, information on driving (for example, driving route, driving support information), a facility that is a seller or a supervisor of the product (article) shown in the accompanying image, and a related place. For example, if the specified accompanying image is an image of a traffic safety amulet (an example of ornaments), the recommended content is the temple or shrine that provides the amulet and the temple or shrine of the same denomination as the temple or shrine that provides the amulet. include. The accompanying information-related DB 255 may be updated by the user's setting information obtained from the agent device 100.

図8の例において、XX神社の交通安全のお守りを付随画像として表示させる場合であって、出力情報として「安全支援に関する情報(パターン1)」が選択された場合、対話管理部224は、事故の少ないルートを優先してレコメンドするとともに、提供元である寺社をレコメンドするための応答文を応答文生成部228に生成させる。事故が少ないルートは、例えば、ネットワーク検索部226がネットワークNWを介して交通情報を管理する管理装置等から取得される。また、出力情報として「安全支援に関する情報(パターン2)」が選択された場合、対話管理部224は、運転支援に関する情報をレコメンドするための応答文を応答文生成部228に生成させる。運転支援に関する情報には、例えば、前方車両との車間距離を調整させる情報や、車線の逸脱を抑制させるための情報、車線変更のタイミングを指示する情報等が含まれる。 In the example of FIG. 8, when the traffic safety amulet of the XX shrine is displayed as an accompanying image and "information on safety support (pattern 1)" is selected as the output information, the dialogue management unit 224 causes an accident. The response sentence generation unit 228 is made to generate a response sentence for recommending the temple and shrine that is the provider while giving priority to the route with less information. The route with few accidents is acquired from, for example, a management device in which the network search unit 226 manages traffic information via the network NW. When "information on safety support (pattern 2)" is selected as the output information, the dialogue management unit 224 causes the response sentence generation unit 228 to generate a response sentence for recommending information on driving support. The information on driving support includes, for example, information for adjusting the distance between the vehicle and the vehicle in front, information for suppressing lane deviation, information for instructing the timing of lane change, and the like.

また、図8の例において、対話管理部224は、付随画像として、海向けのファッション画像をエージェント画像に着用させる場合、対話管理部224は、海に関する音楽をレコメンドしたり、海沿いルートをレコメンドしたり、海鮮料理のレストランをレコメンドするための応答文を応答文生成部228に生成させる。 Further, in the example of FIG. 8, when the dialogue management unit 224 attaches a fashion image for the sea to the agent image as an accompanying image, the dialogue management unit 224 recommends music related to the sea or recommends a route along the sea. The response sentence generation unit 228 is made to generate a response sentence for recommending a seafood restaurant.

また、図8の例において、付随画像として、ヘッドホンをエージェント画像に装着させて表示する出力態様が設定された場合、対話管理部224は、音楽に関する情報をレコメンドする。また、対話管理部224は、音楽に関する情報をレコメンドするのに代えて(または加えて)、スピーカユニット30から出力させる音の音量を、エージェント画像がヘッドホンを装着していない場合よりも所定量だけ大きくするといった出力態様に関する情報を、応答文生成部228に生成させてもよい。また、付随画像として、耳栓をエージェント画像に装着させて表示する出力態様が設定された場合、対話管理部224は、スピーカユニット30から出力される音声を小さくする(または音を出力しない)といった出力態様に関する情報を、応答文生成部228に生成させてもよい。 Further, in the example of FIG. 8, when the output mode in which the headphones are attached to the agent image and displayed is set as the accompanying image, the dialogue management unit 224 recommends the information related to the music. In addition, instead of recommending (or in addition to) information about music, the dialogue management unit 224 reduces the volume of the sound output from the speaker unit 30 by a predetermined amount compared to the case where the agent image does not wear headphones. The response sentence generation unit 228 may generate information regarding the output mode such as increasing the size. Further, when an output mode in which earplugs are attached to the agent image and displayed as an accompanying image is set, the dialogue management unit 224 reduces the sound output from the speaker unit 30 (or does not output sound). Information on the output mode may be generated by the response sentence generation unit 228.

また、対話管理部224は、他のキャラクタが表示されていない場合(自己エージェント画像のみ表示させる場合や、表示させる他のキャラクタの人数や属性(例えば、友人や家族)に応じて、レコメンドする内容を変更してもよい。 In addition, the dialogue management unit 224 recommends contents according to the case where other characters are not displayed (when only the self-agent image is displayed, or the number and attributes (for example, friends and family) of other characters to be displayed). May be changed.

出力制御部158は、例えば、所定の付随画像に関連するコンテンツ(レコメンド情報等)を他のコンテンツよりも優先的にユーザに提供する。例えば、出力制御部158は、エージェント画像とともに、付随画像として他のキャラクタの画像を出力装置に表示させる場合に、表示されるキャラクタの数や種類に応じたコンテンツを、他のコンテンツよりも優先してユーザに提供させる。例えば、出力制御部158は、付随画像として、ファミリー(家族)が表示を表示させる場合に、ファミリー向けのレストランや音楽をエージェントサーバ200から取得して表示・操作装置20の表示部に表示させる。また、出力制御部158は、エージェント画像が、付随画像であるアロハシャツを着ている場合に、ハワイアン領域のレストランのレコメンド情報を、他のレコメンド情報よりも優先して表示・操作装置20の表示部に表示させる。これにより、エージェント画像や付随画像の数や種類等の内容に応じて、より適切な出力態様でユーザに情報を提供することができる。 The output control unit 158, for example, provides the user with content (recommendation information, etc.) related to the predetermined accompanying image with priority over other content. For example, when the output control unit 158 displays an image of another character as an accompanying image on the output device together with the agent image, the content according to the number and types of displayed characters is prioritized over the other content. And let the user provide it. For example, when the family (family) displays the display as an accompanying image, the output control unit 158 acquires restaurants and music for the family from the agent server 200 and displays them on the display unit of the display / operation device 20. Further, when the agent image is wearing an aloha shirt which is an accompanying image, the output control unit 158 displays the recommendation information of the restaurant in the Hawaiian area with priority over other recommendation information and displays the operation device 20. Display on the department. As a result, information can be provided to the user in a more appropriate output mode according to the contents such as the number and types of agent images and accompanying images.

また、出力制御部158は、ユーザが、付随画像を表示させる権限を有するユーザである場合に、出力態様情報等の付随時情報を表示・操作装置20等の出力装置に出力させてもよい。例えば、出力制御部158は、ユーザが交通安全のお守りの画像を表示させる設定をしている場合に、予め設定された安全運転に関する情報(図8の例において、パターン1、パターン2)を出力態様情報または出力情報の候補としてユーザに提示し、提示した出力パターンの候補の中からユーザによる選択を受け付けてもよい。これにより、ユーザは、付随時情報を容易に設定することができる。 Further, the output control unit 158 may output incidental information such as output mode information to an output device such as the display / operation device 20 when the user is a user who has the authority to display the accompanying image. For example, the output control unit 158 outputs preset information on safe driving (patterns 1 and 2 in the example of FIG. 8) when the user is set to display an image of a traffic safety amulet. It may be presented to the user as a candidate for the mode information or the output information, and the user may select from the presented output pattern candidates. As a result, the user can easily set the incidental information.

[付随時情報の出力態様]
次に、本実施形態における付随時情報の出力態様について具体的に説明する。図9は、エージェント画像に所定の装飾品を着用した態様で表示させる手順を説明するための図である。例えば、車両Mのユーザは、寺社仏閣で所定の装飾品の現物を購入する。ユーザが購入した装飾品ACには、画像登録用の二次元コードが付随し、ユーザが利用する端末装置T(例えば、スマートフォンやタブレット)や、車両Mの車載カメラを利用して専用のアプリケーションを介して二次元コードを読み取る。その専用のアプリケーションは、二次元コードを読み取ることで取得したVR(Virtual Reality)情報を読み取り、車載に搭載されたエージェント画像A1に仮想的に装飾品画像IMAを装備させることを実現させる。
[Output mode of accompanying information]
Next, the output mode of the accompanying information in the present embodiment will be specifically described. FIG. 9 is a diagram for explaining a procedure for displaying an agent image in a manner of wearing a predetermined accessory. For example, the user of the vehicle M purchases the actual ornaments at the temples and shrines. The decorative AC purchased by the user is accompanied by a two-dimensional code for image registration, and a dedicated application can be used by using the terminal device T (for example, a smartphone or tablet) used by the user or the in-vehicle camera of the vehicle M. Read the two-dimensional code through. The dedicated application reads the VR (Virtual Reality) information acquired by reading the two-dimensional code, and realizes that the agent image A1 mounted on the vehicle is virtually equipped with the ornament image IMA.

なお、専用のアプリケーションが、車載カメラ等を用いて所定の装飾品の現物の外観が分かる画像情報を取得して、エージェント画像A1に仮想的に装備させる装飾品画像IMAの画像を生成してもよい。また、ユーザは、端末装置Tを介して各種ウェブサーバ300の提供する画像専用のマーケットサイトにアクセスし、エージェント画像A1に仮想的に装備させることができる装飾品画像IMAの画像の利用権を購入してもよい。以下の説明において、所定の装飾品を表示させる権限を有するユーザとは、上述のように購入や譲渡などにより装飾品画像IMAの表示が許諾されたユーザであり、エージェント装置100の利用設定が登録可能な(または予め登録されている)ユーザのことである。 Even if a dedicated application acquires image information that shows the actual appearance of a predetermined ornament using an in-vehicle camera or the like and generates an image of the ornament image IMA that is virtually equipped on the agent image A1. good. In addition, the user accesses the image-dedicated market site provided by the various web servers 300 via the terminal device T, and purchases the right to use the image of the decorative image IMA that can be virtually equipped on the agent image A1. You may. In the following description, the user who has the authority to display the predetermined ornament is the user who is permitted to display the ornament image IMA by purchase or transfer as described above, and the usage setting of the agent device 100 is registered. A possible (or pre-registered) user.

画像制御部152は、ユーザ認識部154により認識されたエージェント装置100のユーザが、所定の装飾品を表示させる権限を有する場合に、所定の装飾品を装備したエージェント画像を表示・操作装置20に表示させる。出力制御部158は、画像制御部152により所定の装飾品を装備したエージェント画像を表示・操作装置20に表示させる場合に、付随情報関連DB255を参照し、出力情報をユーザに提供する。「所定の装飾品を装備したエージェント画像を表示・操作装置20に表示させる場合」には、既に所定の装飾品を装備したエージェント画像を表示・操作装置20に表示させた状態であることに加え、これから表示を開始しようとしていること(表示・操作装置20に画像表示を開始すると同時に、または画像表示の直前に)出力情報をユーザに提供することを含む。 When the user of the agent device 100 recognized by the user recognition unit 154 has the authority to display a predetermined accessory, the image control unit 152 displays the agent image equipped with the predetermined accessory on the display / operation device 20. Display it. The output control unit 158 refers to the accompanying information-related DB 255 and provides the output information to the user when the image control unit 152 displays the agent image equipped with the predetermined ornament on the display / operation device 20. In the case of "displaying the agent image equipped with the predetermined ornament on the display / operation device 20", in addition to the state in which the agent image equipped with the predetermined accessory is already displayed on the display / operation device 20. This includes providing output information to the user that the display is about to be started (at the same time as the image display is started on the display / operation device 20 or immediately before the image display).

出力制御部158は、例えば、ユーザが所定の装飾品を表示させる権限を有する場合に、付随時情報をユーザごとに設定の受け付けが可能であり、その設定内容はユーザ設定情報162に格納される。また、出力制御部158は、車両Mの状態(どのユーザが乗車しているか、ユーザが一人か複数人かなど)に対応付けて出力情報を設定することができる。以下、場面ごとの出力態様の様子について具体的に説明する。 For example, when the user has the authority to display a predetermined accessory, the output control unit 158 can accept the setting of the accompanying information for each user, and the setting content is stored in the user setting information 162. .. Further, the output control unit 158 can set output information in association with the state of the vehicle M (which user is on board, whether there is one or more users, etc.). Hereinafter, the state of the output mode for each scene will be specifically described.

[第1場面]
図10は、第1場面における出力態様の様子を説明するための図である。第1場面は、車両Mの運転席DSにユーザUAが一人で乗車している場合において、お守りの付随画像をエージェント画像A1と共にユーザUAに提供する場面を示している。第1場面において、画像制御部152は、ユーザUAが予め設定している通りにエージェント画像A1が付随画像IMAを装備した状態の画像IM1を生成し、生成した画像IM1を表示・操作装置20の表示部に表示させる。また、出力制御部158は、第1場面における出力情報(付随時情報)OP1として、「XX神社の神様のお告げです。」等の音声をスピーカユニット30に出力させる。
[1st scene]
FIG. 10 is a diagram for explaining the state of the output mode in the first scene. The first scene shows a scene in which the user UA is riding alone in the driver's seat DS of the vehicle M, and the accompanying image of the amulet is provided to the user UA together with the agent image A1. In the first scene, the image control unit 152 generates an image IM1 in a state where the agent image A1 is equipped with the accompanying image IMA as set in advance by the user UA, and displays the generated image IM1 of the operation device 20. Display on the display. Further, the output control unit 158 causes the speaker unit 30 to output a voice such as "This is a message from the god of the XX shrine" as the output information (information at the time of accompanying) OP1 in the first scene.

[第2場面]
図11は、第2場面における出力態様の様子を説明するための図である。第2場面は、車両Mの運転席DSに着座しているユーザUAと、助手席ASに着座するユーザUBとが乗車していることがユーザ認識部154により認識されている場合において、お守りの付随画像を含む出力情報を、ユーザUAおよびUBに提供する場面を示している。第2場面において、ユーザUAおよびUBは、同一のエージェント画像A1および同一の種類の付随画像IMAを同一の出力パターンで出力すると設定しているものとする。この場合、画像制御部152は、ユーザUAおよびUBが予め表示設定している通りに、単一のエージェント画像A1が付随画像IMAを装備した状態の画像IM1を生成し、生成した画像IM1を表示・操作装置20の表示部に表示させる。また、出力制御部158は、第2場面における出力情報OP1として、第1場面と同様に「XX神社の神様のお告げです。」等の音声をスピーカユニット30に出力させる。
[Second scene]
FIG. 11 is a diagram for explaining the state of the output mode in the second scene. The second scene is a talisman when the user recognition unit 154 recognizes that the user UA seated in the driver's seat DS of the vehicle M and the user UB seated in the passenger seat AS are on board. It shows a scene where output information including an accompanying image is provided to users UA and UB. In the second scene, it is assumed that the users UA and UB are set to output the same agent image A1 and the same type of accompanying image IMA with the same output pattern. In this case, the image control unit 152 generates an image IM1 in which a single agent image A1 is equipped with an accompanying image IMA, and displays the generated image IM1 as the users UA and UB preset the display. -Display on the display unit of the operating device 20. Further, the output control unit 158 causes the speaker unit 30 to output a voice such as "This is a message from the god of the XX shrine" as the output information OP1 in the second scene, as in the first scene.

なお、第2場面において「付随画像が同一の種類である」とは、例えば、付随画像識別IDが同じであることである。また、「付随画像が同一の種類である」とは、付随画像がお守り等の装飾品の画像である場合に、装飾品の販売元の宗教団体が同一であることや、装飾品の販売元の宗教や宗派が同一であること、装飾品の目的(例えば、「安全」、「健康」など)が同一であること、装飾品の外観が同一であることが含まれてもよい。また、ユーザUAおよびUBが、それぞれ異なる装飾品を表示すると設定しており、ユーザUAおよびUBのそれぞれが設定した所定の装飾品のいずれにも宗教性がない場合には、画像制御部152は、装飾品の種類が同一であるものとして表示制御を行ってもよい。 In the second scene, "the accompanying images are of the same type" means, for example, that the accompanying image identification IDs are the same. In addition, "the accompanying images are of the same type" means that when the accompanying images are images of ornaments such as amulets, the religious groups that sell the ornaments are the same, and the distributors of the ornaments. The religion and denomination of the ornament may be the same, the purpose of the ornament (eg, "safety", "health", etc.) may be the same, and the appearance of the ornament may be the same. Further, when the users UA and UB are set to display different ornaments, and none of the predetermined ornaments set by the users UA and UB is religious, the image control unit 152 sets the image control unit 152. , Display control may be performed assuming that the types of ornaments are the same.

なお、ユーザUAとUBとが、異なるエージェント画像、且つ同一の所定の装飾品を出力すると設定していた場合にも、画像制御部152は、第2場面と同様にエージェント画像のそれぞれが所定の装飾品を装備した状態の画像を表示してもよい。また、ユーザUAとUBとが、同一のエージェント画像、且つ同一の種類の所定の装飾品を表示すると設定しており、且つユーザUAとUBがそれぞれ異なる誓いを登録している場合、出力制御部158は、付随時情報として、ユーザUAおよびUBのそれぞれの誓いに基づく出力情報を出力してもよいし、ユーザUAおよびUBのうち、運転席DSに着座するユーザUAの誓いに基づく出力情報を出力してもよいし、誓いに基づく出力情報を出力しないようにしてもよい。例えば、ユーザUAが交通安全に関する誓いを登録しており、ユーザUBが健康に関する誓いを登録している場合に、出力制御部158は、付随情報として、交通安全に関連する出力情報と健康に関連する出力情報の両方を出力する。 Even if the users UA and UB are set to output different agent images and the same predetermined ornaments, the image control unit 152 determines each of the agent images as in the second scene. An image with ornaments may be displayed. Further, when the users UA and UB are set to display the same agent image and the same type of predetermined ornaments, and the users UA and UB have registered different oaths, the output control unit The 158 may output output information based on the oaths of the user UA and UB as incidental information, or output information based on the oath of the user UA seated in the driver's seat DS among the user UA and UB. It may be output, or the output information based on the oath may not be output. For example, when the user UA has registered an oath regarding traffic safety and the user UB has registered an oath regarding health, the output control unit 158 is related to traffic safety-related output information and health as incidental information. Output both output information.

[第3場面]
図12は、第3場面における出力態様の様子を説明するための図である。第3場面は、車両Mの運転席DSに着座するユーザUAと、助手席ASに着座するユーザUCとが存在することがユーザ認識部154により認識されている場面である。第3場面において、ユーザUAとUCとは、同一のエージェント画像であって、且つそれぞれが異なるお守り画像を出力すると設定されているものとする。この場合、画像制御部152は、エージェント画像A1がお守りの画像を装備していない状態の画像IM2を生成し、生成した画像を表示・操作装置20の表示部に表示させる。これは、ユーザUAが設定しているお守り画像と、ユーザUCの設定しているお守り画像とが付随画像設定情報164において異なる装飾品の種類に属するためである。このように、エージェント装置100は、異なる装飾品の場合に、それぞれの装飾品を表示させないように制御することで、ユーザUAおよびUCが、自らが想定していない他の宗教の装飾品の画像を目にすることで不快に感じる可能性を低減させることができる。
[Third scene]
FIG. 12 is a diagram for explaining the state of the output mode in the third scene. The third scene is a scene in which the user recognition unit 154 recognizes that there is a user UA seated in the driver's seat DS of the vehicle M and a user UC seated in the passenger seat AS. In the third scene, it is assumed that the users UA and UC are set to output the same agent image and different amulet images. In this case, the image control unit 152 generates an image IM2 in which the agent image A1 is not equipped with the amulet image, and displays the generated image on the display unit of the display / operation device 20. This is because the amulet image set by the user UA and the amulet image set by the user UC belong to different types of ornaments in the accompanying image setting information 164. In this way, the agent device 100 controls so that the respective ornaments are not displayed in the case of different ornaments, so that the users UA and UC can image the ornaments of other religions that they do not anticipate. It is possible to reduce the possibility of feeling uncomfortable by seeing.

また、第3場面において、出力制御部158は、それぞれの装飾品とは関連しない出力情報OP2を生成して、スピーカユニット30に出力させる。図12の例では、「安全運転を心だけましょう。」という音声が出力されている。これにより、エージェント装置100は、ユーザUAおよびUCが、自らが想定していない他の宗教的な発言を耳にすることで不快に感じたり、出力情報OP2の提供後の車両MでのユーザUAおよびUBのお互いの雰囲気が悪くなる可能性を低減させたりすることができる。 Further, in the third scene, the output control unit 158 generates the output information OP2 which is not related to each accessory and causes the speaker unit 30 to output the output information OP2. In the example of FIG. 12, the voice "Let's keep in mind safe driving" is output. As a result, the agent device 100 may feel uncomfortable when the user UA and UC hear other religious remarks that they did not anticipate, or the user UA in the vehicle M after the output information OP2 is provided. And the possibility that the atmosphere of each other of UB becomes bad can be reduced.

[第4場面]
図13は、第4場面における出力態様の様子を説明するための図である。第4場面は、車両Mの運転席DSに着座するユーザUAと、助手席ASに着座するユーザUDとが存在することがユーザ認識部154により認識されている場面である。第4場面では、ユーザUAとUDとが、それぞれ異なるエージェント画像A1および画像A2を出力すると設定しており、ユーザUAは所定の装飾品を表示する設定をしているが、ユーザUDは所定の装飾品を表示する設定をしていない場合、画像制御部152は、第4場面において、エージェント画像A1およびエージェント画像A2が所定の装飾品を装備していない状態の画像IM3を生成し、生成した画像IM3を表示・操作装置20の表示部に表示させる。また、出力制御部158は、所定の装飾品とは関連しない出力情報OP2をスピーカユニット30に出力させる。
[Scene 4]
FIG. 13 is a diagram for explaining the state of the output mode in the fourth scene. The fourth scene is a scene in which the user recognition unit 154 recognizes that there is a user UA seated in the driver's seat DS of the vehicle M and a user UD seated in the passenger seat AS. In the fourth scene, the user UA and the UD are set to output different agent images A1 and A2, respectively, and the user UA is set to display a predetermined decoration, but the user UD is set to display a predetermined decoration. When the decoration is not set to be displayed, the image control unit 152 generates and generates the image IM3 in the state where the agent image A1 and the agent image A2 are not equipped with the predetermined decoration in the fourth scene. The image IM3 is displayed on the display unit of the display / operation device 20. Further, the output control unit 158 causes the speaker unit 30 to output the output information OP2 that is not related to the predetermined ornament.

これにより、エージェント装置100は、ユーザUAおよびユーザUDが、自らが想定していない他の宗教の装飾品を目にすることで不快に感じる可能性を低減させることができる。また、エージェント装置100は、ユーザUAおよびユーザUDが、自らが想定していない他の宗教的な発言を耳にすることで不快に感じたり、出力情報OP2の提供後の車両Mでの雰囲気を悪くしたりする可能性を低減させることができる。 Thereby, the agent device 100 can reduce the possibility that the user UA and the user UD feel uncomfortable when they see the ornaments of other religions that they did not anticipate. Further, the agent device 100 feels uncomfortable when the user UA and the user UD hear other religious remarks that they do not anticipate, or the atmosphere in the vehicle M after the output information OP2 is provided. It is possible to reduce the possibility of making it worse.

なお、ユーザUAおよびユーザUDが、他のユーザが他の宗教の装飾品を表示してもよいと許可している場合には、画像制御部152は、エージェント画像A1およびエージェント画像A2にそれぞれ所定の装飾品を装備させた画像を表示してもよい。 If the user UA and the user UD allow other users to display ornaments of other religions, the image control unit 152 determines the agent image A1 and the agent image A2, respectively. You may display an image equipped with the ornaments of.

[第5場面]
図14は、第5場面における出力態様の様子を説明するための図である。第5場面は、エージェント画像が付随画像とともに表示させる場合に、エージェント画像に所定の動作を実行させる場面を示す図である。例えば、車両Mの運転席DSに着座するユーザUAが存在することがユーザ認識部154により認識されている場合、車両Mの運転席DSにユーザUAが一人で乗車している場合において、お守りの付随画像をエージェント画像A1と共にユーザUAに提供する場面を示している。第5場面において、画像制御部152は、ユーザUAが予め設定している通りに、エージェント画像A1が付随画像IMAを装備した状態の画像IM4を生成し、生成した付随画像IM4を表示・操作装置20の表示部に表示させる。ここで、ユーザUAが付随時情報としてエージェント画像A1のキャラクタが手を合わせる動作を設定していた場合に、画像制御部152は、エージェント画像A1のキャラクタが手を合わせる動作を行う画像を生成する。付随画像IM4は、アニメーション画像でもよい。また、出力制御部158は、第1場面における出力情報OP1として、「XX神社の神様のお告げです。」等の音声を出力する。これにより、エージェント画像ともに表示される付随画像に応じて、エージェント画像に所定の動作を行わせることができるため、ユーザに、エージェントを親しみ易くさせることができる。
[Scene 5]
FIG. 14 is a diagram for explaining the state of the output mode in the fifth scene. The fifth scene is a diagram showing a scene in which a predetermined operation is performed on the agent image when the agent image is displayed together with the accompanying image. For example, when the user recognition unit 154 recognizes that there is a user UA seated in the driver's seat DS of the vehicle M, or when the user UA is alone in the driver's seat DS of the vehicle M, it is a talisman. The scene where the accompanying image is provided to the user UA together with the agent image A1 is shown. In the fifth scene, the image control unit 152 generates an image IM4 in which the agent image A1 is equipped with the accompanying image IMA as set in advance by the user UA, and displays / operates the generated accompanying image IM4. It is displayed on the display unit of 20. Here, when the user UA has set the action of the characters of the agent image A1 to join hands as incidental information, the image control unit 152 generates an image in which the characters of the agent image A1 perform the actions of joining hands. .. The accompanying image IM4 may be an animation image. In addition, the output control unit 158 outputs a voice such as "This is a message from the god of the XX shrine" as the output information OP1 in the first scene. As a result, the agent image can be made to perform a predetermined operation according to the accompanying image displayed together with the agent image, so that the user can be made familiar with the agent.

[第6場面]
図15は、第6場面における出力態様の様子を説明するための図である。第6場面は、上述した第5場面と比較すると、運転席DSに着座するユーザが、ユーザUAではなくユーザUEである点で相違する。この場合、画像制御部152は、ユーザ認識部154により認識されているユーザUEが認識された場合に、ユーザUEが予め設定している通りに、エージェント画像A1が付随画像IMAを装備した状態の画像IM5を生成し、生成した画像IM5を表示・操作装置20の表示部に表示させる。ここで、ユーザUEが付随時情報としてエージェント画像A1のキャラクタにお辞儀をさせる動作を設定していた場合に、画像制御部152は、エージェント画像A1のキャラクタがお辞儀を行う画像を生成する。画像IM5は、エージェント画像A1のキャラクタがお辞儀を行うアニメーション画像でもよい。
[Scene 6]
FIG. 15 is a diagram for explaining the state of the output mode in the sixth scene. The sixth scene is different from the fifth scene described above in that the user seated in the driver's seat DS is not the user UA but the user UE. In this case, when the user UE recognized by the user recognition unit 154 is recognized, the image control unit 152 is in a state where the agent image A1 is equipped with the accompanying image IMA as set in advance by the user UE. The image IM5 is generated, and the generated image IM5 is displayed on the display unit of the display / operation device 20. Here, when the user UE has set an operation of bowing the character of the agent image A1 as incidental information, the image control unit 152 generates an image in which the character of the agent image A1 bows. The image IM5 may be an animation image in which the character of the agent image A1 bows.

第5場面および第6場面に示すように、ユーザごとに設定された付随時情報として動作を設定することで、ユーザごとにエージェントに適切な動作を実行させることができる。 As shown in the fifth and sixth scenes, by setting the operation as incidental information set for each user, it is possible to make the agent execute an appropriate operation for each user.

また、出力制御部158は、ユーザ認識部154により複数のユーザが認識された場合であって、それぞれのユーザが異なる動作を設定している場合に、キャラクタに動作をさせないように制御してもよい。また、出力制御部158は、それぞれのユーザが共通または関連性の高い動作を設定している場合に、それぞれのキャラクタの動きを同期または連携させて表示させてもよい。例えば、出力制御部158は、複数のキャラクタが一緒に手を振ったり、歩く動作を行わせたり、お互いのキャラクタが握手をしたり、交互にジャンプするといった動作を行わせてもよい。このように、キャラクタ同士が同期または連携して動作させることで、ユーザ同士の親交が深まるように支援することができる。 Further, the output control unit 158 may control the character so as not to perform an operation when a plurality of users are recognized by the user recognition unit 154 and each user sets a different operation. good. Further, the output control unit 158 may display the movements of the respective characters in synchronization or cooperation when the movements of the respective characters are set to be common or highly related. For example, the output control unit 158 may cause a plurality of characters to wave their hands together, walk, shake hands, or jump alternately. In this way, by operating the characters in synchronization or cooperation with each other, it is possible to support the deepening of friendship between the users.

[第7場面]
図16は、第7場面における出力態様の様子を説明するための図である。第7場面は、エージェントに関連付けられた付随時情報に応じて、ユーザにレコメンドする場面を示している。第7場面では、車両Mの運転席にユーザUAが着座しているものとする。画像制御部152は、ユーザ認識部154により認識されているユーザUAが認識された場合に、ユーザUAが予め設定している通りに、エージェント画像A1が海向けのファッションを着用した画像IM6を表示させる。ここで、出力制御部158は、エージェントサーバ200から海に関するレコメンド情報を取得し、取得したレコメンド情報を他のレコメンド情報よりも優先してユーザに出力する。
[Scene 7]
FIG. 16 is a diagram for explaining the state of the output mode in the seventh scene. The seventh scene shows a scene of recommending to the user according to the incidental information associated with the agent. In the seventh scene, it is assumed that the user UA is seated in the driver's seat of the vehicle M. When the user UA recognized by the user recognition unit 154 is recognized, the image control unit 152 displays the image IM6 in which the agent image A1 wears a fashion for the sea as preset by the user UA. Let me. Here, the output control unit 158 acquires the recommendation information about the sea from the agent server 200, and outputs the acquired recommendation information to the user with priority over other recommendation information.

図16の例において、ユーザUAが目的地までの走行ルートをエージェントに問い合わせた場合に、問い合わせ結果として得られた経路のうち、エージェント画像が海向けのファッションをしているため、海沿いを走行するルートを優先的に表示させる。また、出力制御部158は、第7場面における出力情報OP3として、「海沿いのルートを走行します。」等の音声を出力する。図7場面によれば、ユーザが設定した付随画像に対応付けられたレコメンド情報を他のレコメンド情報よりも優先してユーザに提供することができる。 In the example of FIG. 16, when the user UA inquires the agent about the traveling route to the destination, among the routes obtained as the inquiry result, the agent image is fashioned for the sea, so that the user travels along the sea. Priority is given to the route to be displayed. Further, the output control unit 158 outputs a sound such as "Traveling along the route along the sea" as the output information OP3 in the seventh scene. According to the scene of FIG. 7, the recommendation information associated with the accompanying image set by the user can be provided to the user with priority over other recommendation information.

[第8場面]
図17は、第8場面における出力態様の様子を説明するための図である。第8場面は、ユーザ認識部154により認識されたユーザが複数人である場合にレコメンド情報を出力する場面を示している。図17の例では、図13と同様に運転席DSにユーザUAが着座し、助手席ASにユーザUDが着座しているものとする。この場合、画像制御部152は、それぞれのユーザUA、UDに対応するエージェント画像A1、A2を表示させると共に、エージェントが二人表示されている場合のレコメンド情報として、二人で楽しめる観光スポット等をレコメンドする。また、出力制御部158は、第8場面における出力情報OP4として、「二人で楽しめる観光スポットを紹介します。」等の音声を出力する。
[Eighth scene]
FIG. 17 is a diagram for explaining the state of the output mode in the eighth scene. The eighth scene shows a scene where the recommendation information is output when there are a plurality of users recognized by the user recognition unit 154. In the example of FIG. 17, it is assumed that the user UA is seated in the driver's seat DS and the user UD is seated in the passenger seat AS as in FIG. In this case, the image control unit 152 displays the agent images A1 and A2 corresponding to the respective users UA and UD, and also displays tourist spots and the like that can be enjoyed by two people as recommendation information when two agents are displayed. Make a recommendation. In addition, the output control unit 158 outputs a sound such as "Introducing a sightseeing spot that can be enjoyed by two people" as the output information OP4 in the eighth scene.

これにより、車両Mの乗車しているユーザや、表示されているキャラクタ画像に応じて、より適切なレコメンド情報を優先的にユーザに提供することができる。この結果、より適切な情報をユーザに提供することができる。 As a result, more appropriate recommendation information can be preferentially provided to the user according to the user on which the vehicle M is on board and the displayed character image. As a result, more appropriate information can be provided to the user.

図18は、画像制御部152および出力制御部158によるエージェント画像の出力例を一覧形式で示す図である。図18に示す情報は、例えば、画像制御部152および出力制御部158による制御時に用いられる。図18の例では、エージェントが同一であるか否かを示す情報、装飾品のグループを示す情報、他者の装飾品を表示するか否かを示す情報に、出力イメージが対応付けられている。例えば、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が同一であり、且つ所定の装飾品の種類が同一である場合(図18に示すNo.1の場合)、画像制御部152は、エージェント画像A1が所定の装飾品画像IMAを装備した画像を表示・操作装置20に表示させる。なお、ユーザ認識部154により認識されたユーザが一人であって、所定の装飾品を表示すると設定されている場合も同様に、エージェント画像A1が所定の装飾品画像IMAを装備した画像を生成し、生成した画像を表示・操作装置20に表示させる。このとき、出力制御部158は、装備に関する付随時情報をエージェントに提供させる。 FIG. 18 is a diagram showing an output example of an agent image by the image control unit 152 and the output control unit 158 in a list format. The information shown in FIG. 18 is used, for example, when controlled by the image control unit 152 and the output control unit 158. In the example of FIG. 18, the output image is associated with information indicating whether or not the agents are the same, information indicating a group of ornaments, and information indicating whether or not to display the ornaments of another person. .. For example, when there are a plurality of users recognized by the user recognition unit 154, the agent images to be displayed are the same, and the type of the predetermined ornament is the same (in the case of No. 1 shown in FIG. 18). The image control unit 152 causes the display / operation device 20 to display an image in which the agent image A1 is equipped with a predetermined accessory image IMA. Similarly, when there is only one user recognized by the user recognition unit 154 and it is set to display a predetermined ornament, the agent image A1 generates an image equipped with the predetermined ornament image IMA. , The generated image is displayed on the display / operation device 20. At this time, the output control unit 158 causes the agent to provide incidental information regarding the equipment.

また、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が同一であり、且つ所定の装飾品の種類が同一でない場合であり、ユーザの少なくとも一人が他者の装飾品画像の表示を不許可とする設定をしている場合(図18に示すNo.2の場合)、画像制御部152は、エージェント画像A1が所定の装飾品画像IMAを装備していない画像を表示・操作装置20に表示させる。このとき、出力制御部158は、付随時情報をエージェントにサービスとして提供させない。 Further, there are a plurality of users recognized by the user recognition unit 154, the agent images to be displayed are the same, and the types of predetermined ornaments are not the same, and at least one of the users is the decoration of another person. When the display of the product image is not permitted (in the case of No. 2 shown in FIG. 18), the image control unit 152 displays an image in which the agent image A1 is not equipped with the predetermined ornament image IMA. Display / Display on the operation device 20. At this time, the output control unit 158 does not allow the agent to provide the incidental information as a service.

また、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が同一であり、且つ所定の装飾品の種類が同一でない場合であり、ユーザの全員が他者の装飾品画像の表示を許可する設定をしている場合(図18に示すNo.3の場合)、画像制御部152は、エージェント画像A1がそれぞれのユーザが設定した所定の装飾品画像IMAを重ね付けした画像を表示・操作装置20に表示させる。このとき、出力制御部158は、所定の装飾品のそれぞれに関連する出力情報をエージェントにサービスとして提供させてもよいし、いずれかのユーザの設定した装備時情報のみをサービスとして提供させてもよいし、装備時情報を提供させなくてもよい。 Further, there are a plurality of users recognized by the user recognition unit 154, the agent images to be displayed are the same, and the predetermined types of ornaments are not the same, and all the users are the ornaments of others. When the image display is set to be permitted (No. 3 shown in FIG. 18), the image control unit 152 superimposes the agent image A1 on the predetermined decorative image IMA set by each user. The image is displayed on the display / operation device 20. At this time, the output control unit 158 may cause the agent to provide output information related to each of the predetermined ornaments as a service, or may cause the agent to provide only the equipment-time information set by any user as a service. It is okay, and it is not necessary to provide information at the time of equipment.

一方、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が異なり、且つ所定の装飾品の種類が同一である場合(図18に示すNo.4の場合)、画像制御部152は、エージェント画像A1とエージェント画像A2のそれぞれが所定の装飾品画像IMAを装備した画像を表示・操作装置20に表示させる。このとき、出力制御部158は、所定の装飾品のそれぞれに関連する出力情報をエージェントにサービスとして提供させてもよいし、いずれかのユーザの設定した装備時情報のみをサービスとして提供させてもよいし、装備時情報を提供させなくてもよい。 On the other hand, when there are a plurality of users recognized by the user recognition unit 154, the agent images to be displayed are different, and the type of the predetermined ornament is the same (in the case of No. 4 shown in FIG. 18), the image. The control unit 152 causes the display / operation device 20 to display an image in which each of the agent image A1 and the agent image A2 is equipped with a predetermined ornament image IMA. At this time, the output control unit 158 may cause the agent to provide output information related to each of the predetermined ornaments as a service, or may cause the agent to provide only the equipment-time information set by any user as a service. It is okay, and it is not necessary to provide information at the time of equipment.

また、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が異なり、且つ所定の装飾品の種類が同一でない場合であり、ユーザの少なくとも一人が他者の装飾品画像の表示を不許可とする設定をしている場合(図18に示すNo.5の場合)、画像制御部152は、エージェント画像A1およびエージェント画像A2が所定の装飾品画像IMAを装備していない画像を表示・操作装置20に表示させる。このとき、出力制御部158は、装備時情報をエージェントにサービスとして提供させない。 Further, when there are a plurality of users recognized by the user recognition unit 154, the agent images to be displayed are different, and the predetermined types of ornaments are not the same, at least one of the users is an ornament image of another person. When the display of is not permitted (in the case of No. 5 shown in FIG. 18), the image control unit 152 does not equip the agent image A1 and the agent image A2 with the predetermined ornament image IMA. The image is displayed on the display / operation device 20. At this time, the output control unit 158 does not allow the agent to provide the equipped information as a service.

また、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が異なり、且つユーザの全員が他者の装飾品画像の表示を許可する設定をしており、一方のエージェントは所定の装飾品を装備する設定であり、他方のエージェントは装飾品を装備しない設定である場合(図18に示すNo.6の場合)、画像制御部152は、エージェント画像A1がユーザにより設定された所定の装飾品画像IMAを装備し、エージェント画像A2は装飾品を装備していない画像を表示・操作装置20に表示させる。このとき、出力制御部158は、装備時情報をエージェントにサービスとして提供させてもよいし、装備時情報を提供させなくてもよい。 Further, there are a plurality of users recognized by the user recognition unit 154, the agent images to be displayed are different, and all the users are set to allow the display of the ornament image of another person, and one of the agents. Is a setting to equip a predetermined ornament, and when the other agent is set not to equip the ornament (in the case of No. 6 shown in FIG. 18), the image control unit 152 sets the agent image A1 by the user. Equipped with the predetermined decorative image IMA, the agent image A2 causes the display / operation device 20 to display an image without the ornament. At this time, the output control unit 158 may or may not have the agent provide the equipped time information as a service, or may not provide the equipped time information.

また、ユーザ認識部154により認識されたユーザが複数人であって、表示するエージェント画像が異なり、且つユーザの全員が他者の装飾品画像の表示を許可する設定をしており、それぞれのエージェント画像は異なる所定の装飾品を装備する設定である場合(図18に示すNo.7の場合)、画像制御部152は、エージェント画像A1およびエージェント画像A2がユーザにより設定されたそれぞれ異なる所定の装飾品画像IMAを装備した画像を表示・操作装置20に表示させる。このとき、出力制御部158は、所定の装飾品のそれぞれに関連する出力情報をエージェントにサービスとして提供させてもよいし、いずれかのユーザの設定した装備時情報のみをサービスとして提供させてもよいし、装備時情報を提供させなくてもよい。 Further, there are a plurality of users recognized by the user recognition unit 154, the agent images to be displayed are different, and all the users are set to allow the display of the ornament image of another person, and each agent. When the image is set to be equipped with different predetermined decorations (in the case of No. 7 shown in FIG. 18), the image control unit 152 has different predetermined decorations in which the agent image A1 and the agent image A2 are set by the user. Product image An image equipped with IMA is displayed on the display / operation device 20. At this time, the output control unit 158 may cause the agent to provide output information related to each of the predetermined ornaments as a service, or may cause the agent to provide only the equipment-time information set by any user as a service. It is okay, and it is not necessary to provide information at the time of equipment.

なお、出力例の一覧形式には、図18に示す情報に加えて、装飾品以外の付属画像のグループや表示を許可するか否かの情報に対応付けた出力イメージが含まれていてもよい。また、図18に示すに示す出力イメージには、エージェントの動作に関する情報(例えば、手を合わせる、お辞儀をする、手を振る、踊る、歩く等)が含まれていてもよい。 In addition to the information shown in FIG. 18, the list format of the output example may include an output image associated with a group of attached images other than ornaments and information on whether or not to allow display. .. In addition, the output image shown in FIG. 18 may include information regarding the operation of the agent (for example, holding hands, bowing, waving, dancing, walking, etc.).

[処理フロー]
次に、エージェント装置100における処理の流れについて説明する。なお、以下では、ユーザによるエージェントや付随画像の設定を受け付ける設定処理と、設定された情報とに基づいて、エージェントの表示制御処理とに分けて説明する。
[Processing flow]
Next, the processing flow in the agent device 100 will be described. In the following, the setting process for accepting the setting of the agent and the accompanying image by the user and the display control process for the agent based on the set information will be described separately.

図19は、エージェント装置100による設定処理の流れの一例を示すフローチャートである。図19に示す処理フローは、例えば、車両Mにユーザが乗車する前や、ユーザが所定の装飾品を購入したタイミングなどに行われる。 FIG. 19 is a flowchart showing an example of the flow of the setting process by the agent device 100. The processing flow shown in FIG. 19 is performed, for example, before the user gets on the vehicle M, or at the timing when the user purchases a predetermined accessory.

まず、エージェント装置100は、ユーザによる表示エージェントの設定を受け付ける
(ステップS100)。次に、エージェント関連情報設定部156は、表示・操作装置20に表示するエージェントの画像と併せて表示する付随情報の登録を受け付ける(ステップS102)。付随情報には、例えば、購入した装飾品や洋服等の物品の登録や、登録した物品に関する付随画像が含まれる。また、付随情報には、ユーザの誓いに関する情報が併せて登録されてもよい。次に、出力制御部158は、付随情報関連DB255を参照して出力情報、出力態様等の付随時情報の候補を提示し(ステップS104)、ユーザによる付随時情報の選択を受け付け、ユーザ設定情報162や付随情報関連DB255に反映する(ステップS106)。これにより、本フローチャートの処理は、終了する。
First, the agent device 100 accepts the user's setting of the display agent (step S100). Next, the agent-related information setting unit 156 accepts registration of incidental information to be displayed together with the image of the agent to be displayed on the display / operation device 20 (step S102). The accompanying information includes, for example, registration of an article such as a purchased accessory or clothes, and an accompanying image relating to the registered article. In addition, information on the user's oath may be registered together with the accompanying information. Next, the output control unit 158 presents candidates for incidental information such as output information and output mode with reference to the incidental information-related DB 255 (step S104), accepts the user's selection of incidental information, and user setting information. It is reflected in 162 and the accompanying information-related DB 255 (step S106). As a result, the processing of this flowchart ends.

図20は、エージェント装置100による表示制御処理の流れの一例を示すフローチャートである。図20に示す処理フローは、例えば、エージェント機能部150によりエージェント画像を表示してサービスを提供している最中や、エージェント画像の表示を開始するタイミング、乗員認識装置80により新たなユーザが認識されたタイミングに行われる。以下では、付随画像の一例として装飾品の画像を用いて説明する。 FIG. 20 is a flowchart showing an example of the flow of display control processing by the agent device 100. The processing flow shown in FIG. 20 is, for example, recognized by a new user during the process of displaying the agent image by the agent function unit 150 and providing the service, the timing of starting the display of the agent image, and the occupant recognition device 80. It is done at the timing that was done. In the following, an image of an ornament will be used as an example of the accompanying image.

まず、ユーザ認識部154は、乗員認識装置80により認識されたユーザのユーザ設定情報162を呼び出す(ステップS200)。次に、ユーザ認識部154は、認識されたユーザが一人か否かを判定する(ステップS202)。ユーザが一人であると判定された場合、画像制御部152は、ユーザ設定情報162に格納されたユーザの事前設定に応じて、エージェント画像が所定の装飾品を装備した画像の表示を開始し、出力制御部158は、出力情報の設定に基づく情報提供を行う(ステップS204)。ステップS204の処理において、出力制御部158は、エージェント画像とともに表示される装飾品画像に応じて、エージェントに所定の動作を行わせたり、装飾品画像に応じたレコメンド情報を優先的に出力する制御を行ってもよい。 First, the user recognition unit 154 calls the user setting information 162 of the user recognized by the occupant recognition device 80 (step S200). Next, the user recognition unit 154 determines whether or not there is only one recognized user (step S202). When it is determined that there is only one user, the image control unit 152 starts displaying an image in which the agent image is equipped with a predetermined accessory according to the user's preset stored in the user setting information 162. The output control unit 158 provides information based on the setting of the output information (step S204). In the process of step S204, the output control unit 158 controls the agent to perform a predetermined operation according to the accessory image displayed together with the agent image, and preferentially outputs the recommendation information according to the accessory image. May be done.

また、ステップS202の処理において、認識されたユーザが一人ではない(複数人である)と判定された場合、画像制御部152は、認識されたユーザのそれぞれが設定している装飾品の種類が同一であるか否かを判定する(ステップS206)。なお、ステップS206の処理において、「装飾品が同一である」とは、装飾品が完全に一致することや、装飾品の種類が同一(または類似)であることが含まれてもよい。また、ステップS206の処理において、少なくとも一方の装飾品の宗教性がない場合には「装飾品が同一」と判定されてもよい。 Further, in the process of step S202, when it is determined that the recognized user is not one person (there are a plurality of people), the image control unit 152 determines the type of decoration set by each of the recognized users. It is determined whether or not they are the same (step S206). In the process of step S206, "the ornaments are the same" may include that the ornaments are completely the same and that the types of the ornaments are the same (or similar). Further, in the process of step S206, if at least one of the ornaments is not religious, it may be determined that the ornaments are the same.

ステップS206の処理において、同一の装飾品であると判定された場合、画像制御部152は、装飾品を装備したエージェント画像を表示すると決定する(ステップS208)。ステップS206の処理において、同一の種類の装飾品でないと判定された場合、画像制御部152は、ユーザ設定情報162等を参照し、ユーザが装飾品画像の表示を許容しているか否かを判定する(ステップS210)。「表示を許容する」とは、ユーザ設定情報162の出力態様情報において、何らかの出力パターンで付随画像を表示させると設定されている場合を示す。表示を許容する場合、画像制御部152は、ステップS208に処理を進める。表示を許容しない場合、画像制御部152は、装飾品を装備していないエージェント画像を表示すると決定する(ステップS212)。 If it is determined in the process of step S206 that the ornaments are the same, the image control unit 152 determines to display the agent image equipped with the ornament (step S208). When it is determined in the process of step S206 that the ornaments are not of the same type, the image control unit 152 refers to the user setting information 162 and the like, and determines whether or not the user allows the display of the ornament image. (Step S210). “Allow display” indicates a case where the output mode information of the user setting information 162 is set to display an accompanying image with some output pattern. If the display is allowed, the image control unit 152 proceeds to step S208. If the display is not allowed, the image control unit 152 determines to display the agent image without the ornament (step S212).

ステップS208またはステップS212の処理の後、画像制御部152は、同一のエージェントを表示するか否かを判定する(ステップS214)。同一のエージェント画像を表示すると判定した場合、画像制御部152は、単一のエージェント画像を表示・操作装置20に表示すると決定する(ステップS216)。ステップS214において異なるエージェント画像を表示すると判定した場合、画像制御部152は、複数のエージェント画像を表示・操作装置20に表示すると決定する(ステップS218)。ステップS216またはステップS218の処理の後、画像制御部152は、ステップS204に処理を進める。以上、本フローチャートの処理の説明を終了する。 After the processing of step S208 or step S212, the image control unit 152 determines whether or not to display the same agent (step S214). When it is determined that the same agent image is to be displayed, the image control unit 152 determines to display a single agent image on the display / operation device 20 (step S216). When it is determined in step S214 that different agent images are to be displayed, the image control unit 152 determines to display a plurality of agent images on the display / operation device 20 (step S218). After the process of step S216 or step S218, the image control unit 152 proceeds to step S204. This is the end of the description of the processing of this flowchart.

上記説明した実施形態のエージェント装置100によれば、ユーザに、より適切な出力態様で情報を提供することができる。また、本実施形態によれば、ユーザがエージェントや装飾品を選ぶことで自身の気分や嗜好等を車両のレコメンドシステムに反映させることができる。また、実施形態によれば、エージェント画像に装飾品を付すことでエージェント画像の動作内容を、ユーザが、装飾品ごとに設定することができる。また、エージェント画像が装飾品を装備した状態の画像を表示させることができる。これによりユーザに、仮想的にお守りなどの装飾品を携行させることができる。また、これによりユーザは、装飾品を携行し忘れたり、車両に装飾品を置き忘れたりするといった煩わしさから解放される。 According to the agent device 100 of the embodiment described above, information can be provided to the user in a more appropriate output mode. Further, according to the present embodiment, the user can reflect his / her mood, preference, etc. in the vehicle recommendation system by selecting an agent or an accessory. Further, according to the embodiment, by attaching a decorative item to the agent image, the user can set the operation content of the agent image for each decorative item. In addition, the agent image can display an image in which the ornament is equipped. As a result, the user can virtually carry an ornament such as an amulet. In addition, this frees the user from the hassle of forgetting to carry the ornament or leaving the ornament in the vehicle.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

10 マイク
20 表示・操作装置
30 スピーカユニット
40 ナビゲーション装置
50 車両機器
60 車載通信装置
70 汎用通信装置
80 乗員認識装置
100 エージェント装置
110 管理部
112 音響処理部
114 表示制御部
116 設定部
116A 画像設定部
116B 情報設定部
118 音声制御部
150 エージェント機能部
152 画像制御部
154 ユーザ認識部
156 エージェント関連情報設定部
158 出力制御部
160、250 記憶部
200 エージェントサーバ
220 音声認識部
222 自然言語処理部
224 対話管理部
226 ネットワーク検索部
228 応答文生成部
10 Microphone 20 Display / operation device 30 Speaker unit 40 Navigation device 50 Vehicle equipment 60 In-vehicle communication device 70 General-purpose communication device 80 Crew recognition device 100 Agent device 110 Management unit 112 Sound processing unit 114 Display control unit 116 Setting unit 116A Image setting unit 116B Information setting unit 118 Voice control unit 150 Agent function unit 152 Image control unit 154 User recognition unit 156 Agent-related information setting unit 158 Output control unit 160, 250 Storage unit 200 Agent server 220 Voice recognition unit 222 Natural language processing unit 224 Dialogue management unit 226 Network search unit 228 Response statement generation unit

Claims (10)

出力装置にキャラクタの画像を表示させる表示制御装置であって、
前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付ける画像設定部と、
前記出力装置に前記キャラクタの画像が前記付随画像がとともに表示される場合に、前記付随画像に対応付けられたコンテンツを、他のコンテンツよりも優先して、前記出力装置に出力させる出力制御部と、
を備える、表示制御装置。
A display control device that displays a character image on an output device.
An image setting unit that accepts a setting for displaying an accompanying image associated with the character on the output device together with the image of the character.
When the image of the character is displayed together with the accompanying image on the output device, the output control unit that outputs the content associated with the accompanying image to the output device with priority over other contents. ,
A display control device.
前記出力装置に前記付随画像が前記キャラクタの画像とともに表示されることに対応付けて前記出力装置から出力させる付随時情報の設定を受け付ける情報設定部をさらに備え、
前記画像設定部は、ユーザごとに前記付随時情報の設定を可能とする、
請求項1に記載の表示制御装置。
The output device further includes an information setting unit that accepts the setting of the accompanying information to be output from the output device in association with the display of the accompanying image together with the image of the character.
The image setting unit enables the setting of the accompanying information for each user.
The display control device according to claim 1.
前記付随画像は、前記キャラクタが装備する装飾品の画像または前記キャラクタとは異なる他のキャラクタの画像のうち一方または双方を含む、
請求項1または2に記載の表示制御装置。
The accompanying image includes one or both of an image of an ornament equipped by the character or an image of another character different from the character.
The display control device according to claim 1 or 2.
前記コンテンツは、前記付随画像に関連付けられたレコメンド情報を含む、
請求項1から3のうち何れか1項に記載の表示制御装置。
The content includes recommendation information associated with the accompanying image.
The display control device according to any one of claims 1 to 3.
前記出力装置を使用するユーザを認識する認識部をさらに備え、
前記情報設定部は、前記認識部により認識されたユーザが、前記付随画像を表示させる権限を有する場合に、前記出力装置に前記キャラクタの画像が前記付随画像がとともに表示される場合における前記付随時情報の設定を受け付ける、
請求項2に記載の表示制御装置。
A recognition unit that recognizes a user who uses the output device is further provided.
The information setting unit is used when the user recognized by the recognition unit has the authority to display the accompanying image, and when the image of the character is displayed together with the accompanying image on the output device. Accept information settings,
The display control device according to claim 2.
前記出力制御部は、前記認識部により認識されたユーザが、前記付随画像を表示させる権限を有する場合に、前記付随時情報を前記出力装置に出力させる、
請求項5に記載の表示制御装置。
The output control unit causes the output device to output the incidental information when the user recognized by the recognition unit has the authority to display the accompanying image.
The display control device according to claim 5.
前記出力装置は、車両に搭載可能な装置であり、
前記情報設定部は、前記付随時情報を前記車両の状態に対応付けて設定可能とする、
請求項2に記載の表示制御装置。
The output device is a device that can be mounted on a vehicle.
The information setting unit makes it possible to set the incidental information in association with the state of the vehicle.
The display control device according to claim 2.
前記出力制御部は、前記付随画像として前記キャラクタと異なる他のキャラクタの画像を前記出力装置に表示させる場合に、表示されるキャラクタの数や種類に応じたコンテンツを他のコンテンツよりも優先して前記出力装置に表示させる、
請求項1から7のうち何れか1項に記載の表示制御装置。
When the output control unit displays an image of another character different from the character as the accompanying image on the output device, the output control unit gives priority to the content according to the number and types of the displayed characters over the other content. Displayed on the output device,
The display control device according to any one of claims 1 to 7.
出力装置にキャラクタの画像を表示させる表示制御装置が、
前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付け、
前記出力装置に前記キャラクタの画像が前記付随画像がとともに表示される場合に、前記付随画像に対応付けられたコンテンツを、他のコンテンツよりも優先して、前記出力装置に出力させる、
表示制御方法。
The display control device that displays the character image on the output device
The output device accepts a setting to display an accompanying image associated with the character together with the image of the character.
When the image of the character is displayed together with the accompanying image on the output device, the content associated with the accompanying image is output to the output device with priority over other contents.
Display control method.
出力装置にキャラクタの画像を表示させる表示制御装置に、
前記出力装置に、前記キャラクタに関連付けた付随画像を前記キャラクタの画像とともに表示させる設定を受け付けさせ、
前記出力装置に前記キャラクタの画像が前記付随画像がとともに表示される場合に、前記付随画像に対応付けられたコンテンツを、他のコンテンツよりも優先して、前記出力装置に出力させる、
プログラム。
For display control devices that display character images on output devices,
The output device is made to accept the setting to display the accompanying image associated with the character together with the image of the character.
When the image of the character is displayed together with the accompanying image on the output device, the content associated with the accompanying image is output to the output device with priority over other contents.
program.
JP2020049645A 2020-03-19 2020-03-19 Display control device, display control method, and program Active JP7386739B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020049645A JP7386739B2 (en) 2020-03-19 2020-03-19 Display control device, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020049645A JP7386739B2 (en) 2020-03-19 2020-03-19 Display control device, display control method, and program

Publications (2)

Publication Number Publication Date
JP2021149616A true JP2021149616A (en) 2021-09-27
JP7386739B2 JP7386739B2 (en) 2023-11-27

Family

ID=77849164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049645A Active JP7386739B2 (en) 2020-03-19 2020-03-19 Display control device, display control method, and program

Country Status (1)

Country Link
JP (1) JP7386739B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195578A (en) * 2005-01-11 2006-07-27 Toyota Motor Corp Vehicle agent apparatus and agent system
JP2009181457A (en) * 2008-01-31 2009-08-13 G Mode:Kk Chat software
JP2012018569A (en) * 2010-07-08 2012-01-26 Namco Bandai Games Inc Program, information storage medium and user terminal
JP2015129993A (en) * 2014-01-06 2015-07-16 株式会社リコー Information processing system, operation device, information display method, and program
JP2018075260A (en) * 2016-11-10 2018-05-17 株式会社バンダイナムコエンターテインメント Game system and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195578A (en) * 2005-01-11 2006-07-27 Toyota Motor Corp Vehicle agent apparatus and agent system
JP2009181457A (en) * 2008-01-31 2009-08-13 G Mode:Kk Chat software
JP2012018569A (en) * 2010-07-08 2012-01-26 Namco Bandai Games Inc Program, information storage medium and user terminal
JP2015129993A (en) * 2014-01-06 2015-07-16 株式会社リコー Information processing system, operation device, information display method, and program
JP2018075260A (en) * 2016-11-10 2018-05-17 株式会社バンダイナムコエンターテインメント Game system and program

Also Published As

Publication number Publication date
JP7386739B2 (en) 2023-11-27

Similar Documents

Publication Publication Date Title
US11211033B2 (en) Agent device, method of controlling agent device, and storage medium for providing service based on vehicle occupant speech
US11380325B2 (en) Agent device, system, control method of agent device, and storage medium
JPH11259446A (en) Agent device
US20200286452A1 (en) Agent device, agent device control method, and storage medium
US20200320997A1 (en) Agent apparatus, agent apparatus control method, and storage medium
CN111746435B (en) Information providing apparatus, information providing method, and storage medium
US11709065B2 (en) Information providing device, information providing method, and storage medium
JP2020144274A (en) Agent device, control method of agent device, and program
US11518398B2 (en) Agent system, agent server, method of controlling agent server, and storage medium
CN111717142A (en) Agent device, control method for agent device, and storage medium
JP7394674B2 (en) Display control device, display control method, and program
JP7386739B2 (en) Display control device, display control method, and program
JP7424880B2 (en) Display control device, display control method, and program
US11437035B2 (en) Agent device, method for controlling agent device, and storage medium
JP2020154082A (en) Agent device, control method of agent device, and program
CN111724778B (en) In-vehicle apparatus, control method for in-vehicle apparatus, and storage medium
CN111667823B (en) Agent device, method for controlling agent device, and storage medium
JP7245695B2 (en) Server device, information providing system, and information providing method
CN111559317B (en) Agent device, method for controlling agent device, and storage medium
JP2020142721A (en) Agent system, on-vehicle equipment control method, and program
JP2020160285A (en) Agent device, information offering method and program
CN110785628A (en) Navigation device, navigation information processing device, and navigation information receiving device
JP2020154993A (en) Ride-share system, information processing method, and program
CN111824174A (en) Agent device, control method for agent device, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231114

R150 Certificate of patent or registration of utility model

Ref document number: 7386739

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150