JP7263187B2 - Information processing device and method - Google Patents

Information processing device and method Download PDF

Info

Publication number
JP7263187B2
JP7263187B2 JP2019167061A JP2019167061A JP7263187B2 JP 7263187 B2 JP7263187 B2 JP 7263187B2 JP 2019167061 A JP2019167061 A JP 2019167061A JP 2019167061 A JP2019167061 A JP 2019167061A JP 7263187 B2 JP7263187 B2 JP 7263187B2
Authority
JP
Japan
Prior art keywords
user
output
communication information
agent function
output frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019167061A
Other languages
Japanese (ja)
Other versions
JP2021043852A (en
Inventor
佳紀 草柳
拓良 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019167061A priority Critical patent/JP7263187B2/en
Publication of JP2021043852A publication Critical patent/JP2021043852A/en
Application granted granted Critical
Publication of JP7263187B2 publication Critical patent/JP7263187B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置及び方法に関するものである。 The present invention relates to an information processing apparatus and method.

従来のナビゲーション装置において、自車両が右左折などの案内点に近づくと、音声案内を出力して案内点を報知することが行われている。特許文献1には、たとえば、案内点の700m手前では「ポン」、400m手前では「ポンポン」、案内点では「ポーン」と出力するなど、案内点までの距離に応じて効果音の回数を変え、運転手に分かり易くする報知制御装置が開示されている。 In a conventional navigation device, when the vehicle approaches a guidance point such as a right or left turn, voice guidance is output to inform the user of the guidance point. In Patent Document 1, for example, ``Pong'' is output 700m before the guide point, ``Pompon'' is output 400m before the guide point, and ``Pawn'' is output at the guide point. , a driver-friendly notification control system is disclosed.

特開2005-315630号公報JP-A-2005-315630

しかしながら、いわゆるエージェント機能として、ユーザに対して、経路や周辺スポット等の各種情報の案内や通知を行う場合、上記従来技術では、ユーザに案内点を画一的な方法で報知するのみであり、ユーザによっては、しつこい、くどい、煩わしいと感じることもある。 However, as a so-called agent function, when guiding and notifying various information such as routes and nearby spots to the user, the above conventional technology only informs the user of guidance points in a uniform manner. Some users may find it persistent, repetitive, or annoying.

本発明が解決しようとする課題は、ユーザに対して適切な頻度でコミュニケーションを行う情報処理装置及び方法を提供することである。 A problem to be solved by the present invention is to provide an information processing apparatus and method for communicating with a user at an appropriate frequency.

本発明は、ユーザとのコミュニケーションを、エージェント機能を用いて行う情報処理装置において、エージェント機能によるコミュニケーション情報が出力された後の、前記ユーザの所定の状態に応じて、前記エージェント機能によるコミュニケーション情報の出力頻度を制御することによって上記課題を解決する。 The present invention provides an information processing apparatus that communicates with a user using an agent function, in which, after communication information by the agent function is output, communication information by the agent function is generated according to a predetermined state of the user. The above problem is solved by controlling the output frequency.

本発明によれば、エージェント機能によるコミュニケーション情報に対するユーザの状態をその後の出力頻度にフィードバックするので、ユーザに対して適切な頻度でコミュニケーションを行うことができる。さらには、ユーザがエージェントに好印象や親近感を抱き易くなるという効果を奏する。 According to the present invention, since the state of the user with respect to the communication information by the agent function is fed back to the subsequent output frequency, it is possible to communicate with the user at an appropriate frequency. Furthermore, there is an effect that the user is likely to have a favorable impression and a sense of familiarity with the agent.

本発明に係る車両用情報処理装置の実施形態を示すブロック図である。1 is a block diagram showing an embodiment of a vehicle information processing device according to the present invention; FIG. 図1のエージェントの動作を示す正面図である。2 is a front view showing the operation of the agent of FIG. 1; FIG. 図1のエージェントの設置場所の一例を示す車室内の図である。2 is a diagram of the interior of a vehicle showing an example of an installation location of an agent in FIG. 1; FIG. 図1の車両用情報処理装置にて実行される情報処理手順を示すフローチャート(その1)である。FIG. 2 is a flowchart (Part 1) showing an information processing procedure executed by the vehicle information processing apparatus of FIG. 1; FIG. 図1の車両用情報処理装置にて実行される情報処理手順を示すフローチャート(その2)である。FIG. 2 is a flowchart (part 2) showing an information processing procedure executed by the vehicle information processing apparatus of FIG. 1; FIG. 図1の車両用情報処理装置にて実行される情報処理手順を示すフローチャート(その3)である。3 is a flowchart (part 3) showing an information processing procedure executed by the vehicle information processing apparatus of FIG. 1; 図1の車両用情報処理装置にて実行される他の情報処理手順を示すフローチャート(その1)である。4 is a flowchart (part 1) showing another information processing procedure executed by the vehicle information processing apparatus of FIG. 1; 図1の車両用情報処理装置にて実行される他の情報処理手順を示すフローチャート(その2)である。FIG. 2 is a flowchart (part 2) showing another information processing procedure executed by the vehicle information processing apparatus of FIG. 1; FIG. 図1の車両用情報処理装置にて実行される他の情報処理手順を示すフローチャート(その3)である。3 is a flowchart (part 3) showing another information processing procedure executed by the vehicle information processing apparatus of FIG. 1;

以下、本発明の実施形態を図面に基づいて説明する。図1は、本発明に係る車両用情報処理装置1の実施形態を示すブロック図、図2Aは、エージェント6の動作を示す正面図、図2Bは、エージェント6の設置場所の一例を示す車室内の図である。本実施形態の車両用情報処理装置1は、運転者及び同乗者(以下、これら運転者及び同乗者を車両の乗員又は単に乗員とも称する。)に対し、擬人化されたエージェント(以下、単にエージェント6ともいう。)によるエージェント機能、具体的にはエージェント6の動作・姿勢,エージェント6から出力される音声,エージェント6に表示される画像,エージェント6から出力される発光パターンといった媒体を介して、情報を提供し、又は乗員との間で会話する装置である。なお、ここではエージェント6が車両に備えられる例を示すが、これに限られない。エージェント6は、エージェント機能を搭載した電子機器であればよく、例えば、持ち運び可能なスピーカ型電子機器やディスプレイ付電子機器であってもよい。また、以下に説明するエージェント6の音声出力及び映像出力に関する機能をスマートフォン等の携帯電話に搭載してもよい。また、擬人化されたエージェントは一例であり、人間を模さずとも、所定のキャラクター、アバターやアイコンを表示させたエージェントであってもよい。エージェントは、物理的な個体として設けられてもよく、あるいは、エージェントとしての人間やキャラクター等の形を画像としてディスプレイ上に表示させてもよい。 BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a vehicle information processing apparatus 1 according to the present invention, FIG. 2A is a front view showing the operation of an agent 6, and FIG. is a diagram. The vehicle information processing apparatus 1 of the present embodiment provides anthropomorphic agents (hereinafter simply agent 6.), specifically, the action/posture of the agent 6, the voice output from the agent 6, the image displayed on the agent 6, and the light emission pattern output from the agent 6. A device that provides information or communicates with the occupant. Although an example in which the agent 6 is provided in a vehicle is shown here, the present invention is not limited to this. The agent 6 may be an electronic device equipped with an agent function, and may be, for example, a portable speaker-type electronic device or an electronic device with a display. In addition, a mobile phone such as a smart phone may be equipped with functions related to the voice output and video output of the agent 6, which will be described below. Also, anthropomorphic agents are just an example, and agents that do not imitate humans but display predetermined characters, avatars, or icons may be used. The agent may be provided as a physical individual, or may be displayed on the display as an image in the form of a person or character as the agent.

エージェント6は、図1,図2A及び図2Bに示すように、人間の顔を模した頭部61が、基台62に対して、図示しないアクチュエータにより出没可能に設けられている。エージェント6は、出力部11からの制御指令を受けたエージェント機能により、コミュニケーション情報を出力する場合には、図2Aの左図に示すように、頭部61が基台62から出現し、コミュニケーション情報の出力を終了すると、図2Aの右図に示すように、頭部61が基台62に没入する。頭部61を上昇させて基台62から出現させることを「登場」と称し、頭部61を下降させて基第62に没入させることを「退場」とも称する。 As shown in FIGS. 1, 2A, and 2B, the agent 6 has a head 61 that imitates a human face and is provided on a base 62 so as to appear and retract by an actuator (not shown). When the agent 6 outputs the communication information by the agent function receiving the control command from the output unit 11, the head 61 emerges from the base 62 and the communication information is output as shown in the left diagram of FIG. 2A. 2A, the head 61 sinks into the base 62 as shown in the right diagram of FIG. 2A. Elevating the head 61 to appear from the base 62 is called "appearance", and lowering the head 61 to enter the base 62 is also called "exit".

本実施形態では、図2Bに示すように、三次元物体であるエージェント6を、車室内のダッシュボードの上面に設置され、回転軸Gの周りに頭部61が回転可能とされている。これにより、エージェント6は、頭部61の顔を乗員に向けた状態でコミュニケーション情報を出力したり、頭部61の顔を話題の対象となるオブジェクトに向けた状態でコミュニケーション情報を出力したりすることで、コミュニケーション情報による意思疎通を円滑にする。 In this embodiment, as shown in FIG. 2B, the agent 6, which is a three-dimensional object, is installed on the upper surface of the dashboard inside the vehicle, and the head 61 is rotatable around the rotation axis G. As a result, the agent 6 outputs the communication information with the head 61 facing the occupant, or outputs the communication information with the head 61 facing the subject object. By doing so, communication through communication information is facilitated.

エージェント6は、音声や効果音を出力するためのスピーカその他の音声出力部や、文字を含む画像を表示するディスプレイその他の表示部を含み、頭部61の動作とともに、音声、効果音、文字その他の画像を乗員に提供することでコミュニケーション情報を出力する。なお、顔の目などに発光体を設け、発光パターンによりコミュニケーション情報を出力するようにしてもよい。 The agent 6 includes a speaker and other audio output units for outputting voice and sound effects, and a display and other display units for displaying images including characters. By providing the image to the crew, communication information is output. It should be noted that light emitters may be provided in the eyes of the face, etc., and communication information may be output according to light emission patterns.

なお、本実施形態では、エージェント6をロボットのような三次元物体に構成したが、本発明のエージェントはこれにのみ限定されず、ディスプレイに表示する二次元画像としてもよい。また、基第62に対して頭部61を出没させることでエージェント6の登場及び退場を表現したが、エージェントが登場する場合は目を開き、エージェントが退場する場合は目を閉じるようにしてもよい。 In this embodiment, the agent 6 is configured as a three-dimensional object such as a robot, but the agent of the present invention is not limited to this, and may be a two-dimensional image displayed on the display. In addition, the appearance and exit of the agent 6 are expressed by making the head 61 appear and appear in the base 62, but it is also possible to open the eyes when the agent appears and close the eyes when the agent leaves. good.

図1に戻り、本実施形態の車両用情報処理装置1は、各種処理を実行するためのプログラムが格納されたROMと、このROMに格納されたプログラムを実行することで、車両用情報処理装置1として機能する動作回路としてのCPUと、アクセス可能な記憶装置として機能するRAMとを備えたコンピュータで構成されている。そして、車両用情報処理装置1は、情報処理プログラムの実行により発揮される機能構成から見ると、図1に示すように、出力部11と、出力頻度制御部12と、検知部13と、利用実績検知部14と、識別データ入力部15と、車両情報取得部16と、を備える。 Returning to FIG. 1, the vehicle information processing apparatus 1 of the present embodiment includes a ROM storing programs for executing various processes, and executing the programs stored in the ROM. It is composed of a computer equipped with a CPU as an operating circuit that functions as a computer and a RAM that functions as an accessible storage device. 1, the vehicle information processing apparatus 1 includes an output unit 11, an output frequency control unit 12, a detection unit 13, and a use A track record detection unit 14 , an identification data input unit 15 , and a vehicle information acquisition unit 16 are provided.

出力部11は、エージェント6のスピーカその他の音声出力部、ディスプレイ、発光体その他の表示部に制御信号を出力し、エージェント6のエージェント機能により、コミュニケーション情報を出力する。出力部11は、出力すべきコミュニケーション情報を車両情報取得部16から入力する。たとえば、車室内の温度環境に関し、現在のエアコンの設定温度が25℃で、その乗員が定常的に設定するエアコンの設定温度が20℃である場合に、「エアコンの設定温度を下げますか?」といった提案を乗員に発話する。この場合、現在のエアコンの設定温度は、車両センサ類2に含まれるエアコンの設定温度センサにより検出し、その乗員が定常的に設定するエアコンの設定温度は、その乗員の利用実績が蓄積された外部サーバ4から抽出する。 The output unit 11 outputs a control signal to a speaker or other voice output unit, a display, a light emitter or other display unit of the agent 6 , and outputs communication information by the agent function of the agent 6 . The output unit 11 inputs communication information to be output from the vehicle information acquisition unit 16 . For example, regarding the temperature environment in the passenger compartment, if the current set temperature of the air conditioner is 25°C and the set temperature of the air conditioner that the occupant regularly sets is 20°C, the message "Do you want to lower the set temperature of the air conditioner? ” to the crew. In this case, the current set temperature of the air conditioner is detected by the set temperature sensor of the air conditioner included in the vehicle sensors 2, and the set temperature of the air conditioner that is constantly set by the passenger is based on the accumulation of the passenger's use record. Extract from the external server 4 .

出力部11により制御されるエージェント6は、音声、画像又は発光パターンのいずれかを媒体とするコミュニケーション情報を出力する。コミュニケーション情報は、例えば、(1)エージェントの存在を示す情報、(2)エージェント機能が所定状態にあることを知らせる情報、または、(3)ユーザが所望する情報を通知するための情報を含む。例えば、(1)エージェントの存在を示す情報は、エージェント自体が表現された画像や所定の動きを伴うエージェントが表現された画像などを含む。例えば、(2)エージェント機能が所定状態にあることを知らせる情報は、エージェントがユーザからの命令または質問を受付可能な状態にあることを示す画像、音声または発光パターンである。例えば、(3)ユーザが所望する情報を通知するための情報は、ユーザが所望すると推測されるPOIの情報や、ユーザが所望すると推測される車載機器に対する制御の実行可否を問合わせる情報などを含む。具体的には、コミュニケーション情報が音声を媒体とする場合には、当該コミュニケーション情報を、エージェント6に設けられたスピーカその他の音声出力部から聴覚的に出力し、コミュニケーション情報が画像を媒体とする場合には、当該コミュニケーション情報を、エージェント6に設けられたディスプレイその他の表示部から視覚的に出力し、コミュニケーション情報が発光パターンを媒体とする場合には、当該コミュニケーション情報を、エージェント6に設けられた目その他の発光部から視覚的に出力する。 The agent 6 controlled by the output unit 11 outputs communication information using any medium of voice, image, or light emission pattern. The communication information includes, for example, (1) information indicating the existence of an agent, (2) information notifying that the agent function is in a predetermined state, or (3) information for notifying information desired by the user. For example, (1) the information indicating the existence of the agent includes an image representing the agent itself, an image representing the agent with a predetermined movement, and the like. For example, (2) the information indicating that the agent function is in a predetermined state is an image, voice, or light emission pattern indicating that the agent is ready to receive commands or questions from the user. For example, (3) the information for notifying the information desired by the user includes POI information presumed to be desired by the user, information inquiring whether or not to execute control of on-vehicle equipment presumed to be desired by the user, and the like. include. Specifically, when the communication information uses voice as a medium, the communication information is audibly output from a speaker or other voice output unit provided in the agent 6, and when the communication information uses images as the medium. , the communication information is visually output from a display or other display unit provided in the agent 6, and when the communication information uses a light emission pattern as a medium, the communication information is output to the agent 6. Output visually from the eyes or other light-emitting parts.

出力頻度制御部12は、エージェント6のエージェント機能によるコミュニケーション情報の出力頻度を制御する。出力頻度とは、所定時間あたりにコミュニケーション情報を出力する回数であってもよく、コミュニケーション単位あたりにコミュニケーション情報を出力する回数であってもよい。たとえば、コミュニケーション情報が、ユーザが所望すると推測される車載機器に対する制御の実行可否を問合わせる情報の場合に、出力頻度が1のときは、「エアコンの設定温度を下げますか?」というコミュニケーション情報を1回だけ出力し、出力頻度が3のときは、この「エアコンの設定温度を下げますか?」というコミュニケーション情報を、間隔をおいて3回繰り返して出力することを意味する。本実施形態のエージェント6は、コミュニケーション情報を出力する際に基台62から頭部61を出現させ、コミュニケーション情報の出力を終了すると基第62に頭部61を没入させるので、出力頻度制御部12は、基台62に対する頭部61の出没回数を制御する。 The output frequency control unit 12 controls the output frequency of communication information by the agent function of the agent 6 . The output frequency may be the number of times communication information is output per predetermined time, or the number of times communication information is output per unit of communication. For example, if the communication information is information inquiring whether or not to execute control of an in-vehicle device that is presumed to be desired by the user, and the output frequency is 1, the communication information is "Do you want to lower the set temperature of the air conditioner?" is output only once and the output frequency is 3, this means that the communication information "Do you want to lower the set temperature of the air conditioner?" is output three times at intervals. The agent 6 of this embodiment causes the head 61 to appear from the base 62 when outputting the communication information, and immerses the head 61 in the base 62 when the output of the communication information is finished. controls the number of appearances and retractions of the head 61 with respect to the base 62 .

コミュニケーション情報の出力頻度は、乗員に対するコミュニケーション情報の伝達を確実に行うという観点からみると繰り返し行うことが望ましいが、乗員の個性によっては、繰り返し行われること、すなわち出力頻度が大きいことが却って煩わしく感じることもある。そのため、本実施形態の出力頻度制御部12においては、後述する検知部13により検知された乗員の所定の状態に応じて、エージェント6によるコミュニケーション情報の出力頻度を制御する。この制御の詳細は後述する。 Regarding the frequency of output of communication information, it is desirable to repeat it from the viewpoint of ensuring the transmission of communication information to the crew, but depending on the individuality of the crew, repeated output, that is, the high frequency of output is rather annoying. Sometimes. Therefore, in the output frequency control unit 12 of the present embodiment, the output frequency of communication information by the agent 6 is controlled according to the predetermined state of the passenger detected by the detection unit 13, which will be described later. Details of this control will be described later.

検知部13は、エージェント6のエージェント機能により、1つのコミュニケーション情報が出力された後の、乗員の所定の状態を検知し、これを出力頻度制御部12に出力する。たとえば、コミュニケーション情報がディスプレイなどの表示部に表示される視覚的な画像による場合、検知部13は、コミュニケーション情報が表示された表示部に対して、乗員の視線が向けられた状態を検知する。具体的には、検知部13は、コミュニケーション情報が表示された表示部に対して、乗員の視線が向けられるまでの時間を検知する。またはこれに代えて若しくはこれに加えて、検知部13は、コミュニケーション情報が表示された表示部に対して、視線が向けられた回数を検知する。 The detection unit 13 detects a predetermined state of the passenger after one piece of communication information is output by the agent function of the agent 6 and outputs this to the output frequency control unit 12 . For example, when the communication information is a visual image displayed on a display such as a display, the detection unit 13 detects a state in which the passenger's line of sight is directed toward the display on which the communication information is displayed. Specifically, the detection unit 13 detects the time until the passenger's line of sight is directed to the display unit on which the communication information is displayed. Alternatively or in addition to this, the detection unit 13 detects the number of times the line of sight is turned to the display unit on which the communication information is displayed.

たとえば、エージェント6の頭部61が基台62から出現し、図示しないディスプレイに「エアコンの設定温度を下げますか?」といったコミュニケーション情報を表示した場合に、車両センサ類2に含まれる車内カメラにより乗員の視線を監視し、エージェント6の頭部61が基台62から出現してから乗員の視線がディスプレイに向かうまでの時間を計測する。または、同様に車両センサ類2に含まれる車内カメラにより乗員の視線を監視し、エージェント6の頭部61が基台62から出現してから乗員の視線がディスプレイに向けられた回数、すなわちチラッと見た回数を計測する。 For example, when the head 61 of the agent 6 emerges from the base 62 and displays communication information such as "Do you want to lower the set temperature of the air conditioner?" The line of sight of the occupant is monitored, and the time from the appearance of the head 61 of the agent 6 from the base 62 until the line of sight of the occupant turns to the display is measured. Alternatively, the line of sight of the occupant is similarly monitored by an in-vehicle camera included in the vehicle sensors 2, and the number of times the line of sight of the occupant is directed to the display after the head 61 of the agent 6 appears from the base 62, that is, a glimpse Count the number of times you see it.

エージェント6の頭部61が基台62から出現してから乗員の視線がディスプレイに向かうまでの時間が短いということは、その乗員はエージェント6を強く意識していると判断でき、逆にエージェント6の頭部61が基台62から出現してから乗員の視線がディスプレイに向かうまでの時間が長いということは、その乗員はエージェント6をあまり意識していないと判断できる。同様に、エージェント6の頭部61が基台62から出現してから乗員の視線がディスプレイに向けられた回数が多いということは、その乗員はエージェント6を強く意識していると判断でき、逆にエージェント6の頭部61が基台62から出現してから乗員の視線がディスプレイに向けられた回数が少ないということは、その乗員はエージェント6をあまり意識していないと判断できる。 The fact that the time from when the head 61 of the agent 6 appears from the base 62 to when the line of sight of the occupant turns to the display is short means that the occupant is strongly conscious of the agent 6, and conversely, the agent 6 is strongly aware of the agent 6. It can be determined that the occupant is not very conscious of the agent 6 because it takes a long time from the emergence of the head 61 from the base 62 until the occupant's line of sight is directed to the display. Similarly, it can be determined that the passenger is strongly conscious of the agent 6 from the fact that the number of times the passenger's line of sight is turned to the display after the head 61 of the agent 6 appears from the base 62, and vice versa. Since the head 61 of the agent 6 appears from the base 62, the number of times the passenger's line of sight is turned to the display is small, so it can be judged that the passenger is not very conscious of the agent 6.

乗員がエージェント6をあまり意識していないと判断できる場合は、その乗員にエージェント6の存在を気付かせる必要がある。このような状況では、出力頻度を大きくしても、乗員にとって、しつこい、煩わしいといった感覚より、むしろ気付かせてくれたことに感謝する方が、可能性が高いと推察される。逆に、乗員がエージェント6を強く意識していると判断できる場合は、その乗員はコミュニケーション情報を十分に知得しているものと推察されるので、出力頻度が大きいと、その乗員にとっては、しつこい、くどい、煩わしいといった感覚を覚える可能性が高い。 If it can be determined that the occupant is not very aware of the agent 6, it is necessary to make the occupant aware of the presence of the agent 6. In such a situation, it is conjectured that even if the output frequency is increased, the occupant is more likely to appreciate the fact that he or she has been made aware of the situation, rather than feel persistent or bothered. Conversely, if it can be determined that the occupant is strongly aware of the agent 6, it can be inferred that the occupant is sufficiently aware of the communication information. You are likely to feel persistent, repetitive, and annoying.

そのため、出力頻度制御部12は、エージェント6の頭部61が基台62から出現してから乗員の視線がディスプレイに向かうまでの時間が短かったり、エージェント6の頭部61が基台62から出現してから乗員の視線がディスプレイに向けられた回数が多かったりして、乗員がエージェント6を強く意識していると判断できる場合は、それまでの出力頻度を相対的に小さく制御する。逆に、エージェント6の頭部61が基台62から出現してから乗員の視線がディスプレイに向かうまでの時間が長かったり、エージェント6の頭部61が基台62から出現してから乗員の視線がディスプレイに向けられた回数が少なかったりして、乗員がエージェント6をあまり意識していないと判断できる場合は、それまでの出力頻度を相対的に大きく制御する。 Therefore, the output frequency control unit 12 can reduce the time from when the head 61 of the agent 6 appears from the base 62 to when the line of sight of the occupant faces the display, or when the head 61 of the agent 6 appears from the base 62. If it can be determined that the occupant is strongly aware of the agent 6 because the number of times the occupant's line of sight is turned to the display after that, the output frequency up to that point is controlled to be relatively low. Conversely, it takes a long time for the line of sight of the occupant to turn to the display after the head 61 of the agent 6 appears from the base 62 , or the line of sight of the occupant after the head 61 of the agent 6 appears from the base 62 . When it can be determined that the passenger is not very conscious of the agent 6 because the number of times the is directed to the display is small, the output frequency up to that point is controlled to be relatively large.

検知部13は、エージェント6の頭部61が基台62から出現してコミュニケーション情報がスピーカなどの音声出力部から発せられる聴覚的な音声による場合、乗員による音声コマンドの入力が、コミュニケーション情報が出力されてから所定時間内に行われたか否かを検知する。たとえば、「エアコンの設定温度を下げますか?」というコミュニケーション情報を出力した場合に、この出力から所定時間(たとえば10秒)以内に、乗員が「はい、下げてください」といった音声コマンドが入力された場合には、その乗員はエージェント6を強く意識していると判断できる。これに対して、所定時間(10秒)を過ぎてから、乗員が「はい、下げてください」といった音声コマンドが入力された場合には、その乗員は、エアコンの設定温度を下げることには賛成するものの、エージェント6をあまり意識していなかったと判断できる。 When the head 61 of the agent 6 appears from the base 62 and the communication information is an auditory voice emitted from a voice output unit such as a speaker, the detection unit 13 outputs the communication information when the passenger inputs a voice command. It detects whether or not it is performed within a predetermined time after being performed. For example, when the communication information "Do you want to lower the set temperature of the air conditioner?" If so, it can be determined that the occupant is strongly aware of the agent 6 . On the other hand, if the occupant inputs a voice command such as "Yes, please lower" after the predetermined time (10 seconds) has passed, the occupant agrees to lower the set temperature of the air conditioner. However, it can be judged that he was not very conscious of Agent 6.

そのため、出力頻度制御部12は、エージェント6の頭部61が基台62から出現して音声によるコミュニケーション情報が出力されてから、所定時間以内に、乗員が音声コマンドを入力した場合のように、乗員がエージェント6を強く意識していると判断できるときは、それまでの出力頻度を相対的に小さく制御する。逆に、エージェント6の頭部61が基台62から出現して音声によるコミュニケーション情報が出力されてから、所定時間を経過した後に、乗員が音声コマンドを入力した場合のように、乗員がエージェント6をあまり意識していないと判断できるときは、それまでの出力頻度を相対的に大きく制御する。 Therefore, the output frequency control unit 12, within a predetermined time after the head 61 of the agent 6 emerges from the base 62 and the voice communication information is output, as in the case where the passenger inputs a voice command, When it can be determined that the passenger is strongly aware of the agent 6, the output frequency up to that point is controlled to be relatively low. Conversely, after the head 61 of the agent 6 appears from the base 62 and the voice communication information is output, the occupant inputs the voice command after a predetermined time has passed. When it can be determined that the user is not very conscious of the above, the output frequency up to that point is controlled to be relatively large.

利用実績検知部14は、乗員が当該車両用情報処理装置1を利用した実績を検知するものである。利用実績検知部14で検知されるものとしては、特に限定はされないが、識別データ入力部15に入力された識別データに基づいて乗員を特定し、その乗員が当該車両用情報処理装置1を利用した時間及び/又は頻度に応じた利用実績値を演算する。利用実績検知部14で演算された利用実績値は、出力頻度制御部12へ出力され、利用実績値の大小に応じて、コミュニケーション情報の出力頻度が制御される。具体的には、乗員の利用実績値が小さい場合には、利用実績値が大きい場合に比べて、その乗員の特性が充分に把握できていないことから、コミュニケーション情報の出力頻度を大きく制御する。この詳細は後述する。なお、必要に応じて利用実績検知部14を省略してもよい。 The use record detection unit 14 detects the record of use of the vehicle information processing device 1 by the passenger. What is detected by the usage record detection unit 14 is not particularly limited. A utilization record value is calculated according to the time and/or frequency of use. The actual usage value calculated by the actual usage detection unit 14 is output to the output frequency control unit 12, and the output frequency of communication information is controlled according to the magnitude of the actual usage value. Specifically, when the actual usage value of the passenger is small, compared with when the actual usage value is large, the characteristics of the passenger are not sufficiently grasped, so the output frequency of the communication information is controlled to be large. Details of this will be described later. Note that the usage record detection unit 14 may be omitted as necessary.

識別データ入力部15は、本例の車両用情報処理装置1が適用される車両の乗員を識別するための識別データを入力するインターフェースである。そして、その乗員が、自分の識別データを記憶した端末装置(スマートフォンなどの携帯型コンピュータ)を携帯してその車両に乗ると、その乗員の識別データが、Bluetooth(登録商標)などの短距離無線通信網を介して自動的又は半自動的に読み取られたり、あるいは識別データ入力部15として設定された入力ボタン(不図示)を用いて乗員がマニュアル入力したりすることで、その乗員の識別データが入力される。また、その車両の無線キーにその乗員の識別データを記憶させ、その無線キーを用いて車両を解錠または始動した際に、その乗員の識別データを識別データ入力部15に、短距離無線通信網を介して自動的又は半自動的に読み取ってもよい。 The identification data input unit 15 is an interface for inputting identification data for identifying occupants of the vehicle to which the vehicle information processing apparatus 1 of this embodiment is applied. Then, when the occupant carries a terminal device (portable computer such as a smart phone) in which his/her own identification data is stored and gets into the vehicle, the occupant's identification data is transmitted to a short-range wireless communication such as Bluetooth (registered trademark). The occupant's identification data is automatically or semi-automatically read through a communication network, or manually input by the occupant using an input button (not shown) set as the identification data input unit 15. is entered. Also, the identification data of the passenger is stored in the wireless key of the vehicle, and when the vehicle is unlocked or started using the wireless key, the identification data of the passenger is sent to the identification data input unit 15 by short-range wireless communication. It may be read automatically or semi-automatically via a network.

車両センサ類2は、上述したエアコンなどの車載電装品の各種センサや車両の室内を撮像する室内カメラのほか、車両の周辺を撮像する車載撮像装置、車両の周辺の障害物を検出するレーダ装置、GPS受信機を含む自車位置検出装置、車両の操舵角を検出する舵角センサ、車両の加速・減速を検出する加減速センサなどが含まれる。車両センサ類2で検出した検出信号は、車両情報取得部16へ出力される。 Vehicle sensors 2 include various sensors for in-vehicle electrical equipment such as the air conditioner described above, an indoor camera for imaging the interior of the vehicle, an in-vehicle imaging device for imaging the surroundings of the vehicle, and a radar device for detecting obstacles around the vehicle. , a vehicle position detector including a GPS receiver, a steering angle sensor for detecting the steering angle of the vehicle, an acceleration/deceleration sensor for detecting acceleration/deceleration of the vehicle, and the like. A detection signal detected by the vehicle sensors 2 is output to the vehicle information acquisition unit 16 .

地図データベース3は、たとえば各種施設や特定の地点の位置情報を含む三次元高精度地図情報を格納し、車両情報取得部16からアクセス可能とされたメモリである。地図データベース3に格納された三次元高精度地図情報は、データ取得用車両を用いて実際の道路を走行した際に検出された道路形状に基づく三次元地図情報であり、地図情報とともに、カーブ路及びそのカーブの大きさ(たとえば曲率又は曲率半径)、道路の合流地点、分岐地点、料金所、車線数の減少位置、サービスエリア/パーキングエリアなどの詳細かつ高精度の位置情報が、三次元情報として関連付けられた地図情報である。 The map database 3 is a memory that stores three-dimensional high-precision map information including position information of various facilities and specific points, for example, and is accessible from the vehicle information acquisition unit 16 . The 3D high-precision map information stored in the map database 3 is 3D map information based on road shapes detected when a data acquisition vehicle is used to travel on actual roads. and detailed and highly accurate location information such as the size of curves (e.g. curvature or radius of curvature), road junctions, junctions, toll booths, lane reduction locations, service areas/parking areas, etc. is the map information associated with .

車両情報取得部16は、エージェント6の機能を用いて乗員に出力すべきコミュニケーション情報を取得するものである。車両情報取得部16は、車両センサ類2及び地図データベース3のほか、外部のWEBサイトその他の外部サーバ4からの各種の情報を、インターネットなどの電気通信回線網5を介して収集し、コミュニケーション情報に供する。 The vehicle information acquisition unit 16 uses the function of the agent 6 to acquire communication information to be output to the passenger. Vehicle information acquisition unit 16 collects various types of information from vehicle sensors 2 and map database 3 as well as external web sites and other external servers 4 via telecommunication network 5 such as the Internet, and obtains communication information. Offer to

次に、本実施形態の車両用情報処理装置1の情報処理手順を説明する。図3A~図3Cは、図1の車両用情報処理装置1にて実行される情報処理手順を示すフローチャートである。まず、乗員が車両に乗ると、図3AのステップS1において、識別データ入力部15にその乗員の識別データが入力される。識別データ入力部15に入力されたその乗員識別データは、出力頻度制御部12と出力部11に出力される。この識別データとともに、利用実績検知部14から、その乗員の利用実績値を取得し、これを出力頻度制御部12へ出力する。 Next, the information processing procedure of the vehicle information processing apparatus 1 of this embodiment will be described. 3A to 3C are flowcharts showing information processing procedures executed by the vehicle information processing apparatus 1 of FIG. First, when an occupant gets into the vehicle, identification data of the occupant is input to the identification data input unit 15 in step S1 of FIG. 3A. The occupant identification data input to the identification data input section 15 is output to the output frequency control section 12 and the output section 11 . Along with this identification data, the actual usage value of the passenger is obtained from the actual usage detection unit 14 and output to the output frequency control unit 12 .

ステップS2において、車両センサ類2に含まれる室内カメラを用いて乗員の視線を監視する。ステップS3において、出力部11の制御信号により、エージェント6の頭部61が基台62から出現し、エージェント6が登場する。ステップS4において、出力部11は、車両情報取得部16から提供されるコミュニケーション情報を、エージェント6のディスプレイに表示する。 In step S2, the passenger's line of sight is monitored using the indoor camera included in the vehicle sensors 2. FIG. In step S3, the head 61 of the agent 6 appears from the base 62 by the control signal of the output unit 11, and the agent 6 appears. In step S<b>4 , the output unit 11 displays the communication information provided from the vehicle information acquisition unit 16 on the display of the agent 6 .

図3BのステップS5において、出力頻度制御部12は、ステップS2にて監視している乗員の視線の動向を読み込み、ステップS3にてエージェント6が登場してステップS4にてコミュニケーション情報がディスプレイに表示されてから、乗員の視線が当該ディスプレイに向かうまでの時間を計測する。そして、出力頻度制御部12は、この計測した時間が、予め設定された所定時間内(たとえば3秒以内)である場合は、その乗員はエージェント6を強く意識していると判断し、ステップS6へ進む。逆に、ステップS5において、コミュニケーション情報がディスプレイに表示されてから、乗員の視線が当該ディスプレイに向かうまでの時間が、予め設定された所定時間(たとえば3秒)を超えた場合は、出力頻度制御部12は、その乗員はエージェント6をあまり意識していないと判断し、ステップS7へ進む。 In step S5 of FIG. 3B, the output frequency control unit 12 reads the line-of-sight trend of the passenger being monitored in step S2, the agent 6 appears in step S3, and the communication information is displayed on the display in step S4. After that, the time until the passenger's line of sight turns to the display is measured. If the measured time is within a predetermined time (for example, within 3 seconds), the output frequency control unit 12 determines that the passenger is strongly aware of the agent 6, and step S6. proceed to Conversely, in step S5, when the time from when the communication information is displayed on the display to when the line of sight of the occupant turns to the display exceeds a preset predetermined time (for example, 3 seconds), output frequency control is performed. The unit 12 determines that the passenger is not very aware of the agent 6, and proceeds to step S7.

ステップS6において、その乗員はエージェント6を強く意識しているので、出力頻度制御部12は、エージェントを認識している状態のカウントをアップする。具体的には、出力頻度制御部12は、出力頻度の値をそれまでの値に対して相対的に小さくする。またステップS7において、その乗員はエージェント6をあまり意識していないので、出力頻度制御部12は、エージェントを認識していない状態のカウントをアップする。具体的には、出力頻度制御部12は、出力頻度の値をそれまでの値に対して相対的に大きくする。 In step S6, the occupant is strongly aware of the agent 6, so the output frequency control unit 12 counts up the state of recognizing the agent. Specifically, the output frequency control unit 12 makes the value of the output frequency relatively smaller than the previous value. In step S7, the occupant is not very conscious of the agent 6, so the output frequency control unit 12 counts up the state in which the agent is not recognized. Specifically, the output frequency control unit 12 increases the output frequency value relative to the previous value.

ステップS8において、出力頻度制御部12は、エージェントを認識している状態の確率を演算する。エージェントを認識している状態の確率は、たとえば、エージェントを認識している状態のカウントAを、エージェントを認識している状態のカウントAとエージェントを認識していない状態のカウントBとの合計A+Bで除した率(A/(A+B))と定義する。 In step S8, the output frequency control unit 12 calculates the probability of the agent being recognized. The probability of the agent-aware state is, for example, the sum of the agent-aware state count A and the agent-aware state count A plus the agent-not-aware state count B, A+B. Defined as the ratio divided by (A/(A+B)).

たとえば、エージェントを認識している状態のカウントAの初期値を50、エージェントを認識していない状態のカウントBの初期値を50とすると、初期値におけるエージェントを認識している状態の確率Xは、X=50/(50+50)=0.5となる。そして、次のコミュニケーション情報の出力に対する乗員の反応が、エージェントを認識している状態であった場合に、初期値50を1ポイントカウントアップするものとすると、そのときのエージェントを認識している状態の確率X1は、X1=51/(51+50)=0.505となる。 For example, if the initial value of count A in the state of recognizing the agent is 50, and the initial value of count B in the state of not recognizing the agent is 50, the probability X of the state of recognizing the agent at the initial value is , X=50/(50+50)=0.5. If the response of the passenger to the output of the next communication information indicates that the agent is being recognized, the initial value of 50 is counted up by one point. is X1=51/(51+50)=0.505.

ステップS9において、出力頻度制御部12は、演算したエージェントを認識している状態の確率が、予め設定された所定値以上であるか否かを判定し、所定値以上である場合はステップS10へ進み、所定値未満である場合はステップS11へ進む。そして、ステップS10において、出力頻度制御部12は、コミュニケーション情報の出力頻度をそれまでの値に比べて相対的に小さくする。また、ステップS11において、出力頻度制御部12は、コミュニケーション情報の出力頻度をそれまでの値に比べて相対的に大きくする。 In step S9, the output frequency control unit 12 determines whether or not the calculated probability of the state in which the agent is recognized is equal to or greater than a preset predetermined value. If it is less than the predetermined value, the process proceeds to step S11. Then, in step S10, the output frequency control unit 12 makes the output frequency of the communication information relatively smaller than the previous value. Further, in step S11, the output frequency control unit 12 relatively increases the output frequency of communication information compared to the previous value.

図3CのステップS12において、出力頻度制御部12は、利用実績検知部14により検知されたその乗員の利用実績値が、予め設定された所定値以上であるか否かを判定し、所定値以上である場合はステップS13へ進み、所定値未満である場合はステップS14へ進む。そして、ステップS13において、出力頻度制御部12は、コミュニケーション情報の出力頻度をそれまでの値に比べて相対的に小さくする。また、ステップS14において、出力頻度制御部12は、コミュニケーション情報の出力頻度をそれまでの値に比べて相対的に大きくする。 In step S12 in FIG. 3C, the output frequency control unit 12 determines whether or not the actual usage value of the passenger detected by the actual usage detection unit 14 is equal to or greater than a predetermined value. If so, the process proceeds to step S13, and if less than the predetermined value, the process proceeds to step S14. Then, in step S13, the output frequency control unit 12 makes the output frequency of the communication information relatively smaller than the previous value. Further, in step S14, the output frequency control unit 12 relatively increases the output frequency of communication information compared to the previous value.

ステップS15において、出力部11は、エージェント6の頭部61を基台62に没入して退場させる。ステップS16において、エージェント6を用いたコミュニケーションの設定がOFFになったか否かを判定し、ONが継続している場合には図3AのステップS2へ戻り、OFFになった場合には、このルーチンを終了する。 In step S15, the output unit 11 immerses the head 61 of the agent 6 into the base 62 and exits. In step S16, it is determined whether or not the setting for communication using the agent 6 is turned off. If the setting is continued, the process returns to step S2 in FIG. exit.

次に、本実施形態の車両用情報処理装置1の情報処理手順の他例を説明する。図4A~図4Cは、図1の車両用情報処理装置1にて実行される情報処理手順を示すフローチャートである。本例は、エアコンの設定温度を変更する提案に関するコミュニケーション情報を出力する具体例を説明する。まず、乗員が車両に乗ると、図4AのステップS21において、識別データ入力部15にその乗員の識別データが入力される。識別データ入力部15に入力されたその乗員識別データは、出力頻度制御部12と出力部11に出力される。この識別データとともに、車両情報取得部16は、その乗員が以前に車両に乗った際のエアコンの設定温度の履歴情報を、外部サーバ4から取得し、これを出力頻度制御部12へ出力する。 Next, another example of the information processing procedure of the vehicle information processing apparatus 1 of this embodiment will be described. 4A to 4C are flow charts showing the information processing procedure executed by the vehicle information processing apparatus 1 of FIG. This example describes a specific example of outputting communication information related to a proposal to change the set temperature of the air conditioner. First, when an occupant gets into the vehicle, identification data of the occupant is input to the identification data input unit 15 in step S21 of FIG. 4A. The occupant identification data input to the identification data input section 15 is output to the output frequency control section 12 and the output section 11 . Together with this identification data, the vehicle information acquisition unit 16 acquires from the external server 4 the history information of the temperature settings of the air conditioner when the occupant has previously boarded the vehicle, and outputs this to the output frequency control unit 12 .

ステップS22において、車両センサ類2に含まれるエアコンの設定温度センサから、現在のエアコンの設定温度を検出する。ステップS23において、出力頻度制御部12は、現在の設定温度と、その乗員が定常的に設定する固有の設定温度とを比較し、予め設定された所定値以上の差が存在する場合はステップS24へ進み、所定値以上の差が存在しない場合は、このルーチンを終了する。ステップS24において、出力頻度制御部12は、乗員が、所定時間以内に、エアコンの設定温度を変更したか否かを判定し、変更した場合にはステップS25へ進み、変更しない場合は、このルーチンを終了する。 In step S22, the current set temperature of the air conditioner is detected from the set temperature sensor of the air conditioner included in the vehicle sensors 2. FIG. In step S23, the output frequency control unit 12 compares the current set temperature with the unique set temperature that the occupant constantly sets. , and if there is no difference equal to or greater than the predetermined value, terminate this routine. In step S24, the output frequency control unit 12 determines whether or not the occupant has changed the set temperature of the air conditioner within a predetermined time. exit.

ステップS25において、車両センサ類2に含まれるマイクロフォンと音声認識装置を用いて乗員の発話を監視する。図4BのステップS26において、出力部11の制御信号により、エージェント6の頭部61が基台62から出現し、エージェント6が登場する。ステップS27において、出力部11は、車両情報取得部16から提供される、エアコンの設定温度に関するコミュニケーション情報、たとえば「エアコンの設定温度を下げますか?」といった音声を、エージェント6のスピーカから出力する。 In step S25, the microphone and speech recognition device included in the vehicle sensors 2 are used to monitor the utterance of the passenger. In step S26 of FIG. 4B, the head 61 of the agent 6 appears from the base 62 by the control signal of the output unit 11, and the agent 6 appears. In step S27, the output unit 11 outputs, from the speaker of the agent 6, the communication information regarding the set temperature of the air conditioner provided from the vehicle information acquisition unit 16, for example, a voice saying "Do you want to lower the set temperature of the air conditioner?" .

ステップS28において、出力頻度制御部12は、ステップS25にて監視している乗員の発話を解析し、「はい、下げてください」といった乗員の承諾コマンドが入力されるか否かを判断する。これとともに、乗員の承諾コマンドが入力された場合には、「エアコンの設定温度を下げますか?」というコミュニケーション情報がスピーカから出力されてから、承諾コマンドが入力されるまでの時間を計測する。そして、ステップS28において、出力頻度制御部12は、予め設定された所定時間以内に乗員の承諾コマンドが入力されたか否かを判定し、入力された場合にはステップS29へ進み、入力されない場合はステップS32へ進む。 In step S28, the output frequency control unit 12 analyzes the utterance of the passenger being monitored in step S25, and determines whether or not the passenger's consent command such as "Yes, please lower" is input. At the same time, when the occupant's consent command is input, the time from when the communication information "Do you want to lower the set temperature of the air conditioner?" Then, in step S28, the output frequency control unit 12 determines whether or not the occupant's consent command has been input within a preset predetermined time. Go to step S32.

ステップS29において、出力頻度制御部12は、エアコンの設定温度を下げる設定を行い、ステップS30において、コミュニケーション情報の出力頻度を相対的に小さくする。ステップS31において、出力部11は、エージェント6を退場させる。ステップS32において、出力頻度制御部12は、予め設定された所定時間を超えた後に、乗員の承諾コマンドが入力されたか否かを判定し、入力された場合にはステップS33へ進み、入力されない場合は、このルーチンを終了する。ステップS33において、出力頻度制御部12は、コミュニケーション情報の出力頻度を相対的に大きくする。 In step S29, the output frequency control unit 12 sets the temperature setting of the air conditioner to be lowered, and in step S30, relatively reduces the output frequency of the communication information. In step S31, the output unit 11 causes the agent 6 to leave. In step S32, the output frequency control unit 12 determines whether or not the occupant's consent command has been input after a predetermined time has elapsed. exits this routine. In step S33, the output frequency control unit 12 relatively increases the output frequency of communication information.

ステップS34において、エージェント6を用いたコミュニケーションの設定がOFFになったか否かを判定し、ONが継続している場合には図4AのステップS22へ戻り、OFFになった場合には、このルーチンを終了する。 In step S34, it is determined whether or not the communication setting using the agent 6 is turned off. If the setting is continued, the process returns to step S22 in FIG. exit.

以上のように、本実施形態の車両用情報処理装置1及び方法によれば、検知部13により検知された乗員の所定の状態に応じて、エージェント6によるコミュニケーション情報の出力頻度を制御するので、しつこさと丁寧さとがバランスされた出力頻度となる結果、乗員がエージェントに好印象や親近感を抱き易くなる。 As described above, according to the vehicle information processing apparatus 1 and method of the present embodiment, the output frequency of communication information by the agent 6 is controlled according to the predetermined state of the passenger detected by the detection unit 13. As a result of the output frequency in which persistence and politeness are well balanced, the occupants are more likely to have a favorable impression and a sense of familiarity with the agent.

また、本実施形態の車両用情報処理装置1及び方法によれば、エージェント6によるコミュニケーション情報を表示部から視覚的に出力する場合に、検知部13は、表示部に対して乗員の視線が向けられた状態を検知するので、乗員の所定の状態を検出し易くなる。 Further, according to the vehicle information processing apparatus 1 and method of the present embodiment, when the communication information by the agent 6 is visually output from the display unit, the detection unit 13 detects whether the line of sight of the occupant is directed to the display unit. Since the occupant state is detected, it becomes easy to detect the predetermined state of the occupant.

また、本実施形態の車両用情報処理装置1及び方法によれば、検知部13は、表示部に対して乗員の視線が向けられるまでの時間及び/又は視線が向けられた回数を検知するので、乗員の所定の状態を検出し易くなることに加え、定量的評価が可能となる。 Further, according to the vehicle information processing apparatus 1 and method of the present embodiment, the detection unit 13 detects the time until the passenger's line of sight is turned to the display unit and/or the number of times the line of sight is turned. In addition to facilitating the detection of the predetermined state of the occupant, quantitative evaluation becomes possible.

また、本実施形態の車両用情報処理装置1及び方法によれば、表示部に対して乗員の視線が向けられるまでの時間が短い場合に、表示部に対して乗員の視線が向けられるまでの時間が長い場合に比べて、出力頻度を小さく制御し、表示部に対して乗員の視線が向けられた回数が多い場合に、表示部に対して乗員の視線が向けられた回数が少ない場合に比べて、出力頻度を小さく制御する。これにより、乗員のエージェントの認識程度に応じた出力頻度に設定することができる。 Further, according to the vehicle information processing apparatus 1 and the method of the present embodiment, when the time until the passenger's line of sight is turned to the display is short, the time until the passenger's line of sight is turned to the display is short. Compared to when the time is long, the output frequency is controlled to be small, and when the number of times the occupant's line of sight is turned to the display unit is large, when the number of times the occupant's line of sight is turned to the display unit is small. In comparison, the output frequency is controlled to be small. As a result, it is possible to set the output frequency according to the degree of recognition of the agent of the occupant.

また、本実施形態の車両用情報処理装置1及び方法によれば、検知部13は、乗員による音声コマンドの入力が所定時間内に行われたか否かを検知するので、乗員の所定の状態を検出し易くなる。 Further, according to the vehicle information processing apparatus 1 and method of the present embodiment, the detection unit 13 detects whether or not the occupant has input a voice command within a predetermined time. Easier to detect.

また、本実施形態の車両用情報処理装置1及び方法によれば、乗員による音声コマンドの入力が所定時間内に行われた場合に、乗員による音声コマンドの入力が所定時間を超えて行われた場合に比べて、出力頻度を小さく制御する。これにより、乗員のエージェントの認識程度に応じた出力頻度に設定することができる。 Further, according to the vehicle information processing apparatus 1 and method of the present embodiment, when the voice command input by the passenger is performed within the predetermined time, the voice command input by the passenger exceeds the predetermined time. The output frequency is controlled to be lower than the case. As a result, it is possible to set the output frequency according to the degree of recognition of the agent of the occupant.

また、本実施形態の車両用情報処理装置1及び方法によれば、乗員が当該車両用情報処理装置を利用した実績を検知する利用実績検知部14をさらに備え、乗員の利用実績値に応じて、エージェント6によるコミュニケーション情報の出力頻度を制御するので、より一層、しつこさと丁寧さとがバランスされた出力頻度となる。 Further, according to the vehicle information processing apparatus 1 and the method of the present embodiment, the vehicle information processing apparatus 1 is further provided with the usage history detection unit 14 for detecting the usage history of the vehicle information processing apparatus. , the output frequency of the communication information by the agent 6 is controlled, so that the output frequency is further balanced between persistence and politeness.

また、本実施形態の車両用情報処理装置1及び方法によれば、乗員の利用実績値が小さい場合に、利用実績値が大きい場合に比べて、出力頻度を大きく制御するので、乗員のエージェントの認識程度に応じた出力頻度に設定することができる。 Further, according to the vehicle information processing apparatus 1 and method of the present embodiment, when the passenger's actual usage value is small, the output frequency is controlled to be larger than when the actual usage value is large, so that the driver's agent can be controlled. The output frequency can be set according to the degree of recognition.

1…車両用情報処理装置
11…出力部
12…出力頻度制御部
13…検知部
14…利用実績検知部
15…識別データ入力部
16…車両情報取得部
2…車両センサ類
3…地図データベース
4…外部サーバ
5…電気通信回線網
6…エージェント
61…頭部
62…基台
DESCRIPTION OF SYMBOLS 1... Information processing apparatus for vehicles 11... Output part 12... Output frequency control part 13... Detection part 14... Usage result detection part 15... Identification data input part 16... Vehicle information acquisition part 2... Vehicle sensors 3... Map database 4... External server 5 Telecommunication network 6 Agent 61 Head 62 Base

Claims (9)

ユーザとのコミュニケーションを、エージェント機能を用いて行う情報処理装置において、
前記エージェント機能によりコミュニケーション情報を出力する出力部と、
前記エージェント機能によるコミュニケーション情報の出力頻度を制御する出力頻度制御部と、
前記エージェント機能によるコミュニケーション情報が出力された後の、前記ユーザの所定の状態を検知する検知部と、を備え、
前記出力頻度制御部は、前記検知部により検知された前記ユーザの所定の状態に応じて、前記エージェント機能によるコミュニケーション情報の出力頻度を制御する情報処理装置において、
前記出力部は、前記エージェント機能によるコミュニケーション情報を表示部から視覚的に出力し、
前記検知部は、前記表示部に対して前記ユーザの視線が向けられた状態を検知するとともに、前記表示部に対して前記ユーザの視線が向けられるまでの時間及び/又は視線が向けられた回数を検知し、
前記出力頻度制御部は、
前記表示部に対して前記ユーザの視線が向けられるまでの時間が短い場合に、前記表示部に対して前記ユーザの視線が向けられるまでの時間が長い場合に比べて、前記出力頻度を小さく制御し、
前記表示部に対して前記ユーザの視線が向けられた回数が多い場合に、前記表示部に対して前記ユーザの視線が向けられた回数が少ない場合に比べて、前記出力頻度を小さく制御する情報処理装置。
In an information processing device that uses an agent function to communicate with a user,
an output unit that outputs communication information by the agent function;
an output frequency control unit that controls the output frequency of communication information by the agent function;
a detection unit that detects a predetermined state of the user after the communication information is output by the agent function,
In the information processing device, the output frequency control unit controls the output frequency of communication information by the agent function according to the predetermined state of the user detected by the detection unit,
The output unit visually outputs the communication information by the agent function from the display unit,
The detection unit detects a state in which the user 's line of sight is directed to the display unit, and the time until the user 's line of sight is directed to the display unit and/or the number of times the line of sight is directed. to detect
The output frequency control unit
When the time until the user 's line of sight is turned to the display unit is short, the output frequency is controlled to be smaller than when the time until the user 's line of sight is turned to the display unit is long. death,
Information for controlling the output frequency to be smaller when the number of times the user 's line of sight is directed toward the display unit is greater than when the number of times the user 's line of sight is directed toward the display unit is less. processing equipment.
ユーザとのコミュニケーションを、エージェント機能を用いて行う情報処理装置において、
前記エージェント機能によりコミュニケーション情報を出力する出力部と、
前記エージェント機能によるコミュニケーション情報の出力頻度を制御する出力頻度制御部と、
前記エージェント機能によるコミュニケーション情報が出力された後の、前記ユーザの所定の状態を検知する検知部と、を備え、
前記出力頻度制御部は、前記検知部により検知された前記ユーザの所定の状態に応じて、前記エージェント機能によるコミュニケーション情報の出力頻度を制御する情報処理装置において、
前記検知部は、前記ユーザによる音声コマンドの入力が所定時間内に行われたか否かを検知する情報処理装置。
In an information processing device that uses an agent function to communicate with a user,
an output unit that outputs communication information by the agent function;
an output frequency control unit that controls the output frequency of communication information by the agent function;
a detection unit that detects a predetermined state of the user after the communication information is output by the agent function,
In the information processing device, the output frequency control unit controls the output frequency of communication information by the agent function according to the predetermined state of the user detected by the detection unit,
The information processing device, wherein the detection unit detects whether or not the user has input a voice command within a predetermined time.
前記出力頻度制御部は、
前記ユーザによる音声コマンドの入力が所定時間内に行われた場合に、前記ユーザによる音声コマンドの入力が所定時間を超えて行われた場合に比べて、前記出力頻度を小さく制御する請求項に記載の情報処理装置。
The output frequency control unit
3. The method according to claim 2 , wherein when the user inputs a voice command within a predetermined time, the output frequency is controlled to be lower than when the user inputs a voice command over a predetermined time. The information processing device described.
ユーザとのコミュニケーションを、エージェント機能を用いて行う情報処理装置において、
前記エージェント機能によりコミュニケーション情報を出力する出力部と、
前記エージェント機能によるコミュニケーション情報の出力頻度を制御する出力頻度制御部と、
前記エージェント機能によるコミュニケーション情報が出力された後の、前記ユーザの所定の状態を検知する検知部と、
前記ユーザが当該情報処理装置を利用した実績を検知する利用実績検知部と、を備え、
前記出力頻度制御部は、前記検知部により検知された前記ユーザの所定の状態に応じて、前記エージェント機能によるコミュニケーション情報の出力頻度を制御する情報処理装置において、
前記出力頻度制御部は、前記ユーザの利用実績値に応じて、前記エージェント機能によるコミュニケーション情報の出力頻度を制御する情報処理装置。
In an information processing device that uses an agent function to communicate with a user,
an output unit that outputs communication information by the agent function;
an output frequency control unit that controls the output frequency of communication information by the agent function;
a detection unit that detects a predetermined state of the user after the communication information is output by the agent function;
a usage track record detection unit that detects a track record of the user using the information processing device,
In the information processing device, the output frequency control unit controls the output frequency of communication information by the agent function according to the predetermined state of the user detected by the detection unit,
The output frequency control unit is an information processing device that controls the output frequency of the communication information by the agent function according to the actual usage value of the user .
前記出力頻度制御部は、前記ユーザの利用実績値が小さい場合に、利用実績値が大きい場合に比べて、前記出力頻度を大きく制御する請求項に記載の情報処理装置。 5. The information processing apparatus according to claim 4 , wherein the output frequency control unit controls the output frequency to be higher when the actual usage value of the user is small than when the actual usage value of the user is large. 前記エージェント機能によるコミュニケーション情報は、音声、画像又は発光パターンのいずれかを媒体とする情報であり、
前記出力部は、
前記エージェント機能によるコミュニケーション情報が音声を媒体とする場合には、当該コミュニケーション情報を、音声出力部から聴覚的に出力し、
前記エージェント機能によるコミュニケーション情報が画像を媒体とする場合には、当該コミュニケーション情報を、表示部から視覚的に出力し、
前記エージェント機能によるコミュニケーション情報が発光パターンを媒体とする場合には、当該コミュニケーション情報を、発光部から視覚的に出力する請求項1~のいずれか一項に記載の情報処理装置。
The communication information by the agent function is information using any of voice, image, or light emission pattern as a medium,
The output unit
when the communication information by the agent function uses voice as a medium, outputting the communication information aurally from the voice output unit;
When the communication information by the agent function uses an image as a medium, visually outputting the communication information from the display unit,
6. The information processing apparatus according to any one of claims 1 to 5 , wherein when the communication information by the agent function uses a light emission pattern as a medium, the communication information is visually output from the light emitting unit.
コンピュータが、エージェント機能を用いてユーザに対するコミュニケーションを行う情報処理方法であって
前記コンピュータは、
前記エージェント機能により前記コミュニケーション情報を出力し、
前記エージェント機能によるコミュニケーション情報が出力された後の、前記ユーザの所定の状態を検知し、
前記検知された前記ユーザの所定の状態に応じて、前記エージェント機能によるコミュニケーション情報の出力頻度を制御する情報処理方法において、
前記コンピュータは、
前記エージェント機能によるコミュニケーション情報を視覚的に出力し、
前記視覚的な出力に対して前記ユーザの視線が向けられた状態を検知するとともに、前記視覚的な出力に対して前記ユーザの視線が向けられるまでの時間及び/又は視線が向けられた回数を検知し、
前記視覚的な出力に対して前記ユーザの視線が向けられるまでの時間が短い場合に、前記視覚的な出力に対して前記ユーザの視線が向けられるまでの時間が長い場合に比べて、前記出力頻度を小さく制御し、
前記視覚的な出力に対して前記ユーザの視線が向けられた回数が多い場合に、前記視覚的な出力に対して前記ユーザの視線が向けられた回数が少ない場合に比べて、前記出力頻度を小さく制御する情報処理方法。
An information processing method in which a computer communicates with a user using an agent function ,
The computer is
outputting the communication information by the agent function;
detecting a predetermined state of the user after the communication information is output by the agent function;
In an information processing method for controlling the output frequency of communication information by the agent function according to the detected predetermined state of the user,
The computer is
Visually outputting communication information by the agent function,
Detecting a state in which the user's gaze is directed to the visual output, and measuring the time until the user's gaze is directed to the visual output and/or the number of times the gaze is directed detect and
When the time until the user's gaze is directed to the visual output is short, compared to the case where the time until the user's gaze is directed toward the visual output is longer than the output control the frequency small,
When the number of times the user's line of sight is directed toward the visual output is large, the output frequency is increased compared to the case where the number of times the user's line of sight is directed toward the visual output is small. Information processing method for small control.
コンピュータが、エージェント機能を用いてユーザに対するコミュニケーションを行う情報処理方法であって、
前記コンピュータは、
前記エージェント機能により前記コミュニケーション情報を出力し、
前記エージェント機能によるコミュニケーション情報が出力された後の、前記ユーザの所定の状態を検知し、
前記検知された前記ユーザの所定の状態に応じて、前記エージェント機能によるコミュニケーション情報の出力頻度を制御する情報処理方法において、
前記ユーザによる音声コマンドの入力が所定時間内に行われたか否かを検知する情報処理方法
An information processing method in which a computer communicates with a user using an agent function ,
The computer is
outputting the communication information by the agent function;
detecting a predetermined state of the user after the communication information is output by the agent function;
In an information processing method for controlling the output frequency of communication information by the agent function according to the detected predetermined state of the user,
An information processing method for detecting whether or not the user has input a voice command within a predetermined time .
コンピュータが、エージェント機能を用いてユーザに対するコミュニケーションを行う情報処理方法であって、
前記コンピュータは、
前記エージェント機能により前記コミュニケーション情報を出力し、
前記エージェント機能によるコミュニケーション情報が出力された後の、前記ユーザの所定の状態を検知し、
前記ユーザが当該情報処理方法を利用した実績を検知し、
前記検知された前記ユーザの所定の状態に応じて、前記エージェント機能によるコミュニケーション情報の出力頻度を制御する情報処理方法において、
前記ユーザの利用実績値に応じて、前記エージェント機能によるコミュニケーション情報の出力頻度を制御する情報処理方法
An information processing method in which a computer communicates with a user using an agent function ,
The computer is
outputting the communication information by the agent function;
detecting a predetermined state of the user after the communication information is output by the agent function;
Detecting a track record of the user using the information processing method,
In an information processing method for controlling the output frequency of communication information by the agent function according to the detected predetermined state of the user,
An information processing method for controlling the output frequency of communication information by the agent function according to the actual usage value of the user .
JP2019167061A 2019-09-13 2019-09-13 Information processing device and method Active JP7263187B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019167061A JP7263187B2 (en) 2019-09-13 2019-09-13 Information processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167061A JP7263187B2 (en) 2019-09-13 2019-09-13 Information processing device and method

Publications (2)

Publication Number Publication Date
JP2021043852A JP2021043852A (en) 2021-03-18
JP7263187B2 true JP7263187B2 (en) 2023-04-24

Family

ID=74861712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167061A Active JP7263187B2 (en) 2019-09-13 2019-09-13 Information processing device and method

Country Status (1)

Country Link
JP (1) JP7263187B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023081202A (en) * 2021-11-30 2023-06-09 パナソニックIpマネジメント株式会社 vehicle
WO2024106147A1 (en) * 2022-11-17 2024-05-23 ソニーグループ株式会社 Information processing device and information processing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040239509A1 (en) 2003-06-02 2004-12-02 Branislav Kisacanin Target awareness determination system and method
JP2005055367A (en) 2003-08-06 2005-03-03 Honda Motor Co Ltd Navigation system for vehicle
JP2013186728A (en) 2012-03-08 2013-09-19 Mitsubishi Motors Corp Warning system
JP2017167046A (en) 2016-03-17 2017-09-21 ヤフー株式会社 Route guide device, route guide system, route guide method and route guide program
JP2017204252A (en) 2016-05-14 2017-11-16 株式会社ユピテル System and program
JP2018124791A (en) 2017-01-31 2018-08-09 本田技研工業株式会社 Information service system
JP2019114118A (en) 2017-12-25 2019-07-11 日本電産コパル株式会社 Warning device, vehicle, warning method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644491A (en) * 1992-07-23 1994-02-18 Aisin Aw Co Ltd Route guiding device for vehicle
JPH0761257A (en) * 1993-08-26 1995-03-07 Nissan Motor Co Ltd Display device for vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040239509A1 (en) 2003-06-02 2004-12-02 Branislav Kisacanin Target awareness determination system and method
JP2005055367A (en) 2003-08-06 2005-03-03 Honda Motor Co Ltd Navigation system for vehicle
JP2013186728A (en) 2012-03-08 2013-09-19 Mitsubishi Motors Corp Warning system
JP2017167046A (en) 2016-03-17 2017-09-21 ヤフー株式会社 Route guide device, route guide system, route guide method and route guide program
JP2017204252A (en) 2016-05-14 2017-11-16 株式会社ユピテル System and program
JP2018124791A (en) 2017-01-31 2018-08-09 本田技研工業株式会社 Information service system
JP2019114118A (en) 2017-12-25 2019-07-11 日本電産コパル株式会社 Warning device, vehicle, warning method, and program

Also Published As

Publication number Publication date
JP2021043852A (en) 2021-03-18

Similar Documents

Publication Publication Date Title
JP3619380B2 (en) In-vehicle input / output device
JP4380541B2 (en) Vehicle agent device
JP6733535B2 (en) Driving support device
JP6513069B2 (en) Driving support device and driving support method
US7439849B2 (en) User welcoming system for an automobile
KR100866206B1 (en) Apparatus and method for providing customized path guardence using a navigation game
CN107415938A (en) Based on occupant position and notice control autonomous vehicle function and output
JP7068986B2 (en) Agent system, agent control method, and program
JP7263187B2 (en) Information processing device and method
CN108430819A (en) Car-mounted device
CN110968048B (en) Agent device, agent control method, and storage medium
JP2005041433A (en) Vehicle guiding device and route judging program
EP2927642A1 (en) System and method for distribution of 3d sound in a vehicle
US11460309B2 (en) Control apparatus, control method, and storage medium storing program
JP4421668B2 (en) Imaging control apparatus, imaging control method, imaging control program, and recording medium
JP6199715B2 (en) Mental burden evaluation apparatus and program
CN112141010B (en) Control method, control device, electronic equipment and storage medium
JP2020064492A (en) Operation support method and operation support device
JP6990461B2 (en) Systems and programs
JP2000155893A (en) Information announcing device, navigation device, on- vehicle information processor and automobile
US20200265252A1 (en) Information processing apparatus and information processing method
JP6983329B6 (en) Information processing system, information processing device, and information processing method
CN111667823A (en) Agent device, control method for agent device, and storage medium
US20240104604A1 (en) Information management device, information management method and storage medium
US20240107184A1 (en) Information management device, information management method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R150 Certificate of patent or registration of utility model

Ref document number: 7263187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150