JP2020064492A - Operation support method and operation support device - Google Patents

Operation support method and operation support device Download PDF

Info

Publication number
JP2020064492A
JP2020064492A JP2018196556A JP2018196556A JP2020064492A JP 2020064492 A JP2020064492 A JP 2020064492A JP 2018196556 A JP2018196556 A JP 2018196556A JP 2018196556 A JP2018196556 A JP 2018196556A JP 2020064492 A JP2020064492 A JP 2020064492A
Authority
JP
Japan
Prior art keywords
user
information
support
function
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018196556A
Other languages
Japanese (ja)
Other versions
JP7107157B2 (en
Inventor
剛仁 寺口
Takehito Teraguchi
剛仁 寺口
井上 裕史
Yasushi Inoue
裕史 井上
乘 西山
Nori Nishiyama
乘 西山
翔太 大久保
Shota Okubo
翔太 大久保
雄宇 志小田
Yuu Shioda
雄宇 志小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2018196556A priority Critical patent/JP7107157B2/en
Publication of JP2020064492A publication Critical patent/JP2020064492A/en
Application granted granted Critical
Publication of JP7107157B2 publication Critical patent/JP7107157B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an operation support method and an operation support device which appropriately support an operation even when an object to be operated is not specified.SOLUTION: An operation support method allows execution of a processor 11 of an operation support device for outputting support information related to operation of a user using a function provided on a device of a vehicle, in which the processor 11 acquires operation information on a user, estimates an operation of a function to be executed by the user on the basis of the operation information on the user, at least temporarily stores the operation of the function in a storage device 320, refers to operation history information 321 including an operation required time required for completion of input of an operation command for executing the function, determines a support mode of the support information supporting the estimated operation of the function to be executed by the user on the basis of the operation required time for each of the users, and outputs the support information in the support mode.SELECTED DRAWING: Figure 1

Description

本発明は、操作支援方法及び操作支援装置に関する。   The present invention relates to an operation support method and an operation support device.

この種の装置に関し、情報端末が備える機能をユーザが利用する場合に、ユーザの操作完了の割合を操作達成率として算出し、操作達成率に基づいて操作支援を提供するシステムが知られている(特許文献1)。   Regarding this type of device, a system is known in which, when a user uses a function provided in an information terminal, a ratio of the user's operation completion is calculated as an operation achievement rate, and operation support is provided based on the operation achievement rate. (Patent Document 1).

特開2014−142744号公報JP, 2014-142744, A

従来の技術では、情報端末が備える機能のみを対象とした操作支援がなされる。しかし、様々な機器を備える車両のように、ユーザが実行しようとする機能の操作対象が特定できない場合には適切な支援情報を提供することが困難になる場合がある。   In the conventional technology, operation support is provided only for the functions of the information terminal. However, it may be difficult to provide appropriate support information when the operation target of the function to be executed by the user cannot be specified, as in a vehicle including various devices.

本発明が解決しようとする課題は、操作の対象が特定されていない場合であっても、適切な操作支援をする操作支援方法及び操作支援装置を提供することである。   The problem to be solved by the present invention is to provide an operation support method and an operation support apparatus that provide appropriate operation support even when an operation target is not specified.

本発明は、取得したユーザの動作情報に基づいて、ユーザが実行しようとする機能の操作を推測し、記憶装置に少なくとも一時的に記憶され、機能を実行させるためにユーザが操作指令に要した操作所要時間を含む操作履歴情報を参照し、ユーザごとの操作所要時間に基づいて、推測された操作を支援する支援情報の支援態様を決定し、その支援態様で支援情報を出力させることにより、上記課題を解決する。   The present invention estimates the operation of a function to be executed by the user based on the acquired operation information of the user, is at least temporarily stored in the storage device, and requires the operation command by the user to execute the function. By referring to the operation history information including the operation required time, based on the operation required time for each user, by determining the support mode of the support information for supporting the estimated operation, by outputting the support information in the support mode, The above problems are solved.

本発明によれば、ユーザが実行しようとする機能を推測するので、操作の対象が特定されていない場合であっても、適切な操作支援をすることができる。   According to the present invention, since the function to be executed by the user is estimated, appropriate operation support can be provided even when the operation target is not specified.

本実施形態に係る操作支援システムのブロック構成図である。It is a block configuration diagram of an operation support system according to the present embodiment. 本実施形態の操作支援装置の機能ブロック図である。It is a functional block diagram of the operation support device of this embodiment. 本実施形態に係る操作支援情報の出力処理の手順を示すフローチャートである。It is a flow chart which shows a procedure of output processing of operation support information concerning this embodiment. 本実施形態の操作対応情報の一例を示す図である。It is a figure which shows an example of the operation corresponding information of this embodiment. 本実施形態の操作所要時間を含む操作履歴情報の一例を示す図である。It is a figure which shows an example of the operation log information containing the operation required time of this embodiment. 本実施形態の操作評価時間を含む操作履歴情報の一例を示す図である。It is a figure which shows an example of the operation log information containing the operation evaluation time of this embodiment. 本実施形態の車載機器の操作部の一例を示す図である。It is a figure which shows an example of the operation part of the vehicle-mounted apparatus of this embodiment. 本実施形態の支援情報の第1例を示す図である。It is a figure which shows the 1st example of the support information of this embodiment. 本実施形態の支援情報の第2例を示す図である。It is a figure which shows the 2nd example of the support information of this embodiment. 本実施形態の支援情報の第3例を示す図である。It is a figure which shows the 3rd example of the support information of this embodiment. 本実施形態の支援情報の第4例を示す図である。It is a figure which shows the 4th example of the assistance information of this embodiment. 本実施形態の支援情報の第5例を示す図である。It is a figure which shows the 5th example of the assistance information of this embodiment. 本実施形態に係る操作履歴情報の作成処理の第1手順を示すフローチャートである。It is a flow chart which shows the 1st procedure of creation processing of operation history information concerning this embodiment. 本実施形態の操作履歴情報の第1例を説明するための図である。It is a figure for demonstrating the 1st example of the operation history information of this embodiment. 本実施形態に係る操作履歴情報の作成処理の第2手順を示すフローチャートである。It is a flow chart which shows the 2nd procedure of creation processing of operation history information concerning this embodiment. 本実施形態の操作履歴情報の第2例を説明するための図である。It is a figure for demonstrating the 2nd example of the operation log information of this embodiment.

以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、本発明に係る操作支援方法及び操作支援装置を、車両に搭載された車載装置200とサーバ300とともに協動する操作支援システムに適用した場合を例にして説明する。車載装置200は、車両に搭載された機器(群)である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a case where the operation support method and the operation support apparatus according to the present invention are applied to an operation support system that cooperates with an in-vehicle device 200 mounted on a vehicle and a server 300 will be described as an example. The in-vehicle device 200 is a device (group) mounted in the vehicle.

図1は、操作支援システム1のブロック構成を示す図である。本実施形態の操作支援システム1は、操作支援装置100と車載装置200とサーバ300とを備える。本発明の操作支援装置100の実施の形態は限定されず、車両に搭載してもよいし、車載装置200と情報の授受が可能な可搬の端末装置に適用してもよい。端末装置は、スマートフォン、PDAなどの機器を含む。操作支援システム1、操作支援装置100、車載装置200、及びこれらが備える各装置は、CPUなどの演算処理装置を備え、演算処理を実行するコンピュータである。   FIG. 1 is a diagram showing a block configuration of the operation support system 1. The operation support system 1 of the present embodiment includes an operation support device 100, an in-vehicle device 200, and a server 300. The embodiment of the operation support device 100 of the present invention is not limited, and may be mounted in a vehicle or may be applied to a portable terminal device capable of exchanging information with the in-vehicle device 200. The terminal device includes devices such as a smartphone and a PDA. The operation support system 1, the operation support device 100, the in-vehicle device 200, and each device included in these devices are computers that include an arithmetic processing device such as a CPU and execute arithmetic processing.

まず、車載装置200について説明する。
本実施形態の車載装置200は、各種の車載機器を備える。車載機器は、通信装置210と、入出力装置220と、検出装置230と、車両コントローラ240と、自動運転装置250と、車載のセンサ260と、ナビゲーション装置270と、アクセサリ280、エアバック装置291の少なくとも一つ以上を含む。車載装置200が備える各車載機器は、相互に情報の授受を行うためにCAN(Controller Area Network)その他の車載LANによって接続されている。車載装置200は、車載LANを介して操作支援装置100と情報の授受を行うことができる。
First, the vehicle-mounted device 200 will be described.
The in-vehicle device 200 of the present embodiment includes various in-vehicle devices. The in-vehicle devices include the communication device 210, the input / output device 220, the detection device 230, the vehicle controller 240, the automatic driving device 250, the in-vehicle sensor 260, the navigation device 270, the accessory 280, and the airbag device 291. At least one or more is included. The in-vehicle devices included in the in-vehicle apparatus 200 are connected by a CAN (Controller Area Network) or other in-vehicle LAN in order to exchange information with each other. The in-vehicle device 200 can exchange information with the operation support device 100 via the in-vehicle LAN.

通信装置210は、各車載機器間の情報の授受を行う。通信装置210は、車載装置200と操作支援装置100、サーバ300との情報の授受を行う。通信装置210は、外部のカスタマーサービスセンタへの通信を行う。   The communication device 210 exchanges information between the on-vehicle devices. The communication device 210 exchanges information with the in-vehicle device 200, the operation support device 100, and the server 300. The communication device 210 communicates with an external customer service center.

入出力装置220は、ディスプレイ221と、マイク222と、スイッチ223と、スピーカ224、カメラ226の内の何れか一つ以上を含む。入出力装置220は、ユーザが所望する機能を実行するときの操作対象となる。ディスプレイ221は、テキストを含む画像を含む操作支援情報を含む各種情報を提示する。ディスプレイ221は、タッチパネル式のディスプレイであり、情報を提示するとともに、ユーザの入力指令を受け付ける。マイク222は、ユーザの発話音声を取得する。スイッチ223は、ユーザの入力操作を受け付ける。スイッチ223は、LEDなどの発光素子225を内蔵させて構成することができる。スイッチ223に発光機能を備えさせることにより、スイッチ223の所在を発光によりユーザに示すことができる。スピーカ224は、操作支援情報を含む各種情報をテキストの発話により出力する。カメラ226は、車両の内部及び外部に配置される。カメラ226は、例えばCCD等の撮像素子を備える撮像装置である。カメラ226は、赤外線カメラでもよい。カメラ226は、ユーザのジェスチャによる入力操作を受け付ける。カメラ226は、車両の周囲の対象物を撮像する。対象物は、歩行者、二輪車、四輪車(他車両)などの移動体、ガードレール、中央分離帯、縁石などの道路構造物を含む。これらの情報は自動運転又は運転支援に用いられる。   The input / output device 220 includes at least one of a display 221, a microphone 222, a switch 223, a speaker 224, and a camera 226. The input / output device 220 is an operation target when executing a function desired by the user. The display 221 presents various information including operation support information including an image including text. The display 221 is a touch panel display, presents information, and accepts a user's input command. The microphone 222 acquires the voice uttered by the user. The switch 223 receives the input operation of the user. The switch 223 can be configured by incorporating a light emitting element 225 such as an LED. By providing the switch 223 with a light emitting function, the location of the switch 223 can be indicated to the user by light emission. The speaker 224 outputs various information including the operation support information by uttering a text. The camera 226 is arranged inside and outside the vehicle. The camera 226 is an imaging device including an imaging device such as a CCD. The camera 226 may be an infrared camera. The camera 226 receives an input operation by a user's gesture. The camera 226 images an object around the vehicle. The objects include pedestrians, vehicles such as two-wheeled vehicles and four-wheeled vehicles (other vehicles), road structures such as guardrails, median strips, and curbs. These pieces of information are used for automatic driving or driving support.

検出装置230は、車両の内外の検出情報を取得する。検出装置230は、画像処理装置231と、音声処理装置232と、ドアセンサ233と、着座センサ234と、温度計235と、位置センサ236と、シフトポジションセンサ237とのうちの何れか一つ以上を含む。
画像処理装置231は、カメラ226が撮像した撮像画像を分析する。画像処理装置231は、カメラ226の配置位置を基準とする撮像エリアの座標を設定する。画像処理装置231は、経時的に取得した撮像画像からパターンマッチング技術などを用いてユーザの手部、脚部、若しくは頭部を抽出し、その動きを抽出し、ユーザの手部、脚部、若しくは頭部の動きの位置を算出する。画像処理装置231は、経時的に取得した撮像画像からユーザの頭部・顔・目の動きから視線の向きを抽出し、ユーザの視線が向けられた位置及びその推移を算出する。これらの情報は、操作支援装置100へ送出される。なお、ユーザは、ドライバ、乗員のいずれをも含む。
また、画像処理装置231は、車両外部に設けられたカメラ226画像データを解析し、その解析結果に基づいて対象物の種別を識別してもよい。画像処理装置231は、パターンマッチング技術などを用いて、画像データに含まれる対象物が、車両であるか、歩行者であるか、標識であるか否かを識別する。画像処理装置231は、取得した画像データを処理し、車両の周囲に存在する対象物の位置に基づいて、車両から対象物までの距離を取得する。画像処理装置231は、車両の周囲に存在する対象物の位置及び時間に基づいて、車両が対象物に到達する時間を取得する。
音声処理装置232は、スピーカ224が取得した音声データを分析する。音声処理装置232は、ユーザ又はユーザ間の発話を分析する。発話内容から単語・フレーズを切り出し、辞書を参照して目的とする単語・フレーズを抽出する音声認識処理は、出願時に知られて手法を用いる。音声処理装置232は、ユーザの発話内容をテキストデータとして取得する。音声処理装置232は、ユーザ間の会話内容をテキストデータとして取得する。
ドアセンサ233は、車両コントローラ240からドアが解錠状態であるか、施錠状態であるかの情報を取得する。
着座センサ234は、車両のどこにユーザが所在するか、ユーザの数を検出する。
温度計235は、車両の車室内の温度及び車両の外部の温度を検出する。
位置センサ236は、自車両の現在位置が含まれるエリアの属性を取得する。エリアの属性は、後述するナビゲーション装置270から取得する。
シフトポジションセンサ237は、車両のシフトポジションの情報を取得する。シフトポジションの情報は車両の運転モードの識別情報、駐車モードであることの識別情報を含む。
The detection device 230 acquires detection information on the inside and outside of the vehicle. The detection device 230 includes any one or more of an image processing device 231, a voice processing device 232, a door sensor 233, a seating sensor 234, a thermometer 235, a position sensor 236, and a shift position sensor 237. Including.
The image processing device 231 analyzes the captured image captured by the camera 226. The image processing device 231 sets the coordinates of the imaging area based on the arrangement position of the camera 226. The image processing device 231 extracts the user's hand, leg, or head from the captured images acquired over time by using a pattern matching technique or the like, extracts the movement, and extracts the user's hand, leg, or Alternatively, the position of head movement is calculated. The image processing device 231 extracts the direction of the line of sight from the head, face, and eye movements of the user from the captured images acquired over time, and calculates the position at which the user's line of sight is directed and the transition thereof. These pieces of information are sent to the operation support device 100. The user includes both a driver and an occupant.
Further, the image processing device 231 may analyze the image data of the camera 226 provided outside the vehicle and identify the type of the target object based on the analysis result. The image processing device 231 identifies whether the target object included in the image data is a vehicle, a pedestrian, or a sign by using a pattern matching technique or the like. The image processing device 231 processes the acquired image data, and acquires the distance from the vehicle to the object based on the position of the object existing around the vehicle. The image processing device 231 acquires the time when the vehicle reaches the target object based on the position and time of the target object existing around the vehicle.
The voice processing device 232 analyzes the voice data acquired by the speaker 224. The voice processing device 232 analyzes a user or a utterance between the users. A speech recognition process of cutting out a word / phrase from the utterance content and extracting a target word / phrase by referring to a dictionary uses a method known at the time of application. The voice processing device 232 acquires the utterance content of the user as text data. The voice processing device 232 acquires the conversation content between the users as text data.
The door sensor 233 acquires information from the vehicle controller 240 whether the door is unlocked or locked.
The seating sensor 234 detects the number of users where in the vehicle the users are located.
The thermometer 235 detects the temperature inside the vehicle compartment and the temperature outside the vehicle.
The position sensor 236 acquires the attribute of the area including the current position of the vehicle. The area attribute is acquired from the navigation device 270 described later.
The shift position sensor 237 acquires information on the shift position of the vehicle. The shift position information includes the identification information of the driving mode of the vehicle and the identification information of the parking mode.

検出装置230は、通信装置210を介して外部の装置から検出情報を取得してもよい。通信装置210が他車両と車両とが車車間通信をすることが可能であれば、検出装置230は、他車両の車速センサが検出した他車両の車速、加速度を、他車両が存在する旨を対象物情報として取得してもよい。もちろん、検出装置230は、高度道路交通システム(Intelligent Transport Systems:ITS)の外部装置から通信装置210を介して、他車両の位置、速度、加速度を含む対象物情報を取得することもできる。検出装置230は、検出結果を操作支援装置100、サーバ300、車両コントローラ240のいずれか一つ以上に出力する。   The detection device 230 may acquire the detection information from an external device via the communication device 210. If the communication device 210 can perform inter-vehicle communication between another vehicle and the vehicle, the detection device 230 indicates the vehicle speed and acceleration of the other vehicle detected by the vehicle speed sensor of the other vehicle to the effect that the other vehicle exists. You may acquire as object information. Of course, the detection device 230 can also acquire object information including the position, speed, and acceleration of another vehicle from the external device of the Intelligent Transport Systems (ITS) via the communication device 210. The detection device 230 outputs the detection result to one or more of the operation support device 100, the server 300, and the vehicle controller 240.

車両コントローラ240は、エレクトロニックコントロールユニット (Electronic Control Unit, ECU) などの車載コンピュータであり、車両の運転/動作を電子的に制御する。車両コントローラ240は、車両の駆動に関する情報を集中的に管理する。車両コントローラ240は、自動運転装置250の制御情報を管理する。車両コントローラ240は、後述する駆動装置251、制動装置252、及び操舵装置253の動作を管理する。車両コントローラ240は、センサ260から車両状態情報を取得する。センサ260は、舵角センサ261、車速センサ262、レーダー装置263を有する。   The vehicle controller 240 is an in-vehicle computer such as an electronic control unit (ECU), and electronically controls driving / operation of the vehicle. The vehicle controller 240 centrally manages information regarding driving of the vehicle. The vehicle controller 240 manages control information of the automatic driving device 250. The vehicle controller 240 manages the operations of a drive device 251, a braking device 252, and a steering device 253 described later. The vehicle controller 240 acquires vehicle state information from the sensor 260. The sensor 260 has a steering angle sensor 261, a vehicle speed sensor 262, and a radar device 263.

自動運転装置250は、運転計画を立案し、立案された運転計画に従って車両を移動させる制御命令を車両コントローラ240に送出し、車両コントローラ240はこれを実行する。運転計画は、駆動装置251、制動装置252、操舵装置253への制御命令を含む。自動運転装置250は、レーンキープサポートシステムなどの運転支援機能を含む。自動運転装置250の機能は、完全自動運転機能、半自動運転機能、運転支援機能を含む。   The automatic driving device 250 makes a driving plan and sends a control command to move the vehicle according to the made driving plan to the vehicle controller 240, and the vehicle controller 240 executes this. The operation plan includes control commands to the drive device 251, the braking device 252, and the steering device 253. The automatic driving device 250 includes a driving support function such as a lane keep support system. The functions of the automatic driving device 250 include a fully automatic driving function, a semi-automatic driving function, and a driving support function.

センサ260は、舵角センサ261、車速センサ262、レーダー装置263を含む。舵角センサ261は、操舵量、操舵速度、操舵加速度などの情報を検出し、車両コントローラ240へ出力する。車速センサ262は、車両の速度及び/又は加速度を検出し、車両コントローラ240へ出力する。レーダー装置263は対象物までの距離を測定する。   The sensor 260 includes a steering angle sensor 261, a vehicle speed sensor 262, and a radar device 263. The steering angle sensor 261 detects information such as a steering amount, a steering speed, and a steering acceleration, and outputs the information to the vehicle controller 240. The vehicle speed sensor 262 detects the speed and / or acceleration of the vehicle and outputs it to the vehicle controller 240. The radar device 263 measures the distance to the object.

本実施形態の車載装置200は、ナビゲーション装置270を備える。ナビゲーション装置270は、車両の現在位置から目的地までの経路を出願時に知られた手法を用いて算出する。算出した経路は、車両の運転制御に用いるために、車両コントローラ240へ送出される。ナビゲーション装置270は、位置検出装置271を備える。位置検出装置271は、グローバル・ポジショニング・システム(Global Positioning System, GPS)の受信機を備え、走行中の車両の走行位置(緯度・経度)を検出する。   The vehicle-mounted device 200 of this embodiment includes a navigation device 270. The navigation device 270 calculates the route from the current position of the vehicle to the destination by using the method known at the time of application. The calculated route is sent to the vehicle controller 240 for use in controlling the driving of the vehicle. The navigation device 270 includes a position detection device 271. The position detection device 271 includes a receiver of a Global Positioning System (GPS) and detects the traveling position (latitude / longitude) of the vehicle that is traveling.

ナビゲーション装置270は、アクセス可能な位置検出装置271と、地図情報272と、施設情報273と、出力装置274を備える。地図情報272、施設情報273は、ナビゲーション装置270が読み込むことができればよく、ナビゲーション装置270とは物理的に別体として構成してもよいし、通信装置210を介して読み込みが可能なサーバ300に格納してもよい。地図情報272は、いわゆる電子地図であり、緯度経度と地図情報が対応づけられた情報である。施設情報273は、位置をその位置を含むエリアに対応づけられた属性を含む。ナビゲーション装置270は、施設情報273を参照し、現在位置に基づいて現在位置が属するエリアの属性を判断できる。例えば、自車両が駐車場に位置するか否かを判断できる。判断結果は、操作支援装置100に送出される。   The navigation device 270 includes an accessible position detection device 271, map information 272, facility information 273, and an output device 274. The map information 272 and the facility information 273 need only be readable by the navigation device 270, may be physically configured separately from the navigation device 270, or may be stored in the server 300 that can be read via the communication device 210. May be stored. The map information 272 is a so-called electronic map, and is information in which latitude and longitude and map information are associated with each other. The facility information 273 includes an attribute in which the position is associated with the area including the position. The navigation device 270 can refer to the facility information 273 and determine the attribute of the area to which the current position belongs based on the current position. For example, it can be determined whether or not the host vehicle is located in the parking lot. The determination result is sent to the operation support device 100.

本実施形態の車載装置200は、周辺装置としてのアクセサリ280を有する。アクセサリ280は、オーディオ装置281、空調装置282、外部通信装置283のうちの何れか一つ以上を含む。各装置は、本願出願時に知られた機能を備える装置である。オーディオ装置281は、音楽を含む情報を提供する装置である。オーディオ装置281の操作は、オンオフ操作、チャネル操作、音量操作を含む。空調装置282の操作は、オンオフ操作、温度調整操作、風量調整操作を含む。   The vehicle-mounted device 200 of this embodiment has an accessory 280 as a peripheral device. The accessory 280 includes at least one of the audio device 281, the air conditioner 282, and the external communication device 283. Each device is a device having a function known at the time of filing this application. The audio device 281 is a device that provides information including music. The operations of the audio device 281 include on / off operations, channel operations, and volume operations. The operation of the air conditioner 282 includes an on / off operation, a temperature adjusting operation, and an air volume adjusting operation.

本実施形態の車載装置200は、エアバック装置291と、自己診断装置292を有する。各装置は、本願出願時に知られた機能を備える装置である。これらの装置は、自律的に機能する、エアバックの展開が実行された情報は、操作支援装置100へ送出される。自己診断において不具合が検出された情報は、操作支援装置100へ送出される。   The vehicle-mounted device 200 of this embodiment includes an airbag device 291 and a self-diagnosis device 292. Each device is a device having a function known at the time of filing this application. These devices function autonomously, and the information on the deployment of the airbag is sent to the operation support device 100. Information in which a defect is detected in the self-diagnosis is sent to the operation support device 100.

次に、操作支援装置100について説明する。
操作支援装置100は、制御装置10と、記憶装置20と、出力装置30とを備える。出力装置30は、通信装置31を備える。出力装置30は、通信装置31を介して車載装置の入出力装置220へ制御命令を送出する。制御装置10と、記憶装置20と、出力装置30とは、有線又は無線の通信回線を介して互いに情報の授受が可能である。制御装置10は、通信装置31を介してサーバ300の記憶装置320と互いに情報を授受する。通信装置31は、車載装置200との情報授受、操作支援装置100内部の情報授受、外部装置と操作支援システム1との情報授受を行う。
Next, the operation support device 100 will be described.
The operation support device 100 includes a control device 10, a storage device 20, and an output device 30. The output device 30 includes a communication device 31. The output device 30 sends a control command to the input / output device 220 of the vehicle-mounted device via the communication device 31. The control device 10, the storage device 20, and the output device 30 can exchange information with each other via a wired or wireless communication line. The control device 10 exchanges information with the storage device 320 of the server 300 via the communication device 31. The communication device 31 exchanges information with the in-vehicle device 200, exchanges information inside the operation support device 100, and exchanges information between the external device and the operation support system 1.

制御装置10について説明する。
制御装置10は、プロセッサ11を備える。プロセッサ11は、車載機器が備える機能を利用するユーザに対して、車載機器の操作に関する支援情報を生成し、出力する演算装置である。
具体的に、プロセッサ11は、支援装置の出力制御処理を実行させるプログラムが格納されたROM(Read Only Memory)と、このROMに格納されたプログラムを実行することで、制御装置10として機能する動作回路としてのCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)と、を備えるコンピュータである。
The control device 10 will be described.
The control device 10 includes a processor 11. The processor 11 is an arithmetic unit that generates and outputs support information regarding the operation of the in-vehicle device to a user who uses the function of the in-vehicle device.
Specifically, the processor 11 functions as the control device 10 by executing a program (ROM) that stores a program that causes the output control process of the support device to be executed and a program that is stored in this ROM. The computer includes a CPU (Central Processing Unit) as a circuit and a RAM (Random Access Memory) that functions as an accessible storage device.

本実施形態に係るプロセッサ11は、以下の方法に係る処理を実行する。
(1)ユーザの動作情報を取得する、
(2)ユーザの動作情報に基づいて、ユーザが実行しようとする機能の操作を推測する、
(3)記憶装置に少なくとも一時的に記憶され、機能を実行させるためにユーザが操作指令に要した操作所要時間を含む操作履歴情報を参照する、
(4)ユーザごとの操作所要時間に基づいて、推測された操作を支援する支援情報の支援態様を決定する、
(5)決定した支援態様で支援情報を出力させる。
The processor 11 according to the present embodiment executes processing according to the following method.
(1) Acquire user motion information,
(2) Guess the operation of the function to be executed by the user based on the operation information of the user,
(3) Refer to operation history information that is stored at least temporarily in the storage device and that includes the operation required time required for the operation command by the user to execute the function,
(4) Determine the support mode of the support information for supporting the estimated operation based on the operation time required for each user,
(5) The support information is output in the determined support mode.

図2に操作支援装置100のプロセッサ11の機能ブロックを示す。
図2に示すように、プロセッサ11は、動作情報取得部111と、操作推測部112と、支援態様決定部113と、出力制御部114とを有する。
FIG. 2 shows functional blocks of the processor 11 of the operation support device 100.
As illustrated in FIG. 2, the processor 11 includes a motion information acquisition unit 111, an operation estimation unit 112, a support mode determination unit 113, and an output control unit 114.

動作情報取得部111は、ユーザの動作情報を取得する。操作推測部112は、ユーザの動作情報に基づいて、ユーザが実行しようとする機能の操作を推測する。支援態様決定部113は、記憶装置320に少なくとも一時的に記憶され、機能を実行させるためにユーザが操作指令に要した操作所要時間を含む操作履歴情報321を参照し、ユーザごとの操作所要時間に基づいて、推測された操作を支援する支援情報の支援態様を決定する。本例では、プロセッサ11は、サーバ300の記憶された操作履歴情報321を参照する。操作履歴情報321は、操作支援装置100の記憶装置20に格納してもよい。出力制御部114は、所定の支援態様で支援情報を出力させる。   The motion information acquisition unit 111 acquires the motion information of the user. The operation estimating unit 112 estimates the operation of the function to be executed by the user based on the operation information of the user. The support mode determination unit 113 refers to the operation history information 321 that is at least temporarily stored in the storage device 320 and includes the operation required time required by the user to perform an operation command to execute the function, and the operation required time for each user. Based on, the support mode of the support information for supporting the estimated operation is determined. In this example, the processor 11 refers to the operation history information 321 stored in the server 300. The operation history information 321 may be stored in the storage device 20 of the operation support device 100. The output control unit 114 outputs the support information in a predetermined support mode.

図3は、支援情報の出力処理の概要を説明するためのフローチャートである。
ステップS101において、プロセッサ11は、ユーザを識別する。ユーザは、車両のキーの識別情報から識別してもよい。ユーザは、車両の使用の申し込み情報に含まれるユーザIDから識別してもよい。車両に設置されたカメラ226によるユーザの撮像画像に基づいて、パターンマッチング技術を用いてユーザを識別してもよい。パターンマッチング処理に用いるテンプレートは、車両利用申し込み時のデータから取得してもよいし、初回の搭乗時の撮像画像から取得してもよい。
FIG. 3 is a flowchart for explaining the outline of the support information output processing.
In step S101, the processor 11 identifies a user. The user may be identified from the identification information of the vehicle key. The user may be identified from the user ID included in the application information for using the vehicle. The user may be identified using a pattern matching technique based on a captured image of the user captured by the camera 226 installed in the vehicle. The template used for the pattern matching process may be acquired from the data at the time of application for vehicle use, or may be acquired from the captured image at the time of first boarding.

同ステップS101において、プロセッサ11は、車両状態情報を取得する。車両状態情報は、車両の運転モードの種別、車両の速度、車両が走行する経路の渋滞状況、車両の損傷の有無、車両の機器(車載装置)の故障又は異常の有無、車両の位置、車両の室内温度、車両の外気温度、車両のワイパーの動作のうちのいずれか一つ以上を含む。   In step S101, the processor 11 acquires vehicle state information. The vehicle status information includes the type of vehicle driving mode, the speed of the vehicle, the traffic jam condition of the route on which the vehicle travels, the presence or absence of damage to the vehicle, the presence or absence of a failure or abnormality in the vehicle equipment (vehicle-mounted device), the vehicle position, the vehicle One or more of the indoor temperature, the outside air temperature of the vehicle, and the operation of the wiper of the vehicle.

車両の運転モードの種別は車両コントローラ240から取得する。車両の速度は、車速センサ262又は車両コントローラ240から取得する。車両が走行する経路の渋滞状況は、車速の変化から推測してもよいし、外部の情報提供装置から通信装置210を介して取得してもよい。車両の損傷の有無はエアバック装置291又は車両コントローラ240から取得する。車両の機器(車載装置)の故障又は異常の有無は、自己診断装置292又は車両コントローラ240から取得する。車両の位置は、位置検出装置271又は車両コントローラ240から取得する。車両の室内温度、車両の外気温度は、温度計235又は空調装置282から取得する。車両のワイパーの動作は車両コントローラ240から取得する。   The type of vehicle driving mode is acquired from the vehicle controller 240. The vehicle speed is acquired from the vehicle speed sensor 262 or the vehicle controller 240. The traffic jam condition of the route on which the vehicle travels may be estimated from a change in vehicle speed or may be acquired from an external information providing device via the communication device 210. Whether the vehicle is damaged is acquired from the airbag device 291 or the vehicle controller 240. The presence / absence of a failure or abnormality of the vehicle device (vehicle-mounted device) is acquired from the self-diagnosis device 292 or the vehicle controller 240. The position of the vehicle is acquired from the position detection device 271 or the vehicle controller 240. The indoor temperature of the vehicle and the outside air temperature of the vehicle are acquired from the thermometer 235 or the air conditioner 282. The operation of the vehicle wiper is acquired from the vehicle controller 240.

ステップS102において、プロセッサ11は、ユーザの動作情報を取得する。
プロセッサ11は、カメラ226により経時的に撮像された撮像画像から抽出されたユーザの手部、脚部、又は頭部の動きに基づいて動作情報を取得する。プロセッサ11は、カメラ226の位置を基準とした車室空間に座標を設定する。プロセッサ11は、経時的な撮像画像からユーザの手部、脚部、又は頭部の車室空間における位置の経時的な変化を「動作情報」として検出する。プロセッサ11は、経時的な撮像画像からユーザの頭部・顔と視線が向けられた車室空間における位置の経時的な変化を「動作情報」として検出する。人間の視線の向きの検出は出願時の技術を適用できる。例えば、顔から眼の位置を検出して眼の黒目の位置を追跡する手法、顔から眼の位置を検出する手法、黒目の位置を基準とするパターンマッチングの手法を用いることができる。プロセッサ11は、ユーザの動きを判断する。プロセッサ11は、画像情報などに基づいて、ユーザの手、指、腕がどこに位置し、視線がどこに向っているかという動作情報を取得する。さらに、プロセッサ11は、ユーザの動きに基づく動作情報に基づいて、ユーザが操作に手間取っていることを判断する。操作に手間取るときのユーザの動作は、予めパターンとして得ておくことができる。手、指、腕の動きのパターン、動きが繰り返される頻度などに基づいて、ユーザが手間取っていることを判断できる。同様に、操作に手間取るときのユーザの視線の動きは、予めパターンとして得ておくことができる。視線が向けられる位置、目・頭・顔の動きのパターン、視線の動きが繰り返される頻度などに基づいて、ユーザが手間取っていることを判断できる。
In step S102, the processor 11 acquires the operation information of the user.
The processor 11 acquires motion information based on the movement of the user's hand, leg, or head extracted from the captured images captured by the camera 226 over time. The processor 11 sets coordinates in the vehicle interior space based on the position of the camera 226. The processor 11 detects, as “motion information”, a change over time in the position of the user's hand, leg, or head in the vehicle interior space from the captured images over time. The processor 11 detects, as “motion information”, a change over time in the position in the vehicle interior space where the user's head / face and line of sight are directed from the captured images over time. The technology at the time of filing can be applied to detect the direction of the line of sight of a person. For example, a method of detecting the position of the eye from the face to track the position of the iris of the eye, a method of detecting the position of the eye from the face, or a pattern matching method using the position of the iris as a reference can be used. The processor 11 determines the movement of the user. The processor 11 acquires motion information such as where the user's hand, finger, or arm is located and where the line of sight is directed based on image information and the like. Further, the processor 11 determines that the user is having trouble with the operation based on the motion information based on the motion of the user. The operation of the user when the operation takes time can be obtained in advance as a pattern. It can be determined that the user is taking time and effort based on the movement patterns of the hands, fingers, and arms, the frequency of repeated movements, and the like. Similarly, the movement of the user's line of sight when the operation is time-consuming can be obtained in advance as a pattern. It can be determined that the user is taking time and effort based on the position to which the line of sight is directed, the pattern of eye / head / face movement, the frequency with which the line of sight movement is repeated, and the like.

本実施形態において、ユーザが実行しようとする機能の操作に手間取るシーンの例を示す。
(1)手動運転モードで走行中に自動運転モードに切り替えたいが、運転者又は運転監督者は車両の前方乃至周囲を監視する必要があるため、すぐに自動運転切替スイッチを操作できずに、操作に手間取るシーン。
(2)カーシェアなどで利用した車両において、シートベルトを解除するスイッチの位置が分からず、シートベルトを外す操作に手間取るシーン。
(3)カーシェアなどで利用した車両において、ドアの開閉スイッチの位置が分からずに、ドアを開扉させる操作に手間取るシーン。
(4)スイッチが複数並んでいる機器、例えばエアコン、オーディオ、カーナビゲーションなどの操作で、どのスイッチを操作すればよいかが分からずに、エアコン、オーディオ、カーナビゲーションの操作に手間取るシーン。
(5)タッチパネル式のスイッチで選択の階層数が多い機器、例えばカーナビゲーションなどの操作で、どの階層を選択すればよいかが分からずに、エアコン、オーディオ、カーナビゲーションの操作に手間取るシーン。
In the present embodiment, an example of a scene in which a user takes time to operate a function to be executed is shown.
(1) I want to switch to the automatic driving mode while traveling in the manual driving mode, but the driver or driving supervisor needs to monitor the front or the surroundings of the vehicle, so the automatic driving switch cannot be operated immediately, A scene that takes time to operate.
(2) In a vehicle used for car sharing, the position of the switch for releasing the seat belt is unknown, and it takes time to remove the seat belt.
(3) In a vehicle used for car sharing, etc., it takes time to open the door without knowing the position of the door open / close switch.
(4) A scene in which it is troublesome to operate the air conditioner, audio, and car navigation without knowing which switch should be operated by operating a device having a plurality of switches arranged side by side, such as an air conditioner, audio, or car navigation.
(5) A scene in which it takes time to operate the air conditioner, the audio, and the car navigation without knowing which hierarchy should be selected by operating a device having a large number of layers selected by the touch panel type switch, for example, car navigation.

動作情報は、ユーザの発話動作により得られた情報を含む。
プロセッサ11は、マイク222により集音された音声情報から抽出されたユーザの発話情報に基づいて動作情報を取得する。プロセッサ11は、集音された音声情報について音声認識処理を行い、発話された内容を取得する。動作情報に基づいて、ユーザが操作に手間取っていることを判断する。プロセッサ11は、ユーザの発話に基づく動作情報に基づいて、ユーザが操作に手間取っていることを判断する。
The motion information includes information obtained by the user's utterance motion.
The processor 11 acquires the motion information based on the user's utterance information extracted from the voice information collected by the microphone 222. The processor 11 performs a voice recognition process on the collected voice information and acquires the uttered content. Based on the motion information, it is determined that the user is having trouble with the operation. The processor 11 determines that the user is having trouble performing the operation based on the motion information based on the utterance of the user.

同ステップS102において、プロセッサ11は、車両の走行環境情報を取得する。プロセッサ11は、車両状態情報、車両状態情報の変化に基づいて、車両の走行環境を判断する。車両の走行環境は、車両の走行する道路の種別、車両の走行する道路の渋滞状況、車両が存在する位置の属性(駐車場など)、車室内外の温度、車両の破損や故障などを含む。
ステップS101で取得した車両状態情報、ステップS102で取得した走行環境情報は、後のステップS105のユーザが実行しようとする機能の操作を推測する処理において用いられる。
In step S102, the processor 11 acquires the traveling environment information of the vehicle. The processor 11 determines the traveling environment of the vehicle based on the vehicle state information and changes in the vehicle state information. The traveling environment of a vehicle includes the type of road on which the vehicle travels, traffic congestion on the road on which the vehicle travels, attributes of the location of the vehicle (parking lot, etc.), temperature inside and outside the vehicle, damage and breakdown of the vehicle, etc. .
The vehicle state information acquired in step S101 and the traveling environment information acquired in step S102 are used in the subsequent step S105 in the process of estimating the operation of the function to be executed by the user.

ステップS103において、プロセッサ11は、ユーザの「動作情報」に基づいてユーザが操作に手間取っている「操作探索状態」を検知する。プロセッサ11は、ユーザの動作状態が「操作探索状態」であるか否かを判断する。「操作探索状態」を判断する「動作情報」の態様は予め定義することができる。   In step S103, the processor 11 detects the "operation search state" in which the user is having trouble performing the operation based on the "motion information" of the user. The processor 11 determines whether or not the operation state of the user is the “operation search state”. The mode of "motion information" for determining the "operation search state" can be defined in advance.

ステップS104において、プロセッサ11は、「操作探索状態」が所定時間継続したことを判断する。ステップS103乃至S104の処理において、プロセッサ11は、ユーザの動作状態に基づいて、ユーザの手部が所定領域に所定時間以上滞在するにもかかわらず(ステップS103においてYES)、操作指令の入力がされない状態が所定時間継続した場合には(ステップS104においてYES)、ユーザが操作に手間取っていると判断する。プロセッサ11は、ユーザの手部の指の動きが所定のパターンと共通し、その動きが複数回繰り返される又は所定頻度で繰り返されるにもかかわらず、操作指令が入力されない状態が所定時間継続したときに、ユーザが機器の操作に手間取っていると判断する。プロセッサ11は、ユーザの頭部が所定方向に傾く頻度又は回数が所定回数以上であるにもかかわらず、操作指令が入力されない状態が所定時間継続したときに、ユーザが機器の操作に手間取っていると判断する。プロセッサ11は、ユーザの視線が所定領域に向く頻度又は回数が所定回数以上であるにもかかわらず操作指令が入力されない状態が所定時間継続したときに、ユーザが機器の操作に手間取っていると判断する。   In step S104, the processor 11 determines that the “operation search state” has continued for a predetermined time. In the processes of steps S103 to S104, the processor 11 does not input the operation command, even though the user's hand stays in the predetermined area for the predetermined time or longer based on the operation state of the user (YES in step S103). If the state has continued for the predetermined time (YES in step S104), it is determined that the user has trouble in the operation. When the movement of the finger of the user's hand is common to a predetermined pattern and the movement is repeated a plurality of times or repeated at a predetermined frequency, the processor 11 does not input an operation command for a predetermined time. First, it is determined that the user has trouble in operating the device. The processor 11 takes time for the user to operate the device when the state in which the operation command is not input continues for a predetermined time even though the frequency or the number of times the user's head tilts in the predetermined direction is equal to or more than the predetermined number. To judge. The processor 11 determines that the user takes time to operate the device when the state in which the operation command is not input continues for a predetermined time even if the frequency or the number of times the user's line of sight turns to the predetermined region is equal to or more than the predetermined number. To do.

ステップS103乃至S104において、プロセッサ11は、ユーザの動作状態に基づいて、ユーザの発話内容に操作の手間取りを想起させるキーワードが含まれているにもかかわらず、操作指令が入力されない状態が所定時間以上にわたって継続したときに、ユーザが操作に手間取っていると判断する。手間取りを想起させるキーワードは予め定義する。例えば、「スイッチどこ?」、「どこだっけ?」、「わからない」又は「あれ?」などの「迷い」又は「困惑」に関するワードを、ユーザの手間取りを想起させるキーワードとして予め定義する。   In steps S <b> 103 to S <b> 104, the processor 11 determines that the operation command is not input for a predetermined time or more, based on the operation state of the user, although the utterance content of the user includes a keyword that evokes a troublesome operation. It is determined that the user is having trouble with the operation when the operation is continued for a long time. Keywords that evokes time-consuming work are defined in advance. For example, a word relating to “lost” or “confused” such as “where is the switch?”, “Where is it?”, “Don't know” or “that?” Is defined in advance as a keyword that reminds the user's time and effort.

ステップS103及びステップS104の判断がYESであり、ユーザが操作指令の入力に手間取っている「操作探索状態」であると判断された場合には、プロセッサ11は、ステップS103においてユーザが操作指令の入力を試行し始めたタイミング(手間取りが検出されたタイミング)を「機能の操作が開始されたタイミング」として少なくとも一時的に記憶する。ユーザが操作指令の入力を試行し始めたタイミングの判断は適宜に定義できる。例えば、所定時間内において車室内の所定領域にユーザの手が検出された回数が所定回数以上である場合に、「機能の操作が開始されたタイミング」を算出してもよい。本処理において、ユーザの手が所定領域に検出された初回のタイミングを、「機能の操作が開始されたタイミング」としてもよいし、ユーザの手が所定領域に検出された最後のタイミングを、「機能の操作が開始されたタイミング」としてもよい。所定時間内において車室内の所定領域に所定回数以上ユーザの視線が向けられたことが検出された場合に、「機能の操作が開始されたタイミング」を算出してもよい。本処理において、ユーザの視線が所定領域に向けられたことが検出された初回のタイミングを、「機能の操作が開始されたタイミング」としてもよいし、ユーザの視線が所定領域に検出された最後のタイミングを、「機能の操作が開始されたタイミング」としてもよい。所定領域は、スイッチなどの入力部が配置された領域に設定してもよい。「機能の操作が開始されたタイミング」から操作指令が入力された「機能の操作が完了したタイミング」までが「操作所要時間」となる。   If the determinations in step S103 and step S104 are YES and it is determined that the user is in the "operation search state" in which the operation instruction is input, the processor 11 inputs the operation instruction by the user in step S103. The timing at which the trial is started (timing at which time is detected) is at least temporarily stored as the “timing at which the operation of the function is started”. The judgment of the timing when the user starts to input the operation command can be defined as appropriate. For example, the “timing at which the operation of the function is started” may be calculated when the number of times the user's hand has been detected in a predetermined area in the vehicle interior within a predetermined time is a predetermined number or more. In this processing, the first timing when the user's hand is detected in the predetermined area may be set as "timing when the operation of the function is started", or the last timing when the user's hand is detected in the predetermined area is set as " The timing when the operation of the function is started ”may be used. The "timing at which the operation of the function is started" may be calculated when it is detected that the user's line of sight is directed to a predetermined area in the vehicle compartment a predetermined number of times within a predetermined time. In this process, the first timing when it is detected that the user's line of sight is directed to the predetermined region may be set as the “timing when the operation of the function is started”, or the last time when the user's line of sight is detected in the predetermined region. The timing may be set to “the timing when the operation of the function is started”. The predetermined area may be set in an area where an input unit such as a switch is arranged. The “operation required time” is from the “timing when the operation of the function is started” to the “timing when the operation of the function is completed” when the operation command is input.

プロセッサ11は、機能の操作が開始されたと判断されたタイミングから、操作指令が入力されないままに経過時間が所定時間以上である場合には、ユーザが操作に手間取っており、支援が必要であると判断する。   From the timing when it is determined that the operation of the function is started, if the elapsed time is a predetermined time or more without the operation command being input, the processor 11 indicates that the user takes time to perform the operation and needs assistance. to decide.

そして、ステップS105に進み、プロセッサ11は、ユーザが実行しようとする機能の操作を推測する。プロセッサ11は、推測した操作に関する支援情報をユーザに提供する。
ユーザが手間取っているか否かを判断するための閾値となる「所定時間」は、過去の操作履歴情報に基づいて、機能の操作が開始されてから操作指令が入力されるまでの操作所要時間に基づいて設定することが好ましい。「所定時間」はユーザごとに設定されることが好ましい。「所定時間」の設定手法は特に限定されないが、例えば、操作所要時間の適正時間のテーブルを機能ごとに記憶し、適正時間に基づいて設定されたデフォルト値からのずれをユーザごとに学習し、適正時間をカスタマイズし、この適正時間に基づいて「所定時間」を算出してもよい。各ユーザの機能ごとの「所定時間」は、カスタマイズされた適正時間(操作所要時間)としてもよい。「所定時間」が操作シーンを検知してから計時して、上記適正時間が経過したときに支援情報を出力する。
ユーザが実際に手間取った時間に基づいて、手間取りの有無を判断する閾値を設定することにより、そのユーザが手間取ったことを高い精度で判断できる。
Then, the processing proceeds to step S105, and the processor 11 estimates the operation of the function to be executed by the user. The processor 11 provides the user with assistance information regarding the estimated operation.
The "predetermined time" that is the threshold for determining whether or not the user is taking a lot of time is the operation required time from the start of the operation of the function to the input of the operation command based on the past operation history information. It is preferable to set based on the above. The “predetermined time” is preferably set for each user. The setting method of the “predetermined time” is not particularly limited, but for example, a table of appropriate time of operation required time is stored for each function, and a deviation from a default value set based on the appropriate time is learned for each user, The appropriate time may be customized and the “predetermined time” may be calculated based on this appropriate time. The “predetermined time” for each function of each user may be a customized appropriate time (operation required time). The "predetermined time" is timed after the operation scene is detected, and the support information is output when the appropriate time has elapsed.
By setting a threshold value for determining the presence / absence of the effort based on the time actually taken by the user, it can be determined with high accuracy that the user took the effort.

プロセッサ11は、操作対応情報を参照し、取得された動作情報に基づいてユーザが実行しようとする機能の操作を推測する。プロセッサ11は、所定周期で操作対応情報を記憶装置20にダウンロードしてもよいし、サーバ300の記憶装置320を読み込んでもよい。本実施形態における操作対応情報の一例を図4に示す。   The processor 11 refers to the operation correspondence information and estimates the operation of the function to be executed by the user based on the acquired operation information. The processor 11 may download the operation correspondence information to the storage device 20 in a predetermined cycle, or may read the storage device 320 of the server 300. FIG. 4 shows an example of the operation correspondence information according to this embodiment.

図4に示す「操作対応情報」は、ユーザの動作情報を含む。
プロセッサ11は、動作情報の検出位置と車載機器の操作部の位置とが対応づけられた「操作対応情報」を参照し、動作情報から抽出されたユーザの動作の対象となる操作部の位置に基づいて、ユーザが実行しようとする機能の操作を推測する。
The “operation correspondence information” shown in FIG. 4 includes user's motion information.
The processor 11 refers to the “operation correspondence information” in which the detected position of the motion information and the position of the operation unit of the vehicle-mounted device are associated with each other, and refers to the position of the operation unit that is the target of the user's motion extracted from the motion information. Based on that, the user infers the operation of the function to be executed.

操作対応情報は、車載装置200が備える車載機器の操作部の位置情報を有する。所定の座標における各操作部の位置を記憶する。操作部はディスプレイ221、スイッチ223、スピーカ224、カメラ226を含む。各操作部が受け付ける機能の操作は、車両のごとに適宜に設定される。ディスプレイ221の入力操作部は、ナビゲーション装置270の操作、オーディオ装置281の入力を含む。スイッチ223は、運転モードの切り替え指令、空調装置282、外部通信装置283の入力操作部を含む。スピーカ224、カメラ226は、外部通信装置283の入力操作部を含む。   The operation correspondence information includes position information of the operation unit of the in-vehicle device included in the in-vehicle apparatus 200. The position of each operation unit at a predetermined coordinate is stored. The operation unit includes a display 221, a switch 223, a speaker 224, and a camera 226. The operation of the function accepted by each operation unit is appropriately set for each vehicle. The input operation unit of the display 221 includes operation of the navigation device 270 and input of the audio device 281. The switch 223 includes an operation mode switching command, an air conditioner 282, and an input operation unit of the external communication device 283. The speaker 224 and the camera 226 include an input operation unit of the external communication device 283.

プロセッサ11は、動作情報からユーザの動作の対象を抽出する。抽出する動作に対象は、ユーザが実行しようとする機能の操作部(スイッチ)である。
プロセッサ11は、カメラ226を基準とする座標において、撮像画像からユーザの動作の対象の位置を特定する。ユーザの動作の対象の位置とは、例えば、ユーザの動きのパターン、ユーザの手が存在する位置又は範囲、ユーザの指が存在する位置又は範囲である。プロセッサ11は、操作対応情報を参照し、ユーザの動作の対象の位置に存在する操作部を判断する。
ユーザの動作の対象の位置からユーザが実行しようとする機能の操作を推測することができるので、適切な支援情報を提供することができる。ユーザの手部、頭部の動きを分析することにより、ユーザが実行しようとする機能の操作部を高い精度で推測できる。
The processor 11 extracts the target of the user's action from the action information. The target of the operation to be extracted is the operation unit (switch) of the function that the user intends to execute.
The processor 11 identifies the position of the user's motion target from the captured image at the coordinates with the camera 226 as a reference. The position of the user's motion target is, for example, the pattern of the user's movement, the position or range where the user's hand is present, or the position or range where the user's finger is present. The processor 11 refers to the operation correspondence information and determines the operation unit existing at the position of the target of the user's action.
Since the operation of the function to be executed by the user can be inferred from the position of the target of the user's action, it is possible to provide appropriate support information. By analyzing the movements of the user's hand and head, the operation unit of the function to be executed by the user can be estimated with high accuracy.

プロセッサ11は、カメラ226を基準とする座標において、撮像画像からユーザの視線が向けられている対象の位置を特定する。ユーザの視線が向けられた対象の位置とは、例えばユーザの顔や頭が向けられた方向又は範囲、ユーザの眼の黒目が向けられた方向又は範囲である。プロセッサ11は、操作対応情報を参照し、ユーザの視線が向けられた方向に存在する操作部を判断する。
ユーザの動作情報からユーザが実行しようとする機能の操作を推測することができるので、適切な支援情報を提供することができる。ユーザの視線の向きを分析することにより、ユーザが実行しようとする機能の操作部を高い精度で推測できる。
The processor 11 identifies the position of the target to which the user's line of sight is directed from the captured image at the coordinates with respect to the camera 226. The target position to which the user's line of sight is directed is, for example, the direction or range in which the user's face or head is directed, or the direction or range in which the black eye of the user's eye is directed. The processor 11 refers to the operation correspondence information and determines the operation unit existing in the direction in which the user's line of sight is directed.
Since the operation of the function to be executed by the user can be inferred from the operation information of the user, it is possible to provide appropriate support information. By analyzing the direction of the user's line of sight, it is possible to estimate with high accuracy the operation unit of the function that the user intends to execute.

プロセッサ11は、マイク222が集音した音声情報から抽出されたワードに基づいて操作部を特定する。操作対応情報においては、機能に対応づけられたキーワードが定義されている。例えば、空調装置282の操作部には、「暑い」「寒い」といったキーワードが対応づけられる。ユーザの発話から「暑い」「寒い」に類するワードが抽出された場合には、操作対応情報に基づいて空調装置282の操作部が特定される。ユーザの発話から「到着」「止まる」に類するワードが抽出された場合には、操作対応情報に基づいてドア開閉の操作部であるスイッチ223が特定される。ユーザの発話から「混む」「渋滞」に類するワードが抽出された場合には、操作対応情報に基づいて自動運転の操作部であるスイッチ223が特定される。ユーザの発話に含まれるワードを音声認識することにより、ユーザが実行しようとする機能の操作部を高い精度で推測できる。   The processor 11 identifies the operation unit based on the word extracted from the voice information collected by the microphone 222. Keywords associated with the functions are defined in the operation correspondence information. For example, keywords such as “hot” and “cold” are associated with the operation unit of the air conditioner 282. When words similar to “hot” and “cold” are extracted from the user's utterance, the operation unit of the air conditioner 282 is specified based on the operation correspondence information. When a word similar to “arrival” or “stop” is extracted from the user's utterance, the switch 223 that is the door opening / closing operation unit is specified based on the operation correspondence information. When a word similar to “crowded” or “traffic jam” is extracted from the user's utterance, the switch 223 that is the operation unit for automatic driving is specified based on the operation correspondence information. By voice-recognizing the words included in the user's utterance, the operation unit of the function to be executed by the user can be estimated with high accuracy.

プロセッサ11は、車両の検出情報に基づいて車両の状態を判断する。
プロセッサ11は、車両の状態に関する車両状態情報と、車両状態情報から予測される走行環境に応じた機能の操作部とが予め対応づけられた「操作対応情報」を参照し、判断された車両の状態に基づいて、ユーザが実行しようとする機能の操作を推測する。
車両の状態からユーザが実行しようとする機能の操作を推測することができるので、適切な支援情報を提供することができる。
The processor 11 determines the state of the vehicle based on the vehicle detection information.
The processor 11 refers to the “operation correspondence information” in which the vehicle state information regarding the state of the vehicle and the operation unit of the function according to the traveling environment predicted from the vehicle state information are associated in advance, and the processor 11 determines Based on the state, guess the operation of the function that the user is trying to perform.
Since the operation of the function to be executed by the user can be inferred from the state of the vehicle, it is possible to provide appropriate support information.

車両状態情報は、車両の運転モードの種別、車両の速度、車両が走行する経路の渋滞状況、車両の損傷の有無、車両の機器の故障又は異常の有無、車両の位置、車両の室内温度、車両の外気温度、車両のワイパーの動作のうちのいずれか一つ以上を含む。   The vehicle state information includes the type of vehicle driving mode, the speed of the vehicle, the traffic jam condition of the route on which the vehicle travels, the presence or absence of damage to the vehicle, the presence or absence of vehicle equipment failure or abnormality, the vehicle position, the vehicle interior temperature, At least one of the outside temperature of the vehicle and the operation of the wiper of the vehicle is included.

図4に示す「操作対応情報」は、車両状態情報を含む。
(1)プロセッサ11は、車両が所定値未満(低速)の車速で、所定時間以上継続して走行していると判断された場合、又は車両の経時的な車速変化のパターンが予め定義した渋滞時の車速パターンとのマッチング率が所定値以上である場合には、自車両の走行環境は渋滞であると判断し、ユーザが実行しようとする機能は自動運転モード切替であると推測する。この場合において支援される操作部は自動運転モードの切替スイッチである。
(2)プロセッサ11は、車両の運転モードの種別が手動運転モード(非自動運転モードであり、かつ所定値未満の低速の車速での走行が所定時間以上継続したと判断された場合には、自車両の走行環境は渋滞であると判断し、ユーザが実行しようとする機能は自動運転モード切替であると推測する。この場合において支援される操作部は自動運転モードの切替スイッチである。なお、手動運転モードであるか自動運転モードであるかは、車両コントローラ240から取得する。
(3)プロセッサ11は、車両が外部装置(例えばVICS(登録商標):Vehicle Information and Communication Systemなど)から渋滞情報を取得した渋滞時の車速パターンである場合には、自車両の走行環境は渋滞であると判断し、ユーザが実行しようとする機能は自動運転モード切替であると推測する。この場合において支援される操作部は自動運転モードの切替スイッチである。
(4)プロセッサ11は、車室温度と外気温度との差が所定値以上である場合には、自車両の車室内の温度調節が必要であると判断し、ユーザが実行しようとする機能は温度調節であると推測する。この場合において支援される操作部は温度調節装置の操作スイッチである。
(5)プロセッサ11は、シフトポジションがパーキングである場合には、自車両から降車する必要であると判断し、ユーザが実行しようとする機能はシートベルトの解除機能、又はドアの開閉機能であると推測する。この場合において支援される操作部はシートベルトの解除スイッチ、又はドアの操作スイッチである。
(6)プロセッサ11は、現在位置が駐車場のエリアに属する場合には、自車両が駐車する状況であると判断し、ユーザが実行しようとする機能は駐車支援機能であると推測する。この場合において支援される操作部は駐車支援の操作スイッチである。プロセッサ11は、現在位置が駐車場のエリアに属する場合には、自車両から降車する必要であると判断し、ユーザが実行しようとする機能はシートベルトの解除機能、又はドアの開閉機能であると推測する。この場合において支援される操作部はシートベルトの解除スイッチ、又はドアの操作スイッチである。
(7)プロセッサ11は、自車両の現在位置が高速道路である場合には、自動運転走行が適切であると判断し、ユーザが実行しようとする機能は自動運転機能であると推測する。この場合において支援される操作部は自動運転モードの切替スイッチである。
(8)プロセッサ11は、エアバックの展開動作の実行情報を得た場合には、外部への通報が必要であると判断し、ユーザが実行しようとする機能は緊急通報機能であると推測する。この場合において支援される操作部は緊急通報スイッチである。
(9)プロセッサ11は、車載の機器についての故障検知情報を得た場合には、整備が必要であると判断し、ユーザが実行しようとする機能はオペレータの呼出し機能であると推測する。この場合において支援される操作部はオペレータの呼出しスイッチである。
(10)なお、上述した判断手法を複数組み合わせてユーザが実行しようとする機能を予測してもよい。例えば、プロセッサ11は、(A)車両が手動運転モードである、(B)走行位置が高速道路である、(C)所定速度未満(低速領域)で断続的に走行する(減速操作を繰り返す)、(D)ハンドルの自動運転機能の切り替えスイッチ近傍にユーザの手が所定時間/所定頻度で検出される、(E)自動運転に関するキーワード(「疲れた」「自動」など)が検出された、といった判断要因(A)〜(E)のうち所定数以上の要因が検出された場合に、ユーザが実行しようとする機能の操作は「自動運転モードへの切り替え」であると予測する。
The “operation correspondence information” shown in FIG. 4 includes vehicle state information.
(1) The processor 11 determines that the vehicle is running at a vehicle speed lower than a predetermined value (low speed) and continues for a predetermined time or more, or the traffic congestion in which a pattern of the vehicle speed change over time is defined in advance. If the matching rate with the vehicle speed pattern at that time is equal to or higher than a predetermined value, it is determined that the traveling environment of the host vehicle is congested, and the function to be executed by the user is assumed to be automatic driving mode switching. In this case, the operation unit supported is a changeover switch for the automatic driving mode.
(2) If the type of the vehicle driving mode is the manual driving mode (non-automatic driving mode and it is determined that the vehicle has traveled at a low vehicle speed less than the predetermined value for a predetermined time or more, It is determined that the traveling environment of the host vehicle is congested and that the function that the user is trying to perform is automatic driving mode switching, and in this case, the operation unit supported is a switching switch for automatic driving mode. Whether the operation mode is the manual operation mode or the automatic operation mode is acquired from the vehicle controller 240.
(3) When the vehicle has a vehicle speed pattern at the time of traffic congestion obtained from traffic information from an external device (for example, VICS (registered trademark): Vehicle Information and Communication System), the processor 11 determines that the traveling environment of the vehicle is traffic congestion. Therefore, it is presumed that the function that the user intends to execute is the automatic operation mode switching. In this case, the operation unit supported is a changeover switch for the automatic driving mode.
(4) When the difference between the vehicle compartment temperature and the outside air temperature is equal to or more than a predetermined value, the processor 11 determines that the temperature control in the vehicle compartment of the host vehicle is necessary, and the function that the user tries to execute is Infer that it is temperature control. The operation unit supported in this case is the operation switch of the temperature control device.
(5) When the shift position is parking, the processor 11 determines that it is necessary to get off the vehicle, and the function to be executed by the user is a seat belt releasing function or a door opening / closing function. I guess. In this case, the operation unit supported is a seat belt release switch or a door operation switch.
(6) When the current position belongs to the area of the parking lot, the processor 11 determines that the host vehicle is in a parking situation, and estimates that the function to be executed by the user is the parking assist function. The operation unit supported in this case is a parking assist operation switch. When the current position belongs to the area of the parking lot, the processor 11 determines that it is necessary to get off the vehicle, and the function to be executed by the user is a seat belt releasing function or a door opening / closing function. I guess. In this case, the operation unit supported is a seat belt release switch or a door operation switch.
(7) When the current position of the host vehicle is the highway, the processor 11 determines that the automatic driving mode is appropriate, and estimates that the function to be executed by the user is the automatic driving function. In this case, the operation unit supported is a changeover switch for the automatic driving mode.
(8) When the processor 11 obtains the execution information of the airbag deployment operation, it determines that a notification to the outside is necessary, and presumes that the function that the user is trying to execute is the emergency notification function. . The operation unit supported in this case is an emergency call switch.
(9) When the processor 11 obtains the failure detection information about the vehicle-mounted device, the processor 11 determines that the maintenance is necessary, and presumes that the function to be executed by the user is the calling function of the operator. The operation unit supported in this case is the operator's call switch.
(10) Note that the functions to be executed by the user may be predicted by combining a plurality of the determination methods described above. For example, the processor 11 (A) the vehicle is in the manual driving mode, (B) the traveling position is an expressway, and (C) the vehicle intermittently travels at a speed lower than a predetermined speed (low speed region) (repeating deceleration operation). , (D) The hand of the user is detected near the switch for changing the automatic driving function of the steering wheel at a predetermined time / predetermined frequency, (E) A keyword related to automatic driving (such as "tired" or "automatic") is detected, When a predetermined number or more of the determination factors (A) to (E) are detected, it is predicted that the operation of the function to be executed by the user is “switching to the automatic operation mode”.

本実施形態において、ユーザが実行しようとする機能の操作を推定する手法の例を示す。
(1)カメラ226によりユーザの視線、動作、動作時の姿勢を判断し、ユーザが操作しようとしている対象領域を算出する。予め準備された車室内の操作部(スイッチ)の位置情報を含む地図情報を参照し、対象領域と共通する領域に位置する操作部(スイッチ)を絞り込む。ユーザの発話が検出された場合には、単語を抽出し、抽出された単語に予め定義された機能に関連づけられたキーワードが含まれる場合には、そのキーワードに対応づけられた機器が、ユーザが実行しようとする機能の操作部であると推測する。具体的に、ハンドル付近で手を動かすユーザの動作が検出され、マイク222が収拾した音声情報から自動運転に関するキーワードが抽出された場合には、ユーザが自動運転への切替ボタンを押す意図の下に動作をしていると判断する。さらに、自車両が走行している道路が高速道路である場合には、この判断の確度は向上するので、走行道路の道路種別を判断の条件に付加してもよい。
(2)自車両の位置検出装置271の位置情報や、カメラ226の撮像画像から抽出された関心領域(ROI:Region of interest)に基づいて、自車両の現在位置が駐車場であることが判断された場合には、ユーザが降車する意図の下にシートベルトを外す動作をしていると判断する。
(3)自車両の車室温度が、予め定義された快適温度範囲外であり、ユーザの視線が空調装置282の操作部(スイッチパネル)に向けられていると判断された場合において、操作指令が入力されない場合には、ユーザは車室内の温度調節をする意図の下に空調装置282を操作する動作をしていると判断する。
(4)ユーザの降車が検出され、車室内に存在する他のユーザの視線がドア近傍に向けられていることが検出された場合には、ユーザが降車する意図の下に、ドアの開閉スイッチを操作する動作をしていると判断する。ユーザの降車情報は、着座センサにより車両コントローラ240を介して取得する。
In the present embodiment, an example of a method for estimating the operation of the function that the user intends to execute will be shown.
(1) The camera 226 determines the user's line of sight, motion, and posture at the time of motion, and calculates the target area that the user is trying to operate. The map information including the position information of the operation unit (switch) in the vehicle compartment prepared in advance is referred to, and the operation unit (switch) located in the area common to the target area is narrowed down. When the user's utterance is detected, a word is extracted, and when the extracted word includes a keyword associated with a predefined function, the device associated with the keyword is It is presumed to be the operation unit of the function to be executed. Specifically, when the user's motion of moving his / her hand near the steering wheel is detected and the keyword related to the automatic driving is extracted from the voice information collected by the microphone 222, the user intends to press the switch button to the automatic driving. It is determined to be operating. Further, when the road on which the vehicle is traveling is an expressway, the accuracy of this determination is improved, so the road type of the traveling road may be added to the determination condition.
(2) Based on the position information of the position detection device 271 of the own vehicle and the region of interest (ROI) extracted from the image captured by the camera 226, it is determined that the current position of the own vehicle is a parking lot. If so, it is determined that the user is removing the seat belt with the intention of getting off the vehicle.
(3) When it is determined that the passenger compartment temperature of the host vehicle is outside the predefined comfortable temperature range and the user's line of sight is directed to the operation unit (switch panel) of the air conditioner 282, an operation command If is not input, it is determined that the user is operating the air conditioner 282 with the intention of adjusting the temperature inside the vehicle.
(4) When the user's exit is detected and it is detected that the line of sight of another user present in the passenger compartment is directed to the vicinity of the door, the door opening / closing switch is operated with the intention of the user to exit. It is determined that you are operating. The user's exit information is acquired via the vehicle controller 240 by the seating sensor.

図3のステップS105に戻る。
支援するべき操作が決定されたら、ステップS106へ進む。ステップS106において、プロセッサ11は、操作履歴情報を参照する。操作履歴情報321は、記憶装置320に少なくとも一時的に記憶され、機能を実行させるためにユーザが操作指令に要した操作所要時間を含む。操作履歴情報321は、操作支援装置100の記憶装置20に記憶してもよい。
It returns to step S105 of FIG.
When the operation to be supported is determined, the process proceeds to step S106. In step S106, the processor 11 refers to the operation history information. The operation history information 321 is at least temporarily stored in the storage device 320, and includes the operation required time required by the user for an operation command to execute the function. The operation history information 321 may be stored in the storage device 20 of the operation support device 100.

操作履歴情報321は、操作所要時間を含む。操作所要時間は、機能を実行させる操作指令の入力が完了するまでに要した時間である。具体的に、操作所要時間は、「機能の操作が開始されたタイミング」から、操作部に対して「操作指令の入力が完了したタイミング」までの時間である。   The operation history information 321 includes the operation required time. The operation required time is the time required until the input of the operation command for executing the function is completed. Specifically, the operation required time is the time from “the timing when the operation of the function is started” to “the timing when the input of the operation command is completed” to the operation unit.

プロセッサ11は、操作指令をしたユーザの識別結果に基づいて、識別されたユーザの操作所要時間のうち、相対的に短い操作所要時間に対応づけられた支援態様を選択する。ユーザの操作履歴情報のうち、最も短い操作所要時間に対応づけられた支援態様を選択する。
プロセッサ11は、操作指令をしたユーザの識別結果と、ユーザが実行しようとする車載機器の操作の推測結果と、に基づいて、識別されたユーザについて機能ごとに記憶された操作所要時間のうち、相対的に短い操作所要時間に対応づけられた支援態様を選択する。ユーザの機能ごとの操作履歴情報のうち、その機能を操作するときに計測された、最も短い操作所要時間に対応づけられた支援態様を選択する。
選択された支援態様は、支援情報を出力するときの支援態様として決定される。
The processor 11 selects, based on the identification result of the user who has issued the operation command, a support mode associated with a relatively short operation required time among the operation required times of the identified users. From the operation history information of the user, the support mode associated with the shortest operation required time is selected.
Based on the identification result of the user who has issued the operation command and the estimation result of the operation of the vehicle-mounted device that the user intends to execute, the processor 11 selects, from among the operation required times stored for each function, the identified user. A support mode associated with a relatively short required operation time is selected. Of the operation history information for each function of the user, the support mode associated with the shortest required operation time measured when operating that function is selected.
The selected support mode is determined as the support mode when outputting the support information.

図5は、操作履歴情報321の一例を示す。操作履歴情報321は、操作所要時間と支援情報の支援態様を含む。操作履歴情報321は、ユーザの識別情報と、操作対象となる操作部の識別情報と、記録された日時と、車両情報と、操作所要時間の長さに応じた手間取りレベル(評価)との内の何れか一つ以上を含む。車両情報は、車両の種類、車載された機能などを含む。車両がワンボックスカーである、車両がスライドドアである、車両が自動運転機能を備えている、車両が自動駐車機能を備えているといった情報である。支援態様は、支援情報が提示されたときの出力態様である。操作履歴情報321は、ユーザごとにソートされる。操作の手間取りは、ユーザの癖に起因する傾向が高い。このため、ユーザごとに整理し、同一のユーザの操作対象が共通する操作履歴情報321を参照することが好ましい。同一のユーザの操作履歴情報321が存在しない場合には、車両情報(車両のタイプ)が共通する操作履歴情報321を参照することが好ましい。   FIG. 5 shows an example of the operation history information 321. The operation history information 321 includes an operation required time and a support mode of support information. The operation history information 321 includes the identification information of the user, the identification information of the operation unit to be operated, the recorded date and time, the vehicle information, and the time and effort level (evaluation) according to the length of the operation required time. Any one or more of are included. The vehicle information includes the type of vehicle, the in-vehicle function, and the like. The information is that the vehicle is a one-box car, the vehicle is a sliding door, the vehicle has an automatic driving function, and the vehicle has an automatic parking function. The support mode is an output mode when the support information is presented. The operation history information 321 is sorted for each user. The time-consuming operation tends to be caused by the habit of the user. For this reason, it is preferable to organize by user and refer to the operation history information 321 in which the operation targets of the same user are common. When the operation history information 321 of the same user does not exist, it is preferable to refer to the operation history information 321 having common vehicle information (vehicle type).

ステップS107において、プロセッサ11は、操作履歴情報321の操作所要時間に基づいて、推測された操作を支援する支援態様を決定する。
プロセッサ11は、操作履歴情報321における操作所要時間が短い支援態様を、今回の支援情報の支援態様として採用する。プロセッサ11は、操作所要時間の長さに応じた手間取りレベルの評価が高い支援態様を、今回の支援情報の支援態様として採用する。
In step S107, the processor 11 determines a support mode for supporting the estimated operation based on the operation required time of the operation history information 321.
The processor 11 adopts the support mode of the operation history information 321 in which the required operation time is short as the support mode of the current support information. The processor 11 adopts a support mode in which the effort level is highly evaluated according to the length of the operation required time as the support mode of the current support information.

特に限定されないが、共通のユーザの操作履歴情報321を参照することが好ましい。特に限定されないが、共通のユーザかつ推測された操作と共通する操作対象の操作履歴情報を参照することが好ましい。   Although not particularly limited, it is preferable to refer to the common user operation history information 321. Although not particularly limited, it is preferable to refer to the operation history information of the operation target common to the common user and the estimated operation.

図5に示す操作履歴情報321を参照した場合の支援態様の決定手法を説明する。
プロセッサ11は、ユーザAが実行しようとする機能が「自動運転機能」であると推測された場合には、「ユーザA」が「自動運転モード切替」を操作したときの操作履歴情報321を参照する。プロセッサ11は、その中で操作所要時間が最も短く、評価が高い履歴を抽出し、その履歴における支援態様であるLEDなどの発光素子225を用いた点滅発光を、今回の支援態様として決定する。
A method of determining the support mode when referring to the operation history information 321 shown in FIG. 5 will be described.
The processor 11 refers to the operation history information 321 when the “user A” operates the “automatic operation mode switching” when it is estimated that the function to be executed by the user A is the “automatic operation function”. To do. The processor 11 extracts a history with a shortest operation required time and a high evaluation among them, and determines blinking light emission using the light emitting element 225 such as an LED, which is the assistance mode in the history, as the current assistance mode.

支援態様は、少なくとも出力装置の種別と、情報の伝達媒体の種別を含む。伝達媒体は、音声、画像、発光を少なくとも含む。
支援情報を出力する入出力装置220としては、スピーカ224を含む音声出力装置、ディスプレイ221を含む画像出力装置、LEDなどの発光素子225を含む発光装置を用いることができる。音声出力装置としてのスピーカ224を用いて出力される支援情報は音声情報であり、支援態様は音声出力態様である。画像出力装置としてのディスプレイ221を介して出力される支援情報は画像(図形、テキストを含む)であり、支援態様は表示出力態様である。発光装置としての発光素子225を介して出力される支援情報は視認可能な発光情報であり、支援態様は発光態様である。発光素子225を含む発光装置はスイッチの操作部に組み込んで、発光によりスイッチの所在を示すようにしてもよい。
The support mode includes at least the type of the output device and the type of the information transmission medium. The transmission medium includes at least sound, images, and light emission.
As the input / output device 220 for outputting the support information, a voice output device including a speaker 224, an image output device including a display 221, and a light emitting device including a light emitting element 225 such as an LED can be used. The support information output using the speaker 224 as a voice output device is voice information, and the support mode is a voice output mode. The support information output via the display 221 as an image output device is an image (including a figure and a text), and the support mode is a display output mode. The support information output through the light emitting element 225 as the light emitting device is visible light emission information, and the support mode is the light emission mode. The light emitting device including the light emitting element 225 may be incorporated in the operation portion of the switch so that the location of the switch can be indicated by light emission.

音声出力態様は、ユーザに対して話しかけるように音声で支援情報を提供する。ユーザが機器の案内画面を注視できないような場合に有効な支援態様である。運転中、特に周囲を注意する場面において有効である。双方向に情報を授受してユーザから詳細説明を要求する、又は説明の繰り返しを指示することもできる。
表示出力態様は、図形、テキスト、動画を用いた支援情報を出力する。操作が複雑な場合に詳細な説明に適している。ボタンやチェックボックス、スライドバーを含むGUI(Graphical User Interface)技術を用いた操作を利用して双方向に情報を授受してユーザから詳細説明を要求する、又は説明の繰り返しを指示することもできる。
発光態様は、操作部そのものを光らせるなどして、操作部(スイッチ)の位置を示す。細かな指示や操作手順の説明には適していないが、操作部を直接的に指し示すことが出来る。特に夜間に暗いことが原因で操作対象が見つからない場合に効果を発揮する。
これらの支援態様は、適宜に切り替えることができる。複数の支援態様を組み合わせて支援情報を提示してもよい。本実施形態では、メインとなる支援情報を予め定義しておき、そのメインとなる支援情報の支援態様を決定する。メインとなる支援情報を補完するサブの支援情報については、他の支援態様を用いることも可能である。
支援態様は、経時的に変更してもよい。本実施形態では、最初に出力されるべき支援情報を予め定義しておき、最初に出力する支援情報の支援態様を決定する。その後に出力される補完的な支援情報については、他の支援態様を用いることも可能である。
例えば、最初に出力されるべきメインの支援情報は、視覚的な通知・表示として、表示出力態様又は発光態様で出力し、ユーザの操作指令が入力されない(操作が完了しない)と判断された場合に、音声出力態様を用いて支援情報を出力してもよい。支援態様の有効性を考慮して、支援態様を切り替えてもよい。
The voice output mode provides assistance information by voice so as to speak to the user. This is a support mode effective when the user cannot look at the guidance screen of the device. This is effective when driving and paying particular attention to the surroundings. It is also possible to exchange information bidirectionally and request a detailed explanation from the user, or instruct to repeat the explanation.
The display output mode outputs support information using a figure, a text, and a moving image. Suitable for detailed explanation when the operation is complicated. It is also possible to exchange information bidirectionally by using an operation using a GUI (Graphical User Interface) technology including buttons, check boxes, and slide bars to request a detailed explanation from the user, or to instruct repetition of the explanation. .
The light emission mode indicates the position of the operation unit (switch) by illuminating the operation unit itself. Although it is not suitable for explaining detailed instructions and operating procedures, it is possible to directly point to the operating unit. This is especially effective when the operation target cannot be found due to darkness at night.
These support modes can be switched appropriately. The support information may be presented by combining a plurality of support modes. In the present embodiment, main support information is defined in advance, and the support mode of the main support information is determined. It is also possible to use other support modes for the sub support information that complements the main support information.
The support mode may be changed over time. In this embodiment, the support information to be output first is defined in advance, and the support mode of the support information to be output first is determined. It is also possible to use other support modes for the complementary support information output thereafter.
For example, when it is determined that the main support information to be output first is output in a display output mode or a light emission mode as a visual notification / display, and a user operation command is not input (operation is not completed). Alternatively, the support information may be output using a voice output mode. The support mode may be switched in consideration of the effectiveness of the support mode.

人間が聴取できる音声情報、人間が視認できる表示(画像)情報、人間が知覚できる発光情報の何れか一つ以上により支援情報を出力することができるので、ユーザに適した支援態様で支援情報を提供することができる。   Since the support information can be output by at least one of audio information that can be heard by humans, display (image) information that can be visually recognized by humans, and light emission information that can be perceived by humans, the support information can be output in a support mode suitable for the user. Can be provided.

プロセッサ11は、ユーザAが実行しようとする機能が「ドア操作」であると推測された場合には、「ユーザA」が「ドア操作」を操作したときの操作履歴情報321を参照する。プロセッサ11は、その中で操作所要時間が最も短く、評価が高い履歴を抽出し、その履歴における支援態様であるディスプレイを用いた画像情報によるスイッチ位置の提示を、今回の支援態様として決定する。
プロセッサ11は、ユーザAが実行しようとする機能が「空調操作」であると推測された場合には、「ユーザA」が「空調操作」を操作したときの操作履歴情報321を参照する。プロセッサ11は、その中で操作所要時間が最も短く、評価が高い履歴を抽出し、その履歴における支援態様であるスピーカを用いた音声による支援情報の提示を、今回の支援態様として決定する。
The processor 11 refers to the operation history information 321 when the “user A” operates the “door operation” when the function to be executed by the user A is estimated to be the “door operation”. The processor 11 extracts a history with the shortest required operation time and a high evaluation among them, and determines the presentation of the switch position by the image information using the display, which is the assistance mode in the history, as the current assistance mode.
When it is estimated that the function to be executed by the user A is “air conditioning operation”, the processor 11 refers to the operation history information 321 when the “user A” operates “air conditioning operation”. The processor 11 extracts a history with the shortest required operation time and a high evaluation among them, and determines the presentation of the assistance information by voice using a speaker, which is the assistance aspect in the history, as the assistance aspect this time.

ユーザが実行しようとする機能を推測するので、操作の対象が特定されていない場合であっても、ユーザにとって有効な操作支援をすることができる。操作履歴情報321を参照し、推測された機能に基づいて支援態様を決定するので、ユーザにとって適した支援態様で支援情報を提供することができる。   Since the function to be executed by the user is estimated, it is possible to provide effective operation support to the user even when the operation target is not specified. Since the support mode is determined based on the estimated function with reference to the operation history information 321, the support information can be provided in the support mode suitable for the user.

操作所要時間は、「機能の操作が開始されたタイミング」から、操作部に対して「操作指令の入力が完了したタイミング」までの時間であるので、操作所要時間が短ければ、そのときの支援態様で支援情報が提供されればユーザは操作に手間取らないと評価できる。ユーザごとに記憶された操作所要時間を含む操作履歴情報に基づいて支援態様を決定することにより、ユーザにとって有効な支援態様で支援情報を提供することができる。
また、ユーザ及び機能ごとに記憶された操作所要時間を含む操作履歴情報に基づいて支援態様を決定することにより、ユーザが実行を希望すると予測される機能について有効な支援態様で支援情報を提供することができる。
The required operation time is the time from the "timing at which the operation of the function is started" to the "timing at which the input of the operation command is completed" for the operation unit. Therefore, if the required operation time is short, assistance at that time will be provided. If the support information is provided in the form, it can be evaluated that the user does not have to take the trouble. By determining the support mode based on the operation history information including the operation required time stored for each user, the support information can be provided in the support mode effective for the user.
Further, by determining the support mode based on the operation history information including the operation required time stored for each user and function, the support information is provided in the effective support mode for the function predicted to be executed by the user. be able to.

本実施形態では、操作履歴情報321を異なる観点から定義する。
操作履歴情報321は、操作評価時間を含む。操作評価時間は、過去に出力された支援情報の有効性(支援の効果の程度)を評価する値である。操作評価時間は、「支援情報の出力完了」から「機能を実行させる操作指令の入力の完了」までの時間である。
操作評価時間が短くなることは、その支援態様が、そのユーザに適しているということである。
プロセッサ11は、操作指令をしたユーザの識別結果に基づいて、識別されたユーザの操作評価時間のうち、相対的に短い操作評価時間に対応づけられた支援態様を優先して選択されるように、重みづけを設定する。
また、プロセッサ11は、ユーザの識別結果と、ユーザが実行しようとする車載機器の操作の推測結果と、に基づいて、識別されたユーザの機能ごとに記憶された操作評価時間のうち、相対的に短い操作評価時間に対応づけられた支援態様が優先して選択されるように重みづけを設定する。
例えば、蓄積された複数のデータにおいて、異なる機能の操作に対応づけられた操作所要時間の差が所定値以内である場合に、更に操作評価時間の評価を参照し、操作評価時間が短い(評価が高い)支援態様が優先して選択されるように、重みづけを設定する。具体的に、操作評価時間が短い又は評価が高い支援態様に対応づけられた操作所要時間が短くなるように1未満の正の係数を付して、操作所要時間を短く算出する。これにより、操作所要時間が短くなり、その操作態様が優先的に選択される。
また、蓄積された複数のデータにおいて、異なる機能の操作に対応づけられた操作所要時間の差が所定値以内である場合に、更に操作評価時間の評価を参照し、操作評価時間の短縮度が大きい(前回の操作所要時間に対する今回の操作所要時間の割合が小さい)支援態様が優先して選択されるように、重みづけを設定する。具体的に、操作評価時間の短縮度が大きい支援態様に対応づけられた操作所要時間が短くなるように1未満の正の係数を付して、操作所要時間を短く算出する。これにより、操作所要時間が短くなり、その操作態様が優先的に選択される。
選択された支援態様は、支援情報を出力する支援態様として決定される。
In this embodiment, the operation history information 321 is defined from different viewpoints.
The operation history information 321 includes the operation evaluation time. The operation evaluation time is a value for evaluating the effectiveness (degree of support effect) of the support information output in the past. The operation evaluation time is the time from “completion of output of support information” to “completion of input of operation command for executing a function”.
The shorter operation evaluation time means that the support mode is suitable for the user.
Based on the identification result of the user who has issued the operation command, the processor 11 preferentially selects the support mode associated with the operation evaluation time of the identified user, which is associated with the relatively short operation evaluation time. , Set the weighting.
In addition, the processor 11 compares the operation evaluation time stored for each function of the identified user based on the identification result of the user and the estimation result of the operation of the vehicle-mounted device that the user intends to execute. The weighting is set so that the support mode associated with the short operation evaluation time is preferentially selected.
For example, when the difference between the operation required times associated with the operations of different functions in the plurality of accumulated data is within a predetermined value, the operation evaluation time is further referred to (the evaluation time is short). The weighting is set so that the support mode is preferentially selected. Specifically, a positive coefficient of less than 1 is added so that the operation required time associated with the support mode having a short operation evaluation time or a high evaluation is shortened, and the operation required time is calculated to be short. As a result, the required operation time is shortened, and the operation mode is preferentially selected.
In addition, in the plurality of accumulated data, when the difference between the operation required times associated with the operations of different functions is within a predetermined value, the evaluation of the operation evaluation time is further referred to, and the reduction degree of the operation evaluation time is reduced. The weighting is set so that a support mode that is large (the ratio of the current operation required time to the previous operation required time is small) is preferentially selected. Specifically, a positive coefficient of less than 1 is attached so that the required operation time associated with the support mode having a large degree of reduction in the operation evaluation time is shortened, and the required operation time is calculated to be short. As a result, the required operation time is shortened, and the operation mode is preferentially selected.
The selected support mode is determined as a support mode for outputting support information.

図6は、操作履歴情報321の一例を示す。操作履歴情報321は、操作評価時間と支援情報の支援態様を含む。操作履歴情報321は、ユーザの識別情報と、操作対象となる操作部の識別情報と、支援情報が提示されたときの支援態様と、操作評価時間と、車両情報と、操作評価時間の長さに応じた手間取りレベル(評価)と、記録された日時のうちの何れか一つ以上を含む。なお、図6においては、操作評価時間を含む例を中心に説明するために、操作所要時間を表記していないが、操作履歴情報321には操作所要時間が含まれる。   FIG. 6 shows an example of the operation history information 321. The operation history information 321 includes an operation evaluation time and a support mode of support information. The operation history information 321 includes the identification information of the user, the identification information of the operation unit to be operated, the support mode when the support information is presented, the operation evaluation time, the vehicle information, and the length of the operation evaluation time. It includes any one or more of the floor plan level (evaluation) according to the above and the recorded date and time. In FIG. 6, the operation required time is not shown in order to mainly describe the example including the operation evaluation time, but the operation history information 321 includes the operation required time.

評価は、「支援情報の出力完了」から「機能を実行させる操作指令の入力の完了」までの操作評価時間の長さに応じて判断された評価である。操作評価時間が長い場合(例えば、20秒以上である)には、低い評価が与えられる(Z評価)。支援情報を出力したにもかかわらず、操作指令の入力の完了までの時間が長く、ユーザのレスポンスが遅いと評価される。操作評価時間が短い場合(例えば、10秒未満である)には、高い評価が与えられる(X評価)。支援情報の出力により、操作指令の入力の完了までの時間が短縮され、ユーザのレスポンスが迅速であると評価される。操作評価時間がX評価とZ評価との間(例えば、10秒以上、20秒未満)である場合には、標準的であるという評価が与えられる(Y評価)。   The evaluation is an evaluation determined according to the length of the operation evaluation time from “completion of output of support information” to “completion of input of operation command for executing function”. When the operation evaluation time is long (for example, 20 seconds or more), a low evaluation is given (Z evaluation). Although the support information is output, it takes a long time to complete the input of the operation command, and it is evaluated that the response of the user is slow. When the operation evaluation time is short (for example, less than 10 seconds), a high evaluation is given (X evaluation). The output of the support information shortens the time required to complete the input of the operation command, and the response of the user is evaluated to be quick. When the operation evaluation time is between the X evaluation and the Z evaluation (for example, 10 seconds or more and less than 20 seconds), a standard evaluation is given (Y evaluation).

また、ある支援態様の評価に関し、記録された日時が古い評価よりも、記録された日時が新しい評価のほうが高い評価である場合には、その支援態様はユーザが学習しやすい支援態様であると判断することができる。支援態様ごとに、経時的な操作評価時間の変化を算出し、その算出結果を評価に反映させてもよい。例えば、操作評価時間が経時的に減少する場合には、評価が高くなるような重みづけを付した操作評価時間に基づいて評価を算出してもよい。プロセッサ11は、これらの評価を考慮して、操作所要時間に基づいて支援態様を決定する。操作評価時間の評価結果が良い場合には、操作所要時間が短くなるように重みづけをしてもよい。その結果操作評価時間が短い又は経時的に短くなっているという手間取りの改善の事実に基づいて、操作所要時間を補正し、補正後の操作所要時間に基づいて支援態様を決定できる。   Further, regarding the evaluation of a certain support mode, when the evaluation with the new recorded date and time is higher than the evaluation with the recorded date and time is older, the support mode is a support mode in which the user can easily learn. You can judge. A change in the operation evaluation time over time may be calculated for each support mode, and the calculation result may be reflected in the evaluation. For example, when the operation evaluation time decreases with time, the evaluation may be calculated based on the operation evaluation time weighted so that the evaluation becomes higher. The processor 11 determines the support mode based on the operation required time in consideration of these evaluations. When the evaluation result of the operation evaluation time is good, weighting may be performed so that the operation required time becomes short. As a result, the operation required time can be corrected based on the fact that the operation evaluation time is short or has been shortened over time, and the support mode can be determined based on the corrected operation required time.

操作履歴情報321は、図6に示すように、ユーザごとに整理することができる。また、操作対象ごとにソートすることができる。操作履歴情報321は、操作の手間取りは、ユーザの癖に起因する傾向が高い。このため、ユーザごとに整理し、同一のユーザの操作対象が共通する操作履歴情報321を参照することが好ましい。同一のユーザの操作履歴情報321が存在しない場合には、車両情報(車両のタイプ)が共通する操作履歴情報321を参照することが好ましい。   The operation history information 321 can be organized for each user as shown in FIG. In addition, it is possible to sort by operation target. The operation history information 321 has a high tendency that the troublesome operation is caused by the habit of the user. For this reason, it is preferable to organize by user and refer to the operation history information 321 in which the operation targets of the same user are common. When the operation history information 321 of the same user does not exist, it is preferable to refer to the operation history information 321 having common vehicle information (vehicle type).

プロセッサ11は、操作履歴情報321における操作評価時間が短い支援態様が優先的に選択されるように重みづけを設定する。プロセッサ11は、操作評価時間の長さに応じた手間取りレベルの評価が高い(手間取りの時間が短い)支援態様が、優先的に選択されるように重みづけを設定する。特に限定されないが、重みづけは、共通のユーザの操作履歴情報321を参照して設定することが好ましい。特に限定されないが、重みづけは、共通のユーザかつ推測された操作と共通する操作対象の操作履歴情報を参照して設定することが好ましい。   The processor 11 sets the weighting so that the support mode in the operation history information 321 having a short operation evaluation time is preferentially selected. The processor 11 sets the weighting so that the support mode in which the effort level is highly evaluated (the effort time is short) according to the length of the operation evaluation time is preferentially selected. Although not particularly limited, the weighting is preferably set by referring to the common user operation history information 321. Although not particularly limited, it is preferable that the weighting be set with reference to operation history information of an operation target common to the common user and the estimated operation.

プロセッサ11は、ユーザAが実行しようとする機能が「自動運転機能」であると推測された場合には、「ユーザA」が「自動運転モード切替」を操作したときの操作履歴情報321を参照する。プロセッサ11は、その中で操作評価時間が最も短く、評価が高い履歴を抽出し、その履歴における支援態様である点滅発光が、今回の支援態様として優先的に選択されるように、点滅発光に重みづけをする。
プロセッサ11は、ユーザAが実行しようとする機能が「ドア操作」であると推測された場合には、「ユーザA」が「ドア操作」を操作したときの操作履歴情報321を参照する。プロセッサ11は、その中で操作評価時間が最も短く、評価が高い履歴を抽出し、その履歴における支援態様であるディスプレイを用いた画像情報による支援情報の提示が、今回の支援態様として優先的に選択されるように、表示出力態様に重みづけをする。
プロセッサ11は、ユーザAが実行しようとする機能が「空調操作」であると推測された場合には、「ユーザA」が「空調操作」を操作したときの操作履歴情報321を参照する。プロセッサ11は、その中で操作評価時間が最も短く、評価が高い履歴を抽出し、その履歴における支援態様であるスピーカを用いた音声、又はLEDを用いた発光による支援情報の提示が、今回の支援態様として優先的に選択されるように、音声出力態様又は発光態様に重みづけをする。
The processor 11 refers to the operation history information 321 when the “user A” operates the “automatic operation mode switching” when it is estimated that the function to be executed by the user A is the “automatic operation function”. To do. The processor 11 extracts the history with the shortest operation evaluation time and the highest evaluation, and the blinking light emission, which is the support mode in the history, is changed to the flashing light emission so as to be preferentially selected as the current support mode. Weight.
The processor 11 refers to the operation history information 321 when the “user A” operates the “door operation” when the function to be executed by the user A is estimated to be the “door operation”. The processor 11 extracts the history with the shortest operation evaluation time and the highest evaluation, and the presentation of the support information by the image information using the display, which is the support mode in the history, is given priority as the support mode of this time. The display output mode is weighted so as to be selected.
When it is estimated that the function to be executed by the user A is “air conditioning operation”, the processor 11 refers to the operation history information 321 when the “user A” operates “air conditioning operation”. The processor 11 extracts the history with the shortest operation evaluation time and the highest evaluation, and presents the support information by the voice using the speaker or the light emission using the LED, which is the support mode in the history. The voice output mode or the light emission mode is weighted so that the support mode is preferentially selected.

さらに、操作評価時間の変化に応じた重みづけをしてもよい。
図6に示す操作履歴情報321において、ユーザAがタイプV1の車両を利用したときの空調操作に関し、スピーカを用いたときとLEDを用いたときの最短の操作評価時間は同じ5秒である。このような場合においては、支援態様の効果についてさらに検討する。操作履歴情報321を参照すると、スピーカを用いた音声ガイダンスを行った場合には、先の日時T12において記録された操作評価時間は5秒であり、後の日時T22において記録された操作評価時間も5秒である。また、LEDを用いた点滅発光によるガイドを行った場合には、先の日時T11において記録された操作評価時間は10秒であり、後の日時T212において記録された操作評価時間は5秒と短縮されている。このように操作評価時間が短縮された場合には、その支援態様はそのユーザにとって有効である(効果的である)と推測できる。
Furthermore, weighting may be performed according to changes in the operation evaluation time.
In the operation history information 321 shown in FIG. 6, regarding the air conditioning operation when the user A uses the vehicle of type V1, the shortest operation evaluation time when the speaker is used and when the LED is used is the same 5 seconds. In such a case, the effect of the support mode will be further examined. Referring to the operation history information 321, when the voice guidance using the speaker is performed, the operation evaluation time recorded at the previous date and time T12 is 5 seconds, and the operation evaluation time recorded at the later date and time T22 is also. 5 seconds. Further, when the guide is performed by blinking light emission using the LED, the operation evaluation time recorded at the previous date and time T11 is 10 seconds, and the operation evaluation time recorded at the later date and time T212 is shortened to 5 seconds. Has been done. When the operation evaluation time is shortened in this way, it can be inferred that the support mode is effective (effective) for the user.

本実施形態では、直近の操作評価時間が同じ5秒であっても、操作評価時間が50%に短縮されているLEDを用いた点滅発光による支援の操作評価時間には、さらに優先的に選択されるように重みづけを設定し、重みづけをした操作評価時間を算出する。その結果、点滅発光による支援の操作評価時間は5秒未満となり、最も短い操作評価時間は、No.9のデータとなる。このデータにおける支援態様はLEDである。今回の処理において、ユーザAが実行しようとする機能が「空調操作」であると推測された場合には、プロセッサ11は、音声ではなく、点滅発光が支援態様として優先的に選択されるように、音声出力態様よりも大きな(選択されやすい)重みづけを設定する。   In the present embodiment, even if the latest operation evaluation time is the same 5 seconds, the operation evaluation time of support by blinking light emission using the LED whose operation evaluation time is shortened to 50% is further preferentially selected. The weighting is set as described above, and the weighted operation evaluation time is calculated. As a result, the operation evaluation time of support by blinking light emission is less than 5 seconds, and the shortest operation evaluation time is No. It becomes 9 data. The support aspect in this data is the LED. In the processing this time, when it is estimated that the function to be executed by the user A is “air conditioning operation”, the processor 11 preferentially selects blinking light emission as a support mode instead of voice. , Weighting larger than that of the voice output mode (easy to be selected) is set.

操作支援装置100がユーザが実行しようとする機能を自動的に推測するので、操作の対象が特定されていない場合であっても、ユーザにとって有効な操作支援をすることができる。操作履歴情報321を参照し、推測された機能に基づいて支援態様を決定するので、ユーザにとって適した支援態様で支援情報を提供することができる。   Since the operation support device 100 automatically estimates the function to be executed by the user, it is possible to provide effective operation support for the user even when the operation target is not specified. Since the support mode is determined based on the estimated function with reference to the operation history information 321, the support information can be provided in the support mode suitable for the user.

操作評価時間は、「支援情報の出力完了」から「機能を実行させる操作指令の入力の完了」までの時間であるので、操作評価時間が短ければ、支援情報の出力によってユーザの手間取り時間が短くなったと評価できる。ユーザごとに記憶された操作評価時間を含む操作履歴情報に基づいて支援態様を決定することにより、ユーザにとって有効な支援態様で支援情報を提供することができる。
また、前回の操作評価時間よりも今回の操作評価時間が短くなる傾向が見られる場合には、その操作態様はユーザに適していると考えられる。操作評価時間が経時的に短縮の傾向がある支援態様は、支援情報の出力によってユーザの手間取り時間が短くなることが期待できる。ユーザごとに記憶された操作評価時間の経時的な変化を含む操作履歴情報に基づいて支援態様を決定することにより、ユーザにとって有効な支援態様で支援情報を提供することができる。
また、ユーザ及び機能ごとに記憶された操作評価時間を含む操作履歴情報に基づいて支援態様を決定することにより、ユーザが実行を希望すると予測される機能について有効な支援態様で支援情報を提供することができる。
The operation evaluation time is the time from “completion of output of support information” to “completion of input of operation command for executing a function”. Therefore, if the operation evaluation time is short, the time and effort required for the user will be short due to the output of support information. It can be evaluated that it has become. By determining the support mode based on the operation history information including the operation evaluation time stored for each user, the support information can be provided in a support mode effective for the user.
If there is a tendency that the current operation evaluation time is shorter than the previous operation evaluation time, then the operation mode is considered to be suitable for the user. In the support mode in which the operation evaluation time tends to be shortened over time, it can be expected that the time and effort required for the user will be shortened by outputting the support information. By determining the support mode based on the operation history information including the change over time of the operation evaluation time stored for each user, the support information can be provided in a support mode effective for the user.
Further, by determining the support mode based on the operation history information including the operation evaluation time stored for each user and function, the support information is provided in the effective support mode for the function predicted to be executed by the user. be able to.

プロセッサ11は、支援態様の決定がされた後、ユーザの動作情報及び/又は車両状態情報に基づいて支援態様の変更処理を行う。
上述したように、本実施形態のプロセッサ11は、操作所要時間又は操作評価時間に基づいて支援態様を決定する。
しかし、運転又は自動運転の監視にユーザを周囲の状況監視に集中させたい場面においては、表示出力態様や発光態様といった視認させる支援態様で支援情報を提供するよりも、ユーザに聴取させる音声出力態様のほうが有効である場合がある。
また、運転の管理者以外のユーザが睡眠中である場面や、乗員同士が会話をしている場面や、大音量で音楽を聴いている場面においては、音声出力態様で支援情報を提供するよりも、表示出力態様や発光態様といった視認させる支援態様で支援情報を提供したほうがユーザにとって好ましい場合がある。
このような場合には、いったん決定された表示態様を変更する。
本処理によれば、支援態様の決定がされた後であっても、ユーザの動作情報及び/又は車両状態情報に基づいて支援態様の変更処理を行うことにより、ユーザが理解しやすい支援態様で支援情報を提供することができる。
After the support mode is determined, the processor 11 performs a support mode change process based on the user's motion information and / or vehicle state information.
As described above, the processor 11 of the present embodiment determines the support mode based on the operation required time or the operation evaluation time.
However, in a scene where the user wants to concentrate on the surrounding situation monitoring for driving or autonomous driving monitoring, a voice output mode that allows the user to listen rather than providing support information in a visually supported support mode such as a display output mode or a light emission mode May be more effective.
In addition, when the user other than the driving administrator is sleeping, the passengers are having a conversation with each other, or the music is being listened to at a high volume, the support information is provided in a voice output mode. In some cases, it may be preferable for the user to provide the support information in a display support mode or a light emission mode for visually supporting.
In such a case, the display mode once determined is changed.
According to this processing, even after the support mode is determined, by performing the support mode change process based on the user's motion information and / or vehicle state information, the support mode can be easily understood by the user. Support information can be provided.

以下、支援態様を変更する具体的な処理の手法を説明する。
まず、表示出力態様や発光態様といった視認させる支援態様から、音声情報による音声出力態様に変更する場合の処理について説明する。
操作所要時間又は操作評価時間に基づいて決定された支援態様が、表示支援態様又は発光態様であり、支援情報の出力処理時において、自車両の車両状態情報が、予め定義された周囲監視度の高い状態であると判断された場合には、視認による表示支援態様又は発光態様から聴取による音声支援態様に変更する。周囲監視度とは、ユーザが自車両の周囲を監視する注意度に応じた度合いである。相対的に周囲を注意深く監視する場合には、周囲監視度は相対的に高く設定される。例えば、交差点走行時、障害物が存在する場合、車速が高い場合などである。
周囲監視度の高い状態においては、ユーザは運転や周囲の監視に集中しているため、表示支援態様又は発光態様で支援情報が提示されても、気づけない可能性が高い。また、発光によりスイッチの所在を示しても場所を理解できない場合がある。このような場合には、ユーザの視認させる支援情報よりも、ユーザに聴取させる支援情報のほうが、ユーザが理解しやすい。
周囲監視度の高い状態は、自車両の位置が交差点から所定距離以内に存在する状態、自車両が走行する道路の路幅が所定値未満である状態、自車両と障害物の距離、到達所要時間が所定値未満である状態、を含む。走行道路の路幅は、ナビゲーション装置270の地図情報272から取得する。
Hereinafter, a specific processing method for changing the support mode will be described.
First, a process of changing from a visually recognized support mode such as a display output mode or a light emission mode to a voice output mode based on voice information will be described.
The support mode determined based on the operation required time or the operation evaluation time is the display support mode or the light emission mode, and during the output process of the support information, the vehicle state information of the own vehicle is the predefined surrounding monitoring degree. When it is determined that the state is high, the display support mode or the light emission mode by visual recognition is changed to the voice support mode by listening. The surrounding monitoring degree is a degree according to the degree of caution that the user monitors the surroundings of the own vehicle. When the surroundings are carefully monitored relatively, the degree of surroundings monitoring is set to be relatively high. For example, this may be the case when an obstacle is present at the time of traveling at an intersection or the vehicle speed is high.
In a state where the degree of surroundings monitoring is high, the user concentrates on driving and surroundings monitoring, and therefore, even if the supporting information is presented in the display supporting mode or the light emitting mode, it is highly likely that the user does not notice. Also, even if the location of the switch is indicated by light emission, the location may not be understood. In such a case, the support information that the user hears is easier for the user to understand than the support information that the user visually recognizes.
The state where the surrounding monitoring degree is high means that the position of the own vehicle is within a predetermined distance from the intersection, the width of the road on which the own vehicle is traveling is less than a predetermined value, the distance between the own vehicle and obstacles, and the required arrival. A state in which the time is less than a predetermined value is included. The road width of the traveling road is acquired from the map information 272 of the navigation device 270.

例えば、操作所要時間又は操作評価時間に基づいて決定された支援態様が、表示支援態様又は発光態様であり、支援情報の出力処理時において、自車両の車両状態情報が、予め定義された周囲監視度の高い状態であると判断された場合には、視認による表示支援態様又は発光態様から聴取による音声支援態様に変更する。
なお、この処理は、操作所要時間又は操作評価時間に基づいて決定された支援態様により支援情報を出力した後に、所定時間、操作指令が入力されない場合に実行してもよい。ユーザが支援情報を利用できない状況であると判断できるからである。
For example, the support mode determined based on the operation required time or the operation evaluation time is a display support mode or a light emission mode, and at the time of output processing of the support information, the vehicle state information of the own vehicle is a predefined surrounding monitor. When it is determined that the frequency is high, the display support mode or the light emission mode by visual recognition is changed to the voice support mode by listening.
Note that this process may be executed when the operation command is not input for a predetermined time after the support information is output in the support mode determined based on the operation required time or the operation evaluation time. This is because it can be determined that the user cannot use the support information.

次に、音声情報といった聴取させる音声出力態様から、表示出力態様や発光態様といった視認させる支援態様に変更する場合の処理について説明する。
操作所要時間又は操作評価時間に基づいて決定された支援態様が、音声出力態様であり、
支援情報の出力処理時において、自車両に搭乗するユーザ(運転者又は運転管理者以外の乗員)が睡眠中であると判断された場合、自車両に搭乗する乗員同士が会話していると判断された場合には、音声支援態様から視認による表示支援態様又は発光態様に変更する。
乗員が睡眠中である状態においては、車室内は静寂である方が好ましい。また、乗員同士が会話をしている状態においては、会話を妨げないように車室内は静寂である方が好ましい。さらに、オーディオ装置281の音量が所定値以上である場合には、支援情報が聞き取れない可能性がある。
このような場合には、ユーザに聴取させる支援情報よりも、ユーザの視認させる支援情報のほうが、ユーザが理解しやすい。
ユーザが睡眠中であるか否かは、車室内のカメラ226の撮像画像に基づいて、顔を認証し、目の位置を特定し、黒目の存在が無いことにより、ユーザが寝ていることを検出できる。各ユーザの生体情報を経時的に取得し、睡眠中の生体情報パターンと比較して睡眠中であるか否かを判断してもよい。ユーザは、運転席に着座するユーザに限定されない。カメラ226は、車室の天井に設けられ、広角の撮像画像を得ることができる。顔認証技術については、出願時に知られた手法を用いることができる。
ユーザ同士が会話しているか否かは、車室内のマイク222で収集した音声情報に基づいて、音声の特徴を抽出し、異なるユーザ同士が会話をしていることを検出できる。
音楽の音量は、オーディオ装置281から取得する。
Next, a description will be given of processing in the case of changing from the audio output mode such as audio information to be heard to the visual support mode such as the display output mode and the light emission mode.
The support mode determined based on the operation required time or the operation evaluation time is a voice output mode,
When it is determined that the user (an occupant other than the driver or the driving manager) boarding the vehicle is sleeping during the output process of the support information, it is determined that the occupants of the vehicle are talking to each other. If it is performed, the voice support mode is changed to the visual display support mode or the light emission mode.
When the occupant is sleeping, it is preferable that the passenger compartment be quiet. Further, when the passengers are having a conversation with each other, it is preferable that the passenger compartment be quiet so as not to disturb the conversation. Further, when the volume of the audio device 281 is equal to or higher than the predetermined value, the support information may not be heard.
In such a case, the support information visually recognized by the user is easier for the user to understand than the support information to be heard by the user.
Whether or not the user is sleeping is determined based on the image captured by the camera 226 inside the vehicle, by identifying the face, identifying the position of the eyes, and determining that the user is sleeping by the absence of black eyes. Can be detected. The biometric information of each user may be acquired over time and compared with the biometric information pattern during sleep to determine whether or not the user is sleeping. The user is not limited to the user sitting in the driver's seat. The camera 226 is provided on the ceiling of the passenger compartment and can capture a wide-angle captured image. Regarding the face recognition technology, a method known at the time of application can be used.
Whether or not the users are having a conversation can be detected based on the voice information collected by the microphone 222 inside the vehicle, and the features of the voice can be extracted to detect that the different users are having a conversation.
The volume of music is acquired from the audio device 281.

例えば、操作所要時間又は操作評価時間に基づいて決定された支援態様が、音声出力態様であり、支援情報の出力処理時において、乗員が睡眠中である、ユーザ同士が会話中である、又はオーディオの出力音量が所定値以上であると判断された場合には、聴取による音声支援態様から視認による表示支援態様又は発光態様に変更する。
なお、この処理は、操作所要時間又は操作評価時間に基づいて決定された支援態様により支援情報を出力した後に、所定時間、操作指令が入力されない場合に実行してもよい。ユーザが支援情報を利用できない状況であると判断できるからである。
For example, the support mode determined based on the operation required time or the operation evaluation time is a voice output mode, and during the output process of the support information, the occupants are sleeping, the users are in conversation, or the audio is output. When it is determined that the output sound volume of is equal to or higher than the predetermined value, the audio support mode by listening is changed to the display support mode or light emission mode by visual recognition.
Note that this process may be executed when the operation command is not input for a predetermined time after the support information is output in the support mode determined based on the operation required time or the operation evaluation time. This is because it can be determined that the user cannot use the support information.

図3のステップS107に戻る。上述したように、支援情報を出力する支援態様が決定されたら、ステップS108へ進む。ステップS108において、プロセッサ11は、支援情報の出力命令を生成する。支援情報の出力命令には、ステップS107において決定された支援態様を指定する命令を含む。   It returns to step S107 of FIG. As described above, when the support mode for outputting the support information is determined, the process proceeds to step S108. In step S108, the processor 11 generates a support information output instruction. The support information output command includes a command for designating the support mode determined in step S107.

支援情報の支援態様について説明する。
図7は、車両のステアリングSTの周囲の操作部を示す。スイッチSW1は、自動運転機能のスイッチである。スイッチSW1aは自動運転機能のメインスイッチである。スイッチSW2は、ナビゲーション機能のスイッチである。スイッチSW3は、スライドドアの開閉機能のスイッチである。スイッチSW4は、運転支援機能のスイッチである。スイッチSW5は、空調機能のスイッチである。以下、各支援態様による支援情報の出力例を説明する。
The support mode of the support information will be described.
FIG. 7 shows an operation unit around the steering wheel ST of the vehicle. The switch SW1 is a switch for an automatic driving function. The switch SW1a is the main switch for the automatic driving function. The switch SW2 is a switch for navigation function. The switch SW3 is a switch for opening and closing the slide door. The switch SW4 is a switch for a driving support function. The switch SW5 is an air conditioning function switch. Hereinafter, an output example of the support information according to each support mode will be described.

支援態様として表示出力態様が決定された場合には、プロセッサ11は、ディスプレイ221を介して画像情報(テキスト情報を含む)の支援情報を出力する。ディスプレイ221は、画像情報の支援情報Gを提示する。支援情報は、操作対象となるスイッチSWの位置・操作を示す画像情報や、操作手順示す画像情報及び/又はテキスト情報である。これらを手順に沿って、順次表示する。具体的な支援情報を図8A乃至図10に示す。   When the display output mode is determined as the support mode, the processor 11 outputs the support information of the image information (including the text information) via the display 221. The display 221 presents the support information G of the image information. The support information is image information indicating the position / operation of the switch SW to be operated, and image information and / or text information indicating an operation procedure. These are sequentially displayed according to the procedure. Specific support information is shown in FIGS. 8A to 10.

図8A及び図8Bは支援情報Gの第1の例を示す。図8Aに示す支援情報G1aは、自動運転機能の操作部であるスイッチSW1の位置を示す画像情報である。支援情報G1aは、吹き出しで表示された支援情報G11を含む。支援情報G11は、操作部であるスイッチSW1を拡大して表示し、現在、ユーザが操作すると予測されるメインスイッチSW1aを強調して示す(図中、薄墨を付して示す)。図8Bに示す支援情報G1bは、自動運転機能の操作手順の案内を示す画像情報である。支援情報G1bは、ユーザが実行しようとする自動運転機能について、スタートボタンを押すという操作をユーザに促すため、車両を模したアイコン(画像情報)と「Startボタンを押してください」というテキスト情報を表示する。操作支援の画像やテキストの内容は適宜に定義する。   8A and 8B show a first example of the support information G. The support information G1a illustrated in FIG. 8A is image information indicating the position of the switch SW1 which is the operation unit of the automatic driving function. The support information G1a includes support information G11 displayed in a balloon. The support information G11 enlarges and displays the switch SW1 which is the operation unit, and emphasizes the main switch SW1a predicted to be currently operated by the user (indicated by a thin black mark in the drawing). The support information G1b illustrated in FIG. 8B is image information that provides guidance on the operating procedure of the automatic driving function. The support information G1b displays an icon (image information) imitating a vehicle and text information "Please press the Start button" to prompt the user to press the start button for the automatic driving function that the user intends to execute. To do. The contents of the image and text of the operation support are defined appropriately.

図9A及び図9Bは支援情報Gの第2の例を示す。図9Aに示す支援情報G2A、図9Bに示す支援情報G2Bは、図7に示すディスプレイ221に提示される。図9A、図9Bに示す支援情報G2A,G2Bは、スライドドアの開閉機能の操作部であるスイッチSW3の位置を示す画像情報である。吹き出しで示す図は、車両の左右のドアの開閉スイッチSW3を拡大して示す図である。図9Aは、車両の右側のドアの開閉スイッチSW3Rを強調して表示し、図9Bは、車両の左側のドアの開閉スイッチSW3Lを強調して表示する。図9A又は図9Bの支援情報のいずれをディスプレイ221に表示するかは、道路と車両との位置関係に基づいて、路肩側のドアの開閉スイッチSW3R/Lに係る支援情報を決定してもよい。   9A and 9B show a second example of the support information G. The support information G2A shown in FIG. 9A and the support information G2B shown in FIG. 9B are presented on the display 221 shown in FIG. The support information G2A and G2B shown in FIGS. 9A and 9B are image information indicating the position of the switch SW3 which is the operation unit of the opening / closing function of the slide door. The figure shown by a balloon is an enlarged view of the opening / closing switch SW3 of the left and right doors of the vehicle. 9A emphasizes and displays the opening / closing switch SW3R of the right side door of the vehicle, and FIG. 9B emphasizes and displays the opening / closing switch SW3L of the left side door of the vehicle. Which of the support information in FIG. 9A or FIG. 9B is to be displayed on the display 221 may be determined based on the positional relationship between the road and the vehicle, the support information regarding the opening / closing switch SW3R / L of the roadside door. .

図10は支援情報Gの第3の例を示す。図10に示す支援情報G3は、図7に示すディスプレイ221に提示される。図10は、後部座席に設けられたスライドドアの開閉機能の操作部であるスイッチSW7の位置を示す画像情報である。吹き出しで示す図は、このスイッチが設けられた側のドアの開閉機能に係るスイッチSW7を拡大して示す図である。
本実施形態におけるユーザは、運転者、乗員を含む。後部座席に所在するユーザについてもそのユーザの実行しようとする機能を推測し、その機能を実行させる操作指令の入力を支援することができる。
FIG. 10 shows a third example of the support information G. The support information G3 shown in FIG. 10 is presented on the display 221 shown in FIG. FIG. 10 is image information showing the position of the switch SW7 which is the operation unit for the opening / closing function of the slide door provided in the rear seat. The figure shown by a balloon is an enlarged view of the switch SW7 relating to the opening / closing function of the door on the side where the switch is provided.
The users in this embodiment include a driver and an occupant. It is also possible for a user located in the rear seat to guess the function to be executed by the user and assist the input of an operation command to execute the function.

続いて、操作履歴情報321の蓄積処理について説明する。まず、操作所要時間を含む操作履歴情報321について説明する。
プロセッサ11は、ユーザの識別情報と、ユーザが実行しようとする機能の操作の推測結果と、ユーザが機能を実行させる操作指令の入力が完了するまでに要した操作所要時間と、を対応づけた操作履歴情報321を、通信ネットワークを介して記憶装置320へ送信し、記憶装置320に記憶させる。操作履歴情報321は、操作支援装置100の記憶装置20に記憶してもよい。このようにユーザの識別情報と操作所要時間と、操作内容とを対応づけた操作履歴情報321を参照して、支援態様を決定できるので、支援を受けるユーザに適した態様で支援情報を出力できる。
Subsequently, a storage process of the operation history information 321 will be described. First, the operation history information 321 including the operation required time will be described.
The processor 11 associates the identification information of the user, the estimation result of the operation of the function to be executed by the user, and the operation time required until the input of the operation command for executing the function by the user is completed. The operation history information 321 is transmitted to the storage device 320 via the communication network and stored in the storage device 320. The operation history information 321 may be stored in the storage device 20 of the operation support device 100. As described above, since the support mode can be determined by referring to the operation history information 321 in which the user identification information, the operation required time, and the operation content are associated with each other, the support information can be output in a mode suitable for the user who receives the support. .

音声出力態様の支援情報の出力例を示す。一例として、自動運転モード切替の機能を実行する場面において、「自動運転機能をオンにする」場合の音声出力態様で支援情報を提供する場合の出力例を示す。支援情報は、自動運転モード切替において操作するべき操作部に対する操作手順を一つのアクションごとに音声によりガイドする。プロセッサ11は、ユーザが自動運転機能をオンにすることを希望していると推測した場合には、「操作手順を説明します。」「操作1、ハンドルに設置されたプロパイロットのセットスイッチをオンにしてください。」、「操作2、プロパイロット機能がスタンバイ状態となりましたら、プロパイロットのセットスイッチをオンにしてください。」、「操作3、プロパイロット機能のスタートを確認してください。」といった音声アナウンスを出力する。各機能には、その操作を支援する支援情報の音声コンテンツが対応づけて記憶されている。推測された機能の操作に対する支援情報の支援態様が音声出力態様に決定された場合には、その推測された機能に対応づけられた音声の支援情報を読み出し、スピーカ224を介して音声出力をする。   The output example of the assistance information of a voice output mode is shown. As an example, an output example in the case of providing support information in a voice output mode in the case of “turning on the automatic driving function” in a scene where the function of switching the automatic driving mode is executed will be shown. The assistance information guides the operation procedure for the operation unit to be operated in the automatic driving mode switching by voice for each action. When the processor 11 deduces that the user desires to turn on the automatic driving function, "I will explain the operating procedure." "Operation 1, the set switch of the pro-pilot installed on the steering wheel. "Turn it on.", "Operation 2, when the ProPilot function enters the standby state, turn on the ProPilot set switch.", "Operation 3, check the start of the ProPilot function." Output a voice announcement such as. A voice content of support information for supporting the operation is stored in association with each function. When the support mode of the support information for the operation of the estimated function is determined to be the voice output mode, the voice support information associated with the estimated function is read and the voice is output via the speaker 224. .

図11は、操作履歴情報321を蓄積する学習処理の制御手順を示すフローチャートである。
図11のステップS1において、プロセッサ11は、ユーザを識別する。具体的な処理内容は、図3のステップS101と共通する。
FIG. 11 is a flowchart showing the control procedure of the learning process of accumulating the operation history information 321.
In step S1 of FIG. 11, the processor 11 identifies the user. The specific processing content is the same as step S101 in FIG.

ステップS2において、プロセッサ11は、ユーザの動作情報を取得し、ユーザの動きに基づく動作情報に基づいて、ユーザが操作に手間取っている操作探索状態であることを判断する。具体的な処理内容は、図3のステップS103と共通する。   In step S2, the processor 11 acquires the motion information of the user, and determines, based on the motion information based on the motion of the user, that the user is in an operation search state in which the operation is time-consuming. The specific processing content is the same as step S103 in FIG.

ユーザが操作探索状態であると判断した場合には、ステップS3へ移行する。
ステップS3において、ユーザが操作探索状態であると判断したタイミングを始点とし、計時を開始する。ユーザが操作探索状態であると判断されたタイミングが、「機能の操作が開始されたタイミング」と擬制する。ステップS4において、ユーザの操作指令の入力が完了したか否かを判断する。予測された機能に関する入力情報を得た場合には、操作指令の入力が完了したと判断する。ステップS5において、入力情報を得たタイミングを終点とし、計時を終了する。ステップS6において、プロセッサ11は、操作所要時間を算出する。ステップS3の計時開始の始点からステップS5の計時終了の終点までの間が操作所要時間である。プロセッサ11は、これにより、「機能の操作が開始されたタイミング」から、操作部に対して「操作指令の入力が完了したタイミング」までの操作所要時間を取得する。ステップS7において、プロセッサ11は、ユーザの識別情報と、操作対象と、支援態様と、操作所要時間とを対応づけた操作履歴情報を、サーバ300へ送出する。併せて、車両情報としての車種や、判断された手間取りレベルを送信してもよい。支援態様は、出力装置の種別と、伝達媒体の種別を含んでもよい。
When it is determined that the user is in the operation search state, the process proceeds to step S3.
In step S3, the timing is started with the timing when the user determines that the operation is in the search state as the starting point. The timing at which the user is determined to be in the operation search state is pretended to be "timing at which the operation of the function is started". In step S4, it is determined whether or not the input of the operation instruction by the user is completed. When the input information regarding the predicted function is obtained, it is determined that the input of the operation command is completed. In step S5, the timing at which the input information is obtained is set as the end point, and the timing is ended. In step S6, the processor 11 calculates the operation required time. The operation required time is from the start point of the time counting start in step S3 to the end point of the time counting end in step S5. With this, the processor 11 acquires the operation required time from the “timing when the operation of the function is started” to the “timing when the input of the operation command is completed” to the operation unit. In step S7, the processor 11 sends to the server 300 operation history information in which the user identification information, the operation target, the support mode, and the operation required time are associated with each other. At the same time, the vehicle type as the vehicle information and the determined time-saving level may be transmitted. The support mode may include the type of the output device and the type of the transmission medium.

ステップS8において、サーバ300は、受信した情報を記憶装置320に操作履歴情報321に蓄積する。
図12は、記憶装置320に蓄積された操作履歴情報の一例である。操作履歴情報321は、ユーザごとにソートしてもよいし、機能ごとにソートしてもよい。ステップS9において、サーバ300は、操作履歴情報321を更新する。本実施形態では、ステップS8以降の処理は、サーバ300の制御装置310が実行する。操作支援装置100が操作所要時間を含む操作履歴情報に、記憶装置320への書き込み指令を含ませてサーバ300へ送信してもよい。
In step S8, the server 300 stores the received information in the operation history information 321 in the storage device 320.
FIG. 12 is an example of the operation history information accumulated in the storage device 320. The operation history information 321 may be sorted by user or by function. In step S9, the server 300 updates the operation history information 321. In the present embodiment, the processing from step S8 is executed by the control device 310 of the server 300. The operation support device 100 may transmit the operation history information including the operation required time to the server 300 by including the write command to the storage device 320.

続いて、操作評価時間を含む操作履歴情報321の蓄積処理について説明する。
プロセッサ11は、ユーザの識別情報と、操作指令に応じて実行された機能と、支援情報を出力したときの支援態様と、支援情報の出力完了から機能を実行させる操作指令の入力が完了するまでの操作評価時間を含む操作履歴情報を、通信ネットワークを介して記憶装置320へ送信し、記憶装置320に記憶させる。操作履歴情報321は、操作支援装置100の記憶装置20に記憶してもよい。このように蓄積された操作評価時間と支援態様とを含む操作履歴情報321を参照して、支援態様を決定できるので、支援を受けるユーザに適した態様で支援情報を出力できる。
Subsequently, the accumulation processing of the operation history information 321 including the operation evaluation time will be described.
The processor 11 identifies the user, the function executed in response to the operation command, the support mode when the support information is output, and the completion of the output of the support information until the input of the operation command for executing the function is completed. The operation history information including the operation evaluation time of is transmitted to the storage device 320 via the communication network and stored in the storage device 320. The operation history information 321 may be stored in the storage device 20 of the operation support device 100. Since the support mode can be determined by referring to the operation history information 321 including the operation evaluation time and the support mode thus accumulated, the support information can be output in a mode suitable for the user who receives the support.

図13は、操作評価時間を含む操作履歴情報321を蓄積する学習処理の制御手順を示すフローチャートである。
図13のステップS11において、プロセッサ11は、ユーザを識別する。具体的な処理内容は、図3のステップS101と共通する。
FIG. 13 is a flowchart showing the control procedure of the learning process of accumulating the operation history information 321 including the operation evaluation time.
In step S11 of FIG. 13, the processor 11 identifies the user. The specific processing content is the same as step S101 in FIG.

ステップS12において、プロセッサ11は、ユーザの動作情報を取得し、ユーザの動きに基づく動作情報に基づいて、ユーザが操作に手間取っている操作探索状態であることを判断する。具体的な処理内容は、図3のステップS103と共通する。   In step S12, the processor 11 acquires the user's motion information, and determines, based on the motion information based on the user's movement, that the user is in the operation search state in which the operation is troublesome. The specific processing content is the same as step S103 in FIG.

ユーザが操作探索状態であると判断した場合には、ステップS13へ移行する。
ステップS12において、ユーザが操作探索状態であると判断され、ステップS13において所定時間が経過した場合には、ステップS14に進む。そうでない場合には、ステップS11へ戻る。ステップS14において、プロセッサ11は、ユーザが操作指令を入力する機能の対象を取得する。ステップS15において、プロセッサ11は、支援態様を取得する。支援態様は、図3のステップS107において決定された態様である。ステップS16において、プロセッサ11は、支援情報を生成する。支援情報は、図3のステップS108において生成された出力命令に係る支援情報である。ステップS17において、プロセッサ11は、支援情報を出力する。
When it is determined that the user is in the operation search state, the process proceeds to step S13.
When it is determined in step S12 that the user is in the operation search state, and when the predetermined time has elapsed in step S13, the process proceeds to step S14. If not, the process returns to step S11. In step S14, the processor 11 acquires the target of the function with which the user inputs an operation command. In step S15, the processor 11 acquires a support mode. The support mode is the mode determined in step S107 of FIG. In step S16, the processor 11 generates support information. The support information is support information related to the output command generated in step S108 of FIG. In step S17, the processor 11 outputs assistance information.

ステップS18において、プロセッサ11は、支援情報の出力開始のタイミングを始点として計時を開始する。ステップS19において、プロセッサ11は、操作指令の入力が完了したか否かを判断する。予測された機能に関する入力情報を得た場合には、操作指令の入力が完了したと判断する。ステップS20において、入力情報を得たタイミングを終点とし、計時を終了する。同sステップS20において、プロセッサ11は、操作評価時間を算出する。ステップS18の計時開始の始点からステップS19の計時終了の終点までの間が操作評価時間である。プロセッサ11は、これにより、「支援情報の出力完了」から、操作部に対して「操作指令の入力が完了したタイミング」までの操作所要時間を取得する。ステップS21において、プロセッサ11は、ユーザの識別情報と、操作対象と、支援態様と、操作評価時間とを対応づけた操作履歴情報321を、サーバ300へ送出する。併せて、車両情報としての車種や、判断された手間取りレベルを送信してもよい。支援態様は、出力装置の種別と、伝達媒体の種別を含んでもよい。操作評価時間は、支援開始タイミング(支援情報の出力開始タイミング)と操作終了タイミング(操作指令の入力タイミング)とを含んでもよい。   In step S18, the processor 11 starts timing with the output start timing of the support information as a starting point. In step S19, the processor 11 determines whether or not the input of the operation command is completed. When the input information regarding the predicted function is obtained, it is determined that the input of the operation command is completed. In step S20, the timing at which the input information is obtained is set as the end point, and the timing is ended. In the same step S20, the processor 11 calculates the operation evaluation time. The operation evaluation time is from the start point of time counting start in step S18 to the end point of time counting end in step S19. With this, the processor 11 obtains the operation required time from “completion of output of support information” to “timing of completion of input of operation command” to the operation unit. In step S21, the processor 11 sends to the server 300 the operation history information 321 in which the user identification information, the operation target, the support mode, and the operation evaluation time are associated with each other. At the same time, the vehicle type as the vehicle information and the determined time-saving level may be transmitted. The support mode may include the type of the output device and the type of the transmission medium. The operation evaluation time may include support start timing (support information output start timing) and operation end timing (operation command input timing).

ステップS22において、サーバ300は、受信した情報を記憶装置320に操作履歴情報321に蓄積する。
図14は、記憶装置320に蓄積された操作履歴情報の一例である。操作履歴情報321は、ユーザごとにソートしてもよいし、機能ごとにソートしてもよい。ステップS23において、サーバ300は、操作履歴情報321を更新する。本実施形態では、ステップS8以降の処理は、サーバ300の制御装置310が実行する。操作支援装置100が操作所要時間を含む操作履歴情報に、記憶装置320への書き込み指令を含ませてサーバ300へ送信してもよい。
In step S22, the server 300 stores the received information in the operation history information 321 in the storage device 320.
FIG. 14 is an example of the operation history information accumulated in the storage device 320. The operation history information 321 may be sorted by user or by function. In step S23, the server 300 updates the operation history information 321. In the present embodiment, the processing from step S8 is executed by the control device 310 of the server 300. The operation support device 100 may transmit the operation history information including the operation required time to the server 300 by including the write command to the storage device 320.

本発明の実施形態の操作支援装置100は、以上のように構成され動作するので、以下の効果を奏する。   Since the operation support device 100 according to the embodiment of the present invention is configured and operates as described above, it has the following effects.

[1]本実施形態の操作支援方法は、取得したユーザの動作情報に基づいて実行しようとする機能の操作を推測し、記憶装置320又は記憶装置20に少なくとも一時的に記憶され、機能を実行させるためにユーザが操作指令に要した操作所要時間を含む操作履歴情報を参照し、ユーザごとの操作所要時間に基づいて、推測された操作を支援する支援情報の支援態様を決定し、支援態様で支援情報を出力させる。
本実施形態の操作支援方法によれば、ユーザが実行しようとする機能を推測するので、操作の対象が特定されていない場合であっても、適切な操作支援をすることができる。また、操作履歴情報321を参照し、推測された機能に基づいて支援態様を決定するので、ユーザにとって適した支援態様で支援情報を提供することができる。この結果、ユーザにとって効果的な支援態様で支援情報を提供できる。
[1] The operation support method of the present embodiment estimates the operation of a function to be executed based on the acquired user's operation information, and stores the operation at least temporarily in the storage device 320 or the storage device 20 to execute the function. In order to allow the user to refer to the operation history information including the operation required time required for the operation command, based on the operation required time for each user, determine the support mode of the support information for supporting the estimated operation, the support mode To output support information.
According to the operation support method of the present embodiment, since the function to be executed by the user is estimated, it is possible to provide appropriate operation support even when the operation target is not specified. Further, since the support mode is determined based on the estimated function by referring to the operation history information 321, the support information can be provided in the support mode suitable for the user. As a result, support information can be provided in a support mode effective for the user.

[2]本実施形態の操作支援方法は、支援態様は、(1)スピーカ224などの音声出力装置を用いて支援情報を音声出力する音声出力態様と、(2)ディスプレイ221などの画像出力装置を用いて支援情報を提示する表示出力態様と、(3)発光装置を用いた支援情報を出力する発光態様とのうちの何れか一つを支援態様として決定する。
音声出力装置としてのスピーカ224を用いて出力される支援情報は音声情報であり、支援態様は音声出力態様である。画像出力装置としてのディスプレイ221を介して出力される支援情報は画像(図形、テキストを含む)であり、支援態様は表示出力態様である。発光装置としての発光素子225を介して出力される支援情報は視認可能な発光情報であり、支援態様は発光態様である。
本実施形態の操作支援方法によれば、人間が聴取できる音声情報、人間が視認できる表示(画像)情報、人間が知覚できる発光情報の何れか一つ以上により支援情報を出力することができるので、ユーザに適した支援態様で支援情報を提供することができる。
[2] In the operation support method of the present embodiment, the support modes are (1) a voice output mode in which support information is output by voice using a voice output device such as a speaker 224, and (2) an image output device such as a display 221. One of the display output mode in which the support information is presented by using (3) and the light emission mode in which the support information is output by using the light emitting device (3) is determined as the support mode.
The support information output using the speaker 224 as a voice output device is voice information, and the support mode is a voice output mode. The support information output via the display 221 as an image output device is an image (including a figure and a text), and the support mode is a display output mode. The support information output through the light emitting element 225 as the light emitting device is visible light emission information, and the support mode is the light emission mode.
According to the operation support method of the present embodiment, the support information can be output by any one or more of audio information that can be heard by humans, display (image) information that can be visually recognized by humans, and light emission information that can be perceived by humans. The support information can be provided in a support mode suitable for the user.

[3]本実施形態の操作支援方法は、識別されたユーザに対応づけられた、機能を実行させる操作指令の入力が完了するまでに要した操作所要時間を含む操作履歴情報を参照し、操作指令をしたユーザの識別結果に基づいて、識別されたユーザの操作所要時間のうち、相対的に短い操作所要時間に対応づけられた支援態様を優先して選択し、その支援態様で支援情報を出力する。
操作所要時間は、「機能の操作が開始されたタイミング」から、操作部に対して「操作指令の入力が完了したタイミング」までの時間であるので、操作所要時間が短ければ、そのときの支援態様で支援情報が提供されればユーザは操作に手間取らないと評価できる。
本実施形態の操作支援方法によれば、ユーザごとに記憶された操作所要時間を含む操作履歴情報に基づいて支援態様を決定することにより、ユーザにとって有効な支援態様で支援情報を提供することができる。
また、ユーザ及び機能ごとに記憶された操作所要時間を含む操作履歴情報に基づいて支援態様を決定することにより、ユーザが実行を希望すると予測される機能について有効な支援態様で支援情報を提供することができる。
操作所要時間の短い支援態様で支援情報を提供するので、操作所要時間を短縮することができる。
[3] The operation support method of the present embodiment refers to operation history information including an operation required time required until the input of an operation command for executing a function, which is associated with the identified user, is referred to, and the operation is performed. Based on the identification result of the user who issued the command, among the operation required times of the identified users, the support mode associated with the relatively short operation required time is preferentially selected, and the support information is provided in the support mode. Output.
The required operation time is the time from the "timing at which the operation of the function is started" to the "timing at which the input of the operation command is completed" for the operation unit. Therefore, if the required operation time is short, assistance at that time will be provided. If the support information is provided in the form, it can be evaluated that the user does not have to take the trouble.
According to the operation support method of the present embodiment, by determining the support mode based on the operation history information including the operation required time stored for each user, it is possible to provide the support information in a support mode effective for the user. it can.
Further, by determining the support mode based on the operation history information including the operation required time stored for each user and function, the support information is provided in the effective support mode for the function predicted to be executed by the user. be able to.
Since the support information is provided in the support mode in which the operation required time is short, the operation required time can be shortened.

[4]本実施形態の操作支援方法は、識別されたユーザが実行した機能に対応づけられた、機能を実行させる操作指令の入力が完了するまでに要した操作所要時間を含む操作履歴情報を参照し、操作指令をしたユーザの識別結果と、ユーザが実行しようとする車載の機器の操作の推測結果とに基づいて、識別されたユーザの機能ごとに記憶された操作所要時間のうち、相対的に短い操作所要時間に対応づけられた支援態様を優先して選択し、選択された支援態様で支援情報を出力する。
本実施形態の操作支援方法によれば、ユーザ及び機能ごとに記憶された操作所要時間を含む操作履歴情報に基づいて支援態様を決定することにより、ユーザが実行を希望すると予測される機能について有効な支援態様で支援情報を提供することができる。
[4] The operation support method of the present embodiment provides operation history information including an operation required time required until the input of an operation command for executing a function, which is associated with the function executed by the identified user, is completed. Based on the identification result of the user who issued the operation instruction and the estimation result of the operation of the in-vehicle device which the user intends to execute, the relative operation time among the operation required times stored for each function of the identified user The support mode associated with the relatively short operation required time is preferentially selected, and the support information is output in the selected support mode.
According to the operation support method of the present embodiment, by determining the support mode based on the operation history information including the operation required time stored for each user and each function, it is effective for the function predicted to be executed by the user. Support information can be provided in various support modes.

[5]本実施形態の操作支援方法は、識別されたユーザに対応づけられた、操作評価時間を含む操作履歴情報を参照し、操作指令をしたユーザの識別結果に基づいて、識別されたユーザの操作評価時間のうち、相対的に短い操作評価時間に対応づけられた支援態様を優先して選択し、その支援態様で支援情報を出力する。
操作評価時間は、「支援情報の出力完了」から「機能を実行させる操作指令の入力の完了」までの時間であるので、操作評価時間が短ければ、支援情報の出力によってユーザの手間取り時間が短くなったと評価できる。
本実施形態の操作支援方法によれば、ユーザごとに記憶された操作評価時間を含む操作履歴情報に基づいて支援態様を決定することにより、ユーザにとって有効な支援態様で支援情報を提供することができる。
[5] The operation support method of the present embodiment refers to the operation history information including the operation evaluation time, which is associated with the identified user, and identifies the identified user based on the identification result of the user who has issued the operation command. Of the operation evaluation times of 1, the support mode associated with the relatively short operation evaluation time is preferentially selected, and the support information is output in the support mode.
The operation evaluation time is the time from “completion of output of support information” to “completion of input of operation command for executing a function”. Therefore, if the operation evaluation time is short, the time and effort required for the user will be short due to the output of support information. It can be evaluated that it has become.
According to the operation support method of the present embodiment, by determining the support mode based on the operation history information including the operation evaluation time stored for each user, it is possible to provide the support information in a support mode effective for the user. it can.

[6]本実施形態の操作支援方法は、識別されたユーザが実行した機能に対応づけられた、操作評価時間を含む操作履歴情報を参照し、操作指令をしたユーザの識別結果と、ユーザが実行しようとする車載の機器の操作の推測結果とに基づいて、識別されたユーザの機能ごとに記憶された操作評価時間のうち、相対的に短い操作評価時間に対応づけられた支援態様を優先して選択し、その支援態様で支援情報を出力する。
本実施形態の操作支援方法によれば、ユーザ及び機能ごとに記憶された操作評価時間を含む操作履歴情報に基づいて支援態様を決定することにより、ユーザが実行を希望すると予測される機能について有効な支援態様で支援情報を提供することができる。
[6] The operation support method of the present embodiment refers to the operation history information including the operation evaluation time, which is associated with the function performed by the identified user, and identifies the user who has issued the operation command and the operation history information. Based on the estimation result of the operation of the vehicle-mounted device to be executed, of the operation evaluation times stored for each function of the identified user, the support mode associated with the relatively short operation evaluation time is prioritized. To select and output the support information in the support mode.
According to the operation support method of the present embodiment, by determining the support mode based on the operation history information including the operation evaluation time stored for each user and function, it is effective for the function predicted to be executed by the user. Support information can be provided in various support modes.

[7]本実施形態の操作支援方法は、操作指令をしたユーザを識別し、機能の操作が開始されたと判断されたタイミングからの経過時間が、操作所要時間に基づいて設定された所定時間以上となった場合に、支援態様を選択して、その支援態様により支援情報を出力する。
ユーザが手間取っていることを判断するための閾値としての「所定時間」は、過去の操作履歴情報に基づいて、機能の操作か開始されてから操作指令が入力されるまでの操作所要時間に基づいて設定する。
本実施形態の操作支援方法によれば、ユーザが実際に手間取った時間に基づいて、手間取りの有無を判断する閾値を設定することにより、そのユーザが手間取ったことを高い精度で判断できる。
機能の操作が開始されたと判断されたタイミングからの経過時間が、操作所要時間に基づいて設定された所定時間以上となっても、操作指令が入力されないときに支援情報を提供できるので、ユーザが実際に手間取っているときに、支援情報を提供することができる。
[7] In the operation support method of the present embodiment, the elapsed time from the timing at which the user who issued the operation command is identified and the operation of the function is determined to be started is equal to or longer than the predetermined time set based on the operation required time. When it becomes, the support mode is selected and the support information is output according to the support mode.
The "predetermined time" as a threshold for determining that the user is taking a lot of time is based on the operation required time from the start of the operation of the function to the input of the operation command based on the past operation history information. To set.
According to the operation support method of the present embodiment, it is possible to determine with high accuracy that a user has taken time by setting a threshold value for determining whether or not the user has taken time, based on the time actually taken by the user.
Even if the elapsed time from the timing when it is determined that the operation of the function is started exceeds the predetermined time set based on the operation required time, the support information can be provided when the operation command is not input. Assistance information can be provided during the actual hassle.

[8]本実施形態の操作支援方法は、動作情報の検出位置と車載の機器の操作部の位置とが予め対応づけられた操作対応情報を参照し、動作情報から抽出されたユーザの動作の対象となる操作部の位置に基づいて、ユーザが実行しようとする機能の操作を推測する。
本実施形態の操作支援方法によれば、ユーザの動作の対象の位置からユーザが実行しようとする機能の操作部を推測することができるので、適切な支援情報を提供することができる。
動作情報に基づいてユーザが実行しようとする機能の操作を推測することができるので、ユーザが実際に入力を完了していなくても、ユーザが操作指令を入力できずに手間取っているタイミングを判断し、ユーザが実行しようとする機能を推測できる。
[8] The operation support method according to the present embodiment refers to operation correspondence information in which the detected position of the motion information and the position of the operation unit of the vehicle-mounted device are referred to in advance, and the user's motion extracted from the motion information is displayed. The user infers the operation of the function to be executed based on the position of the target operation unit.
According to the operation support method of the present embodiment, it is possible to infer the operation unit of the function to be executed by the user from the position of the target of the user's action, and thus it is possible to provide appropriate support information.
Since it is possible to infer the operation of the function that the user is going to perform based on the operation information, determine the timing when the user cannot input the operation command and is troublesome even if the user has not actually completed the input. However, the user can guess the function to be performed.

[9]本実施形態の操作支援方法は、ユーザの動作から予測される機能の操作部と動作情報とが予め対応づけられた操作対応情報を参照し、動作情報に基づいてユーザが実行しようとする機能の操作を推測する。
本実施形態の操作支援方法によれば、ユーザの動作情報からユーザが実行しようとする機能の操作部を推測することができるので、適切な支援情報を提供することができる。
[9] The operation support method of the present embodiment refers to operation correspondence information in which an operation unit of a function predicted from a user's motion and motion information are associated in advance, and the user tries to execute the operation based on the motion information. Guess the operation of the function to be performed.
According to the operation support method of the present embodiment, the operation unit of the function to be executed by the user can be inferred from the operation information of the user, so that appropriate support information can be provided.

[10]本実施形態の操作支援方法は、撮像画像から抽出された、ユーザの手部、若しくは頭部の動き又は視線の向きに関する情報を含むユーザの動作情報に基づいて、ユーザが実行しようとする機能を推測する。
本実施形態の操作支援方法によれば、ユーザの手部、頭部の動きを分析することにより、ユーザが実行しようとする機能の操作部を高い精度で推測できる。ユーザの視線の向きを分析することにより、ユーザが実行しようとする機能の操作部を高い精度で推測できる。
[10] The operation support method of the present embodiment is intended to be executed by the user on the basis of the user's motion information including the information about the movement of the user's hand or head or the direction of the line of sight extracted from the captured image. Guess the function to do.
According to the operation support method of this embodiment, by analyzing the movements of the user's hand and head, the operation unit of the function to be executed by the user can be estimated with high accuracy. By analyzing the direction of the user's line of sight, it is possible to estimate with high accuracy the operation unit of the function that the user intends to execute.

[11]本実施形態の操作支援方法は、集音された音声情報から抽出された、ユーザの発話情報をユーザの発話情報に含ませる。
本実施形態の操作支援方法によれば、ユーザの発話に含まれるワードを音声認識することにより、ユーザが実行しようとする機能の操作部を高い精度で推測できる。
[11] In the operation support method of the present embodiment, the utterance information of the user extracted from the collected voice information is included in the utterance information of the user.
According to the operation support method of the present embodiment, by recognizing the words included in the utterance of the user by voice, the operation unit of the function to be executed by the user can be estimated with high accuracy.

[12]本実施形態の操作支援方法は、車両の検出情報から車両の状態を判断し、車両の状態に関する車両状態情報と、車両状態情報から予測される走行環境に応じた機能の操作部とが予め対応づけられた操作対応情報を参照し、判断された車両の状態に基づいて、ユーザが実行しようとする機能の操作部を推測する。
本実施形態の操作支援方法によれば、車両の状態からユーザが実行しようとする機能の操作を推測することができるので、適切な支援情報を提供することができる。
[12] The operation support method according to the present embodiment determines a vehicle state from vehicle detection information, vehicle state information regarding the vehicle state, and an operation unit having a function according to a traveling environment predicted from the vehicle state information. Refers to the operation correspondence information associated in advance, and estimates the operation unit of the function to be executed by the user based on the determined vehicle state.
According to the operation support method of the present embodiment, it is possible to estimate the operation of the function to be executed by the user from the state of the vehicle, and thus it is possible to provide appropriate support information.

[13]本実施形態の操作支援方法において、車両状態情報は、車両の運転モードの種別、車両の速度、車両が走行する経路の渋滞状況、車両の損傷の有無、車両に搭載された機器の故障又は異常の有無、車両の位置、車両の室内温度、車両の外気温度、車両のワイパーの動作のうちのいずれか一つ以上を含む。
本実施形態の操作支援方法によれば、様々な車両状態情報から、ユーザが実行しようとする機能を推測することができる。
[13] In the operation support method of the present embodiment, the vehicle state information includes the type of vehicle driving mode, the speed of the vehicle, the traffic jam condition of the route on which the vehicle travels, the presence / absence of damage to the vehicle, and the equipment installed in the vehicle. It includes any one or more of presence or absence of failure or abnormality, vehicle position, vehicle interior temperature, vehicle outside air temperature, and vehicle wiper operation.
According to the operation support method of the present embodiment, it is possible to infer the function to be executed by the user from various vehicle state information.

[14]本実施形態の操作支援方法は、支援態様の決定がされた後、ユーザの動作情報及び/又は車両状態情報に基づいて支援態様の変更処理を行う。操作所要時間又は操作評価時間に基づいて支援態様の決定がされた後であっても、ユーザの動作情報及び/又は車両状態情報に基づいて支援態様の変更処理を行うことにより、ユーザが理解しやすい支援態様で支援情報を提供することができる。 [14] In the operation support method of the present embodiment, after the support mode is determined, the support mode change process is performed based on the user's motion information and / or vehicle state information. Even after the support mode is determined based on the operation required time or the operation evaluation time, the user understands by performing the support mode change process based on the user's motion information and / or vehicle state information. The support information can be provided in an easy support mode.

[15]本実施形態の操作支援方法は、ユーザの識別情報と、ユーザが実行しようとする機能の操作の推測結果と、ユーザが機能を実行させる操作指令の入力が完了するまでに要した操作所要時間と、を対応づけた操作履歴情報321を、通信ネットワークを介して送信し、サーバ300の記憶装置320又は操作支援装置100の記憶装置20に記憶させる。
本実施形態の操作支援方法によれば、蓄積した操作履歴情報321を参照して、支援態様を決定できるので、支援を受けるユーザに適した態様で支援情報を出力できる。
[15] In the operation support method of the present embodiment, the identification information of the user, the estimation result of the operation of the function to be executed by the user, and the operation required until the input of the operation command for executing the function by the user is completed. The operation history information 321 associated with the required time is transmitted via the communication network and stored in the storage device 320 of the server 300 or the storage device 20 of the operation support device 100.
According to the operation support method of the present embodiment, the support mode can be determined with reference to the accumulated operation history information 321, so that the support information can be output in a mode suitable for the user who receives the support.

[16]本実施形態の操作支援方法は、ユーザの識別情報と、操作指令に応じて実行された機能と、支援情報を出力したときの支援態様と、支援情報の出力完了から機能を実行させる操作指令の入力が完了するまでの操作評価時間を含む操作履歴情報を、通信ネットワークを介して送信し、サーバ300の記憶装置320又は操作支援装置100の記憶装置20に記憶する。
本実施形態の操作支援方法によれば、蓄積された操作評価時間と支援態様とを含む操作履歴情報321を参照して、支援態様を決定できるので、支援を受けるユーザに適した態様で支援情報を出力できる。
[16] The operation support method according to the present embodiment causes the function to be executed after the identification information of the user, the function executed according to the operation command, the support mode when the support information is output, and the completion of the output of the support information. The operation history information including the operation evaluation time until the input of the operation command is transmitted via the communication network and stored in the storage device 320 of the server 300 or the storage device 20 of the operation support device 100.
According to the operation support method of the present embodiment, since the support mode can be determined by referring to the operation history information 321 including the accumulated operation evaluation time and the support mode, the support information is in a mode suitable for the user who receives the support. Can be output.

[17]本実施形態の操作支援装置100は、上述した操作支援方法と同様の作用及び効果を奏する。 [17] The operation support device 100 of this embodiment has the same operation and effect as the operation support method described above.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   Note that the embodiments described above are described to facilitate understanding of the present invention, and are not described to limit the present invention. Therefore, each element disclosed in the above-described embodiment is intended to include all design changes and equivalents within the technical scope of the present invention.

1…操作支援システム
100…操作支援装置
10…制御装置
11…プロセッサ
20…記憶装置
321…操作履歴情報
30…出力装置
200…車載装置、車載された機器
210…通信装置
220…入出力装置
221…ディスプレイ
222…マイク
223…スイッチ
224…スピーカ
225…発光素子
226…カメラ
230…検出装置
231…画像処理装置
232…音声処理装置
233…ドアセンサ
234…着座センサ
235…温度計
236…位置センサ
237…シフトポジションセンサ
240…車両コントローラ
241…タイマ
250…自動運転装置
251…駆動装置
252…制動装置
253…操舵装置
260…センサ
261…舵角センサ
262…車速センサ
263…レーダー装置
270…ナビゲーション装置
271…位置検出装置
272…地図情報
273…施設情報
274…出力装置
280…アクセサリ
281…オーディオ装置
282…空調装置
283…外部通信装置
291…エアバック装置
292…自己診断装置
1 ... Operation support system 100 ... Operation support device 10 ... Control device 11 ... Processor 20 ... Storage device 321 ... Operation history information 30 ... Output device 200 ... In-vehicle device, vehicle-mounted device 210 ... Communication device 220 ... Input / output device 221 ... Display 222 ... Microphone 223 ... Switch 224 ... Speaker 225 ... Light emitting element 226 ... Camera 230 ... Detection device 231 ... Image processing device 232 ... Voice processing device 233 ... Door sensor 234 ... Seating sensor 235 ... Thermometer 236 ... Position sensor 237 ... Shift position Sensor 240 ... Vehicle controller 241 ... Timer 250 ... Automatic driving device 251 ... Drive device 252 ... Braking device 253 ... Steering device 260 ... Sensor 261 ... Steering angle sensor 262 ... Vehicle speed sensor 263 ... Radar device 270 ... Navigation device 271 ... Position detection Device 272 ... Map information 273 ... Facility information 274 ... Output device 280 ... Accessory 281 ... Audio device 282 ... Air conditioner 283 ... External communication device 291 ... Air bag device 292 ... Self-diagnosis device

Claims (17)

車両の機器が備える機能を利用するユーザの操作に関する支援情報を出力する操作支援装置のプロセッサに実行させる操作支援方法であって、
前記プロセッサは、
前記ユーザの動作情報を取得し、
前記ユーザの動作情報に基づいて、前記ユーザが実行しようとする前記機能の操作を推測し、
記憶装置に少なくとも一時的に記憶され、前記機能を実行させる操作指令の入力が完了するまでに要した操作所要時間を含む操作履歴情報を参照し、
前記ユーザごとの前記操作所要時間に基づいて、前記推測された前記ユーザが実行しようとする前記機能の操作を支援する支援情報の支援態様を決定し、
前記支援態様で前記支援情報を出力させる操作支援方法。
An operation support method for causing a processor of an operation support device to output support information regarding an operation of a user who uses a function included in a device of a vehicle,
The processor is
Obtaining the user's motion information,
Guessing the operation of the function to be executed by the user based on the operation information of the user,
At least temporarily stored in the storage device, referring to the operation history information including the operation required time required to complete the input of the operation command for executing the function,
Based on the operation required time for each user, to determine the support mode of the support information for supporting the operation of the function that the user is supposed to perform,
An operation support method for outputting the support information in the support mode.
前記支援態様を決定する処理において、
前記プロセッサは、
音声出力装置を用いて前記支援情報を音声出力する音声出力態様と、
画像出力装置を用いて前記支援情報を提示する表示出力態様と、
発光装置を用いた前記支援情報を出力する発光態様とのうちの何れか一つを前記支援態様として決定する請求項1に記載の操作支援方法。
In the process of determining the support mode,
The processor is
A voice output mode in which the support information is voice output using a voice output device;
A display output mode in which the support information is presented using an image output device,
The operation support method according to claim 1, wherein any one of a light emission mode for outputting the support information using a light emitting device is determined as the support mode.
前記支援態様を決定する処理において、
前記プロセッサは、
識別された前記ユーザに対応づけられた、前記機能を実行させる前記操作指令の入力が完了するまでに要した前記操作所要時間を含む操作履歴情報を参照し、
前記操作指令をした前記ユーザの識別結果に基づいて、前記識別された前記ユーザの前記操作所要時間のうち、相対的に短い前記操作所要時間に対応づけられた前記支援態様を優先して選択し、
前記選択された前記支援態様を、前記支援情報を出力する前記支援態様として決定する請求項1又は2に記載の操作支援方法。
In the process of determining the support mode,
The processor is
With reference to the operation history information including the operation required time required until the input of the operation command for executing the function, which is associated with the identified user,
Based on the identification result of the user who has issued the operation command, preferentially selects the support mode associated with the relatively short operation required time from the operation required time of the identified user. ,
The operation support method according to claim 1, wherein the selected support mode is determined as the support mode for outputting the support information.
前記支援態様を決定する処理において、
前記プロセッサは、
識別された前記ユーザが実行した前記機能に対応づけられた、前記機能を実行させる前記操作指令の入力が完了するまでに要した前記操作所要時間を含む操作履歴情報を参照し、
前記操作指令をした前記ユーザの識別結果と、前記ユーザが実行しようとする前記機器の操作の推測結果と、に基づいて、前記識別された前記ユーザの前記機能ごとに記憶された前記操作所要時間のうち、相対的に短い前記操作所要時間に対応づけられた前記支援態様を優先して選択し、
前記選択された前記支援態様を、前記支援情報を出力する前記支援態様として決定する請求項1又は2に記載の操作支援方法。
In the process of determining the support mode,
The processor is
The operation history information including the operation required time required until the input of the operation command for executing the function, which is associated with the function executed by the identified user, is referred to,
The operation required time stored for each of the functions of the identified user based on the identification result of the user who has issued the operation command and the estimation result of the operation of the device which the user intends to execute. Of these, preferentially selecting the support mode associated with the relatively short operation time,
The operation support method according to claim 1, wherein the selected support mode is determined as the support mode for outputting the support information.
前記支援態様を決定する処理において、
前記プロセッサは、
識別された前記ユーザに対応づけられた、前記支援情報の出力完了から前記機能を実行させる前記操作指令の入力が完了するまでの操作評価時間を含む操作履歴情報を参照し、
前記操作指令をした前記ユーザの識別結果に基づいて、前記識別された前記ユーザの前記操作評価時間のうち、相対的に短い前記操作評価時間に対応づけられた前記支援態様が優先して選択されるように重みづけをし、
前記選択された前記支援態様を、前記支援情報を出力する前記支援態様として決定する請求項1〜4の何れか一項に記載の操作支援方法。
In the process of determining the support mode,
The processor is
Referring to operation history information including operation evaluation time from completion of output of the support information to completion of input of the operation command to execute the function, which is associated with the identified user.
Based on the identification result of the user who has issued the operation command, the support mode associated with the relatively short operation evaluation time is preferentially selected from the operation evaluation times of the identified user. Like so,
The operation support method according to any one of claims 1 to 4, wherein the selected support mode is determined as the support mode for outputting the support information.
前記支援態様を決定する処理において、
前記プロセッサは、
識別された前記ユーザが実行した前記機能に対応づけられた、前記支援情報の出力完了から前記機能を実行させる前記操作指令の入力が完了するまでの操作評価時間を含む操作履歴情報を参照し、
前記操作指令をした前記ユーザの識別結果と、前記ユーザが実行しようとする前記機器の操作の推測結果と、に基づいて、前記識別された前記ユーザの前記機能ごとに記憶された前記操作評価時間のうち、相対的に短い前記操作評価時間に対応づけられた前記支援態様を優先して選択されるように重みづけをし、
選択された前記支援態様を、前記支援情報を出力する前記支援態様として決定する請求項1〜4の何れか一項に記載の操作支援方法。
In the process of determining the support mode,
The processor is
Referenced to operation history information including operation evaluation time from completion of output of the support information to completion of input of the operation command to execute the function, which is associated with the function executed by the identified user.
The operation evaluation time stored for each of the functions of the identified user based on the identification result of the user who has issued the operation command and the estimation result of the operation of the device that the user intends to execute. Of these, weighting is performed so that the support mode associated with the relatively short operation evaluation time is preferentially selected.
The operation support method according to any one of claims 1 to 4, wherein the selected support mode is determined as the support mode for outputting the support information.
前記プロセッサは、
前記操作指令をした前記ユーザを識別し、
前記機能の操作が開始されたと判断されたタイミングからの経過時間が、前記操作所要時間に基づいて設定された所定時間以上となった場合に、
前記支援態様を選択し、前記選択された前記支援態様により前記支援情報を出力する、請求項1〜6の何れか一項に記載の操作支援方法。
The processor is
Identifying the user who issued the operation command,
When the elapsed time from the timing when it is determined that the operation of the function is started is equal to or more than the predetermined time set based on the operation required time,
The operation support method according to claim 1, wherein the support mode is selected, and the support information is output according to the selected support mode.
前記ユーザが実行しようとする前記機能の操作を推測する処理において、
前記プロセッサは、
前記動作情報の検出位置と前記機器の操作部の位置とが予め対応づけられた操作対応情報を参照し、前記動作情報から抽出された前記ユーザの動作の対象となる操作部の位置に基づいて、前記ユーザが実行しようとする前記機能の操作を推測する、請求項1〜7の何れか一項に記載の操作支援方法。
In the process of inferring the operation of the function to be executed by the user,
The processor is
Based on the position of the operation unit that is the target of the user's motion extracted from the motion information, by referring to the operation correspondence information in which the detected position of the motion information and the position of the operation unit of the device are associated in advance. The operation support method according to any one of claims 1 to 7, wherein the operation of the function to be performed by the user is estimated.
前記ユーザが実行しようとする前記機能の操作を推測する処理において、
前記プロセッサは、
前記ユーザの動作から予測される前記機能の操作部と前記動作情報とが予め対応づけられた操作対応情報を参照し、前記動作情報に基づいて前記ユーザが実行しようとする前記機能の操作を推測する請求項1〜7の何れか一項に記載の操作支援方法。
In the process of inferring the operation of the function to be executed by the user,
The processor is
The operation unit of the function predicted from the operation of the user and the operation information are referred to in advance to refer to operation correspondence information, and the operation of the function to be executed by the user is estimated based on the operation information. The operation support method according to any one of claims 1 to 7.
前記動作情報は、撮像画像から抽出された、前記ユーザの手部、若しくは頭部の動き又は視線の向きに関する情報を含む請求項1〜9の何れか一項に記載の操作支援方法。   The operation support method according to any one of claims 1 to 9, wherein the motion information includes information regarding a movement of a hand or a head of the user or a direction of a line of sight extracted from a captured image. 前記動作情報は、集音された音声情報から抽出された、前記ユーザの発話情報を含む請求項1〜10の何れか一項に記載の操作支援方法。   The operation support method according to any one of claims 1 to 10, wherein the motion information includes utterance information of the user extracted from collected voice information. 前記ユーザが実行しようとする前記機能の操作を推測する処理において、
前記プロセッサは、
車両の検出情報から前記車両の状態を判断し、
前記車両の状態に関する車両状態情報と、前記車両状態情報から予測される走行環境に応じた前記機能の操作部とが予め対応づけられた操作対応情報を参照し、前記判断された前記車両の状態に基づいて、前記ユーザが実行しようとする前記機能の操作部を推測する、請求項1〜11の何れか一項に記載の操作支援方法。
In the process of inferring the operation of the function to be executed by the user,
The processor is
Judging the state of the vehicle from the vehicle detection information,
The state of the vehicle determined by referring to the operation correspondence information in which the vehicle state information regarding the state of the vehicle and the operation unit of the function according to the traveling environment predicted from the vehicle state information are associated in advance. The operation support method according to claim 1, wherein an operation unit of the function to be executed by the user is estimated based on the above.
前記車両状態情報は、前記車両の運転モードの種別、前記車両の速度、前記車両が走行する経路の渋滞状況、前記車両の損傷の有無、前記車両の前記機器の故障又は異常の有無、前記車両の位置、前記車両の室内温度、前記車両の外気温度、前記車両のワイパーの動作のうちのいずれか一つ以上を含む請求項12に記載の操作支援方法。   The vehicle state information includes the type of the driving mode of the vehicle, the speed of the vehicle, the traffic jam condition of the route on which the vehicle travels, the presence or absence of damage to the vehicle, the presence or absence of failure or abnormality of the equipment of the vehicle, the vehicle. 13. The operation support method according to claim 12, further comprising any one or more of the position, the indoor temperature of the vehicle, the outside air temperature of the vehicle, and the operation of the wiper of the vehicle. 前記プロセッサは、
前記ユーザの前記動作情報及び/又は前記車両の状態に関する車両状態情報が所定の状態である場合には、前記決定された前記支援態様を変更する請求項1〜13の何れか一項に記載の操作支援方法。
The processor is
The method according to any one of claims 1 to 13, wherein the determined support mode is changed when the operation state information of the user and / or the vehicle state information regarding the state of the vehicle is in a predetermined state. Operation support method.
前記機能の操作の開始が検出された場合に、
前記プロセッサは、
前記ユーザの識別情報と、
前記ユーザが実行しようとする前記機能の操作の推測結果と、
前記ユーザが前記機能を実行させる前記操作指令の入力が完了するまでに要した前記操作所要時間と、を対応づけた操作履歴情報を、通信ネットワークを介して前記記憶装置へ送信し、
前記記憶装置に前記操作履歴情報を記憶させる、請求項1〜14の何れか一項に記載の操作支援方法。
When the start of operation of the function is detected,
The processor is
Identification information of the user,
An inference result of an operation of the function that the user intends to perform,
The operation history information in which the operation required time required for the user to complete the input of the operation command to execute the function is associated with the operation history information is transmitted to the storage device via a communication network,
The operation support method according to claim 1, wherein the operation history information is stored in the storage device.
前記機能の操作の開始が検出された場合に、
前記プロセッサは、
前記ユーザの識別情報と、
前記操作指令に応じて実行された前記機能と、
前記ユーザが実行した前記機能に対応づけられた、前記支援情報の出力完了から前記機能を実行させる前記操作指令の入力が完了するまでの操作評価時間と、
前記支援情報を出力したときの前記支援態様と、を対応づけた操作履歴情報を、通信ネットワークを介して前記記憶装置へ送信し、
前記記憶装置に前記操作履歴情報を記憶する、請求項1〜14の何れか一項に記載の操作支援方法。
When the start of operation of the function is detected,
The processor is
Identification information of the user,
The function executed according to the operation command,
An operation evaluation time from completion of output of the support information to completion of input of the operation command for executing the function, which is associated with the function executed by the user,
Operation history information in which the support mode at the time of outputting the support information is associated with the operation history information is transmitted to the storage device via a communication network,
The operation support method according to claim 1, wherein the operation history information is stored in the storage device.
車両の機器が備える機能を利用するユーザに操作に関する支援情報を出力する操作支援装置であって、
前記操作支援装置が備えるプロセッサは、
前記ユーザの動作情報を取得し、
前記動作情報に基づいて、前記ユーザが実行しようとする前記機能の操作を推測し、
記憶装置に少なくとも一時的に記憶され、前記機能を実行させるために前記ユーザが操作指令に要した操作所要時間を含む操作履歴情報を参照し、
前記ユーザごとの前記操作所要時間に基づいて、前記推測された前記操作を支援する支援情報の支援態様を決定し、
前記支援態様で前記支援情報を出力させる操作支援装置。
An operation support device for outputting support information regarding an operation to a user who uses a function of a vehicle device,
The processor provided in the operation support device,
Obtaining the user's motion information,
Guessing the operation of the function to be performed by the user based on the operation information,
At least temporarily stored in a storage device, with reference to operation history information including an operation required time required by the user to perform an operation command to execute the function,
Based on the operation required time for each user, determine the support mode of the support information for supporting the estimated operation,
An operation support device that outputs the support information in the support mode.
JP2018196556A 2018-10-18 2018-10-18 Operation support method and operation support device Active JP7107157B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018196556A JP7107157B2 (en) 2018-10-18 2018-10-18 Operation support method and operation support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018196556A JP7107157B2 (en) 2018-10-18 2018-10-18 Operation support method and operation support device

Publications (2)

Publication Number Publication Date
JP2020064492A true JP2020064492A (en) 2020-04-23
JP7107157B2 JP7107157B2 (en) 2022-07-27

Family

ID=70387331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018196556A Active JP7107157B2 (en) 2018-10-18 2018-10-18 Operation support method and operation support device

Country Status (1)

Country Link
JP (1) JP7107157B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022071648A (en) * 2020-10-28 2022-05-16 トヨタ自動車株式会社 Movable body, server, and determination program
WO2023238358A1 (en) * 2022-06-09 2023-12-14 日本電信電話株式会社 Display control device, display control method, and display control program
WO2024043053A1 (en) * 2022-08-23 2024-02-29 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009059229A (en) * 2007-08-31 2009-03-19 Auto Network Gijutsu Kenkyusho:Kk Operation support method and operation support system
JP2013222299A (en) * 2012-04-16 2013-10-28 Toyota Central R&D Labs Inc Operation support device, operation system, operation support method and program
JP2015011370A (en) * 2013-06-26 2015-01-19 日本電気株式会社 Information processing device, gui operation support method, and program
US9141185B2 (en) * 2012-09-19 2015-09-22 Alps Electric Co., Ltd. Input device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009059229A (en) * 2007-08-31 2009-03-19 Auto Network Gijutsu Kenkyusho:Kk Operation support method and operation support system
JP2013222299A (en) * 2012-04-16 2013-10-28 Toyota Central R&D Labs Inc Operation support device, operation system, operation support method and program
US9141185B2 (en) * 2012-09-19 2015-09-22 Alps Electric Co., Ltd. Input device
JP2015011370A (en) * 2013-06-26 2015-01-19 日本電気株式会社 Information processing device, gui operation support method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022071648A (en) * 2020-10-28 2022-05-16 トヨタ自動車株式会社 Movable body, server, and determination program
JP7294301B2 (en) 2020-10-28 2023-06-20 トヨタ自動車株式会社 Mobile body, server and judgment program
WO2023238358A1 (en) * 2022-06-09 2023-12-14 日本電信電話株式会社 Display control device, display control method, and display control program
WO2024043053A1 (en) * 2022-08-23 2024-02-29 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP7107157B2 (en) 2022-07-27

Similar Documents

Publication Publication Date Title
JP6508072B2 (en) Notification control apparatus and notification control method
JP6493551B2 (en) Parking support method and parking support device
CN108140319B (en) Parking assistance method and parking assistance device
US11577742B2 (en) Methods and systems for increasing autonomous vehicle safety and flexibility using voice interaction
JPWO2018037780A1 (en) Parking assistance device
JP7107157B2 (en) Operation support method and operation support device
JP2007200274A (en) Merge support device and merge support system
CN109715463A (en) Method for running motor vehicle
US20220351529A1 (en) System and method to detect driver intent and employ safe driving actions
JP7211707B2 (en) Agent cooperation method
WO2020035897A1 (en) Vehicle travel control method and travel control device
CN110740916A (en) Processing request signals related to operation of autonomous vehicles
WO2018168049A1 (en) Concentration degree determination device, concentration degree determination method, and program for determining concentration degree
JP2019200548A (en) On-vehicle unit, control method for on-vehicle unit, and preliminary action estimation system
JP2020050204A (en) Vehicular travel control method and travel control apparatus
JP2008070128A (en) Driving history recording device and program used for the same
JP2020165692A (en) Controller, method for control, and program
JP2004338496A (en) Vehicular traveling control device
JP7376996B2 (en) Vehicle dangerous situation determination device, vehicle dangerous situation determination method, and program
JP2014218124A (en) Operation support device and operation support method
JP2020021452A (en) Information processor, information processing method and information processing program
JP2020095466A (en) Electronic device
JP7147858B2 (en) VEHICLE TRIP CONTROL METHOD AND TRIP CONTROL DEVICE
JP2006172012A (en) Uneasiness detection device and uneasiness detection method
JP2021051604A (en) Drive recorder, data recording method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220627

R151 Written notification of patent or utility model registration

Ref document number: 7107157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151