JP5478234B2 - Driving scene determination device, driving scene determination method and program, and workload estimation device, workload estimation method and program - Google Patents

Driving scene determination device, driving scene determination method and program, and workload estimation device, workload estimation method and program Download PDF

Info

Publication number
JP5478234B2
JP5478234B2 JP2009288739A JP2009288739A JP5478234B2 JP 5478234 B2 JP5478234 B2 JP 5478234B2 JP 2009288739 A JP2009288739 A JP 2009288739A JP 2009288739 A JP2009288739 A JP 2009288739A JP 5478234 B2 JP5478234 B2 JP 5478234B2
Authority
JP
Japan
Prior art keywords
driving scene
driving
vehicle
information
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009288739A
Other languages
Japanese (ja)
Other versions
JP2011129010A (en
Inventor
信一郎 瀬賀
弘利 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2009288739A priority Critical patent/JP5478234B2/en
Publication of JP2011129010A publication Critical patent/JP2011129010A/en
Application granted granted Critical
Publication of JP5478234B2 publication Critical patent/JP5478234B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、運転シーンを判定する機能を備えた運転シーン判定装置に関し、特に、運転シーンの判定精度を向上する技術に関する。   The present invention relates to a driving scene determination apparatus having a function of determining a driving scene, and more particularly to a technique for improving the determination accuracy of a driving scene.

従来、「信号待ち」や「急停車」などの運転シーンを判定する機能を備えたシステムが提案されている(例えば特許文献1参照)。従来のシステムでは、車両状態検出装置(車速センサや操舵角センサや加速度センサなど)から得られる情報に基づいて運転シーンの決定が行われる。この車両状態検出装置には、ナビゲーション装置も含まれており、自車両の位置情報やルート情報等も、運転シーンの決定に利用することができる。   Conventionally, a system having a function of determining a driving scene such as “waiting for a signal” or “rapid stop” has been proposed (see, for example, Patent Document 1). In a conventional system, a driving scene is determined based on information obtained from a vehicle state detection device (a vehicle speed sensor, a steering angle sensor, an acceleration sensor, or the like). This vehicle state detection device also includes a navigation device, and position information, route information, and the like of the host vehicle can also be used for determining a driving scene.

この従来のシステムでは、運転シーンの決定を行うために、車両状態検出装置からの出力を継続的に監視し、それらの出力値と既登録の運転シーンに対応する条件(車速、車両位置などから構成される)とを照合する。そして、照合の結果、条件と完全に合致する運転シーンが存在する場合に、その運転シーンが現在の運転シーンとして決定される。なお、照合の結果、条件が完全に満たされる運転シーンが存在しない場合には、所定の適合率(条件が満たされる度合い。例えば、車速の条件は満たすが、車両位置の条件は満たさない等。)を上回る運転シーンが、現在の運転シーンとして決定される。   In this conventional system, in order to determine the driving scene, the output from the vehicle state detection device is continuously monitored, and the output value and conditions corresponding to the registered driving scene (vehicle speed, vehicle position, etc.) Configured). As a result of the collation, when there is a driving scene that completely matches the condition, the driving scene is determined as the current driving scene. Note that if there is no driving scene in which the condition is completely satisfied as a result of the collation, a predetermined relevance ratio (degree to which the condition is satisfied. For example, the vehicle speed condition is satisfied, but the vehicle position condition is not satisfied, etc. ) Is determined as the current driving scene.

特開2008−290584号公報JP 2008-290584 A

しかしながら、従来のシステムにおいては、条件と完全に合致する運転シーンが存在する場合には、必ず、その運転シーンが現在の運転シーンとして決定されることになるが、照合に用いる条件(運転シーンに対応する条件)が必ずしも完全なものであるとは限らない。つまり、通常、運転シーンに対応する条件として用意できるものは、その条件に概ね合致すれば大体その運転シーンであろうという程度のものであり、したがって、照合の結果、その条件と完全に合致したからといって、現在の運転シーンとして決定したものが必ずしも正しいとは限らない。このように、従来のシステムでは、条件と完全に合致する運転シーンが存在する場合に発生する「運転シーンの誤判定」について何らの考慮もなされていなかった。したがって、条件と完全に合致したというだけで、実際とは異なる運転シーンが現在の運転シーンとして決定されてしまう(運転シーンの誤判定が発生する)という問題があった。   However, in the conventional system, when there is a driving scene that completely matches the conditions, the driving scene is always determined as the current driving scene. (Corresponding conditions) are not necessarily perfect. In other words, what can usually be prepared as a condition corresponding to the driving scene is such that if it almost matches the condition, it will be the driving scene. Therefore, as a result of collation, the condition is completely matched. However, what is determined as the current driving scene is not always correct. As described above, in the conventional system, no consideration has been given to “error determination of driving scene” that occurs when there is a driving scene that completely matches the conditions. Therefore, there is a problem in that a driving scene different from the actual driving scene is determined as the current driving scene (an erroneous determination of the driving scene occurs) only by meeting the conditions completely.

本発明は、上記の課題に鑑みてなされたもので、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を向上することのできる運転シーン判定装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a driving scene determination device that can prevent erroneous determination of a driving scene and improve the determination accuracy of the driving scene. .

本発明の運転シーン判定装置は、ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報を記憶する運転シーン記憶部と、複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報を記憶するシーン遷移可否記憶部と、現在の車両情報および現在の道路情報を取得する情報取得手段と、前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定する運転シーン判定手段と、を備え、前記運転シーン判定手段は、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定する。   The driving scene determination device of the present invention stores driving scene correspondence information in which driving information of a vehicle is associated with vehicle information relating to a vehicle being driven by a user and road information relating to a road on which the vehicle is passing. A scene storage unit, a scene transition enable / disable storage unit that stores information on whether or not a scene transition from one driving scene to another driving scene is possible, and current vehicle information and current road information Information acquisition means for acquiring the driving scene determination means for determining the current driving scene from the current vehicle information and the current road information based on the driving scene correspondence information and the transition availability information, The driving scene determination means is configured such that a driving scene associated with the current vehicle information and the current road information is determined from a previous driving scene. Where possible transfer, determines that the a current driving scene.

これにより、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができる。すなわち、現在の車両情報および現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、現在の運転シーンであると判定される。言い換えれば、現在の車両情報および現在の道路情報に対応付けられた運転シーンであっても、前の運転シーンから遷移可能でない場合には、現在の運転シーンでないと判定される。したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。   Thereby, not only using the driving scene correspondence information but also using the transition availability information, the current driving scene can be correctly determined from the current vehicle information and the current road information. That is, when the driving scene associated with the current vehicle information and the current road information can be transitioned from the previous driving scene, it is determined that the current driving scene. In other words, even if the driving scene is associated with the current vehicle information and the current road information, if it is not possible to make a transition from the previous driving scene, it is determined that the current driving scene is not the current driving scene. Therefore, it is possible to suppress the erroneous determination of the driving scene and to increase the determination accuracy of the driving scene.

また、本発明の運転シーン判定装置では、前記運転シーン記憶部は、前記現在の運転シーンごとに用意された複数の前記運転シーン対応情報を記憶し、前記運転シーン判定手段は、前記複数の運転シーン対応情報の中から前記現在の運転シーンに応じた運転シーン対応情報を選択して、前記現在の運転シーンの判定に用いてもよい。   In the driving scene determination apparatus of the present invention, the driving scene storage unit stores a plurality of pieces of driving scene correspondence information prepared for each of the current driving scenes, and the driving scene determination unit includes the plurality of driving scenes. Driving scene correspondence information corresponding to the current driving scene may be selected from the scene correspondence information and used for determination of the current driving scene.

これにより、運転シーンごとに用意された複数の運転シーン対応情報の中から選択した運転シーン対応情報(現在の運転シーンに応じた運転シーン対応情報)を用いることによって、現在の運転シーンの判定を適切に行うことができる。   Accordingly, the current driving scene is determined by using the driving scene corresponding information (the driving scene corresponding information corresponding to the current driving scene) selected from the plurality of driving scene corresponding information prepared for each driving scene. Can be done appropriately.

また、本発明の運転シーン判定装置では、前記運転シーンには、車線変更または右左折が含まれており、前記車線変更または右左折に対応付けられる前記車両情報には、舵角が含まれており、前記舵角の設定値は、前記車両の車速が小さいほど大きく、前記車両の車速が大きいほど小さくてもよい。   In the driving scene determination device of the present invention, the driving scene includes a lane change or a left / right turn, and the vehicle information associated with the lane change or a right / left turn includes a steering angle. The set value of the rudder angle may be larger as the vehicle speed of the vehicle is smaller, and may be smaller as the vehicle speed of the vehicle is larger.

これにより、「車線変更」または「右左折」の運転シーンに対応付けられる「舵角」の車両情報が、車両の「車速」に応じて適切に設定される。具体的には、「車速」が小さいほど「舵角」が大きくなり、「車速」が大きいほど「舵角」が小さくなるように設定される。したがって、「車線変更」または「右左折」の運転シーンの判定を、その車両の車速に応じて適切に行うことができる。   Thereby, the vehicle information of the “steering angle” associated with the driving scene of “lane change” or “right / left turn” is appropriately set according to the “vehicle speed” of the vehicle. Specifically, the “steering angle” is set to increase as the “vehicle speed” decreases, and the “steering angle” decreases as the “vehicle speed” increases. Therefore, it is possible to appropriately determine the driving scene of “lane change” or “right / left turn” according to the vehicle speed of the vehicle.

また、本発明の運転シーン判定装置は、前記現在の車両情報に基づいて、前記現在の運転シーンが終了したか否かを判定するシーン終了判定手段を備え、前記運転シーン判定手段は、前記現在の運転シーンが終了したと判定されるまで、前の運転シーンが継続しているとして前記現在の運転シーンの判定を行ってもよい。   The driving scene determination device of the present invention further includes a scene end determination unit that determines whether or not the current driving scene has ended based on the current vehicle information, and the driving scene determination unit includes the current scene determination unit. The current driving scene may be determined on the assumption that the previous driving scene is continued until it is determined that the driving scene is finished.

これにより、現在の車両情報に基づいて、現在の運転シーンが終了したか否かが判定され、その運転シーンが終了したと判定されるまでは、前の運転シーンが継続しているとして現在の運転シーンの判定が行われる。したがって、前の運転シーンが終了しないうちは(前の運転シーンが継続しているときには)、車両情報や道路情報が別の運転シーンに対応するものであったとしても、その運転シーンが継続していると判定される。このようにして、運転シーンの継続中に他の運転シーンへ遷移するという誤判定を抑えることができる。   Thus, based on the current vehicle information, it is determined whether or not the current driving scene has ended. Until it is determined that the driving scene has ended, it is assumed that the previous driving scene is continuing and A driving scene is determined. Therefore, as long as the previous driving scene does not end (when the previous driving scene continues), even if the vehicle information or road information corresponds to another driving scene, the driving scene continues. It is determined that In this way, it is possible to suppress an erroneous determination that a transition to another driving scene occurs while the driving scene continues.

また、本発明の運転シーン判定装置では、前記シーン終了判定手段は、前記車両情報に含まれる舵角および舵角変化率に基づいて、車線変更の運転シーンが終了したか否かを判定し、前記舵角および前記舵角変化率の設定値は、前記車両の車速が小さいほど大きく、前記車両の車速が大きいほど小さくてもよい。   Further, in the driving scene determination device of the present invention, the scene end determination means determines whether or not the lane change driving scene has ended based on the rudder angle and rudder angle change rate included in the vehicle information, The set values of the rudder angle and the rudder angle change rate may be larger as the vehicle speed of the vehicle is smaller, and may be smaller as the vehicle speed of the vehicle is larger.

これにより、「舵角」および「舵角変化率」に基づいて、「車線変更」の運転シーンが終了したか否かを適切に判定することができる。例えば、「舵角」が「正(左)→負(右)→正(左)→ゼロ(直進)」と変化し、かつ、「舵角変化率」の絶対値が「正(毎秒0°より大)→ゼロ(毎秒0°)」と変化した場合に、「左車線変更」の運転シーンが終了したと判定される。この場合、「舵角」および「舵角変化率」の車両情報が、車両の「車速」に応じて適切に設定される。具体的には、「車速」が小さいほど「舵角」が大きくなり、「車速」が大きいほど「舵角」が小さくなるように設定される。したがって、「車線変更」の運転シーンの終了判定を、その車両の車速に応じて適切に行うことができる。   Thus, it is possible to appropriately determine whether or not the “lane change” driving scene has ended based on the “steer angle” and the “steer angle change rate”. For example, “steer angle” changes as “positive (left) → negative (right) → positive (left) → zero (straight)” and the absolute value of “steer angle change rate” is “positive (0 ° per second) Greater) → zero (0 ° per second) ”, it is determined that the“ left lane change ”driving scene has ended. In this case, the vehicle information of “steering angle” and “steering angle change rate” is appropriately set according to the “vehicle speed” of the vehicle. Specifically, the “steering angle” is set to increase as the “vehicle speed” decreases, and the “steering angle” decreases as the “vehicle speed” increases. Therefore, it is possible to appropriately determine whether or not to end the driving scene of “lane change” according to the vehicle speed of the vehicle.

また、本発明の運転シーン判定装置では、前記運転シーン判定手段は、第1の運転シーンから第2の運転シーンへシーン遷移した後に前記第2の運転シーンから前記第1の運転シーンへ戻る場合に、前記第1の運転シーンと対応付けられている前記車両情報または前記道路情報を変更して、前記第1の運転シーンへ戻るのを困難にするヒステリシス制御を行う。   In the driving scene determination device of the present invention, the driving scene determination means may return from the second driving scene to the first driving scene after a scene transition from the first driving scene to the second driving scene. In addition, hysteresis control is performed to make it difficult to return to the first driving scene by changing the vehicle information or the road information associated with the first driving scene.

これにより、第1の運転シーンから第2の運転シーンへシーン遷移した後に、第2の運転シーンから第1の運転シーンへ戻る場合には、第1の運転シーンと対応付けられている車両情報または道路情報を変更するヒステリシス制御が行われ、第1の運転シーンへ戻りにくくなる。このようなヒステリシス制御によって、運転シーンの遷移が頻繁に発生するのを抑えることができる。   Thereby, when returning from the second driving scene to the first driving scene after the scene transition from the first driving scene to the second driving scene, the vehicle information associated with the first driving scene. Or the hysteresis control which changes road information is performed and it becomes difficult to return to a 1st driving scene. Such hysteresis control makes it possible to suppress frequent occurrence of driving scene transitions.

本発明の運転シーン判定方法は、ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報が記憶されており、複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報が記憶されており、現在の車両情報および現在の道路情報を取得し、前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定する方法において、前記運転シーンの判定は、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定する。   According to the driving scene determination method of the present invention, driving scene correspondence information in which the driving scene of the vehicle is associated with vehicle information regarding the vehicle the user is driving and road information regarding the road on which the vehicle is passing is stored. Transition information indicating whether or not a scene transition from one driving scene to another driving scene is possible for a plurality of the driving scenes, current vehicle information and current road information are acquired, and the driving scene is acquired. In the method of determining the current driving scene from the current vehicle information and the current road information based on the correspondence information and the transition availability information, the determination of the driving scene includes the current vehicle information and the current road. When the driving scene associated with the information can be changed from the previous driving scene, the current driving scene is determined.

この方法によっても、上記と同様、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができ、したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。   Even with this method, as described above, not only using the driving scene correspondence information, but also using the transition availability information, the current driving scene can be correctly determined from the current vehicle information and the current road information. It is possible to suppress the erroneous determination of the driving scene and increase the determination accuracy of the driving scene.

本発明の運転シーン判定プログラムは、メモリに記憶されている、ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報と、複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報と、を用いて、コンピュータに、現在の車両情報および現在の道路情報を取得する処理と、前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定する処理と、を実行させるプログラムにおいて、前記運転シーンの判定は、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定する。   The driving scene determination program of the present invention is a driving in which a driving scene of the vehicle is associated with vehicle information related to a vehicle that the user is driving and road information related to a road on which the vehicle is traveling, which are stored in a memory. Using the scene correspondence information and the transition availability information indicating whether or not a scene transition from one driving scene to another driving scene is possible for the plurality of driving scenes, the current vehicle information and the current road information are transmitted to the computer. In the program for executing the process of acquiring and the process of determining the current driving scene from the current vehicle information and the current road information based on the driving scene correspondence information and the transition availability information, the driving scene In the determination, the driving scene associated with the current vehicle information and the current road information is determined from the previous driving scene. Where possible transfer, determines that the a current driving scene.

このプログラムによっても、上記と同様、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができ、したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。   In this program as well, the current driving scene can be correctly determined from the current vehicle information and the current road information by using not only the driving scene correspondence information but also the transition availability information, as described above. It is possible to suppress the erroneous determination of the driving scene and increase the determination accuracy of the driving scene.

本発明のワークロード推定装置は、ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報を記憶する運転シーン記憶部と、複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報を記憶するシーン遷移可否記憶部と、現在の車両情報および現在の道路情報を取得する情報取得手段と、前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定する手段であって、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定する運転シーン判定手段と、前記車両の運転に関連するワークロードに寄与するユーザの寄与行動とワークロード値との相関関係が記録された正解データに基づいて、車両運転中のユーザの寄与行動から前記ワークロード値を算出するための定量化モデルが記憶されているモデル記憶手段と、車両運転中のユーザから前記寄与行動に関するデータを取得するデータ取得手段と、前記定量化モデルを用いて、前記車両運転中のユーザの寄与行動のデータから前記ユーザのワークロード値を推定するワークロード推定手段と、を備え、前記ワークロード推定手段は、前記車両運転中のユーザの寄与行動として、前記運転シーン判定手段によって判定された前記現在の運転シーンを用いる。   The workload estimation device of the present invention stores driving scene correspondence information in which vehicle information relating to a vehicle being driven by a user and road information relating to a road on which the vehicle is traveling are associated with a driving scene of the vehicle. A scene storage unit, a scene transition enable / disable storage unit that stores information on whether or not a scene transition from one driving scene to another driving scene is possible, and current vehicle information and current road information Information acquisition means for acquiring a current driving scene from the current vehicle information and the current road information based on the driving scene correspondence information and the transition availability information, the current vehicle Information and the current driving information when the driving scene associated with the current road information can transition from the previous driving scene. Based on correct driving data in which the correlation between the driving scene determining means for determining that the vehicle is related to the workload related to the driving of the vehicle and the workload value is recorded. A model storage unit that stores a quantification model for calculating the workload value from the contribution behavior of the vehicle, a data acquisition unit that acquires data on the contribution behavior from a user who is driving the vehicle, and the quantification model. And a workload estimation unit that estimates the user workload value from data of the user's contribution behavior while driving the vehicle, wherein the workload estimation unit is used as the user's contribution behavior while driving the vehicle. The current driving scene determined by the driving scene determining means is used.

これにより、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができ、したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。そして、このように判定された現在の運転シーンに基づいて、車両運転中のユーザのワークロード値を定量化モデルを用いて高精度で推定することができる。   This makes it possible to correctly determine the current driving scene from the current vehicle information and the current road information by using not only the driving scene correspondence information but also the transition availability information, and thus erroneous determination of the driving scene. Can be suppressed and the determination accuracy of the driving scene can be increased. Based on the current driving scene determined as described above, the workload value of the user during vehicle driving can be estimated with high accuracy using the quantification model.

本発明のワークロード推定方法は、ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報が記憶されており、複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報が記憶されており、前記車両の運転に関連するワークロードに寄与するユーザの寄与行動とワークロード値との相関関係が記録された正解データに基づいて、車両運転中のユーザの寄与行動から前記ワークロード値を算出するための定量化モデルが記憶されており、現在の車両情報および現在の道路情報を取得し、前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定するときに、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定し、車両運転中のユーザから前記寄与行動に関するデータを取得し、前記定量化モデルを用いて、前記車両運転中のユーザの寄与行動のデータから前記ユーザのワークロード値を推定する方法において、前記ワークロード値の推定では、前記車両運転中のユーザの寄与行動として、前記判定によって得られた前記現在の運転シーンを用いる。   The workload estimation method of the present invention stores driving scene correspondence information in which driving information of a vehicle is associated with vehicle information related to a vehicle that the user is driving and road information related to a road on which the vehicle is passing. In addition, for a plurality of the driving scenes, transition permission / rejection information indicating whether or not a scene transition from one driving scene to another driving scene is stored is stored, and the user's contributing behavior that contributes to a workload related to driving of the vehicle A quantification model for calculating the workload value from the user's contribution behavior while driving the vehicle based on the correct data in which the correlation between the vehicle value and the workload value is recorded. Current road information is acquired, and based on the driving scene correspondence information and the transition availability information, the current vehicle information and the current road When the current driving scene is determined from the information, if the driving scene associated with the current vehicle information and the current road information can be changed from the previous driving scene, the current driving scene is the current driving scene. In the method of acquiring data regarding the contribution behavior from the user who is driving the vehicle, and estimating the workload value of the user from the data of the contribution behavior of the user while driving the vehicle, using the quantification model In the estimation of the workload value, the current driving scene obtained by the determination is used as the user's contributing behavior while driving the vehicle.

この方法によっても、上記と同様、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができ、したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。そして、このように判定された現在の運転シーンに基づいて、車両運転中のユーザのワークロード値を定量化モデルを用いて高精度で推定することができる。   Even with this method, as described above, not only using the driving scene correspondence information, but also using the transition availability information, the current driving scene can be correctly determined from the current vehicle information and the current road information. It is possible to suppress the erroneous determination of the driving scene and increase the determination accuracy of the driving scene. Based on the current driving scene determined as described above, the workload value of the user during vehicle driving can be estimated with high accuracy using the quantification model.

本発明のワークロード推定プログラムは、メモリに記憶されている、ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報と、複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報と、前記車両の運転に関連するワークロードに寄与するユーザの寄与行動とワークロード値との相関関係が記録された正解データに基づいて、車両運転中のユーザの寄与行動から前記ワークロード値を算出するための定量化モデルと、を用いて、コンピュータに、現在の車両情報および現在の道路情報を取得する処理と、前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定するときに、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定する処理と、車両運転中のユーザから前記寄与行動に関するデータを取得する処理と、前記定量化モデルを用いて、前記車両運転中のユーザの寄与行動のデータから前記ユーザのワークロード値を推定する処理と、を実行させるプログラムにおいて、前記ワークロード値の推定では、前記車両運転中のユーザの寄与行動として、前記判定する処理によって得られた前記現在の運転シーンを用いる。   The workload estimation program of the present invention is a driving in which a driving scene of the vehicle is associated with vehicle information related to a vehicle being driven by a user and road information related to a road on which the vehicle is traveling, which is stored in a memory. Scene correspondence information, transition allowance information indicating whether or not a scene transition from one driving scene to another driving scene is possible for the plurality of driving scenes, and user contribution actions that contribute to the workload related to driving the vehicle Based on the correct data in which the correlation with the workload value is recorded, a quantification model for calculating the workload value from the user's contribution behavior while driving the vehicle, and using the computer, the current vehicle Information and current road information, and the current vehicle information based on the driving scene correspondence information and the transition availability information. When the current driving scene is determined from the current road information, the current vehicle information and the driving scene associated with the current road information can be changed from the previous driving scene, A process for determining that the current driving scene is determined, a process for acquiring data related to the contribution action from the user who is driving the vehicle, and the user's contribution action data while driving the vehicle using the quantification model. In the program for executing the process of estimating the workload value, the current driving scene obtained by the determining process is used as the contribution behavior of the user during driving of the vehicle in the estimation of the workload value. .

このプログラムによっても、上記と同様、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができ、したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。そして、このように判定された現在の運転シーンに基づいて、車両運転中のユーザのワークロード値を定量化モデルを用いて高精度で推定することができる。   In this program as well, the current driving scene can be correctly determined from the current vehicle information and the current road information by using not only the driving scene correspondence information but also the transition availability information, as described above. It is possible to suppress the erroneous determination of the driving scene and increase the determination accuracy of the driving scene. Based on the current driving scene determined as described above, the workload value of the user during vehicle driving can be estimated with high accuracy using the quantification model.

本発明のサービス提供装置は、ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報を記憶する運転シーン記憶部と、複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報を記憶するシーン遷移可否記憶部と、現在の車両情報および現在の道路情報を取得する情報取得手段と、前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定する手段であって、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定する運転シーン判定手段と、判定された前記現在の運転シーンに応じたサービスを提供するサービス提供手段と、を備えている。   The service providing apparatus according to the present invention stores driving scene correspondence information in which driving information of a vehicle is associated with vehicle information relating to a vehicle being driven by a user and road information relating to a road on which the vehicle is traveling. A storage unit, a scene transition availability storage unit for storing transition availability information indicating whether or not a scene transition from one driving scene to another driving scene is possible, and current vehicle information and current road information. Information acquisition means for acquiring; means for determining a current driving scene from the current vehicle information and the current road information based on the driving scene correspondence information and the transition availability information, wherein the current vehicle information And when the driving scene associated with the current road information can transition from the previous driving scene, And determining the operation scene determining means and that, and a, and a service providing means for providing a service corresponding to the determined said current driving scene.

これにより、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができ、したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。そして、このように判定された現在の運転シーンに基づいて、適切にサービスを提供することができる。   This makes it possible to correctly determine the current driving scene from the current vehicle information and the current road information by using not only the driving scene correspondence information but also the transition availability information, and thus erroneous determination of the driving scene. Can be suppressed and the determination accuracy of the driving scene can be increased. And a service can be provided appropriately based on the current driving scene determined in this way.

本発明のサービス提供方法は、ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報が記憶されており、複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報が記憶されており、現在の車両情報および現在の道路情報を取得し、前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定するときに、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定し、判定された前記現在の運転シーンに応じたサービスを提供する。   The service providing method of the present invention stores driving scene correspondence information in which driving information of a vehicle is associated with vehicle information related to a vehicle being driven by a user and road information related to a road on which the vehicle is passing. The transition availability information indicating whether or not a scene transition from one driving scene to another driving scene is stored for a plurality of the driving scenes, current vehicle information and current road information are acquired, and the driving scene is supported. A driving scene associated with the current vehicle information and the current road information when determining the current driving scene from the current vehicle information and the current road information based on the information and the transition availability information Is determined to be the current driving scene when it is possible to transition from the previous driving scene, and according to the determined current driving scene To provide a service.

この方法によっても、上記と同様、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができ、したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。そして、このように判定された現在の運転シーンに基づいて、適切にサービスを提供することができる。   Even with this method, as described above, not only using the driving scene correspondence information, but also using the transition availability information, the current driving scene can be correctly determined from the current vehicle information and the current road information. It is possible to suppress the erroneous determination of the driving scene and increase the determination accuracy of the driving scene. And a service can be provided appropriately based on the current driving scene determined in this way.

本発明のサービス提供プログラムは、メモリに記憶されている、ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報と、複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報と、を用いて、コンピュータに、現在の車両情報および現在の道路情報を取得する処理と、前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定するときに、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定する処理と、判定された前記現在の運転シーンに応じたサービスを提供する処理と、を実行させる。   In the service providing program of the present invention, a driving scene in which a driving scene of the vehicle is associated with vehicle information relating to a vehicle that the user is driving and road information relating to a road on which the vehicle passes is stored in a memory. The current vehicle information and the current road information are acquired by the computer using the correspondence information and the transition availability information indicating whether or not a scene transition from one driving scene to another driving scene is possible for the plurality of driving scenes. And when determining the current driving scene from the current vehicle information and the current road information based on the driving scene correspondence information and the transition availability information, the current vehicle information and the current road When the driving scene associated with the information can be transitioned from the previous driving scene, the current driving scene is determined. A sense, the process of providing a service corresponding to the determined said current driving scene, is the execution.

このプログラムによっても、上記と同様、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができ、したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。そして、このように判定された現在の運転シーンに基づいて、適切にサービスを提供することができる。   In this program as well, the current driving scene can be correctly determined from the current vehicle information and the current road information by using not only the driving scene correspondence information but also the transition availability information, as described above. It is possible to suppress the erroneous determination of the driving scene and increase the determination accuracy of the driving scene. And a service can be provided appropriately based on the current driving scene determined in this way.

本発明によれば、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができ、したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。   According to the present invention, not only using the driving scene correspondence information but also using the transition availability information, the current driving scene can be correctly determined from the current vehicle information and the current road information. It is possible to suppress the occurrence of erroneous determination and improve the determination accuracy of the driving scene.

本発明の実施の形態における運転シーン判定装置の構成を示すブロック図The block diagram which shows the structure of the driving scene determination apparatus in embodiment of this invention. 本発明の実施の形態における運転シーン対応情報(走行時)の説明図Explanatory drawing of the driving scene correspondence information (during driving) in the embodiment of the present invention 本発明の実施の形態における運転シーン対応情報(停止時)の説明図Explanatory drawing of the driving scene correspondence information (at the time of a stop) in embodiment of this invention 本発明の実施の形態におけるシーン遷移の可否の説明図Explanatory drawing of the possibility of scene transition in the embodiment of the present invention (a)右左折の運転シーンにおける車速と舵角の大きさの関係を示す図 (b)車線変更の運転シーンにおける車速と舵角の大きさの関係を示す図 (c)車線変更の運転シーンにおける車速と舵角変化率の大きさの関係を示す図(A) The figure which shows the relationship between the vehicle speed and the magnitude | size of a rudder angle in the driving scene of a right-left turn (b) The figure which shows the relationship between the vehicle speed and the magnitude | size of a rudder angle in the driving scene of a lane change (c) The driving scene of a lane change Of the relationship between the vehicle speed and the rate of change in rudder angle 本発明の実施の形態における運転シーン判定装置の動作の流れを示すフロー図The flowchart which shows the flow of operation | movement of the driving scene determination apparatus in embodiment of this invention. 本発明の実施の形態におけるワークロード推定装置の構成を示すブロック図The block diagram which shows the structure of the workload estimation apparatus in embodiment of this invention. 本発明の実施の形態におけるワークロードの推定の一例(定式化モデルを用いた例)を示す図The figure which shows an example (example using a formulation model) of the workload estimation in embodiment of this invention 本発明の実施の形態におけるワークロードの推定の一例(確率推論モデルを用いた例)を示す図The figure which shows an example (example using a probabilistic reasoning model) of the workload estimation in embodiment of this invention 本発明の実施の形態におけるワークロード推定装置の動作の流れを示すフロー図The flowchart which shows the flow of operation | movement of the workload estimation apparatus in embodiment of this invention. 本発明の実施の形態におけるサービス提供装置の構成を示すブロック図The block diagram which shows the structure of the service provision apparatus in embodiment of this invention.

以下、本発明の実施の形態の運転シーン判定装置およびワークロード推定装置について、図面を用いて説明する。本実施の形態では、カーナビゲーション装置等に用いられる運転シーン判定装置やワークロード推定装置の場合を例示する。   Hereinafter, a driving scene determination device and a workload estimation device according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a case of a driving scene determination device or a workload estimation device used for a car navigation device or the like is illustrated.

なお、以下では、第1の実施の形態として運転シーン判定装置の例を説明をし、第2の実施の形態としてワークロード推定装置の例を説明する。以下に説明するように、第1の実施の形態の装置は、運転シーン判定機能を備えており、第2の実施の形態の装置は、運転シーン判定機能に加えてワークロード推定機能を備えているが、これらの機能は、装置のHDDやメモリなど(図示せず)に格納されたプログラムによって実現される。   In the following, an example of the driving scene determination device will be described as the first embodiment, and an example of the workload estimation device will be described as the second embodiment. As will be described below, the device of the first embodiment has a driving scene determination function, and the device of the second embodiment has a workload estimation function in addition to the driving scene determination function. However, these functions are realized by a program stored in an HDD or a memory (not shown) of the apparatus.

(第1の実施の形態)
本発明の第1の実施の形態の運転シーン判定装置の構成を、図面を参照して説明する。図1は、本実施の形態の運転シーン判定装置の構成を示すブロック図である。図1に示すように、運転シーン判定装置1は、車両情報や道路情報などの各種の情報を取得する機能を有する情報取得部2と、運転シーンの判定に関する各種の処理を行う制御部3を備えている。情報取得部2は、ユーザが運転している車両に関する情報(車両情報)を取得するための車両情報取得部4と、車両が通行している道路に関する情報(道路情報)を取得するための道路情報取得部5で構成されている。また、制御部3は、CPUやマイコンなどで構成されている。
(First embodiment)
The configuration of the driving scene determination apparatus according to the first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the driving scene determination apparatus according to the present embodiment. As shown in FIG. 1, the driving scene determination device 1 includes an information acquisition unit 2 having a function of acquiring various types of information such as vehicle information and road information, and a control unit 3 that performs various processes related to determination of the driving scene. I have. The information acquisition unit 2 includes a vehicle information acquisition unit 4 for acquiring information (vehicle information) related to the vehicle that the user is driving, and a road for acquiring information (road information) related to the road on which the vehicle is traveling. The information acquisition unit 5 is configured. Moreover, the control part 3 is comprised by CPU, a microcomputer, etc.

車両情報取得部4は、車両の現在位置などの車両情報を、車両に搭載されたGPS装置6から取得する機能を備えている。また、この車両情報取得部4は、車速(km/時)、加速度(m/秒)、舵角(°)(左回し:正、右回し:負)、左右のウィンカー(左右ターンSW)のオン/オフ、ハザードランプのオン/オフ、ブレーキ圧、サイドブレーキのオン/オフなどの車両情報を、車両に搭載された車両センサ7から取得する機能を備えている。また、この車両情報取得部4は、前方の車両との車間距離(m)、車両前方の停止線の有無、車両前方の横断歩道の有無、車両前方の信号の有無などの車両情報を、車両に搭載された車載カメラ8から取得する機能を備えている。本実施の形態では、車両情報取得部4は、図示しない車載LAN(例えば、CAN、AVC−LAN、BEANなど)を介して、これらの車両情報を取得する。 The vehicle information acquisition unit 4 has a function of acquiring vehicle information such as the current position of the vehicle from the GPS device 6 mounted on the vehicle. In addition, the vehicle information acquisition unit 4 includes a vehicle speed (km / hour), an acceleration (m / second 2 ), a steering angle (°) (left turn: positive, right turn: negative), left and right winkers (left and right turn SW). Vehicle information such as on / off of the vehicle, hazard lamp on / off, brake pressure, side brake on / off, etc. is obtained from the vehicle sensor 7 mounted on the vehicle. The vehicle information acquisition unit 4 also includes vehicle information such as the distance (m) between the vehicle ahead and the presence of a stop line in front of the vehicle, the presence or absence of a crosswalk in front of the vehicle, and the presence or absence of a signal in front of the vehicle. Has a function of acquiring from the in-vehicle camera 8 mounted on the camera. In this Embodiment, the vehicle information acquisition part 4 acquires these vehicle information via vehicle-mounted LAN (For example, CAN, AVC-LAN, BEAN etc.) which is not shown in figure.

道路情報取得部5は、大容量のHDDなどで構成された道路情報DB9(データベース)から道路情報を取得する機能を備えている。この道路情報には、交差点の位置(緯度経度など)、車線数(本)、道路種別(高速自動車道、国道、県道など)、道路の旋回半径(m)などの情報が含まれている。また、この道路情報には、交差点における信号の有無、交差点における停止線の有無、交差点における横断歩道の有無などの情報が含まれている。さらに、この道路情報には、交差点までの距離(m)(交差点の位置と車両の現在位置から算出される)が含まれている。   The road information acquisition unit 5 has a function of acquiring road information from a road information DB 9 (database) configured with a large capacity HDD or the like. This road information includes information such as the position of the intersection (latitude and longitude, etc.), the number of lanes (lines), the road type (highway expressway, national road, prefectural road, etc.), and the turning radius (m) of the road. The road information includes information such as the presence / absence of a signal at the intersection, the presence / absence of a stop line at the intersection, and the presence / absence of a pedestrian crossing at the intersection. Further, the road information includes a distance (m) to the intersection (calculated from the position of the intersection and the current position of the vehicle).

制御部3は、情報取得部2によって取得した現在の車両情報と道路情報に基づいて、現在の運転シーンの判定を行う運転シーン判定部10を備えている。運転シーン判定部10は、HDDやメモリなどで構成された運転シーンDB11から、運転シーン対応情報を取得する機能を備えている。この運転シーン対応情報は、車両情報と道路情報に運転シーンが対応付けられた情報であり、本実施の形態では、予め設定されて運転シーンDB11に記憶されている。   The control unit 3 includes a driving scene determination unit 10 that determines the current driving scene based on the current vehicle information and road information acquired by the information acquisition unit 2. The driving scene determination unit 10 has a function of acquiring driving scene correspondence information from a driving scene DB 11 configured with an HDD, a memory, and the like. This driving scene correspondence information is information in which a driving scene is associated with vehicle information and road information, and is preset and stored in the driving scene DB 11 in the present embodiment.

ここで、図2および図3を参照して、運転シーン対応情報をより具体的に説明する。図2は、車両走行時の運転シーン対応情報の一例を示す説明図であり、また、図3は、車両停止時の運転シーン対応情報の一例を示す説明図である。例えば、図2の例では、「左折」という運転シーンが、「車速」「舵角」「左右ターンSW」という車両情報および「交差点までの距離」という道路情報に対応付けられている。この場合、「車速V>0」「舵角θ≧50」「左ターンSW:ON」「交差点までの距離D=0」という条件に、「左折」という運転シーンが対応付けられているともいえる。また、この場合、「左折」という運転シーンは、「車速V>0」「舵角θ≧50」「左ターンSW:ON」「車線数N=1」という条件にも対応付けられている。   Here, the driving scene correspondence information will be described more specifically with reference to FIGS. 2 and 3. FIG. 2 is an explanatory diagram illustrating an example of driving scene correspondence information when the vehicle is traveling, and FIG. 3 is an explanatory diagram illustrating an example of driving scene correspondence information when the vehicle is stopped. For example, in the example of FIG. 2, the driving scene “turn left” is associated with vehicle information “vehicle speed” “steering angle” “left and right turn SW” and road information “distance to intersection”. In this case, it can be said that the driving scene of “left turn” is associated with the conditions “vehicle speed V> 0”, “steering angle θ ≧ 50”, “left turn SW: ON”, and “distance to intersection D = 0”. . In this case, the driving scene “turn left” is also associated with the conditions “vehicle speed V> 0”, “steering angle θ ≧ 50”, “left turn SW: ON”, and “number of lanes N = 1”.

なお、このような運転シーン対応情報は、現在の運転シーンごとに用意されていてもよい。例えば、運転シーンが「安定走行」である場合と「高速走行」である場合で、異なる運転シーン対応情報を用いてもよい。より具体的には、「安定走行」における運転シーン対応情報では、「高速走行」に対応付けられる条件が「車速V≧60」であり「安定走行」に対応付けられる条件が「20≦車速V<60」であって、一方、「高速走行」における運転シーン対応情報では、「高速走行」に対応付けられる条件が「車速V≧50」であり「安定走行」に対応付けられる条件が「20≦車速V<50」であってもよい。   Such driving scene correspondence information may be prepared for each current driving scene. For example, different driving scene correspondence information may be used depending on whether the driving scene is “stable driving” or “high speed driving”. More specifically, in the driving scene correspondence information in “stable traveling”, the condition associated with “high speed traveling” is “vehicle speed V ≧ 60”, and the condition associated with “stable traveling” is “20 ≦ vehicle speed V On the other hand, in the driving scene correspondence information in “high speed running”, the condition associated with “high speed running” is “vehicle speed V ≧ 50” and the condition associated with “stable running” is “20”. ≦ Vehicle speed V <50 ”may be sufficient.

そして、運転シーン判定部10は、現在の運転シーンごとに用意された複数の運転シーン対応情報の中から現在の運転シーンに応じた運転シーン対応情報を選択して、現在の運転シーンの判定に用いる。つまり、上記の例では、「安定走行」時の運転シーン対応情報では、「高速走行」の運転シーンへ遷移するための車速の条件が「時速60km以上」に設定されるのに対して、「高速走行」時の運転シーン対応情報では、「安定走行」の運転シーンへ遷移するための車速の条件が「時速50km以下」に設定される。そして、「安定走行」時の運転シーン対応情報と「高速走行」時の運転シーン対応情報とで値が異なるのは、相互に遷移できる運転シーン(例えば「安定走行」と「高速走行」)に対応づけられる車両情報や道路情報の設定値(例えば「車速」の設定値)である。   The driving scene determination unit 10 selects driving scene correspondence information corresponding to the current driving scene from a plurality of driving scene correspondence information prepared for each current driving scene, and determines the current driving scene. Use. That is, in the above example, in the driving scene correspondence information at the time of “stable driving”, the vehicle speed condition for transitioning to the driving scene of “high speed driving” is set to “60 km / h or more”, whereas “ In the driving scene correspondence information at the time of “high speed driving”, the vehicle speed condition for transitioning to the driving scene of “stable driving” is set to “50 km / h or less”. The difference between the driving scene correspondence information at the time of “stable driving” and the driving scene correspondence information at the time of “high speed driving” is different between driving scenes that can be changed to each other (eg, “stable driving” and “high speed driving”). It is a set value (for example, a set value of “vehicle speed”) of vehicle information and road information associated with each other.

また、運転シーン判定部10は、HDDやメモリなどで構成された遷移可否DB12から、遷移可否情報を取得する機能を備えている。この遷移可否情報は、複数の運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す情報であり、本実施の形態では、予め設定されて遷移可否DB12に記憶されている。   Further, the driving scene determination unit 10 has a function of acquiring transition permission / inhibition information from the transition permission / inhibition DB 12 configured with an HDD, a memory, or the like. This transition availability information is information indicating whether or not a scene transition from a certain driving scene to another driving scene is possible for a plurality of driving scenes. In the present embodiment, the transition availability information is preset and stored in the transition availability DB 12. .

ここで、図4を参照して、遷移可否情報をより具体的に説明する。図4は、遷移可否情報の一例を示す説明図である。図4では、遷移可能である運転シーンが「矢印」で示されている。例えば、「発進」という運転シーンから「加速」と「低速走行」という運転シーンには遷移可能であるが、「減速」という運転シーンには遷移不可能であることが示されている。なお、図4は、あくまで一例である。つまり、図4の例では、走行シーン間でのシーン遷移のみが例示されているが、走行シーンと停止シーンとの間でのシーン遷移についての遷移可否情報を利用してよいことは言うまでもない。   Here, the transition availability information will be described more specifically with reference to FIG. FIG. 4 is an explanatory diagram illustrating an example of the transition availability information. In FIG. 4, driving scenes that can be changed are indicated by “arrows”. For example, it is indicated that a transition can be made from a driving scene of “start” to a driving scene of “acceleration” and “low-speed driving” but cannot be shifted to a driving scene of “deceleration”. FIG. 4 is merely an example. That is, in the example of FIG. 4, only scene transitions between running scenes are illustrated, but it goes without saying that transition availability information regarding scene transitions between running scenes and stop scenes may be used.

そして、運転シーン判定部10は、運転シーン対応情報と遷移可否情報を参照して、現在の車両情報と道路情報から現在の運転シーンを判定する。具体的には、運転シーン判定部10は、現在の車両情報と道路情報に対応付けられた運転シーンが一つ前の運転シーンから遷移可能である場合に、その運転シーンを現在の運転シーンであると判定する。   Then, the driving scene determination unit 10 determines the current driving scene from the current vehicle information and road information with reference to the driving scene correspondence information and the transition availability information. Specifically, when the driving scene associated with the current vehicle information and road information can transition from the previous driving scene, the driving scene determination unit 10 determines that the driving scene is the current driving scene. Judge that there is.

例えば、交差点内で右左折をした後に、ハンドルを戻したときに(舵角を小さくしたときに)、ウィンカーが一緒に戻ってしまい、左右ターンSWがOFFになってしまうと、「車速V>0」「舵角|θ|<50」「交差点までの距離D=0」という条件を満たすことになり、遷移可否情報を参照しなければ「交差点直進通過(=本来は、交差点を直進して通過するときに選択されるべき運転シーン)」が現在の運転シーンとして判定されることになる。しかし、図4に示すように「右左折」から「交差点直進通過」へのシーン遷移は不可能であるため、現在の運転シーンが「交差点直進通過」であるとは判定されない。このような場合には、その前に「現在の運転シーン」として判定された「右左折」が、現在の運転シーンであると判定される。   For example, after turning right or left in an intersection, when the steering wheel is returned (when the rudder angle is reduced), if the winker returns together and the left / right turn SW is turned off, “vehicle speed V> 0 ”,“ steering angle | θ | <50 ”, and“ distance to intersection D = 0 ”. If the transition availability information is not referred to,“ passing straight through the intersection (= The driving scene to be selected when passing through is determined as the current driving scene. However, as shown in FIG. 4, the scene transition from “right / left turn” to “passing straight at an intersection” is impossible, and therefore it is not determined that the current driving scene is “passing straight at an intersection”. In such a case, the “right / left turn” that was previously determined as the “current driving scene” is determined to be the current driving scene.

なお、ここでは、「交差点までの距離D=0」であれば交差点内であるとしているが、交差点内でに移動距離を考慮にいれて運転シーンを判定することも可能である。例えば、交差点に入ってからの移動距離(m)に応じて「信号待ち先頭付近」の運転シーンと「交差点内停止」の運転シーンとを判別することが可能になる。   Here, if “distance to intersection D = 0”, it is assumed that the vehicle is within the intersection, but it is also possible to determine the driving scene in consideration of the moving distance within the intersection. For example, it becomes possible to discriminate between the driving scene “near the head of signal waiting” and the driving scene “stop in the intersection” according to the moving distance (m) after entering the intersection.

同様に、車線変更を行った後に、ハンドルを戻して舵角を小さくなると、「車速V>0」「舵角|θ|≦10」「車線数N≧2」という条件を満たすことになり、遷移可否情報を参照しなければ「もうすぐ左へ/もうすぐ右へ(=本来は、車線変更前/右左折前に選択されるべき運転シーン)」が現在の運転シーンとして判定されることになる。しかし、図4に示すように「車線変更」から「もうすぐ左へ」や「もうすぐ右へ」へのシーン遷移は不可能であるため、現在の運転シーンが「もうすぐ左へ/もうすぐ右へ」であるとは判定されない。このような場合、その前に「現在の運転シーン」として判定された「車線変更」が、現在の運転シーンであると判定される。   Similarly, after changing the lane and returning the steering wheel to reduce the rudder angle, the conditions of “vehicle speed V> 0”, “steering angle | θ | ≦ 10”, and “number of lanes N ≧ 2” are satisfied. If the transition permission / prohibition information is not referred to, “currently to the left / immediately right (= originally a driving scene to be selected before changing lane / before turning right / left)” is determined as the current driving scene. However, as shown in Fig. 4, it is not possible to transition from "change lane" to "soon to the left" or "soon to the right", so the current driving scene is "soon to the left / soon to the right". It is not determined that there is. In such a case, the “lane change” previously determined as the “current driving scene” is determined to be the current driving scene.

なお、「車線変更」や「右左折」に対応付けられる「舵角」の基準値は、図5(a)(b)に示すように、車両の車速が小さいほど大きく、車両の車速が大きいほど小さくなるように設定されてもよい。なお、図5(a)(b)では、|舵角|と車速との関係が一次関数である場合が例示されているが、これはあくまでも一例であり、|舵角|と車速との関係が他の関数(n次関数や三角関数など)であってもよいことは言うまでもない。図2の例では、「右左折」に対応付けられる「舵角」の基準値が、車速によらず一定値(θ≧50)であるが、例えば、車速が小さい(V<20)場合には舵角の基準値を大きく(θ≧60)、車速が大きい(V≧50)場合には舵角の基準値を小さく(θ≧40)してもよい。   As shown in FIGS. 5A and 5B, the reference value of “steering angle” associated with “lane change” or “right / left turn” increases as the vehicle speed decreases, and the vehicle speed increases. You may set so that it may become so small. 5A and 5B illustrate the case where the relationship between the | steering angle | and the vehicle speed is a linear function, this is merely an example, and the relationship between the | steering angle | and the vehicle speed. Needless to say, may be other functions (n-order function, trigonometric function, etc.). In the example of FIG. 2, the reference value of “steering angle” associated with “right / left turn” is a constant value (θ ≧ 50) regardless of the vehicle speed, but for example, when the vehicle speed is low (V <20). The steering angle reference value may be increased (θ ≧ 60), and the steering angle reference value may be decreased (θ ≧ 40) when the vehicle speed is high (V ≧ 50).

また、制御部3は、現在の車両情報に基づいて、現在の運転シーンが終了したか否かを判定するシーン終了判定部13を備えており、運転シーン判定部10は、現在の運転シーンが終了したと判定されるまで、前の運転シーンが継続しているとして現在の運転シーンの判定を行う。具体的には、シーン終了判定手段は、「舵角」と「舵角変化率」に基づいて、車線変更の運転シーンが終了したか否かを判定する。例えば、「舵角」が「正(左)→負(右)→正(左)→ゼロ(直進)」と変化し、かつ、「舵角変化率」の絶対値が「正(毎秒0°より大)→ゼロ(毎秒0°)」と変化した場合に、「左車線変更」の運転シーンが終了したと判定する。なお、舵角変化率の代わりに、ヨーレート(ヨー角変化率:ラジアン/秒)を利用してもよい。ヨーレートの情報は、車両に搭載されたヨーレートセンサ(図示せず)から取得することが可能である。   The control unit 3 includes a scene end determination unit 13 that determines whether the current driving scene is ended based on the current vehicle information. The driving scene determination unit 10 determines whether the current driving scene is Until it is determined that the current driving scene has been completed, the current driving scene is determined as the previous driving scene continues. Specifically, the scene end determination means determines whether or not the lane change driving scene has ended based on the “steer angle” and the “steer angle change rate”. For example, “steer angle” changes as “positive (left) → negative (right) → positive (left) → zero (straight)” and the absolute value of “steer angle change rate” is “positive (0 ° per second) Greater) → zero (0 ° per second) ”, it is determined that the“ left lane change ”driving scene has ended. A yaw rate (yaw angle change rate: radians / second) may be used instead of the rudder angle change rate. The yaw rate information can be obtained from a yaw rate sensor (not shown) mounted on the vehicle.

なお、この場合の「舵角」や「舵角変化率」の基準値は、図5(b)(c)に示すように、車両の車速が小さいほど大きく、車両の車速が大きいほど小さくなるように設定されてもよい。例えば、車速が小さい(V<20)場合には舵角の基準値を大きく(θ≧60)、車速が大きい(V≧50)場合には舵角の基準値を小さく(θ≧40)してもよい。同様に、例えば、車速が小さい(V<20)場合には舵角変化率の基準値を大きく(例えば、毎秒10°)、車速が大きい(V≧50)場合には舵角変化率の基準値を小さく(例えば、毎秒0°)してもよい。なお、図5(c)では、|舵角変化率|と車速との関係が一次関数である場合が例示されているが、これはあくまでも一例であり、|舵角変化率|と車速との関係が他の関数(n次関数や三角関数など)であってよいことは言うまでもない。   In this case, as shown in FIGS. 5B and 5C, the reference values of “steer angle” and “steer angle change rate” are larger as the vehicle speed is lower and smaller as the vehicle speed is higher. It may be set as follows. For example, when the vehicle speed is low (V <20), the rudder angle reference value is increased (θ ≧ 60), and when the vehicle speed is high (V ≧ 50), the rudder angle reference value is decreased (θ ≧ 40). May be. Similarly, for example, when the vehicle speed is low (V <20), the reference value of the steering angle change rate is increased (for example, 10 ° per second), and when the vehicle speed is high (V ≧ 50), the reference value of the steering angle change rate is set. The value may be decreased (for example, 0 ° per second). FIG. 5C illustrates a case where the relationship between the | steering angle change rate | and the vehicle speed is a linear function, but this is only an example, and the | steering angle change rate | It goes without saying that the relationship may be another function (n-order function, trigonometric function, etc.).

また、運転シーン判定部10は、第1の運転シーンから第2の運転シーンへシーン遷移した後に、第2の運転シーンから第1の運転シーンへ戻る場合に、第1の運転シーンと対応付けられている車両情報または道路情報(第1の運転シーンへ遷移する条件)を変更して、第1の運転シーンへ戻るのを困難にするヒステリシス制御を行う。   The driving scene determination unit 10 associates with the first driving scene when returning from the second driving scene to the first driving scene after the scene transition from the first driving scene to the second driving scene. The vehicle information or road information (conditions for transitioning to the first driving scene) is changed, and hysteresis control is performed to make it difficult to return to the first driving scene.

例えば、「低速走行」の運転シーン(第1の運転シーン)から「加速」の運転シーン(第2の運転シーン)へ遷移するときには、「加速」の運転シーンへ遷移する条件が「加速度≧3m/秒」であるとする。その後、「加速」の運転シーンから「低速走行」の運転シーンへ戻るときには、ヒステリシス制御によって、「低速走行」の運転シーンへ遷移する条件が「加速度<2m/秒」に変更される。さらに、その後、「低速走行」の運転シーンから「加速」の運転シーンへ遷移するときには、ヒステリシス制御によって、「加速」の運転シーンへ遷移する条件が「加速度≧4m/秒」に変更される。 For example, when transitioning from a driving scene of “low speed driving” (first driving scene) to a driving scene of “acceleration” (second driving scene), the condition for transitioning to the driving scene of “acceleration” is “acceleration ≧ 3 m Per second 2 ”. Thereafter, when returning from the driving scene of “acceleration” to the driving scene of “low speed running”, the condition for transition to the driving scene of “low speed running” is changed to “acceleration <2 m / sec 2 ” by hysteresis control. Further, after that, when transitioning from the driving scene of “low speed running” to the driving scene of “acceleration”, the condition for transitioning to the driving scene of “acceleration” is changed to “acceleration ≧ 4 m / sec 2 ” by hysteresis control. .

なお、ここでは、一次元のヒステリシス制御の場合(変更する条件(パラメータ)が一つの場合)を例示したが、多次元のヒステリシス制御が行われてよいことは言うまでもない。また、このヒステリシス制御では、パラメータ(第1の運転シーンへ遷移する条件)の変更のほかに、更なる条件を追加することによって、第1の運転シーンへ戻るのを困難にすることも可能である。   Here, the case of one-dimensional hysteresis control is exemplified (when the condition (parameter) to be changed is one), but it goes without saying that multidimensional hysteresis control may be performed. In addition, in this hysteresis control, it is possible to make it difficult to return to the first driving scene by adding additional conditions in addition to changing the parameters (conditions for transitioning to the first driving scene). is there.

以上のように構成された本実施の形態の運転シーン判定装置1について、図6のフロー図を参照してその動作を説明する。   The operation of the driving scene determination apparatus 1 of the present embodiment configured as described above will be described with reference to the flowchart of FIG.

本実施の形態の運転シーン判定装置1では、定期的に(例えば毎秒1回)運転シーンの判定が行われる。そして、運転シーンの判定が行われるときには、図6に示すように、まず、情報取得部2によって現在の車両情報と道路情報が取得される(S1、S2)。そして、現在の運転シーン判定の前処理として、前回の運転シーン判定で求めた運転シーン(車線変更など)が終了したか否かの判定を行い(S3)、その運転シーンが終了していた場合には、現在の運転シーン判定を開始する(S4)。   In the driving scene determination apparatus 1 according to the present embodiment, the driving scene is determined periodically (for example, once every second). When the driving scene is determined, as shown in FIG. 6, first, the current vehicle information and road information are acquired by the information acquisition unit 2 (S1, S2). Then, as preprocessing for current driving scene determination, it is determined whether or not the driving scene (lane change or the like) obtained in the previous driving scene determination has ended (S3), and the driving scene has ended The current driving scene determination is started (S4).

現在の運転シーン判定では、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンが判定される。すなわち、現在の車両情報および現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に(S5)、その運転シーンが現在の運転シーンであると判定される(S6)。   In the current driving scene determination, not only the driving scene correspondence information is used but also the transition availability information is used to determine the current driving scene from the current vehicle information and the current road information. That is, when the driving scene associated with the current vehicle information and the current road information can transition from the previous driving scene (S5), it is determined that the driving scene is the current driving scene (S6). ).

このような本発明の実施の形態の運転シーン判定装置1によれば、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができる。すなわち、現在の車両情報および現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、現在の運転シーンであると判定される。言い換えれば、現在の車両情報および現在の道路情報に対応付けられた運転シーンであっても、前の運転シーンから遷移可能でない場合には、現在の運転シーンでないと判定される。したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。   According to the driving scene determination apparatus 1 of the embodiment of the present invention as described above, not only the driving scene correspondence information is used but also the transition availability information is used, so that the current driving information is obtained from the current vehicle information and the current road information. The scene can be determined correctly. That is, when the driving scene associated with the current vehicle information and the current road information can be transitioned from the previous driving scene, it is determined that the current driving scene. In other words, even if the driving scene is associated with the current vehicle information and the current road information, if it is not possible to make a transition from the previous driving scene, it is determined that the current driving scene is not the current driving scene. Therefore, it is possible to suppress the erroneous determination of the driving scene and to increase the determination accuracy of the driving scene.

また、本実施の形態では、運転シーンごとに用意された複数の運転シーン対応情報の中から選択した運転シーン対応情報(現在の運転シーンに応じた運転シーン対応情報)を用いることによって、現在の運転シーンの判定を適切に行うことができる。   In the present embodiment, by using driving scene correspondence information (driving scene correspondence information corresponding to the current driving scene) selected from a plurality of driving scene correspondence information prepared for each driving scene, The driving scene can be properly determined.

この場合、運転シーンごとに用意された複数の運転シーン対応情報では、運転シーンに対応づけられる車両情報や道路情報が異なっているともいえる。そして、ある運転シーンの運転シーン対応情報と他の運転シーンの運転シーン対応情報とで異なるのは、相互に遷移できる運転シーンに対応づけられる車両情報や道路情報の設定値である。   In this case, it can be said that the vehicle information and road information associated with the driving scene are different in the plurality of driving scene correspondence information prepared for each driving scene. The difference between the driving scene correspondence information of a certain driving scene and the driving scene correspondence information of another driving scene is a set value of vehicle information and road information that are associated with driving scenes that can be changed to each other.

例えば、「安定走行」と「高速走行」とは相互に遷移できる運転シーンであるが、「安定走行」の運転シーンの運転シーン対応情報では、「高速走行」の運転シーンへ遷移するための車速の条件が「時速60km以上」に設定されるのに対して、「高速走行」の運転シーンの運転シーン対応情報では、「安定走行」の運転シーンへ遷移するための車速の条件が「時速50km以下」に設定される。これにより、時速60km近傍の車速で車両が走行している場合(時には時速61kmで走行し、時には時速59kmで走行するような場合)には、時速60kmを上回った時点(時速61kmになった時点)で運転シーンが「安定走行」から「高速走行」へ遷移した後は、時速60kmを少し下回った程度(時速59kmになった程度)では「高速走行」から「安定走行」へ運転シーンが遷移しない。このようにして、運転シーンの遷移が頻繁に発生するのを抑えることができる。   For example, “stable driving” and “high-speed driving” are driving scenes that can transition to each other. However, in the driving scene corresponding information of the driving scene of “stable driving”, the vehicle speed for changing to the driving scene of “high-speed driving” Is set to “60 km / h or more”, but in the driving scene corresponding information of the driving scene of “high speed driving”, the vehicle speed condition for transitioning to the driving scene of “stable driving” is “50 km / h Is set to “below”. As a result, when the vehicle is traveling at a vehicle speed in the vicinity of 60 km / h (sometimes when traveling at 61 km / h and sometimes at 59 km / h), when the vehicle speed exceeds 60 km / h (when it reaches 61 km / h) ) After the driving scene changes from “Stable driving” to “High speed driving”, the driving scene changes from “High speed driving” to “Stable driving” when the driving speed is slightly below 60 km / h (about 59 km / h). do not do. In this way, it is possible to suppress frequent occurrence of driving scene transitions.

また、本実施の形態では、「車線変更」または「右左折」の運転シーンに対応付けられる「舵角」の車両情報が、車両の「車速」に応じて適切に設定される。具体的には、「車速」が小さいほど「舵角」が大きくなり、「車速」が大きいほど「舵角」が小さくなるように設定される。したがって、「車線変更」または「右左折」の運転シーンの判定を、その車両の車速に応じて適切に行うことができる。   Further, in the present embodiment, the vehicle information of “steering angle” associated with the driving scene of “lane change” or “right / left turn” is appropriately set according to the “vehicle speed” of the vehicle. Specifically, the “steering angle” is set to increase as the “vehicle speed” decreases, and the “steering angle” decreases as the “vehicle speed” increases. Therefore, it is possible to appropriately determine the driving scene of “lane change” or “right / left turn” according to the vehicle speed of the vehicle.

また、本実施の形態では、現在の車両情報に基づいて、現在の運転シーンが終了したか否かが判定され、その運転シーンが終了したと判定されるまでは、前の運転シーンが継続しているとして現在の運転シーンの判定が行われる。したがって、前の運転シーンが終了しないうちは(前の運転シーンが継続しているときには)、車両情報や道路情報が別の運転シーンに対応するものであったとしても、その運転シーンが継続していると判定される。このようにして、運転シーンの継続中に他の運転シーンへ遷移するという誤判定を抑えることができる。   In the present embodiment, it is determined whether or not the current driving scene has ended based on the current vehicle information, and the previous driving scene continues until it is determined that the driving scene has ended. As a result, the current driving scene is determined. Therefore, as long as the previous driving scene does not end (when the previous driving scene continues), even if the vehicle information or road information corresponds to another driving scene, the driving scene continues. It is determined that In this way, it is possible to suppress an erroneous determination that a transition to another driving scene occurs while the driving scene continues.

この場合、「舵角」および「舵角変化率」に基づいて、「車線変更」の運転シーンが終了したか否かを適切に判定することができる。例えば、「舵角」が「正(左)→負(右)→正(左)→ゼロ(直進)」と変化し、かつ、「舵角変化率」の絶対値が「正(毎秒0°より大)→ゼロ(毎秒0°)」と変化した場合に、「左車線変更」の運転シーンが終了したと判定される。この場合、「舵角」および「舵角変化率」の車両情報が、車両の「車速」に応じて適切に設定される。具体的には、「車速」が小さいほど「舵角」が大きくなり、「車速」が大きいほど「舵角」が小さくなるように設定される。したがって、「車線変更」の運転シーンの終了判定を、その車両の車速に応じて適切に行うことができる。   In this case, based on the “steer angle” and the “steer angle change rate”, it can be appropriately determined whether or not the “lane change” driving scene has ended. For example, “steer angle” changes as “positive (left) → negative (right) → positive (left) → zero (straight)” and the absolute value of “steer angle change rate” is “positive (0 ° per second) Greater) → zero (0 ° per second) ”, it is determined that the“ left lane change ”driving scene has ended. In this case, the vehicle information of “steering angle” and “steering angle change rate” is appropriately set according to the “vehicle speed” of the vehicle. Specifically, the “steering angle” is set to increase as the “vehicle speed” decreases, and the “steering angle” decreases as the “vehicle speed” increases. Therefore, it is possible to appropriately determine whether or not to end the driving scene of “lane change” according to the vehicle speed of the vehicle.

また、本実施の形態では、第1の運転シーン(例えば「低速走行」の運転シーン)から第2の運転シーン(例えば「加速」の運転シーン)へシーン遷移した後に、第2の運転シーンから第1の運転シーンへ戻る場合には、第1の運転シーンと対応付けられている車両情報または道路情報(例えば「加速度」の情報)を変更するヒステリシス制御が行われ、第1の運転シーンへ戻りにくくなる。このようなヒステリシス制御によって、運転シーンの遷移が頻繁に発生するのを抑えることができる。   Further, in the present embodiment, after the scene transition from the first driving scene (for example, the driving scene of “low speed driving”) to the second driving scene (for example, the driving scene of “acceleration”), the second driving scene is started. When returning to the first driving scene, hysteresis control is performed to change vehicle information or road information (for example, “acceleration” information) associated with the first driving scene. It becomes difficult to return. Such hysteresis control makes it possible to suppress frequent occurrence of driving scene transitions.

(第2の実施の形態)
次に、本発明の第2の実施の形態のワークロード推定装置20について説明する。本実施の形態のワークロード推定装置20は、第1の実施の形態の運転シーン判定装置1にワークロード推定機能が付加された装置である。したがって、ここでは、第2の実施の形態のワークロード推定装置20が、第1の実施の形態の運転シーン判定装置1と相違する点を中心に説明する。ここで特に言及しない限り、本実施の形態の構成および動作は、第1の実施の形態と同様である。
(Second Embodiment)
Next, the workload estimation apparatus 20 according to the second embodiment of this invention will be described. The workload estimation device 20 according to the present embodiment is a device in which a workload estimation function is added to the driving scene determination device 1 according to the first embodiment. Therefore, here, the description will focus on the differences of the workload estimation device 20 of the second embodiment from the driving scene determination device 1 of the first embodiment. Unless otherwise specified, the configuration and operation of the present embodiment are the same as those of the first embodiment.

図7は、本実施の形態のワークロード推定装置20の構成を示すブロック図である。図7に示すように、ワークロード推定装置20は、第1の実施の形態の運転シーン判定装置1の構成に加えて、車両の運転に関連するワークロード値を算出するための定量化モデルが記憶されているモデルDB21(データベース)を備えている。定量化モデルは、ワークロードに寄与するユーザの寄与行動とワークロード値との相関関係が記録された正解データを用いて、車両運転中のユーザの寄与行動からワークロード値を算出するためのモデルである。なお、定量化モデルや正解データの詳しい内容については、図面を用いて後述する。   FIG. 7 is a block diagram illustrating a configuration of the workload estimation apparatus 20 according to the present embodiment. As shown in FIG. 7, the workload estimation device 20 includes a quantification model for calculating a workload value related to driving of the vehicle, in addition to the configuration of the driving scene determination device 1 of the first embodiment. A stored model DB 21 (database) is provided. The quantification model is a model for calculating the workload value from the user's contribution behavior while driving the vehicle using correct data in which the correlation between the contribution behavior of the user contributing to the workload and the workload value is recorded. It is. The detailed contents of the quantification model and the correct answer data will be described later with reference to the drawings.

このワークロード推定装置20の情報取得部2は、車両センサ7や車載カメラ8(視線カメラを含む)や生体センサ22から、車両運転中のユーザの寄与行動に関するデータを取得する機能も備えている。よって、この情報取得部2は、本発明のデータ取得部にも相当する。そして、ワークロード推定装置20は、定量化モデルを用いて、車両運転中のユーザの寄与行動のデータからユーザのワークロード値を推定するワークロード推定部23を備えている。   The information acquisition unit 2 of the workload estimation device 20 also has a function of acquiring data related to the user's contributing behavior while driving the vehicle from the vehicle sensor 7, the in-vehicle camera 8 (including the line-of-sight camera) and the biological sensor 22. . Therefore, this information acquisition part 2 is also corresponded to the data acquisition part of this invention. And the workload estimation apparatus 20 is provided with the workload estimation part 23 which estimates a user's workload value from the data of the user's contribution action while driving a vehicle using a quantification model.

(ワークロードの種類)
ここで、車両運転中のユーザのワークロードの種類と、そのワークロードの寄与データについて説明する。車両運転中のユーザのワークロードには、車両を運転するときのユーザの運転操作に起因する運転ワークロードが含まれる。例えば、情報取得部2は、運転ワークロードの寄与行動に関するデータ(例えば、車両運転中の舵角データ、車速データ、車間距離データ、アクセル開度率データ、ブレーキ信号データなど)を、車両センサ7から取得する。
(Workload type)
Here, the types of workload of the user who is driving the vehicle and the contribution data of the workload will be described. The user's workload while driving the vehicle includes a driving workload caused by the user's driving operation when driving the vehicle. For example, the information acquisition unit 2 uses data relating to driving workload contribution behavior (for example, steering angle data, vehicle speed data, inter-vehicle distance data, accelerator opening rate data, brake signal data, etc. during vehicle operation) as vehicle sensor 7. Get from.

また、車両運転中のユーザのワークロードには、車両に備えられた機器を操作するときのユーザの機器操作に起因する機器操作ワークロードが含まれる。情報取得部2は、機器操作ワークロードの寄与行動に関するデータ(例えば、車両運転中のナビ操作データ、オーディオ操作データ、エアコン操作データ、窓開閉操作データなど)を、車両センサ7から取得する。   Moreover, the user's workload during driving of the vehicle includes a device operation workload caused by the user's device operation when operating the device provided in the vehicle. The information acquisition unit 2 acquires data (for example, navigation operation data, audio operation data, air conditioner operation data, window opening / closing operation data, etc. during driving of the vehicle) from the vehicle sensor 7 regarding the contribution behavior of the device operation workload.

また、車両運転中のユーザのワークロードには、車両を運転するときのユーザの聴覚的動作に起因する聴覚的ワークロードが含まれている。情報取得部2は、聴覚的ワークロードの寄与行動に関するデータ(例えば、車両運転中の経路案内やオーディオ再生などに含まれる音声情報データや音楽情報データなど)を、車両センサ7から取得する。   In addition, the user's workload while driving the vehicle includes an auditory workload caused by the user's auditory motion when driving the vehicle. The information acquisition unit 2 acquires, from the vehicle sensor 7, data related to the auditory workload contribution behavior (for example, voice information data or music information data included in route guidance or audio reproduction while driving the vehicle).

また、車両運転中のユーザのワークロードには、車両を運転するときのユーザの視覚的動作に起因する視覚的ワークロードが含まれる。情報取得部2は、視覚的ワークロードの寄与行動に関するデータ(例えば、車両運転中のユーザの視点移動速度データや視点座標データなど)を、視線カメラ4から取得する。   In addition, the user's workload during driving of the vehicle includes a visual workload resulting from the user's visual motion when driving the vehicle. The information acquisition unit 2 acquires from the line-of-sight camera 4 data related to visual workload contribution behavior (for example, the viewpoint movement speed data and viewpoint coordinate data of the user who is driving the vehicle).

また、車両運転中のユーザのワークロードには、車両を運転するときのユーザの心理状態に起因する内因的ワークロードが含まれる。情報取得部2は、内因的ワークロードの寄与行動に関するデータ(例えば、車両運転中のユーザの心拍数データ、血圧データ、呼吸回数データなど)を、生体センサ22から取得する。   Further, the workload of the user who is driving the vehicle includes an intrinsic workload caused by the psychological state of the user when driving the vehicle. The information acquisition unit 2 acquires data (for example, heart rate data, blood pressure data, and respiratory rate data of a user who is driving the vehicle) from the biological sensor 22 regarding the contribution behavior of the intrinsic workload.

また、車両運転中のユーザのワークロードには、車両の運転シーンに起因する外因的ワークロードが含まれる。情報取得部2は、外因的ワークロードの寄与行動に関するデータ(例えば、現在の運転シーン)を、運転シーン判定部10から取得する。   Further, the workload of the user who is driving the vehicle includes an exogenous workload caused by the driving scene of the vehicle. The information acquisition unit 2 acquires data (for example, the current driving scene) regarding the contribution action of the extrinsic workload from the driving scene determination unit 10.

そして、ワークロード推定部23は、これらの複数のワークロード(運転ワークロード、機器操作ワークロード、聴覚的ワークロード、視覚的ワークロード、内因的ワークロード、外因的ワークロード)を要素として、車両運転中のユーザのワークロード値を推定する。具体的には、ワークロード推定部23は、モデルDB21に記憶されている定量化モデルを用いて、情報取得部2が取得した車両運転中のユーザの寄与行動のデータから、複数のワークロードごとのワークロード値を推定し、それらを要素として車両運転中のユーザのワークロード値を推定する。   The workload estimation unit 23 uses the plurality of workloads (driving workload, equipment operation workload, auditory workload, visual workload, intrinsic workload, extrinsic workload) as elements. Estimate the workload value of the user during operation. Specifically, the workload estimation unit 23 uses a quantification model stored in the model DB 21 to calculate each of a plurality of workloads from the data of the user's contribution behavior during vehicle driving acquired by the information acquisition unit 2. The workload value of the user who is driving the vehicle is estimated using them as elements.

(定量化モデルを用いたワークロードの推定)
ここで、本実施の形態の特徴であるワークロードの推定について、図面を用いて説明する。図8は、本実施の形態におけるワークロードの推定の一例を示す説明図である。ここでは、図8に示すように、定量化モデルの一つとして定式化モデルを用いて、複数のワークロードごとにワークロード値の推定を行う場合を例示して説明する。この定式化には、例えば、線形重回帰分析、主成分分析、因子分析などの統計的手法が用いられる。
(Estimation of workload using quantification model)
Here, estimation of a workload, which is a feature of the present embodiment, will be described with reference to the drawings. FIG. 8 is an explanatory diagram showing an example of workload estimation in the present embodiment. Here, as shown in FIG. 8, a case will be described in which a workload value is estimated for each of a plurality of workloads using a formulation model as one of the quantification models. For this formulation, for example, statistical methods such as linear multiple regression analysis, principal component analysis, and factor analysis are used.

図8に示すように、運転ワークロードに寄与するデータ(運転WL寄与データ)には、車両運転中の舵角d1(度)、車速d2(km/h)、車間距離d3(m)、アクセル開度率d4(%)、ブレーキ信号d5(ON:1、OFF:0)のデータが含まれる。これらのデータd1〜d5と正解データ(後述する)との関係を統計的手法などで導くことにより、下記の式1のように運転ワークロード(DWL)の定式化が行われる。
DWL=α(n)×d1/360+β(n)×d2/100+γ(n)/d3
+δ(n)×d4/100+ε×d5 (式1)
As shown in FIG. 8, the data contributing to the driving workload (driving WL contribution data) includes the steering angle d1 (degrees), the vehicle speed d2 (km / h), the inter-vehicle distance d3 (m), and the accelerator Data of the opening rate d4 (%) and the brake signal d5 (ON: 1, OFF: 0) are included. By formulating the relationship between these data d1 to d5 and correct answer data (described later) by a statistical method or the like, the driving workload (DWL) is formulated as shown in the following formula 1.
DWL = α (n) × d1 / 360 + β (n) × d2 / 100 + γ (n) / d3
+ Δ (n) × d4 / 100 + ε × d5 (Formula 1)

ここで、α、β、γ、δ、εは、重み付け係数であり、nは、ユーザの車両運転に関する慣れを考慮した慣れ係数である。この慣れ係数は、ユーザの走行履歴に基づいて定められる係数である。重み付け係数αを例示して説明すると、ユーザが初めて車両走行をした場合(n=1)の重み付け係数は、α(1)となり、ユーザが二度目に車両走行した場合(n=2)の重み付け係数は、α(2)となる。つまり、この定式化モデルは、ユーザの車両運転に関する慣れを考慮した重み付け処理がなされているともいえる。   Here, α, β, γ, δ, and ε are weighting coefficients, and n is a familiarity coefficient that takes into account the user's familiarity with respect to vehicle driving. This familiarity coefficient is a coefficient determined based on the user's travel history. The weighting coefficient α will be described as an example. The weighting coefficient when the user travels for the first time (n = 1) is α (1), and the weighting when the user travels the vehicle for the second time (n = 2). The coefficient is α (2). In other words, it can be said that this formulation model is weighted in consideration of the user's familiarity with vehicle driving.

また、機器操作ワークロードに寄与するデータ(機器操作WL寄与データ)には、車両運転中のナビ操作o1(ハードウェアボタン操作:A1、タッチパネル操作:A2など)、オーディオ操作o2(スキップボタン操作:A3、ボリューム操作:A4など)、エアコン操作o3(操作あり:1、操作なし:0)、窓開閉操作o4(操作あり:1、操作なし:0)のデータが含まれる。これらのデータo1〜o4と正解データとの関係を統計的手法などで導くことにより、下記の式2のように機器操作ワークロード(OWL)の定式化が行われる。
OWL=α(n)×o1+β(n)×o2
+γ(n)×o3+δ(n)×o4 (式2)
なお、A1〜A4は、それぞれ所定の定数である。また、α、β、γ、δは、重み付け係数であり、nは、ユーザの車両運転に関する慣れを考慮した慣れ係数である。
Further, data (device operation WL contribution data) contributing to the device operation workload includes navigation operation o1 (hardware button operation: A1, touch panel operation: A2, etc.) and audio operation o2 (skip button operation: A3, volume operation: A4, etc.), air conditioner operation o3 (with operation: 1, no operation: 0), and window opening / closing operation o4 (with operation: 1, no operation: 0) are included. By deriving the relationship between the data o1 to o4 and the correct data by a statistical method or the like, the equipment operation workload (OWL) is formulated as shown in the following Expression 2.
OWL = α (n) × o1 + β (n) × o2
+ Γ (n) × o3 + δ (n) × o4 (Formula 2)
A1 to A4 are respectively predetermined constants. In addition, α, β, γ, and δ are weighting coefficients, and n is a familiarity coefficient that takes into account the user's familiarity with respect to vehicle driving.

また、聴覚的ワークロードに寄与するデータ(聴覚的WL寄与データ)には、車両運転中の経路案内やオーディオ再生などに含まれる音声情報a1(経路案内:B1、施設情報案内:B2、電話:B3など)、音楽情報a2(クラシック:B4、ロック:B5、お気に入りの曲:B6など)のデータが含まれる。これらのデータa1、a2と正解データとの関係を統計的手法などで導くことにより、下記の式3のように聴覚的ワークロード(AWL)の定式化が行われる。
AWL=α(n)×a1+β(n)×a2 (式3)
なお、B1〜B6は、それぞれ所定の定数である。また、α、βは、重み付け係数であり、nは、ユーザの車両運転に関する慣れを考慮した慣れ係数である。
In addition, the audio information a1 (route guidance: B1, facility information guidance: B2, telephone: data included in route guidance and audio reproduction while driving the vehicle is included in the data contributing to the auditory workload (auditory WL contribution data). B3) and music information a2 (classic: B4, rock: B5, favorite song: B6, etc.). An auditory workload (AWL) is formulated as in the following Equation 3 by deriving the relationship between the data a1 and a2 and the correct data by a statistical method or the like.
AWL = α (n) × a1 + β (n) × a2 (Formula 3)
B1 to B6 are predetermined constants. In addition, α and β are weighting coefficients, and n is a familiarity coefficient in consideration of the user's familiarity with respect to vehicle driving.

また、視覚的ワークロードに寄与するデータ(視覚的WL寄与データ)には、車両運転中の視点移動速度v1(mm/秒)、視点座標v2(ルームミラー:C1、サイドミラー:C2、ナビ:C3など)のデータが含まれる。これらのデータv1、v2と正解データとの関係を統計的手法などで導くことにより、下記の式4のように視覚的ワークロード(VWL)の定式化が行われる。
VWL=α(n)×v1+β(n)×v2 (式4)
なお、C1〜C6は、それぞれ所定の定数である。また、α、βは、重み付け係数であり、nは、ユーザの車両運転に関する慣れを考慮した慣れ係数である。
The data contributing to the visual workload (visual WL contribution data) includes the viewpoint movement speed v1 (mm / second) during driving and the viewpoint coordinates v2 (room mirror: C1, side mirror: C2, navigation: Data such as C3). The visual workload (VWL) is formulated as shown in Equation 4 below by deriving the relationship between the data v1 and v2 and the correct answer data using a statistical method or the like.
VWL = α (n) × v1 + β (n) × v2 (Formula 4)
C1 to C6 are predetermined constants. In addition, α and β are weighting coefficients, and n is a familiarity coefficient in consideration of the user's familiarity with respect to vehicle driving.

また、内因的ワークロードに寄与するデータ(内因的WL寄与データ)には、車両運転中の心拍数i1(回/分)、血圧i2(mmHg)、呼吸回数i3(回/分)のデータが含まれる。これらのデータi1〜i3と正解データとの関係を統計的手法などで導くことにより、下記の式5のように内因的ワークロード(IWL)の定式化が行われる。
IWL=α(n)×i1+β(n)×i2+γ(n)×i3 (式5)
なお、α、β、γは、重み付け係数であり、nは、ユーザの車両運転に関する慣れを考慮した慣れ係数である。
The data contributing to the intrinsic workload (endogenous WL contribution data) includes data on the heart rate i1 (times / min), blood pressure i2 (mmHg), and respiratory rate i3 (times / min) while driving the vehicle. included. By deriving the relationship between the data i1 to i3 and the correct answer data by a statistical method or the like, the intrinsic workload (IWL) is formulated as in the following Expression 5.
IWL = α (n) × i1 + β (n) × i2 + γ (n) × i3 (Formula 5)
Α, β, and γ are weighting factors, and n is a familiarity factor that takes into account the user's familiarity with driving the vehicle.

また、外因的ワークロードに寄与するデータ(外因的WL寄与データ)には、現在の運転シーンのデータが含まれる。これらのデータs1と正解データとの関係を統計的手法などで導くことにより、下記の式6のように外因的ワークロード(SWL)の定式化が行われる。
SWL=α(n)×f(s1) (式6)
なお、fは、運転シーンを数値化する関数(入力値である運転シーンごとに所定の出力値が設定されていてもよい)であり、αは、重み付け係数であり、nは、ユーザの車両運転に関する慣れを考慮した慣れ係数である。
Further, the data contributing to the exogenous workload (exogenous WL contribution data) includes data of the current driving scene. By deriving the relationship between the data s1 and the correct answer data by a statistical method or the like, the exogenous workload (SWL) is formulated as shown in Equation 6 below.
SWL = α (n) × f (s1) (Formula 6)
Note that f is a function for digitizing the driving scene (a predetermined output value may be set for each driving scene that is an input value), α is a weighting coefficient, and n is the user's vehicle. This is a habituation coefficient that takes into account driving habituation.

以上では、定式化モデルを用いたワークロードの推定の例について説明したが、本発明の範囲は、これに限定されるものではない。例えば、図9に示すように、ワークロードの推定には、確率推論モデルが用いられてもよい。   In the foregoing, an example of workload estimation using a formulation model has been described, but the scope of the present invention is not limited to this. For example, as shown in FIG. 9, a probabilistic inference model may be used for estimating the workload.

確率推論モデルとしては、例えば、ベイジアンネットワークやニューラルネットワーク等が用いられる。運転シーンのデータは、各ワークロード値を推定するときに用いられてもよい。例えば、運転ワークロードを例示して具体的に説明すると、運転ワークロードに寄与するデータ(運転WL寄与データ)である舵角d1(度)、車速d2(km/h)、車間距離d3(m)、アクセル開度率d4(%)、ブレーキ信号d5(ON:1、OFF:0)、運転シーンd6のデータを入力として、ベイジアンネットワークやニューラルネットワークの確率モデルを構築し、その推論結果として運転ワークロード(DWL)のワークロード値の推定が行われる。   As the probability inference model, for example, a Bayesian network or a neural network is used. The driving scene data may be used when estimating each workload value. For example, the driving workload will be described in detail, and the steering angle d1 (degrees), the vehicle speed d2 (km / h), and the inter-vehicle distance d3 (m) are data that contribute to the driving workload (driving WL contribution data). ), Accelerator opening rate d4 (%), brake signal d5 (ON: 1, OFF: 0) and driving scene d6 data are input, and a Bayesian network or neural network probability model is constructed, and driving is performed as the inference result. The workload value of the workload (DWL) is estimated.

同様に、機器操作ワークロードについては、上述の機器操作WL寄与データ(o1〜o4)および運転シーンのデータo5を入力として、ベイジアンネットワークやニューラルネットワークの確率モデルを構築し、その推論結果として機器操作ワークロード(OWL)のワークロード値の推定が行われる。   Similarly, with respect to the device operation workload, the above-described device operation WL contribution data (o1 to o4) and the operation scene data o5 are input, and a Bayesian network or neural network probability model is constructed, and the inference result is the device operation. The workload value of the workload (OWL) is estimated.

また、聴覚的ワークロードについては、上述の聴覚的WL寄与データ(a1、a2)および運転シーンのデータa3を入力として、ベイジアンネットワークやニューラルネットワークの確率モデルを構築し、その推論結果として聴覚的ワークロード(AWL)のワークロード値の推定が行われる。   As for the auditory workload, the above-mentioned auditory WL contribution data (a1, a2) and driving scene data a3 are input, and a probability model of a Bayesian network or a neural network is constructed, and the inference result is an auditory work. The workload value of the load (AWL) is estimated.

また、視覚的ワークロードについては、上述の視覚的WL寄与データ(v1、v2)および運転シーンのデータv3を入力として、ベイジアンネットワークやニューラルネットワークの確率モデルを構築し、その推論結果として視覚的ワークロード(VWL)のワークロード値の推定が行われる。   As for visual workload, the above-mentioned visual WL contribution data (v1, v2) and driving scene data v3 are input, and a probability model of a Bayesian network or a neural network is constructed. The workload value of the load (VWL) is estimated.

また、内因的ワークロードについては、上述の内因的WL寄与データ(i1〜i3)および運転シーンのデータi4を入力として、ベイジアンネットワークやニューラルネットワークの確率モデルを構築し、その推論結果として内因的ワークロード(IWL)のワークロード値の推定が行われる。   As for the intrinsic workload, the above-described intrinsic WL contribution data (i1 to i3) and driving scene data i4 are input, and a probability model of a Bayesian network or a neural network is constructed, and the inference work results as the intrinsic work. The workload value of the load (IWL) is estimated.

なお、定量化モデル(定式化モデルや確率推論モデル)を構築する際には、正解データを利用するとともに、ユーザのプロフィール(年齢、性別、運転暦)などを考慮してもよい。   In constructing a quantification model (formulation model or probabilistic reasoning model), correct data may be used and a user's profile (age, gender, driving calendar), etc. may be taken into consideration.

(正解データ)
つぎに、定量化モデルの構築に用いられる正解データについて説明する。本実施の形態では、二種類の正解データ(生体信号指標と主観評価指標)を利用して、定量化モデルの構築が行われる。なお、定量化モデルの構築は、各ワークロードのモデル化(定量化)ということもできる。
(Correct data)
Next, correct data used to construct a quantification model will be described. In the present embodiment, a quantification model is constructed using two types of correct answer data (biological signal index and subjective evaluation index). Note that the construction of a quantification model can also be referred to as modeling (quantification) of each workload.

ここでは、生体信号指標として、瞳孔反応を例示して説明するが、本発明の範囲はこれに限定されない。本発明の生体信号指標には、瞳孔反応のほかに、心拍数変動、呼吸数変動、生体電位変動などが含まれる。   Here, a pupil reaction is described as an example of a biological signal index, but the scope of the present invention is not limited to this. The biological signal index of the present invention includes heart rate fluctuation, respiratory rate fluctuation, bioelectric potential fluctuation and the like in addition to pupil reaction.

一般に、瞳孔が散瞳(瞳孔半径が大きくなる)している場合には、交感神経が刺激され、ユーザは興奮している。逆に、瞳孔が縮瞳(瞳孔半径が小さくなる)している場合には、副交感神経が刺激され、ユーザはリラックスしている。そして、瞳孔反応(瞳孔半径変化速度)が大きいほど、ユーザに加わるワークロードは高く、瞳孔反応が小さいほど、ユーザに加わるワークロードは低い。   In general, when the pupil is mydriatic (the pupil radius increases), the sympathetic nerve is stimulated and the user is excited. Conversely, when the pupil is miotic (the pupil radius is small), the parasympathetic nerve is stimulated and the user is relaxed. The larger the pupil response (pupil radius change rate), the higher the workload applied to the user, and the lower the pupil response, the lower the workload applied to the user.

本実施の形態では、所定の実験コースをユーザが走行したときの車両運転中のユーザの瞳孔反応の時系列のデータを取得し、車両の運転との対応を解析する。例えば、出発時には、瞳孔反応が小さく、左折や右折、すれ違いや追越しなどを行うときに、瞳孔反応が大きくなっている。このような瞳孔反応の正解データから、各ワークロードの寄与行動を行っている部分を抽出して、その部分の瞳孔反応の大きさや変化率等に基づいて、各ワークロードの定式化が行われる。   In the present embodiment, time series data of the user's pupil reaction during driving of the vehicle when the user runs on a predetermined experimental course is acquired, and the correspondence with driving of the vehicle is analyzed. For example, the pupil response is small at the time of departure, and the pupil response is large when performing a left turn, right turn, passing or overtaking, and the like. From this correct data of pupil response, the part that contributes to each workload is extracted, and each workload is formulated based on the magnitude and rate of change of the pupil response of that part. .

ここで、運転ワークロードの定式化を例にして説明する。例えば、瞳孔反応の正解データから、運転ワークロードの寄与行動を行っている部分(例えば右折の部分)を抽出して、そのときの運転WL寄与データ(舵角信号、車速、車間距離、アクセル開度率、ブレーキ信号のデータ)との関係を統計的手法で導いて、運転ワークロードの定式化が行われる。つまり、この瞳孔反応の正解データに基づいて、運転WL寄与データから運転ワークロードのワークロード値を算出するための定式化モデル(上記の式1)が求められる。   Here, the formulation of the operation workload will be described as an example. For example, from the correct data of the pupil reaction, the part that contributes to the driving workload (for example, the part of the right turn) is extracted, and the driving WL contribution data (steering angle signal, vehicle speed, inter-vehicle distance, accelerator opening) at that time is extracted. The driving workload is formulated by using statistical methods to derive the relationship with the frequency and brake signal data). That is, based on the correct answer data of the pupil reaction, a formulation model (the above formula 1) for calculating the workload value of the driving workload from the driving WL contribution data is obtained.

以上、瞳孔反応の正解データから運転ワークロードの定式化を行う例について説明した。なお、ここでは説明を省略するが、これと同様にして、機器操作ワークロード、聴覚的ワークロード、視覚的ワークロード、内因的ワークロードの定式化が行われる。   In the above, the example which formulates driving | running | working workload from the correct data of the pupil reaction was demonstrated. Although explanation is omitted here, in the same way, the equipment operation workload, the auditory workload, the visual workload, and the intrinsic workload are formulated.

つぎに、主観評価指標の正解データについて説明する。ここでは、主観評価指標として、従前のNASA−TLXを例示して説明するが、本発明の範囲はこれに限定されない。例えば、従前のNASA−TLXの代わりに、映像を見ながら事後的にPC上で主観評価を行う連続的なNASA−TLX(時系列のNASA−TLX)を用いてもよい。本発明の主観評価指標には、NASA−TLXのほかに、SWAT、MCHなどが含まれる。   Next, correct answer data of the subjective evaluation index will be described. Here, the conventional NASA-TLX will be described as an example of the subjective evaluation index, but the scope of the present invention is not limited to this. For example, instead of the conventional NASA-TLX, a continuous NASA-TLX (time series NASA-TLX) in which subjective evaluation is performed on a PC while watching a video may be used. The subjective evaluation index of the present invention includes SWAT, MCH and the like in addition to NASA-TLX.

NASA−TLXは、ワークロードをユーザが主観的に定量化する指標であり、一般に、その値が大きいほど、ユーザのワークロードが高く、その値が小さいほど、ユーザのワークロードは低い。   NASA-TLX is an index by which a user subjectively quantifies a workload. Generally, the larger the value, the higher the user's workload, and the smaller the value, the lower the user's workload.

本実施の形態では、所定の実験コースをユーザが走行したときの車両運転中のユーザのNASA−TLXの時系列のデータを取得し、車両の運転との対応を解析する。例えば、出発時や左折時や右折時に、NASA−TLXの値が大きく、直進時に、NASA−TLXの値が小さくなっている。このようなNASA−TLXの正解データから、各ワークロードの寄与行動を行っている部分を抽出して、その部分のNASA−TLXの値の大きさや変化率等に基づいて、各ワークロードの定式化が行われる。   In the present embodiment, time series data of the NASA-TLX of the user who is driving the vehicle when the user runs on a predetermined experimental course is acquired, and the correspondence with the driving of the vehicle is analyzed. For example, the value of NASA-TLX is large at the time of departure, left turn, or right turn, and the value of NASA-TLX is small when going straight. From such NASA-TLX correct answer data, a portion that contributes to each workload is extracted, and based on the size, rate of change, etc. of the NASA-TLX of that portion, a formula for each workload is extracted. Is done.

ここで、運転ワークロードの定式化を例にして説明する。例えば、NASA−TLXの正解データから、運転ワークロードの寄与行動を行っている部分(例えば右折の部分)を抽出して、そのときの運転WL寄与データ(舵角信号、車速、車間距離、アクセル開度率、ブレーキ信号のデータ)との関係を統計的手法で導いて、運転ワークロードの定式化が行われる。つまり、このNASA−TLXの正解データに基づいて、運転WL寄与データから運転ワークロードのワークロード値を算出するための定式化モデル(上記の式1)が求められる。   Here, the formulation of the operation workload will be described as an example. For example, from the correct answer data of NASA-TLX, a portion (for example, a right turn portion) performing a driving workload contribution action is extracted, and driving WL contribution data (steering angle signal, vehicle speed, inter-vehicle distance, accelerator) at that time is extracted. The operational workload is formulated by using statistical methods to derive the relationship between the opening rate and brake signal data). That is, based on the NASA-TLX correct answer data, a formulation model (the above formula 1) for calculating the workload value of the driving workload from the driving WL contribution data is obtained.

以上、NASA−TLXの正解データから運転ワークロードの定式化を行う例について説明した。なお、ここでは説明を省略するが、これと同様にして、機器操作ワークロード、聴覚的ワークロード、視覚的ワークロード、内因的ワークロードの定式化が行われる。   In the above, the example which formulates a driving | working workload from the correct data of NASA-TLX was demonstrated. Although explanation is omitted here, in the same way, the equipment operation workload, the auditory workload, the visual workload, and the intrinsic workload are formulated.

以上のように構成されたワークロード推定装置20について、図10のフロー図を用いてその動作を説明する。   About the workload estimation apparatus 20 comprised as mentioned above, the operation | movement is demonstrated using the flowchart of FIG.

本実施の形態のワークロード推定装置20では、現在の運転シーンの判定を行い、その現在の運転シーンを利用してワークロードの推定が行われる。すなわち、第1の実施の形態と同様に、まず、情報取得部2によって現在の車両情報と道路情報が取得される(S1、S2)。そして、現在の運転シーン判定の前処理として、前回の運転シーン判定で求めた運転シーン(車線変更など)が終了したか否かの判定を行い(S3)、その運転シーンが終了していた場合には、現在の運転シーン判定を開始する(S4)。   In the workload estimation device 20 of the present embodiment, the current driving scene is determined, and the workload is estimated using the current driving scene. That is, as in the first embodiment, first, the current vehicle information and road information are acquired by the information acquisition unit 2 (S1, S2). Then, as preprocessing for current driving scene determination, it is determined whether or not the driving scene (lane change or the like) obtained in the previous driving scene determination has ended (S3), and the driving scene has ended The current driving scene determination is started (S4).

現在の運転シーン判定では、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンが判定される。すなわち、現在の車両情報および現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に(S5)、その運転シーンが現在の運転シーンであると判定される(S6)。そして、この現在の運転シーンを用いてワークロードの推定が行われる(S7)。   In the current driving scene determination, not only the driving scene correspondence information is used but also the transition availability information is used to determine the current driving scene from the current vehicle information and the current road information. That is, when the driving scene associated with the current vehicle information and the current road information can transition from the previous driving scene (S5), it is determined that the driving scene is the current driving scene (S6). ). The workload is estimated using the current driving scene (S7).

このような本発明の第2の実施の形態の運転シーン判定装置1によっても、第1の実施の形態と同様の作用効果が奏される。   Also by the driving scene determination apparatus 1 of the second embodiment of the present invention, the same operational effects as the first embodiment are exhibited.

すなわち、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができ、したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。   That is, not only using the driving scene correspondence information but also using the transition availability information, it is possible to correctly determine the current driving scene from the current vehicle information and the current road information, and thus erroneous determination of the driving scene is possible. Generation | occurrence | production can be suppressed and the determination precision of a driving scene can be improved.

その上、本実施の形態では、このように判定された現在の運転シーンに基づいて、車両運転中のユーザのワークロード値を定量化モデルを用いて高精度で推定することができる。   Moreover, in the present embodiment, based on the current driving scene determined in this way, the workload value of the user during vehicle driving can be estimated with high accuracy using a quantification model.

(第3の実施の形態)
次に、本発明の第3の実施の形態のサービス提供装置30について説明する。本実施の形態のサービス提供装置30は、第1の実施の形態の運転シーン判定装置1にサービス提供機能が付加された装置である。したがって、ここでは、第3の実施の形態のサービス提供装置30が、第1の実施の形態の運転シーン判定装置1と相違する点を中心に説明する。ここで特に言及しない限り、本実施の形態の構成および動作は、第1の実施の形態と同様である。
(Third embodiment)
Next, the service providing apparatus 30 according to the third embodiment of this invention will be described. The service providing apparatus 30 according to the present embodiment is an apparatus in which a service providing function is added to the driving scene determination apparatus 1 according to the first embodiment. Therefore, here, the service providing device 30 according to the third embodiment will be described focusing on differences from the driving scene determination device 1 according to the first embodiment. Unless otherwise specified, the configuration and operation of the present embodiment are the same as those of the first embodiment.

図11は、本実施の形態におけるサービス提供装置30の構成を示すブロック図である。図11に示すように、ワークロード推定装置20は、第1の実施の形態の運転シーン判定装置1の構成に加えて、現在の運転シーンに応じたサービスを提供するサービス提供部31を備えている。   FIG. 11 is a block diagram showing a configuration of service providing apparatus 30 in the present embodiment. As shown in FIG. 11, the workload estimation device 20 includes a service providing unit 31 that provides a service according to the current driving scene, in addition to the configuration of the driving scene determination device 1 of the first embodiment. Yes.

例えば、このサービス提供部31は、現在の運転シーンに応じたサービスとして、ドライバーや同乗者に対して、運転シーン名を通知(画面への表示、音声での読み上げなど)するサービスを実行する。このような運転シーン名の通知サービスは、ネットワーク経由で社外の人に対して実行してもよい。また、このサービス提供部31は、各運転シーンに割り当てられたサービスを実行してもよい。例えば、特定のシーン(例えば、右左折や車線変更など)で、オーディオのボリュームを下げるサービスや、警告音を鳴らすサービスなどを実行してもよい。   For example, the service providing unit 31 executes a service for notifying a driver or a passenger of a driving scene name (displaying on a screen, reading out by voice, etc.) as a service corresponding to the current driving scene. Such a driving scene name notification service may be executed to a person outside the company via a network. Moreover, this service provision part 31 may perform the service allocated to each driving scene. For example, in a specific scene (for example, turning right or left or changing lanes), a service for lowering the volume of audio or a service for sounding a warning sound may be executed.

このような本発明の第3の実施の形態のサービス提供装置によっても、第1の実施の形態と同様の作用効果が奏される。   Such a service providing apparatus according to the third embodiment of the present invention also provides the same operational effects as those of the first embodiment.

すなわち、運転シーン対応情報を用いるだけでなく、遷移可否情報を用いることによって、現在の車両情報および現在の道路情報から現在の運転シーンを正しく判定することができ、したがって、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができる。   That is, not only using the driving scene correspondence information but also using the transition availability information, it is possible to correctly determine the current driving scene from the current vehicle information and the current road information, and thus erroneous determination of the driving scene is possible. Generation | occurrence | production can be suppressed and the determination precision of a driving scene can be improved.

その上、本実施の形態では、このように判定された現在の運転シーンに基づいて、適切にサービスを提供することができる。   Moreover, in the present embodiment, services can be appropriately provided based on the current driving scene determined in this way.

以上、本発明の実施の形態を例示により説明したが、本発明の範囲はこれらに限定されるものではなく、請求項に記載された範囲内において目的に応じて変更・変形することが可能である。   The embodiments of the present invention have been described above by way of example, but the scope of the present invention is not limited to these embodiments, and can be changed or modified according to the purpose within the scope of the claims. is there.

以上のように、本発明にかかる運転シーン判定装置は、運転シーンの誤判定が発生するのを抑え、運転シーンの判定精度を高めることができるという効果を有し、例えばカーナビゲーション装置等に適用され、有用である。   As described above, the driving scene determination device according to the present invention has an effect that it can suppress the erroneous determination of the driving scene and can increase the determination accuracy of the driving scene, and is applied to, for example, a car navigation device or the like. Is useful.

1 運転シーン判定装置
2 情報取得部
3 制御部
4 車両情報取得部
5 道路情報取得部
6 GPS装置
7 車両センサ
8 車載カメラ
9 道路情報DB
10 運転シーン判定部
11 運転シーンDB
12 遷移可否DB
13 シーン終了判定部
20 ワークロード推定装置
21 モデルDB
22 生体センサ
23 ワークロード推定部
30 サービス提供装置
DESCRIPTION OF SYMBOLS 1 Driving scene determination apparatus 2 Information acquisition part 3 Control part 4 Vehicle information acquisition part 5 Road information acquisition part 6 GPS apparatus 7 Vehicle sensor 8 Car-mounted camera 9 Road information DB
10 Driving Scene Judgment Unit 11 Driving Scene DB
12 Transition availability DB
13 Scene end determination unit 20 Workload estimation device 21 Model DB
22 Biosensor 23 Workload Estimation Unit 30 Service Providing Device

Claims (11)

ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報を記憶する運転シーン記憶部と、
複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報を記憶するシーン遷移可否記憶部と、
現在の車両情報および現在の道路情報を取得する情報取得手段と、
前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定する運転シーン判定手段と、
を備え、
前記運転シーン判定手段は、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定することを特徴とする運転シーン判定装置。
A driving scene storage unit that stores driving scene correspondence information in which a driving scene of the vehicle is associated with vehicle information about a vehicle that the user is driving and road information about a road on which the vehicle is passing;
For a plurality of the driving scenes, a scene transition possibility storage unit that stores transition possibility information indicating whether or not a scene transition from one driving scene to another driving scene is possible;
Information acquisition means for acquiring current vehicle information and current road information;
Driving scene determination means for determining a current driving scene from the current vehicle information and the current road information based on the driving scene correspondence information and the transition availability information;
With
The driving scene determination means determines that the current driving scene is the current driving scene when the driving scene associated with the current vehicle information and the current road information can transition from the previous driving scene. A driving scene determination device as a feature.
前記運転シーン記憶部は、前記現在の運転シーンごとに用意された複数の前記運転シーン対応情報を記憶し、
前記運転シーン判定手段は、前記複数の運転シーン対応情報の中から前記現在の運転シーンに応じた運転シーン対応情報を選択して、前記現在の運転シーンの判定に用いる、請求項1に記載の運転シーン判定装置。
The driving scene storage unit stores a plurality of driving scene correspondence information prepared for each of the current driving scenes,
2. The driving scene determination unit according to claim 1, wherein the driving scene determination unit selects driving scene corresponding information corresponding to the current driving scene from the plurality of driving scene corresponding information, and uses the driving scene corresponding information for determination of the current driving scene. Driving scene determination device.
前記運転シーンには、車線変更または右左折が含まれており、
前記車線変更または右左折に対応付けられる前記車両情報には、舵角が含まれており、
前記舵角の設定値は、前記車両の車速が小さいほど大きく、前記車両の車速が大きいほど小さい、請求項1または請求項2に記載の運転シーン判定装置。
The driving scene includes a lane change or a left / right turn,
The vehicle information associated with the lane change or the left / right turn includes a steering angle,
The driving scene determination device according to claim 1 or 2, wherein the set value of the rudder angle increases as the vehicle speed of the vehicle decreases and decreases as the vehicle speed of the vehicle increases.
前記現在の車両情報に基づいて、前記現在の運転シーンが終了したか否かを判定するシーン終了判定手段を備え、
前記運転シーン判定手段は、前記現在の運転シーンが終了したと判定されるまで、前の運転シーンが継続しているとして前記現在の運転シーンの判定を行う、請求項1〜請求項3のいずれかに記載の運転シーン判定装置。
A scene end determination means for determining whether or not the current driving scene is ended based on the current vehicle information;
4. The driving scene determination unit according to claim 1, wherein the driving scene determination unit determines the current driving scene as a previous driving scene is continued until it is determined that the current driving scene has ended. The driving scene determination device according to claim 1.
前記シーン終了判定手段は、前記車両情報に含まれる舵角および舵角変化率に基づいて、車線変更の運転シーンが終了したか否かを判定し、
前記舵角および前記舵角変化率の設定値は、前記車両の車速が小さいほど大きく、前記車両の車速が大きいほど小さい、請求項4に記載の運転シーン判定装置。
The scene end determination means determines whether or not the lane change driving scene has ended based on the rudder angle and rudder angle change rate included in the vehicle information,
5. The driving scene determination device according to claim 4, wherein the setting values of the rudder angle and the rudder angle change rate increase as the vehicle speed of the vehicle decreases and decrease as the vehicle speed of the vehicle increases.
前記運転シーン判定手段は、第1の運転シーンから第2の運転シーンへシーン遷移した後に前記第2の運転シーンから前記第1の運転シーンへ戻る場合に、前記第1の運転シーンと対応付けられている前記車両情報または前記道路情報を変更して、前記第1の運転シーンへ戻るのを困難にするヒステリシス制御を行う、請求項1〜請求項5のいずれかに記載の運転シーン判定装置。   The driving scene determination means associates with the first driving scene when returning from the second driving scene to the first driving scene after a scene transition from the first driving scene to the second driving scene. 6. The driving scene determination device according to claim 1, wherein hysteresis control is performed to change the vehicle information or the road information being used to make it difficult to return to the first driving scene. . メモリに記憶されている、
ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報と、
複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報と、
を用いて、
コンピュータに、
現在の車両情報および現在の道路情報を取得する処理と、
前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定する処理と、
を実行させるプログラムにおいて、
前記運転シーンの判定は、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定することを特徴とする運転シーン判定プログラム。
Stored in memory,
Driving scene correspondence information in which the driving scene of the vehicle is associated with the vehicle information regarding the vehicle the user is driving and the road information regarding the road on which the vehicle is passing;
About the plurality of driving scenes, transition availability information indicating whether or not a scene transition from one driving scene to another driving scene,
Using,
On the computer,
Processing to obtain current vehicle information and current road information;
A process of determining a current driving scene from the current vehicle information and the current road information based on the driving scene correspondence information and the transition availability information;
In a program that executes
In the determination of the driving scene, when the driving scene associated with the current vehicle information and the current road information can be changed from the previous driving scene, it is determined that the driving scene is the current driving scene. Characteristic driving scene determination program.
ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報を記憶する運転シーン記憶部と、
複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報を記憶するシーン遷移可否記憶部と、
現在の車両情報および現在の道路情報を取得する情報取得手段と、
前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定する手段であって、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定する運転シーン判定手段と、
前記車両の運転に関連するワークロードに寄与するユーザの寄与行動と前記ワークロードの高低の度合いを表すワークロード値との相関関係が記録された正解データに基づいて、車両運転中のユーザの寄与行動から前記ワークロード値を算出するための定量化モデルが記憶されているモデル記憶手段と、
車両運転中のユーザから前記寄与行動に関するデータを取得するデータ取得手段と、
前記定量化モデルを用いて、前記車両運転中のユーザの寄与行動のデータから前記ユーザのワークロード値を推定するワークロード推定手段と、
を備え、
前記車両の運転に関連するワークロードは、
前記車両を運転するときの前記ユーザの運転操作に起因する運転ワークロード、前記車両に備えられた機器を操作するときの前記ユーザの機器操作に起因する機器操作ワークロード、前記車両を運転するときの前記ユーザの聴覚的動作に起因する聴覚的ワークロード、前記車両を運転するときの前記ユーザの視覚的動作に起因する視覚的ワークロード、前記車両を運転するときの前記ユーザの心理状態に起因する内因的ワークロード、前記車両の運転シーンに起因する外因的ワークロード、のいずれかを含み、
前記ワークロード推定手段は、前記車両運転中のユーザの寄与行動として、前記運転シーン判定手段によって判定された前記現在の運転シーンを用いることを特徴とするワークロード推定装置。
A driving scene storage unit that stores driving scene correspondence information in which a driving scene of the vehicle is associated with vehicle information about a vehicle that the user is driving and road information about a road on which the vehicle is passing;
For a plurality of the driving scenes, a scene transition possibility storage unit that stores transition possibility information indicating whether or not a scene transition from one driving scene to another driving scene is possible;
Information acquisition means for acquiring current vehicle information and current road information;
A means for determining a current driving scene from the current vehicle information and the current road information based on the driving scene correspondence information and the transition availability information, the current vehicle information and the current road information Driving scene determination means for determining that the current driving scene is the current driving scene when the associated driving scene is transitionable from the previous driving scene;
The contribution of the user while driving the vehicle based on the correct data in which the correlation between the contribution behavior of the user contributing to the workload related to the driving of the vehicle and the workload value indicating the level of the workload is recorded. Model storage means for storing a quantification model for calculating the workload value from an action;
Data acquisition means for acquiring data related to the contributing behavior from a user who is driving the vehicle;
Using the quantification model, workload estimation means for estimating the user's workload value from data of the user's contribution behavior while driving the vehicle,
With
The workload associated with driving the vehicle is:
Driving workload due to the user's driving operation when driving the vehicle, device operation workload due to the user's device operation when operating the device provided in the vehicle, driving the vehicle Due to the auditory workload due to the user's auditory movement, due to the visual workload due to the user's visual movement when driving the vehicle, due to the user's psychological state when driving the vehicle Including an intrinsic workload, an extrinsic workload resulting from the driving scene of the vehicle,
The workload estimation unit uses the current driving scene determined by the driving scene determination unit as the user's contributing behavior while driving the vehicle.
メモリに記憶されている、
ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報と、
複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報と、
前記車両の運転に関連するワークロードに寄与するユーザの寄与行動と前記ワークロードの高低の度合いを表すワークロード値との相関関係が記録された正解データに基づいて、車両運転中のユーザの寄与行動から前記ワークロード値を算出するための定量化モデルと、
を用いて、
コンピュータに、
現在の車両情報および現在の道路情報を取得する処理と、
前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定するときに、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定する処理と、
車両運転中のユーザから前記寄与行動に関するデータを取得する処理と、
前記定量化モデルを用いて、前記車両運転中のユーザの寄与行動のデータから前記ユーザのワークロード値を推定する処理と、
を実行させるプログラムにおいて、
前記車両の運転に関連するワークロードは、
前記車両を運転するときの前記ユーザの運転操作に起因する運転ワークロード、前記車両に備えられた機器を操作するときの前記ユーザの機器操作に起因する機器操作ワークロード、前記車両を運転するときの前記ユーザの聴覚的動作に起因する聴覚的ワークロード、前記車両を運転するときの前記ユーザの視覚的動作に起因する視覚的ワークロード、前記車両を運転するときの前記ユーザの心理状態に起因する内因的ワークロード、前記車両の運転シーンに起因する外因的ワークロード、のいずれかを含み、
前記ワークロード値の推定では、前記車両運転中のユーザの寄与行動として、前記判定する処理によって得られた前記現在の運転シーンを用いることを特徴とするワークロード推定プログラム。
Stored in memory,
Driving scene correspondence information in which the driving scene of the vehicle is associated with the vehicle information regarding the vehicle the user is driving and the road information regarding the road on which the vehicle is passing;
About the plurality of driving scenes, transition availability information indicating whether or not a scene transition from one driving scene to another driving scene,
The contribution of the user while driving the vehicle based on the correct data in which the correlation between the contribution behavior of the user contributing to the workload related to the driving of the vehicle and the workload value indicating the level of the workload is recorded. A quantification model for calculating the workload value from an action;
Using,
On the computer,
Processing to obtain current vehicle information and current road information;
When determining the current driving scene from the current vehicle information and the current road information based on the driving scene correspondence information and the transition availability information, the current vehicle information and the current road information are associated with each other. A process of determining that the current driving scene is the current driving scene when the given driving scene can transition from the previous driving scene;
Processing for obtaining data related to the contributing behavior from a user driving the vehicle;
Using the quantification model, a process of estimating the user workload value from data of the user's contribution behavior while driving the vehicle;
In a program that executes
The workload associated with driving the vehicle is:
Driving workload due to the user's driving operation when driving the vehicle, device operation workload due to the user's device operation when operating the device provided in the vehicle, driving the vehicle Due to the auditory workload due to the user's auditory movement, due to the visual workload due to the user's visual movement when driving the vehicle, due to the user's psychological state when driving the vehicle Including an intrinsic workload, an extrinsic workload resulting from the driving scene of the vehicle,
In the estimation of the workload value, the current driving scene obtained by the determination process is used as the user's contributing behavior while driving the vehicle.
ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報を記憶する運転シーン記憶部と、
複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報を記憶するシーン遷移可否記憶部と、
現在の車両情報および現在の道路情報を取得する情報取得手段と、
前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定する手段であって、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定する運転シーン判定手段と、
判定された前記現在の運転シーンに応じたサービスを提供するサービス提供手段と、
を備えたことを特徴とするサービス提供装置。
A driving scene storage unit that stores driving scene correspondence information in which a driving scene of the vehicle is associated with vehicle information about a vehicle that the user is driving and road information about a road on which the vehicle is passing;
For a plurality of the driving scenes, a scene transition possibility storage unit that stores transition possibility information indicating whether or not a scene transition from one driving scene to another driving scene is possible;
Information acquisition means for acquiring current vehicle information and current road information;
A means for determining a current driving scene from the current vehicle information and the current road information based on the driving scene correspondence information and the transition availability information, the current vehicle information and the current road information Driving scene determination means for determining that the current driving scene is the current driving scene when the associated driving scene is transitionable from the previous driving scene;
Service providing means for providing a service according to the determined current driving scene;
A service providing apparatus comprising:
メモリに記憶されている、
ユーザが運転している車両に関する車両情報と前記車両が通行している道路に関する道路情報に前記車両の運転シーンが対応付けられた運転シーン対応情報と、
複数の前記運転シーンについて、ある運転シーンから他の運転シーンへのシーン遷移の可否を示す遷移可否情報と、
を用いて、
コンピュータに、
現在の車両情報および現在の道路情報を取得する処理と、
前記運転シーン対応情報および前記遷移可否情報に基づいて、前記現在の車両情報および前記現在の道路情報から現在の運転シーンを判定するときに、前記現在の車両情報および前記現在の道路情報に対応付けられた運転シーンが前の運転シーンから遷移可能である場合に、前記現在の運転シーンであると判定する処理と、
判定された前記現在の運転シーンに応じたサービスを提供する処理と、
を実行させることを特徴とするサービス提供プログラム。
Stored in memory,
Driving scene correspondence information in which the driving scene of the vehicle is associated with the vehicle information regarding the vehicle the user is driving and the road information regarding the road on which the vehicle is passing;
About the plurality of driving scenes, transition availability information indicating whether or not a scene transition from one driving scene to another driving scene,
Using,
On the computer,
Processing to obtain current vehicle information and current road information;
When determining the current driving scene from the current vehicle information and the current road information based on the driving scene correspondence information and the transition availability information, the current vehicle information and the current road information are associated with each other. A process of determining that the current driving scene is the current driving scene when the given driving scene can transition from the previous driving scene;
A process of providing a service according to the determined current driving scene;
A service providing program characterized in that the program is executed.
JP2009288739A 2009-12-21 2009-12-21 Driving scene determination device, driving scene determination method and program, and workload estimation device, workload estimation method and program Expired - Fee Related JP5478234B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009288739A JP5478234B2 (en) 2009-12-21 2009-12-21 Driving scene determination device, driving scene determination method and program, and workload estimation device, workload estimation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009288739A JP5478234B2 (en) 2009-12-21 2009-12-21 Driving scene determination device, driving scene determination method and program, and workload estimation device, workload estimation method and program

Publications (2)

Publication Number Publication Date
JP2011129010A JP2011129010A (en) 2011-06-30
JP5478234B2 true JP5478234B2 (en) 2014-04-23

Family

ID=44291514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009288739A Expired - Fee Related JP5478234B2 (en) 2009-12-21 2009-12-21 Driving scene determination device, driving scene determination method and program, and workload estimation device, workload estimation method and program

Country Status (1)

Country Link
JP (1) JP5478234B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5899668B2 (en) 2011-06-09 2016-04-06 株式会社リコー Laminated structure and manufacturing method thereof
JP2013140558A (en) * 2011-12-09 2013-07-18 Denso Corp Driving determination apparatus

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4096384B2 (en) * 1997-09-30 2008-06-04 日産自動車株式会社 Driving behavior pattern recognition device
JP2002027532A (en) * 2000-07-12 2002-01-25 Nippon Telegr & Teleph Corp <Ntt> Radio terminal device location searching method, radio communication terminal device and radio communication center apparatus
JP4578795B2 (en) * 2003-03-26 2010-11-10 富士通テン株式会社 Vehicle control device, vehicle control method, and vehicle control program
JP2006059059A (en) * 2004-08-19 2006-03-02 Osaka Gas Co Ltd Dynamics management system
JP4665581B2 (en) * 2004-12-10 2011-04-06 トヨタ自動車株式会社 Direction change support system
JP4637073B2 (en) * 2006-09-28 2011-02-23 株式会社デンソーアイティーラボラトリ Navigation device, method and program
JP2008234593A (en) * 2007-03-23 2008-10-02 Toyota Motor Corp Vehicle behavior predicting device
JP5157254B2 (en) * 2007-05-24 2013-03-06 トヨタ自動車株式会社 In-vehicle camera system
JP5297608B2 (en) * 2007-07-24 2013-09-25 トヨタ自動車株式会社 Warning device
JP2009037562A (en) * 2007-08-03 2009-02-19 Toyota Motor Corp Traveling state determination device
JP2009093341A (en) * 2007-10-05 2009-04-30 Toyota Central R&D Labs Inc Recognition reproduction device and program, and traffic flow simulation device and program
JP5204552B2 (en) * 2008-05-22 2013-06-05 富士重工業株式会社 Risk fusion recognition system

Also Published As

Publication number Publication date
JP2011129010A (en) 2011-06-30

Similar Documents

Publication Publication Date Title
JP5555274B2 (en) Information provision timing management apparatus, information provision timing management method, and program
US9676395B2 (en) Incapacitated driving detection and prevention
JP5263312B2 (en) Traffic jam judging device and vehicle control device
DE102006030269B4 (en) navigation system
JP7092116B2 (en) Information processing equipment, information processing methods, and programs
US7283056B2 (en) Method and computer program for identification of inattentiveness by the driver of a vehicle
US20180118219A1 (en) Driver and vehicle monitoring feedback system for an autonomous vehicle
EP1997705B1 (en) Drive behavior estimating device, drive supporting device, vehicle evaluating system, driver model making device, and drive behavior judging device
JP5434912B2 (en) Driving state determination method, driving state determination system and program
US20180029612A1 (en) Safe driving behavior notification system and safe driving behavior notification method
JP6703465B2 (en) Driving support device, center device
US20240098466A1 (en) System and method for vehicle sensing and analysis
US20220011132A1 (en) Personalized Routing Based on Driver Fatigue Map
CN105564436A (en) Advanced driver assistance system
JP2007310729A (en) Operation support device for moving body
Sathyanarayana et al. Information fusion for robust ‘context and driver aware’active vehicle safety systems
US20100245068A1 (en) Vehicle operation diagnosis device, vehicle operation diagnosis method and computer program
JP5478234B2 (en) Driving scene determination device, driving scene determination method and program, and workload estimation device, workload estimation method and program
JP6303795B2 (en) Route search system and route search method
Ponomarev et al. Adaptation and personalization in driver assistance systems
JP2009234508A (en) Driving support system for vehicle and driving support method for vehicle
JP5002521B2 (en) Navigation device, navigation method and program
JP2014218124A (en) Operation support device and operation support method
JP6962034B2 (en) Information providing device and information providing method
JP4529671B2 (en) Anxiety detection device and anxiety detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140210

R150 Certificate of patent or registration of utility model

Ref document number: 5478234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees