JP2001163082A - Controller for movable body - Google Patents

Controller for movable body

Info

Publication number
JP2001163082A
JP2001163082A JP35018199A JP35018199A JP2001163082A JP 2001163082 A JP2001163082 A JP 2001163082A JP 35018199 A JP35018199 A JP 35018199A JP 35018199 A JP35018199 A JP 35018199A JP 2001163082 A JP2001163082 A JP 2001163082A
Authority
JP
Japan
Prior art keywords
vehicle
driver
moving body
detected
visual recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP35018199A
Other languages
Japanese (ja)
Other versions
JP4348663B2 (en
Inventor
Masahiro Hashimoto
昌寛 橋本
Nami Sei
波 成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP35018199A priority Critical patent/JP4348663B2/en
Publication of JP2001163082A publication Critical patent/JP2001163082A/en
Application granted granted Critical
Publication of JP4348663B2 publication Critical patent/JP4348663B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Controls For Constant Speed Travelling (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a controller for a movable body performing optimal information provision control or hazard evasive control in accordance with driving characteristics of a driver. SOLUTION: It is determined whether or not information provision to the driver or a hazard evasive action of the vehicle itself is necessary based upon a quantity of a vehicular state and a manipulated variable of the vehicle itself detected as states or the like of a sensor group and a control switch group, and when it is determined to be necessary, the information provision and/or the hazard evasive action are executed (S1-S3). Timings for executing these actions are corrected in accordance with driving technique of the driver determined on the basis of data showing watching points obtained from a watching point detection sensor.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、移動体の制御装置
に関し、例えば代表的な移動体である自動車に適用して
好適な制御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a control device for a moving object, and more particularly to a control device suitable for application to a typical moving object such as an automobile.

【0002】[0002]

【従来の技術】従来より、代表的な移動体である自動車
においては、安全な走行のために自動車の走行状態を自
動的に制御する装置が提案されている。
2. Description of the Related Art Conventionally, there has been proposed an apparatus for automatically controlling a running state of a vehicle, which is a typical moving body, for safe running.

【0003】このような制御装置の一例として、例えば
特開平7−159525号には、先行車両との衝突を防
止する警報の発報タイミングを、自車両の減速開始時点
における先行車両との車間距離と、その自車両の車速と
に基づいて学習する機能を備える制御装置が提案されて
いる。また、特開平10−338056号には、自車両
と先行車両との車間距離と、目標車間距離との偏差が小
さくなるように、その自車両のブレーキ制御を行う装置
が提案されている。
As an example of such a control device, for example, Japanese Unexamined Patent Publication No. 7-159525 discloses a timing for issuing an alarm for preventing a collision with a preceding vehicle by determining a distance between the vehicle and the preceding vehicle at the time when the own vehicle starts to decelerate. And a control device having a function of learning based on the vehicle speed of the host vehicle. Also, Japanese Patent Application Laid-Open No. 10-338056 proposes a device that performs brake control of the host vehicle such that the deviation between the target vehicle distance and the inter-vehicle distance between the host vehicle and the preceding vehicle is reduced.

【0004】[0004]

【発明が解決しようとする課題】一般に、ドライバの運
転特性は、そのドライバの運転操作に対する習熟度(技
量)との相関が高いことが知られているが、上述した従
来の装置においては、ドライバの運転操作に対する習熟
度には無関係に制御機能が実行されるため、ドライバに
よっては、係る制御機能が自動的に実行されることに対
して違和感を感じることが予想される。
In general, it is known that the driving characteristics of a driver have a high correlation with the proficiency (skill) of the driving operation of the driver. Since the control function is executed irrespective of the proficiency level in the driving operation of the driver, it is expected that some drivers will feel uncomfortable with the automatic execution of the control function.

【0005】そこで本発明は、ドライバの運転特性に応
じて最適な情報提供制御、或いは危険回避制御を行う移
動体の制御装置の提供を目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a control apparatus for a moving body which performs optimal information provision control or danger avoidance control according to the driving characteristics of a driver.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
め、本発明に係る移動体の制御装置は、以下の構成を特
徴とする。
In order to achieve the above object, a moving object control apparatus according to the present invention has the following features.

【0007】即ち、ドライバにより運転される移動体の
制御装置であって、移動体の運転状態を検出する運転状
態検出手段と、前記運転状態検出手段によって検出され
た運転状態(例えば走行車線からのずれ量)が所定状態
となったときに、その検出された運転状態に関する情報
をドライバに提供する情報提供手段(音声や表示による
警報発報等)と、前記ドライバの視認行動を検出する視
認行動検出手段と、前記視認行動検出手段によって検出
された視認行動に基づいて前記ドライバの運転特性を判
定し、その判定された運転特性に応じて、前記情報提供
手段による情報提供制御を補正する制御手段とを備える
ことを特徴とする。
That is, a control device for a moving body driven by a driver, comprising: a driving state detecting means for detecting a driving state of the moving body; and a driving state detected by the driving state detecting means (for example, from a traveling lane). An information providing means (e.g., an alarm issuance by voice or display) for providing information on the detected driving state to the driver when the deviation amount reaches a predetermined state, and a visual recognition action for detecting the driver's visual recognition action Detecting means, and control means for determining a driving characteristic of the driver based on the viewing behavior detected by the viewing behavior detecting means, and correcting information provision control by the information providing means in accordance with the determined driving characteristic. And characterized in that:

【0008】或いは、同目的を達成すべく、ドライバに
より運転される移動体の制御装置であって、移動体の運
転状態を検出する運転状態検出手段と、前記運転状態検
出手段によって検出された運転状態が所定状態となった
ときに、前記移動体に自動的に危険回避動作(スロット
ル開度、ブレーキ、或いは変速機の動作制御等)を行わ
せる危険回避手段と、前記ドライバの視認行動を検出す
る視認行動検出手段と、前記視認行動検出手段によって
検出された視認行動に基づいて前記ドライバの運転特性
を判定し、その判定された運転特性に応じて、前記危険
回避手段による危険回避制御を補正する制御手段とを備
えることを特徴とする。
Alternatively, in order to achieve the above object, there is provided a control device for a moving body driven by a driver, wherein the driving state detecting means detects a driving state of the moving body, and the driving state detected by the driving state detecting means. A danger avoiding means for causing the moving body to automatically perform a danger avoidance operation (throttle opening, braking, operation control of a transmission, etc.) when a state becomes a predetermined state, and detecting a visual recognition action of the driver; Determining the driving characteristic of the driver based on the visual recognition behavior detected by the visual recognition behavior detecting means, and correcting the danger avoidance control by the danger avoidance means in accordance with the determined driving characteristic. And control means for performing the operation.

【0009】上記何れの制御装置においても、例えば前
記視認行動検出手段が前記移動体に設けられたミラーに
対する前記ドライバの注視頻度を検出している場合に、
前記制御手段は、前記視認行動検出手段によって検出さ
れた注視頻度が所定回数より少ないときに、前記補正を
実行すると良い。
In any of the above control devices, for example, when the visual recognition behavior detecting means detects the gaze frequency of the driver with respect to a mirror provided on the moving body,
The control unit may execute the correction when the gaze frequency detected by the viewing behavior detecting unit is less than a predetermined number.

【0010】或いは、例えば前記視認行動検出手段が前
記ドライバによる前記移動体前方に対する注視範囲を検
出している場合に、前記制御手段は、前記視認行動検出
手段によって検出された注視範囲が所定範囲より狭いと
きに、前記補正を実行すると良い。
[0010] Alternatively, for example, when the visual recognition action detecting means detects a gaze range of the driver with respect to the front of the moving body, the control means sets the gaze range detected by the visual recognition action detecting means to be lower than a predetermined range. When the distance is narrow, the correction is preferably performed.

【0011】或いは、例えば前記視認行動検出手段が前
記ドライバによる前記移動体前方に対する注視距離を検
出している場合に、前記制御手段は、前記視認行動検出
手段によって検出された注視距離が所定距離より短いと
きに、前記補正を実行すると良い。
Alternatively, for example, when the viewing behavior detecting means detects a gaze distance of the driver with respect to the front of the moving body, the control means sets the gaze distance detected by the viewing behavior detection means to be smaller than a predetermined distance. When the time is short, the correction is preferably performed.

【0012】[0012]

【発明の効果】上記の本発明によれば、ドライバの運転
特性に応じて最適な情報提供制御、或いは危険回避制御
を行う移動体の制御装置の提供が実現する。
According to the present invention described above, it is possible to provide a control apparatus for a moving body that performs optimal information provision control or danger avoidance control according to the driving characteristics of the driver.

【0013】即ち、請求項1の発明によれば、ドライバ
の視認行動に基づいて判定されたそのドライバの運転特
性に応じて、最適な情報提供制御を行うことができる。
That is, according to the first aspect of the present invention, it is possible to perform optimal information provision control in accordance with the driver's driving characteristics determined based on the driver's visual recognition behavior.

【0014】また、請求項2乃至請求項4の発明によれ
ば、ドライバの視認行動としてミラーの注視頻度、前方
注視範囲、或いは前方注視距離を検出することにより、
そのドライバの運転特性を正確に判定することができ、
最適な制御を行うことができる。
According to the second to fourth aspects of the present invention, the gaze frequency of the mirror, the front gaze range, or the front gaze distance is detected as the driver's visual recognition behavior,
It is possible to accurately determine the driving characteristics of the driver,
Optimal control can be performed.

【0015】また、請求項5の発明によれば、ドライバ
の視認行動に基づいて判定されたそのドライバの運転特
性に応じて、最適な危険回避制御を行うことができる。
According to the fifth aspect of the present invention, optimal danger avoidance control can be performed in accordance with the driver's driving characteristics determined based on the driver's visual recognition behavior.

【0016】[0016]

【発明の実施の形態】以下、本発明に係る移動体の制御
装置を、代表的な移動体である自動車に適用した実施形
態として、図面を参照して詳細に説明する。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a control system for a mobile unit according to the present invention; FIG.

【0017】図1は、本実施形態に係る移動体の制御装
置を搭載する自動車のシステム構成を示す図である。ま
た、図2は、本実施形態に係る移動体の制御装置におけ
る制御機能の構成を示すブロック図である。そして、図
3は、図1に示す自動車の運転席を示す図である。
FIG. 1 is a diagram showing a system configuration of an automobile equipped with a control device for a moving body according to this embodiment. FIG. 2 is a block diagram showing a configuration of a control function in the moving object control device according to the present embodiment. FIG. 3 is a diagram showing a driver's seat of the automobile shown in FIG.

【0018】図1から図3において、1は、制御処理を
行うコントロールユニットである。11は、レーザレー
ダ等を用いて、前方車両と自車両との車間距離や、その
前方車両と自車両との相対速度を検出する車間距離セン
サである。12は、自車両のの走行位置検出を行うべく
道路上に設けられた磁気マーカからの磁気を検出するレ
ーンマーカセンサである。13は、自車両の後側方に位
置する他車両との車間距離や相対速度を検出すべく、例
えばサイドミラーや車体側方や後方に設けらたラインC
CD(Charge Coupled Device)等の後側方車両センサで
ある。14は、自車両の車速Vを検出する車速センサで
ある。15は、車両の向きや横方向への加速度Gを検出
すべく、ヨー角を検出するヨーレートセンサである。
1 to 3, reference numeral 1 denotes a control unit for performing a control process. Reference numeral 11 denotes an inter-vehicle distance sensor that detects the inter-vehicle distance between the preceding vehicle and the own vehicle and the relative speed between the preceding vehicle and the own vehicle using a laser radar or the like. Reference numeral 12 denotes a lane marker sensor that detects magnetism from a magnetic marker provided on a road to detect the traveling position of the vehicle. Reference numeral 13 denotes a side mirror or a line C provided on the side or rear side of the vehicle body for detecting an inter-vehicle distance and a relative speed with another vehicle located on the rear side of the own vehicle.
It is a rear side vehicle sensor such as a CD (Charge Coupled Device). A vehicle speed sensor 14 detects a vehicle speed V of the own vehicle. Reference numeral 15 denotes a yaw rate sensor that detects a yaw angle in order to detect an acceleration G in a direction or a lateral direction of the vehicle.

【0019】16は、スロットル開度を検出するスロッ
トルセンサである。17は、加減速機構29に含まれる
ブレーキ機構(不図示)に加えられたブレーキ圧を検出
するブレーキ圧センサである。18は、ステアリングホ
イールの操作に応じた操舵角を検出すべく操舵機構30
に設けられた操舵角センサである。19は、後述する如
くドライバが見ている位置(注視点)の検出を行う注視
点検出センサである。21は、地図情報20を用いて、
自車両の現在位置の検出や目的地までの経路誘導を行う
ナビゲーションユニット(不図示)にて使用されるGP
S(Global Positioning System)信号を受信するGP
Sセンサである。22は、交通情報、前方の障害物に関
する情報、或いは横断歩道を歩行している歩行者の有無
に関する情報等を道路上に設けられた無線機と通信する
路車間通信ユニットである。
Reference numeral 16 denotes a throttle sensor for detecting a throttle opening. Reference numeral 17 denotes a brake pressure sensor that detects a brake pressure applied to a brake mechanism (not shown) included in the acceleration / deceleration mechanism 29. 18 is a steering mechanism 30 for detecting a steering angle corresponding to the operation of the steering wheel.
Is a steering angle sensor provided in the vehicle. Reference numeral 19 denotes a gazing point detection sensor that detects a position (a gazing point) that the driver is looking at as described later. 21 uses the map information 20
GP used in a navigation unit (not shown) for detecting the current position of the vehicle and guiding the route to the destination
GP that receives S (Global Positioning System) signal
It is an S sensor. Reference numeral 22 denotes a road-to-vehicle communication unit that communicates traffic information, information on an obstacle in front, information on the presence or absence of a pedestrian walking on a pedestrian crossing, and the like with a wireless device provided on the road.

【0020】23は、例えばステアリングホイールのコ
ラムカバーに設けられ、ドライバの頭顔部に赤外光を投
光する赤外投光ランプである。そして、24は、例えば
ステアリングホイールのコラムカバーに設けられ、赤外
投光ランプ23による頭顔からの反射光を撮影する赤外
投光領域撮像カメラである。
Reference numeral 23 denotes an infrared light emitting lamp provided on, for example, a column cover of a steering wheel and emitting infrared light to the head and face of the driver. Reference numeral 24 denotes an infrared light projection area imaging camera that is provided on, for example, a column cover of a steering wheel and captures light reflected from the head face by the infrared light projection lamp 23.

【0021】27は、ナビゲーションユニット(不図
示)の出力結果や各種の情報提供を行う液晶表示器(L
CD)やヘッドアップディスプレイ(HUD)等のディ
スプレイである。28は、各種の音声出力や後述する如
くドライバに情報提供・警報報知を行うスピーカであ
る。
Reference numeral 27 denotes a liquid crystal display (L) for providing output results of a navigation unit (not shown) and various kinds of information.
CD) and a display such as a head-up display (HUD). Reference numeral 28 denotes a speaker that outputs various voices and provides information and alerts to the driver as described later.

【0022】29は、スロットル、変速機、並びにブレ
ーキ機構等からなる自車両の加減速機構である。30
は、ステアリングホイールの操作に応じて操舵を行う操
舵機構である。
Reference numeral 29 denotes an acceleration / deceleration mechanism for the host vehicle, which includes a throttle, a transmission, a brake mechanism, and the like. 30
Is a steering mechanism that performs steering in accordance with the operation of the steering wheel.

【0023】そして、3は、各種操作スイッチ群であ
り、ウインカーランプの操作に使用するウィンカースイ
ッチ31、ヘッドライト等の操作に使用するライトスイ
ッチ32、ワイパーの操作に使用するワイパースイッチ
33、車間距離を保持可能なオートクルーズ機能の操作
に使用するオートクルーズメインスイッチ34、前方車
両との衝突警報機能をオン・オフ可能な前方車両衝突警
報システム用メインスイッチ35、路車間通信ユニット
22を利用してインフラ側から各種情報を入手可能な情
報提供システムをオン・オフ可能な情報提供システム用
メインスイッチ36、走行車線からの逸脱を警報するシ
ステムをオン・オフ可能な車線逸脱警報システム用メイ
ンスイッチ37、後側方に位置する他車両について警報
を行うシステムをオン・オフ可能な後側方警報システム
用メインスイッチ38、そして歩行者の存在について警
報するシステムをオン・オフ可能な歩行者警報システム
用メインスイッチ39からなる。本実施形態において、
ウィンカースイッチ31の操作状態は、ドライバの運転
操作(運転行動)に認識に使用され、ヘッドライト等の
操作に使用するライトスイッチ32は、昼夜の認識に使
用され、ワイパースイッチ33は、天候の認識に使用さ
れる。
Reference numeral 3 denotes a group of various operation switches, including a turn signal switch 31 used for operation of a turn signal lamp, a light switch 32 used for operation of a headlight, a wiper switch 33 used for operation of a wiper, a distance between vehicles. Using an auto cruise main switch 34 used for operation of an auto cruise function capable of holding a vehicle, a main switch 35 for a front vehicle collision warning system capable of turning on / off a collision warning function with a preceding vehicle, and a road-vehicle communication unit 22. A main switch 36 for an information providing system capable of turning on / off an information providing system capable of obtaining various types of information from the infrastructure side, a main switch 37 for a lane departure warning system capable of turning on / off a system for warning a deviation from the traveling lane, Turn off the warning system for other vehicles located on the rear side. - made off possible after lateral warning system for the main switch 38, and a system for warning about the presence of the pedestrian from the on-off capable pedestrian warning system for the main switch 39. In this embodiment,
The operation state of the blinker switch 31 is used for recognition of the driver's driving operation (driving behavior), the light switch 32 used for operation of headlights and the like is used for day and night recognition, and the wiper switch 33 is used for weather recognition. Used for

【0024】尚、上記のセンサ群及びスイッチ群、並び
に加減速機構29及び操舵機構30の個々の構成自体は
現在では一般的であるため、本実施形態における詳細な
説明は省略する。
Incidentally, since the individual structures of the sensor group and the switch group, and the acceleration / deceleration mechanism 29 and the steering mechanism 30 are generally common at present, detailed description in this embodiment is omitted.

【0025】ここで、本実施形態におけるコントロール
ユニット1の機能を概説する。まず、運転技量判定モジ
ュールにおいて、注視点検出センサ19によって検出さ
れたドライバの注視点に基づいてそのドライバの運転操
作に対する運転技量(運転特性)が判定され、制御実行
モジュールでは、図2の左側に示す上記のセンサ群及び
スイッチ群の状態と、推定された運転技量(運転特性)
に応じてパラメータ決定モジュールにて決定されたパラ
メータとに応じて、ディスプレイ27及び/またはスピ
ーカ28を用いた情報提供、そして、加減速機構29及
び/または操舵機構30に危険回避動作の制御が行われ
る。また、パラメータ決定モジュールでは、運転技量の
判定結果に応じて、制御実行モジュールにて次回使用す
る最適なパラメータが決定される。これらの各モジュー
ルは、コントロールユニット1が備える不図示のマイク
ロコンピュータが実行するソフトウエアの機能単位を表
わし、より具体的な処理は以下の如く行われる。
Here, the function of the control unit 1 in the present embodiment will be outlined. First, in the driving skill determination module, the driving skill (driving characteristics) for the driver's driving operation is determined based on the driver's gazing point detected by the gazing point detection sensor 19, and the control execution module determines the driving skill on the left side of FIG. The state of the above-mentioned sensor group and switch group shown, and the estimated driving skill (driving characteristics)
In accordance with the parameter determined by the parameter determination module in accordance with the information, the display 27 and / or the speaker 28 are used to provide information, and the acceleration / deceleration mechanism 29 and / or the steering mechanism 30 are controlled for danger avoidance operation. Will be In the parameter determination module, an optimal parameter to be used next time is determined in the control execution module in accordance with the result of the driving skill determination. Each of these modules represents a functional unit of software executed by a microcomputer (not shown) provided in the control unit 1, and more specific processing is performed as follows.

【0026】図4は、本実施形態に係る移動体の制御装
置のコントロールユニット1が実行する制御処理の基本
フローチャートを示す図であり、例えばイグニッション
キースイッチがオン状態の期間にわたって実行される。
FIG. 4 is a diagram showing a basic flowchart of a control process executed by the control unit 1 of the control device for a mobile unit according to the present embodiment. For example, the control process is executed over a period in which an ignition key switch is turned on.

【0027】同図において、ステップS1:自車両の車
両状態量及び操作量として、上記のセンサ群及びスイッ
チ群の状態を検出する。
In the figure, step S1: The states of the above-mentioned sensor group and switch group are detected as the vehicle state quantity and the operation quantity of the own vehicle.

【0028】ステップS2,ステップS3:ステップS
1にて検出した車両状態量及び操作量、並びに前回実行
したステップS7にてメモリに記憶されたパラメータに
基づいて、ドライバに対する情報提供及び/または自車
両の危険回避動作が必要か否かを判断し(ステップS
2)、この判断で必要と判断したときには情報提供及び
/または危険回避動作を実行し(ステップS3)、不要
と判断したときにはステップS4に進む。
Step S2, Step S3: Step S
Based on the vehicle state quantity and the operation quantity detected in step 1 and the parameters stored in the memory in step S7 executed last time, it is determined whether the provision of information to the driver and / or the danger avoidance operation of the own vehicle is necessary. (Step S
2) If it is determined that it is necessary, information provision and / or danger avoidance operation is performed (step S3), and if it is determined that it is unnecessary, the process proceeds to step S4.

【0029】ステップS4〜ステップS6:ドライバの
運転技量が既に判定され、運転技量を表わす値がメモリ
の所定領域内に記憶されているか否かを判断し(ステッ
プS4)、この判断で判定済みのときにはリターンし、
未だ判定されていないときには、注視点検出センサ19
から入手した注視点(詳細は後述する)を表わすデータ
をメモリの所定領域に記憶し(ステップS5)、後述す
る如くドライバの運転技量を判定する(ステップS
6)。
Steps S4 to S6: The driving skill of the driver has already been determined, and it is determined whether or not a value representing the driving skill is stored in a predetermined area of the memory (step S4). Sometimes returns,
If not yet determined, the gazing point detection sensor 19
Is stored in a predetermined area of the memory (step S5), and the driving skill of the driver is determined as described later (step S5).
6).

【0030】ステップS7,ステップS8:ステップS
6において運転技量を判定することができたかを判断し
(ステップS7)、この判断で未判定のときにはリター
ンし、判定済みのときには、次回の制御周期におけるス
テップS3にて利用すべく、ステップS6における運転
技量の判定結果に応じて、パラメータを例えば5段階で
補正し、その補正後のパラメータをメモリの所定領域内
に記憶し(ステップS8)、リターンする。
Step S7, Step S8: Step S
It is determined whether the driving skill has been determined in step 6 (step S7). If the determination is not made, the process returns. If the determination is completed, the process returns to step S6 in order to use it in step S3 in the next control cycle. In accordance with the result of the determination of the driving skill, the parameters are corrected in, for example, five steps, the corrected parameters are stored in a predetermined area of the memory (step S8), and the process returns.

【0031】<注視点の検出>まず、注視点の検出方法
を説明するのに先立って、ドライバの頭顔の動きと瞳孔
の動きとに関する実験結果の一例を、図6を参照して説
明する。
<Detection of Point of Gaze> First, before describing a method of detecting a point of gaze, an example of an experimental result relating to the movement of the driver's head and face and the movement of the pupil will be described with reference to FIG. .

【0032】図6は、車線変更時のドライバの頭顔の動
きと視線方向の動きに関する実験結果を示す図である。
FIG. 6 is a diagram showing the results of experiments on the movement of the driver's head and face and the direction of the line of sight when changing lanes.

【0033】同図に示すように、車線変更の可否を判断
する合流終了前30秒から15秒暗いまでの間において
は、ドライバの頭顔は車両後方を確認するために何度も
水平方向に大きく向けられ、且つ車線変更が終了するま
での間に渡って瞳孔が左右に激しく動いてサイドミラー
及びルームミラーを注視していることが判ると共に、一
方、垂直方向に対する頭顔部及び瞳孔の動き(視線方向
の動き)には大きな変化が見られないことが判る。これ
により、被験者の車線変更時の運転操作には、脇見等の
無駄な目視が含まれていなかったと判断できる。そこ
で、本実施形態では、瞳孔の向き(視線方向)に基づい
てドライバがどこを見ているかを表わす注視点を求め、
ドライバの運転技量の判断要素として利用する。
As shown in the figure, between 30 seconds and 15 seconds before the end of the merging to determine whether or not the lane can be changed, the driver's head is repeatedly turned horizontally in order to confirm the rear of the vehicle. It can be seen that the pupil is sharply turned left and right and is gazing at the side mirror and the room mirror during the lane change, and the movement of the head face and the pupil with respect to the vertical direction. It can be seen that there is no significant change in (movement in the line of sight). Accordingly, it can be determined that the driving operation performed when the subject changes lanes does not include useless visual observation such as inattentiveness. Therefore, in the present embodiment, a gazing point indicating where the driver is looking is obtained based on the direction of the pupil (the direction of the line of sight),
It is used as a factor for determining the driving skill of the driver.

【0034】ここで、注視点検出センサ19によるドラ
イバの注視点Pの検出方法について説明する。
Here, a method of detecting the gazing point P of the driver by the gazing point detection sensor 19 will be described.

【0035】図5は、本実施形態における注視点検出セ
ンサ19のシステム構成を示すブロック図であり、本実
施形態において以下に説明する各モジュールは、注視点
検出センサ19が備える不図示のマイクロコンピュータ
が実行するソフトウエアの機能単位を表わす。
FIG. 5 is a block diagram showing the system configuration of the gazing point detection sensor 19 in this embodiment. Each module described below in this embodiment is a microcomputer (not shown) provided in the gazing point detection sensor 19. Represents a functional unit of software to be executed.

【0036】同図に示すように、赤外投光ランプ23の
投光部分と、赤外投光領域撮像カメラ24の受光部に
は、赤外透過フィルタ25が設けられており、注視点検
出センサ19は、赤外投光領域撮像カメラ24から出力
される映像信号に基づいて、画像処理モジュールにおい
て一般的な2値化処理や特徴点の抽出処理を行うことに
よってドライバの頭顔部の画像を抽出し、その抽出した
頭顔部の画像に基づいて、注視点検出モジュールにおい
てドライバの注視点Pの算出すべく、頭顔方向Dhの検
出、視線方向Dsの検出する。
As shown in the figure, an infrared transmitting filter 25 is provided in the light emitting portion of the infrared light emitting lamp 23 and the light receiving portion of the infrared light emitting area imaging camera 24 to detect the gazing point. The sensor 19 performs a general binarization process and a feature point extraction process in an image processing module based on a video signal output from the infrared light projection area imaging camera 24, thereby obtaining an image of the head and face of the driver. Is extracted, and the gaze point detection module detects the head-face direction Dh and the gaze direction Ds based on the extracted head-face image in order to calculate the gaze point P of the driver.

【0037】次に、注視点検出センサ19の具体的な機
能について、図7を参照して説明する。
Next, the specific function of the gazing point detection sensor 19 will be described with reference to FIG.

【0038】図7は、本実施形態における注視点検出処
理のフローチャートを示す図であり、画像処理モジュー
ル及び注視点検出モジュールにより実現される機能を表
わす。
FIG. 7 is a diagram showing a flowchart of the gazing point detection process in this embodiment, and shows functions realized by the image processing module and the gazing point detection module.

【0039】同図において、ステップS51:赤外投光
ランプ23によってドライバの頭顔部に投光を行うと共
に、赤外投光領域撮像カメラ24によって撮影した当該
頭顔部のアナログ映像信号を画像処理モジュールに取り
込み、その映像信号に一般的な2値化処理を施すことに
より、ピクセル毎のデジタル多値画像データに変換す
る。
In FIG. 5, step S51: The headlight of the driver is projected by the infrared light projection lamp 23, and the analog video signal of the headface photographed by the infrared light projection area imaging camera 24 is converted into an image. The video signal is captured by a processing module and subjected to general binarization processing to convert the video signal into digital multivalued image data for each pixel.

【0040】ステップS52:入手した多値画像データ
から、一般的な画像処理手法を用いてドライバの顔画像
部分を抽出し、その抽出した顔画像部分に含まれる複数
の特徴点(例えば目頭、目尻、鼻孔等)の位置を検出す
る。
Step S52: A face image portion of the driver is extracted from the obtained multi-valued image data using a general image processing technique, and a plurality of feature points (for example, the inner and outer corners of the eye) included in the extracted face image portion are extracted. , Nostrils, etc.).

【0041】ステップS53:抽出した顔画像部分の画
像データから、赤外投光によってドライバの眼球の角膜
に発生している反射点の位置と瞳孔の位置とを、一般的
な画像処理手法を用いて検出する。
Step S53: From the extracted image data of the face image portion, the position of the reflection point and the position of the pupil generated on the cornea of the driver's eyeball by infrared light projection are determined using a general image processing method. To detect.

【0042】ステップS54:ステップS52で検出し
た特徴点の位置に基づいて、所定の3次元座標空間にお
けるドライバの頭顔面の傾きを算出することにより、ド
ライバの頭顔が向けられている方向(頭顔方向)Dsを
計測する。
Step S54: By calculating the inclination of the driver's head face in a predetermined three-dimensional coordinate space based on the position of the feature point detected in step S52, the direction in which the driver's head face is directed (head) Face direction) Ds is measured.

【0043】ステップS55:ステップS53で検出し
た角膜反射点と、ステップS54で検出した頭顔方向D
sとに基づいて、ドライバの視線の方向(注視方向)D
sを検出する。
Step S55: The corneal reflection point detected in step S53 and the head-face direction D detected in step S54
s and the direction of the driver's line of sight (gaze direction) D
s is detected.

【0044】ステップS56:ステップS55で検出し
た注視方向Dsが、当該所定の3次元座標空間における
座標として予め記憶している車両内外の所定位置(前方
の遠方位置、前方の車両近傍位置、ルームミラー取り付
け位置、左右のサイドミラー取り付け位置等)に対応す
るかを判断することにより、ドライバの注視点Pを検出
し、その検出した注視点Pを表わすデータ(例えば、前
方の遠方位置、前方の車両近傍位置、ルームミラー取り
付け位置、左右のサイドミラー取り付け位置等をそれぞ
れ個別に表わす識別フラグ)を、コントロールユニット
1に出力し、リターンする。
Step S56: The gaze direction Ds detected in step S55 is stored in a predetermined position inside and outside the vehicle as a coordinate in the predetermined three-dimensional coordinate space (a distant position in front, a position near the vehicle in front, a rearview mirror). By determining whether the position corresponds to the mounting position, the mounting position of the left and right side mirrors, and the like, the gazing point P of the driver is detected, and data representing the detected gazing point P (for example, a distant position ahead, a vehicle ahead). The control unit 1 outputs the near position, the rearview mirror mounting position, the left and right side mirror mounting positions, and the like, respectively, to the control unit 1 and returns.

【0045】上述した注視点検出処理は、例えば、注視
点検出センサ19のマイクロコンピュータ(不図示)の
制御周期毎に行われ、検出された注視点Pを表わすデー
タ(識別フラグ)は、上述した図4に示すフローチャー
トのステップS5において、コントロールユニット1内
の注視点メモリ(RAM)に所定の検出回数分だけ時系
列に記憶される。
The above-mentioned gazing point detection process is performed, for example, at each control cycle of the microcomputer (not shown) of the gazing point detection sensor 19, and the data (identification flag) representing the detected gazing point P is described above. In step S5 of the flowchart shown in FIG. 4, the gazing point memory (RAM) in the control unit 1 is stored in chronological order for a predetermined number of detections.

【0046】<運転技量の判定>次に、コントロールユ
ニット1が実行するところの、図4に示すフローチャー
トのステップS6(図2に示す運転技量判定モジュール
に相当)において実行される運転技量の求め方について
説明する。本実施形態では、以下に説明する3種類の方
法を想定しており、これらの方法の中から少なくとも1
つを採用すれば良い。
<Determination of Driving Skill> Next, a method of obtaining the driving skill executed in step S6 (corresponding to the driving skill determination module shown in FIG. 2) of the flowchart shown in FIG. Will be described. In the present embodiment, three types of methods described below are assumed, and at least one of these methods is used.
One can be adopted.

【0047】図8は、間接ミラーの注視頻度に基づく運
転技量判定処理を示すフローチャートであり、この判定
方法は、運転技量が比較的低いドライバは、一般に間接
ミラー(左右のサイドミラー及びルームミラー)を利用
した自車両後方の確認頻度が少ない(即ち、自車両の後
方を見る余裕がない)という運転特性に基づいている。
FIG. 8 is a flowchart showing a driving skill determination process based on the gaze frequency of the indirect mirror. In this determination method, a driver having relatively low driving skill generally uses indirect mirrors (left and right side mirrors and a room mirror). The driving characteristic is based on the fact that the frequency of checking the rear of the own vehicle using the vehicle is low (that is, there is no room to look behind the own vehicle).

【0048】同図において、ステップS61A:ウイン
カスイッチ31の操作状態と、操舵角センサ18によっ
て検出された操舵角とにより、現在の運転操作状態が直
進中の状態であるか、車線変更が終了した状態である
か、或いは左折が終了した状態であるかを判断する。
In the figure, step S61A: the current driving operation state is a state where the vehicle is traveling straight or the lane change is completed, based on the operation state of the turn signal switch 31 and the steering angle detected by the steering angle sensor 18. It is determined whether the vehicle is in the state or the state where the left turn has been completed.

【0049】ステップS62A:ステップS61Aの判
断で直進中の状態であるときには、注視点メモリに記憶
されている時系列の注視点データ(識別フラグ)を参照
し、所定のTStraight秒間における間接ミラー(左右の
サイドミラー及びルームミラー)の注視回数NStraight
を計数する。
Step S62A: When it is determined that the vehicle is traveling straight in step S61A, the time-series gazing point data (identification flag) stored in the gazing point memory is referred to and the indirect mirror (left and right) for a predetermined TS Straight seconds is used. Of the side mirrors and room mirrors)
Is counted.

【0050】ステップS63A:ステップS61Aの判
断で車線変更が終了した状態であるときには、注視点メ
モリに記憶されている時系列の注視点データを参照し、
車線変更開始から終了までのTLane秒間における間接ミ
ラー(左右のサイドミラー及びルームミラー)の注視回
数NLaneを計数する。
Step S63A: When the lane change is completed in the judgment of step S61A, the time-series gazing point data stored in the gazing point memory is referred to.
The number of times of gaze NLane of the indirect mirrors (the left and right side mirrors and the room mirror) during TLane seconds from the start to the end of the lane change is counted.

【0051】ステップS64A:ステップS61Aの判
断で左折が終了した状態であるときには、注視点メモリ
に記憶されている時系列の注視点データを参照し、左折
開始から終了までのTLeft秒間における間接ミラー(左
右のサイドミラー及びルームミラー)の注視回数NLeft
を計数する。
Step S64A: When the left turn has been completed in the determination of step S61A, the time-series gazing point data stored in the gazing point memory is referred to, and an indirect mirror (TLeft seconds) from the start to the end of the left-turn. Number of gazes NLeft of left and right side mirrors and room mirrors)
Is counted.

【0052】ステップS65A,ステップS66A:注
視回数NStraight、注視回数NLane、注視回数NLeftが
計数できているかを判断し(ステップS65A)、この
判断で未計数のときにはステップS7に進み、計数済み
のときには、それらの注視回数に基づいて、ドライバの
運転技量レベルを判定する(ステップS66A)。
Step S65A, Step S66A: It is determined whether or not the number of gazes NStraight, the number of gazes NLane, and the number of gazes NLeft have been counted (step S65A). The driving skill level of the driver is determined based on the number of gazes (step S66A).

【0053】即ち、ステップS66Aにおいては、注視
回数NStraight、注視回数NLane、注視回数NLeftが全
て所定値M(StraightM、LaneM、LeftM)以下であれ
ばレベル1(運転技量が低い)と判断し、これらの注視
回数で何れかが所定値M以下であればレベル2(運転技
量がやや低い)と判断する。また、NStraight>Straig
htM、NLane>LaneM、NLeft>LeftMのときにはレベ
ル3(運転技量が普通)と判断し、これらの注視回数で
何れかが所定値H((>所定値M):StraightH、Lane
H、LeftH)以上のときにはレベル4(運転技量がやや
高い)と判断し、NStraight>StraightH、NLane>La
neH、NLeft>LeftHのときにはレベル5(運転技量が
高い)と判断する。
That is, in step S66A, if the number of gazes NStraight, the number of gazes NLane, and the number of gazes NLeft are all less than or equal to a predetermined value M (StraightM, LaneM, LeftM), it is determined that the level is 1 (the driving skill is low). If any of the number of gazes is less than or equal to the predetermined value M, it is determined to be level 2 (the driving skill is somewhat low). Also, NStraight> Straig
When htM, NLane> LaneM, and NLeft> LeftM, it is determined that the level is 3 (the driving skill is normal), and one of these gaze counts is a predetermined value H ((> predetermined value M): StraightH, Lane
H, LeftH) or more, it is determined that the level is 4 (the driving skill is somewhat high), and NS Straight> Straight H, NLane> La
When neH, NLeft> LeftH, it is determined that the level is 5 (the driving skill is high).

【0054】尚、上記のように間接ミラーの注視頻度に
基づく運転技量判定を行うにときに使用する所定値(所
定回数)M及びHは、1回当たりの注視時間や、後方視
界確認の必要性(例えば、交通量や高速道路等)に応じ
て補正すると良い。即ち、間接ミラーによる1回当たり
の注視時間が所定の時間より短い場合にはこれらのしき
い値を大きくし、長い場合には小さく補正すれば良い。
また、自車両が走行中の道路種類が、一般道路の場合に
はこれらのしきい値を大きくし、高速道路の場合にはこ
れらのしきい値を小さく補正する。また、自車両が走行
中の道路の交通量が多い場合にはこれらのしきい値を大
きくし、少ない場合にはこれらのしきい値を小さく補正
する。
As described above, the predetermined values (predetermined times) M and H used for determining the driving skill based on the gaze frequency of the indirect mirror are determined by the gaze time per one time and the need to confirm the rear view. It may be corrected according to the characteristics (for example, traffic volume and highway). That is, these thresholds may be increased if the gaze time per indirect mirror by the indirect mirror is shorter than a predetermined time, and small if the gaze time is long.
If the type of road on which the vehicle is traveling is a general road, the thresholds are increased, and if the type of road is an expressway, the thresholds are corrected to be small. If the traffic on the road on which the vehicle is traveling is large, these thresholds are increased, and if they are small, these thresholds are corrected to be small.

【0055】図9は、車両周囲への注視頻度に基づく運
転技量判定処理を示すフローチャートであり、この判定
方法は、運転技量が比較的低いドライバは、一般に自車
両前方の左右方向に対する注視範囲が狭い(即ち、自車
両の周囲を見る余裕がない)という運転特性に基づいて
いる。
FIG. 9 is a flowchart showing a driving skill determination process based on the frequency of gaze around the vehicle. In this determination method, a driver with relatively low driving skill generally has a gaze range in the left and right direction ahead of the host vehicle. It is based on the driving characteristic of being narrow (that is, there is no room to see around the own vehicle).

【0056】同図において、ステップS61B:上述し
たステップS61Aと同様に、ウインカスイッチ31の
操作状態と、操舵角センサ18により検出した操舵角と
により、現在の運転操作状態が直進中の状態であるか、
車線変更が終了した状態であるか、或いは左折が終了し
た状態であるかを判断し、この判断で直進中以外のとき
にはステップS7に進み、直進中のときにはステップS
62Bに進む。
In the same figure, step S61B: similar to step S61A described above, the current driving operation state is a state in which the vehicle is traveling straight, based on the operation state of the turn signal switch 31 and the steering angle detected by the steering angle sensor 18. Or
It is determined whether the lane change has been completed or the left turn has been completed. If it is determined that the vehicle is not traveling straight, the process proceeds to step S7. If the vehicle is traveling straight, the process proceeds to step S7.
Proceed to 62B.

【0057】ステップS62B:ステップS61Bの判
断で直進中の状態であるので、注視点メモリに記憶され
ている時系列の注視点データを参照し、所定のTStraig
ht秒間における前方左方向の注視回数NStraightL、前
方右方向の注視回数NStraightRを計数する。
Step S62B: Since the vehicle is in the straight traveling state in the judgment of step S61B, reference is made to the time-series gazing point data stored in the gazing point memory and a predetermined TS
The number of gazes NStraightL in the forward left direction and the number of gazes NStraightR in the forward right direction during ht seconds are counted.

【0058】ステップS63B,ステップS64B:注
視回数NStraightL及び注視回数NStraightRが計数で
きているかを判断し(ステップS63B)、この判断で
未計数のときにはステップS7に進み、計数済みのとき
には、それらの注視回数に基づいて、ドライバの運転技
量レベルを判定する(ステップS64B)。
Step S63B, Step S64B: It is determined whether or not the number of gazes NStraightL and the number of gazes NStraightR have been counted (step S63B). If the count is not counted, the process proceeds to step S7. Is determined based on the driving skill level (step S64B).

【0059】即ち、ステップS64Bにおいては、注視
回数NStraightL及び注視回数NStraightRが何れも所
定値M(StraightLM、StraightRM)以下であればレ
ベル1(運転技量が低い)と判断し、これらの注視回数
で何れかが所定値M以下であればレベル2(運転技量が
やや低い)と判断する。また、NStraightR>Straight
RM、NStraightL>StraightLMのときにはレベル3
(運転技量が普通)と判断し、これらの注視回数で何れ
かが所定値H((>所定値M):StraightLH、Straig
htRH)以上のときにはレベル4(運転技量がやや高
い)と判断し、NStraightR>StraightRH、NStraig
htL>StraightLHのときにはレベル5(運転技量が高
い)と判断する。
That is, in step S64B, if both the number of gazes NStraightL and the number of gazes NSRightR are equal to or less than the predetermined value M (StraightLM, StraightRM), it is determined that the level is 1 (driving skill is low). If the value is equal to or less than the predetermined value M, it is determined that the level is 2 (the driving skill is slightly low). Also, NSRightR> Straight
Level 3 when RM, NS StraightL> StraightLM
It is determined that the driving skill is normal, and one of these gaze counts is a predetermined value H ((> predetermined value M): Straight LH, Straig
htRH) or more, it is judged that the level is 4 (the driving skill is somewhat high), and NSRightR> StraightRH, NStraig
When htL> StraightLH, it is determined that the level is 5 (the driving skill is high).

【0060】尚、上記のように車両周囲への注視頻度に
基づく運転技量判定を行うにときに使用する所定値(所
定回数)M及びHについても、間接ミラーの注視頻度に
基づく運転技量判定の場合と同様に、1回当たりの注視
時間や、後方視界確認の必要性(例えば、交通量や高速
道路等)に応じて補正すると良い。
As described above, the predetermined values (predetermined times) M and H used for performing the driving skill determination based on the frequency of gaze around the vehicle are also determined by the driving skill determination based on the gaze frequency of the indirect mirror. As in the case, the correction may be made according to the gaze time per one time or the necessity of confirming the rear view (for example, the traffic volume or the expressway).

【0061】図10は、車両前方の遠方注視頻度に基づ
く運転技量判定処理を示すフローチャートであり、この
判定方法は、運転技量が比較的低いドライバは、一般に
自車両前方に対する注視距離が短い(即ち、自車両の遠
方を見る余裕がない)という運転特性に基づいている。
FIG. 10 is a flowchart showing a driving skill determining process based on a distant gaze frequency in front of the vehicle. In this determining method, a driver having relatively low driving skill generally has a short gaze distance in front of the host vehicle (ie, , The driver cannot afford to see the distant vehicle).

【0062】同図において、ステップS61C:上述し
たステップS61Aと同様に、ウインカスイッチ31の
操作状態と、操舵角センサ18により検出した操舵角と
により、現在の運転操作状態が直進中の状態であるか、
車線変更が終了した状態であるか、或いは左折が終了し
た状態であるかを判断し、この判断で直進中以外のとき
にはステップS7に進み、直進中のときにはステップS
62Cに進む。
In the figure, step S61C: similar to step S61A described above, the current driving operation state is a state in which the vehicle is traveling straight, based on the operation state of the turn signal switch 31 and the steering angle detected by the steering angle sensor 18. Or
It is determined whether the lane change has been completed or the left turn has been completed. If it is determined that the vehicle is not traveling straight, the process proceeds to step S7. If the vehicle is traveling straight, the process proceeds to step S7.
Proceed to 62C.

【0063】ステップS62C:ステップS61Cの判
断で直進中の状態であるので、注視点メモリに記憶され
ている時系列の注視点データ(識別フラグ)を参照し、
所定のTStraight秒間における前方の所定の遠方位置
(例えば自車両前方の50mより遠方)の総注視時間N
StraightF、所定の近傍位置(例えば自車両ボンネット
の見切り位置から前方50m)の総注視時間NStraight
Nを、例えば、当該遠方位置及び近傍位置を注視したこ
とを表わす識別フラグの計数値を当該所定のTStraight
秒間の範囲内においてそれぞれ計数し、それらの計数値
と所定の単位時間との積を算出することによって求め
る。
Step S62C: Since the vehicle is in the straight traveling state in the judgment of step S61C, the time-series gazing point data (identification flag) stored in the gazing point memory is referred to, and
The total gaze time N at a predetermined distant position ahead (for example, more than 50 m ahead of the host vehicle) in a predetermined TS Straight seconds.
StraightF, the total fixation time NStraight at a predetermined nearby position (for example, 50 m ahead from the parting position of the hood of the vehicle).
N is, for example, the count value of the identification flag indicating that the distant position and the near position are gazed at the predetermined TS Straight
It is obtained by counting each time within the range of seconds and calculating the product of the count value and a predetermined unit time.

【0064】ステップS63C,ステップS64C:総
注視時間NStraightF及びNStraightNが算出できてい
るかを判断し(ステップS63C)、この判断で未算出
のときにはステップS7に進み、算出済みのときには、
それらの総注視時間に基づいて、ドライバの運転技量レ
ベルを判定する(ステップS64C)。
Steps S63C and S64C: It is determined whether the total fixation times NStraightF and NStraightN have been calculated (step S63C), and if not, the process proceeds to step S7.
The driving skill level of the driver is determined based on the total watching time (step S64C).

【0065】即ち、ステップS64Cにおいては、総注
視時間NStraightFとNStraightNとの比を算出し、そ
の算出した比が所定値FrontPointLより小さいときには
レベル1(運転技量が低い)と判断し、その算出した比
が所定値FrontPointLM(>FrontPointL)より大きい
ときにはレベル2(運転技量がやや低い)と判断する。
また、その算出した比が所定値FrontPointM(>FrontP
ointLM)より大きいときにはレベル3(運転技量が普
通)と判断し、その算出した比が所定値FrontPointHM
(>FrontPointM)より大きいときにはレベル4(運転
技量がやや高い)と判断し、その算出した比が所定値Fr
ontPointH(>FrontPointHM)より大きいときにはレ
ベル5(運転技量が高い)と判断する。
That is, in step S64C, the ratio of the total fixation time NStraightF to NStraightN is calculated. If the calculated ratio is smaller than the predetermined value FrontPointL, it is determined that the level is 1 (the driving skill is low), and the calculated ratio is calculated. Is larger than the predetermined value FrontPointLM (> FrontPointL), it is determined that the level is 2 (the driving skill is slightly low).
Also, the calculated ratio is equal to a predetermined value FrontPointM (> FrontP).
ointLM), it is determined that the level is 3 (the driving skill is normal), and the calculated ratio is equal to the predetermined value FrontPointHM.
If it is larger than (> FrontPointM), it is determined that the level is 4 (the driving skill is somewhat high), and the calculated ratio is equal to the predetermined value Fr.
When it is larger than ontPointH (> FrontPointHM), it is determined to be level 5 (the driving skill is high).

【0066】尚、上記のように車両前方の遠方注視頻度
に基づいて運転技量判定を行うにときに使用する所定値
FrontPointL等のしきい値についても、間接ミラーの注
視頻度に基づく運転技量判定の場合と同様に、1回当た
りの注視時間や、後方視界確認の必要性(例えば、交通
量や高速道路等)に応じて補正すると良い。
The predetermined value used when the driving skill is determined based on the distant gaze frequency in front of the vehicle as described above.
Regarding thresholds such as FrontPointL, as in the case of driving skill determination based on the gaze frequency of the indirect mirror, the gaze time per time and the necessity of confirming the rear view (for example, traffic volume and highway) are also considered. It should be corrected accordingly.

【0067】<制御処理及びパラメータ決定処理>次
に、コントロールユニット1が実行するところの、図4
に示すフローチャートのステップS1からステップS3
に相当する制御処理(図2に示す制御実行モジュールに
相当)と、同図のステップS8に相当するパラメータ決
定処理(図2に示すパラメータ決定モジュールに相当)
について説明する。
<Control Processing and Parameter Determination Processing> Next, FIG.
Steps S1 to S3 in the flowchart shown in FIG.
(Corresponding to the control execution module shown in FIG. 2), and parameter determination processing corresponding to step S8 in FIG. 2 (corresponding to the parameter determination module shown in FIG. 2).
Will be described.

【0068】尚、本実施形態では、情報提供処理及び危
険回避制御の具体例として、以下に説明する10種類の
方式を搭載することを想定しているが、この装置構成に
限られるものではなく、これらの方式の中から少なくと
も1つを採用すれば良い。
In the present embodiment, it is assumed that ten types of methods described below are mounted as specific examples of the information provision processing and the danger avoidance control, but the present invention is not limited to this configuration. At least one of these methods may be adopted.

【0069】<前方車両衝突警報システムを実現する場
合>まず、上述したハードウエア構成に基づいて、前方
車両との車間距離を所定距離に保持可能なオートクルー
ズ機能を有する前方車両衝突警報システムを実現する場
合について説明する。
<Case of Realizing a Forward Vehicle Collision Warning System> First, based on the above-described hardware configuration, a forward vehicle collision warning system having an auto cruise function capable of maintaining a predetermined inter-vehicle distance with a preceding vehicle is realized. Will be described.

【0070】図11は、本実施形態に係る移動体の制御
装置に適用可能な前方車両衝突警報処理を示すフローチ
ャートであり、例えばオートクルーズメインスイッチ3
4及び前方車両衝突警報システム用メインスイッチ35
がオン状態に設定されているときにコントロールユニッ
ト1が実行する処理を示す。
FIG. 11 is a flowchart showing a forward vehicle collision warning process which can be applied to the moving object control apparatus according to the present embodiment.
4 and main switch 35 for forward vehicle collision warning system
Shows the processing executed by the control unit 1 when is set to the ON state.

【0071】同図において、ステップS101,ステッ
プS102:車速センサ14、操舵角センサ18、ヨー
レートセンサ15、並びに車間距離センサ11による検
出データを入力し(ステップS101)、これらのデー
タに基づいて、自車両の進行路(即ち、自車両がこれか
ら進行するであろう進路)を算出する。この進行路の算
出方法については、特開平7−220119号等に開示
された方法を採用すれば良い。
In the figure, steps S101 and S102: Data detected by the vehicle speed sensor 14, the steering angle sensor 18, the yaw rate sensor 15, and the inter-vehicle distance sensor 11 are input (step S101), and based on these data, The traveling route of the vehicle (that is, the traveling route of the host vehicle) is calculated. As a method of calculating the traveling route, a method disclosed in Japanese Patent Application Laid-Open No. 7-220119 may be employed.

【0072】ステップS103,ステップS104:算
出した進行路内の所定距離範囲内に障害物が存在するか
を判断し、この判断でYESのとき(障害物が存在する
とき)にはステップS105に進み、NOのとき(障害
物が存在しないとき)には車速Vが所定値(ドライバが
設定した所望の車速であっても良い)に維持されるよう
に、危険回避動作として、加減速機構29を構成するス
ロットルの開度や自動変速機を制御する(ステップS1
04)。
Steps S103 and S104: It is determined whether an obstacle exists within a predetermined distance range in the calculated traveling path. If the determination is YES (if an obstacle exists), the process proceeds to step S105. If the answer is NO (when there is no obstacle), the acceleration / deceleration mechanism 29 is operated as a danger avoidance operation so that the vehicle speed V is maintained at a predetermined value (may be a desired vehicle speed set by the driver). Control the opening degree of the throttle and the automatic transmission (step S1)
04).

【0073】ステップS105,ステップS106:前
回の制御周期におけるステップS103において障害物
の存在が検出されていたかを判断し(ステップS10
5)、この判断でNOのとき(障害物の検出なしのと
き)にはステップS107に進み、YESのとき(障害
物の検出ありのとき)には、その旨を報知する情報提供
動作として、スピーカ28を駆動して所定の単発人工音
(例えば「ピッ」)を出力する(ステップS106)。
Steps S105 and S106: It is determined whether or not an obstacle has been detected in step S103 in the previous control cycle (step S10).
5) When the determination is NO (when no obstacle is detected), the process proceeds to step S107, and when the determination is YES (when an obstacle is detected), the information providing operation for notifying that is as follows. The speaker 28 is driven to output a predetermined single-shot artificial sound (for example, “beep”) (step S106).

【0074】ステップS107〜ステップS113:ス
テップS7の判断において、障害物と自車両との距離L
が所定距離L1より長いと判断されたときには、車間距
離Lが所定値(ドライバが設定した所望の距離であって
も良い)に維持されるように、危険回避動作として、加
減速機構29を構成するスロットルの開度や自動変速機
を制御する(ステップS108)。また、ステップS7
及びステップS8の判断において、検出された障害物と
自車両との距離Lが所定距離L1より短く、且つ所定距
離L2(<L1)より短いと判断されたときには、その
旨を報知する情報提供動作として、スピーカ28を駆動
して所定の連続人工音(例えば「ピッピッピッピッ」)
を出力する(ステップS110)と共に、危険回避動作
として、加減速機構29を構成するブレーキ機構を制御
する(ステップS110)。また、ステップS7及びス
テップS8の判断において、障害物と自車両との距離L
が所定距離L1より短く、且つ所定距離L2(<L1)
より長いと判断されたときには、スピーカ28を駆動し
てクラクションの合成音を出力する(ステップS11
2)と共に、危険回避動作として、加減速機構29を構
成するスロットルの開度や自動変速機を制御する(ステ
ップS113)。
Steps S107 to S113: In the judgment of step S7, the distance L between the obstacle and the own vehicle is determined.
Is determined to be longer than the predetermined distance L1, the acceleration / deceleration mechanism 29 is configured as a danger avoidance operation such that the inter-vehicle distance L is maintained at a predetermined value (may be a desired distance set by the driver). The throttle opening and the automatic transmission to be controlled are controlled (step S108). Step S7
When it is determined in step S8 that the distance L between the detected obstacle and the host vehicle is shorter than the predetermined distance L1 and shorter than the predetermined distance L2 (<L1), an information providing operation for notifying that fact. As a result, the speaker 28 is driven to generate a predetermined continuous artificial sound (for example, “pip-pip”).
Is output (step S110), and the braking mechanism constituting the acceleration / deceleration mechanism 29 is controlled as a danger avoidance operation (step S110). In addition, in the determination in step S7 and step S8, the distance L between the obstacle and the host vehicle is determined.
Is shorter than the predetermined distance L1 and the predetermined distance L2 (<L1)
When it is determined that the sound is longer, the speaker 28 is driven to output the synthesized sound of the horn (step S11).
At the same time as 2), as a danger avoiding operation, the opening of the throttle constituting the acceleration / deceleration mechanism 29 and the automatic transmission are controlled (step S113).

【0075】次に、上記の前方車両衝突警報処理を行う
際に使用するパラメータ(しきい値)として、所定距離
L1及びL2を決定する手順について説明する。本実施
形態において、所定距離L1及びL2は、以下に示す式
によって算出される。
Next, a procedure for determining the predetermined distances L1 and L2 as parameters (thresholds) used in performing the above-described forward vehicle collision warning process will be described. In the present embodiment, the predetermined distances L1 and L2 are calculated by the following equations.

【0076】L1(L2)=T×V+(V/α0+
(V−Vr))/αf)/2, 但し、上記の式において、所定距離L1及びL2、自車
速V、前方車両との相対速度Vr、自車両の想定減速度
α0、前方車両の想定減速度αf、ドライバの反応時間
Tであり、想定減速度α0及び反応時間Tは、ステップ
S6(図4)にて判定された5段階の運転技量レベルに
応じて、所定距離L1の算出に対しては、例えば以下の
値が設定される。
L1 (L2) = T × V + (V 2 / α0 +
(V−Vr) 2 ) / αf) / 2, where, in the above equation, the predetermined distances L1 and L2, the own vehicle speed V, the relative speed Vr with respect to the preceding vehicle, the assumed deceleration α0 of the own vehicle, and the assumption of the preceding vehicle. The deceleration αf and the reaction time T of the driver are used, and the assumed deceleration α0 and the reaction time T are calculated based on the five driving skill levels determined in step S6 (FIG. 4). For example, the following values are set.

【0077】 レベル1:α0=α01(=0.15G),T=T1(=1.2s), レベル2:α0=α02(=0.20G),T=T2(=1.1s), レベル3:α0=α03(=0.25G),T=T3(=1.0s), レベル4:α0=α04(=0.30G),T=T4(=0.9s), レベル5:α0=α05(=0.35G),T=T5(=0.8s), 同様に、所定距離L2の算出に対しては、例えば以下の
値が設定される。
Level 1: α0 = α01 (= 0.15G), T = T1 (= 1.2s), Level 2: α0 = α02 (= 0.20G), T = T2 (= 1.1s), Level 3: α0 = α03 (= 0.25G), T = T3 (= 1.0s), Level 4: α0 = α04 (= 0.30G), T = T4 (= 0.9s), Level 5: α0 = α05 (= 0.35G), T = T5 (= 0.8 s) Similarly, for the calculation of the predetermined distance L2, for example, the following values are set.

【0078】 レベル1:α0=α01(=0.4G),T=T1(=1.2s), レベル2:α0=α02(=0.5G),T=T2(=1.1s), レベル3:α0=α03(=0.6G),T=T3(=1.0s), レベル4:α0=α04(=0.7G),T=T4(=0.9s), レベル5:α0=α05(=0.8G),T=T5(=0.8s), 尚、上記の如く前方車両衝突警報処理を行うに際して、
情報提供及び/または自動的な危険回避動作を行う実行
タイミングは、走行中の道路の種類、路面状態、或いは
前方車両の種類に応じて補正すると良い。即ち、自車両
が走行中の道路種類が、一般道路の場合には実行タイミ
ングを遅延させ、高速道路の場合には、一般道路と比較
してブレーキをかけるまでに移動する距離が長くなるた
め、実行タイミングを早めに補正すると良い。また、自
車両の車輪速の差分により算出可能な走行中の道路の路
面摩擦係数μが大きいときには実行タイミングを遅延さ
せ、小さいときには、急な制動等によるスリップを防止
すべく実行タイミングを早めに補正すると良い。また、
前方車両の種類が大型車のときには実行タイミングを遅
延させ、スポーツカーのときには、大型車と比較して大
きな減速度で減速することが可能なので、実行タイミン
グを早めに補正すると良い。この実行タイミングの補正
は、以下に説明する9種類の制御にも適用することがで
きる。
Level 1: α0 = α01 (= 0.4 G), T = T1 (= 1.2 s), Level 2: α0 = α02 (= 0.5 G), T = T2 (= 1.1 s), Level 3: α0 = α03 (= 0.6G), T = T3 (= 1.0s), level 4: α0 = α04 (= 0.7G), T = T4 (= 0.9s), level 5: α0 = α05 (= 0.8 G), T = T5 (= 0.8 s), When performing the forward vehicle collision warning process as described above,
The timing of providing information and / or performing the automatic danger avoidance operation may be corrected according to the type of road on which the vehicle is traveling, the road surface condition, or the type of the vehicle ahead. That is, if the type of road on which the vehicle is traveling is a general road, the execution timing is delayed, and if the road type is an expressway, the travel distance before braking is longer than that of a general road. It is better to correct the execution timing earlier. Further, when the road friction coefficient μ of the traveling road, which can be calculated from the difference between the wheel speeds of the host vehicle, is large, the execution timing is delayed, and when the road friction coefficient μ is small, the execution timing is corrected earlier to prevent slippage due to sudden braking or the like. Good. Also,
When the type of the preceding vehicle is a large vehicle, the execution timing is delayed, and when the vehicle is a sports car, the execution timing can be decelerated at a larger deceleration as compared with the large vehicle. This correction of the execution timing can be applied to nine types of control described below.

【0079】<歩行者警報システムを実現する場合>次
に、上述したハードウエア構成に基づいて、歩行者警報
システムを実現する場合について説明する。
<Case of Realizing Pedestrian Warning System> Next, a case of realizing a pedestrian warning system based on the above-described hardware configuration will be described.

【0080】図12は、本実施形態に係る移動体の制御
装置に適用可能な歩行者警報処理を示すフローチャート
であり、例えば歩行者警報システム用メインスイッチ3
9がオン状態に設定されているときにコントロールユニ
ット1が実行する処理を示す。
FIG. 12 is a flowchart showing a pedestrian warning process applicable to the control apparatus for a moving object according to the present embodiment.
9 shows a process executed by the control unit 1 when 9 is set to the ON state.

【0081】同図において、ステップS121,ステッ
プS122:上述した前方車両衝突警報処理(図11)
のステップS101及びステップS102と同様に、車
速センサ14、操舵角センサ18、ヨーレートセンサ1
5、並びに車間距離センサ11による検出データに基づ
いて自車両の進行路を算出する。
In the figure, steps S121 and S122: the above-mentioned front vehicle collision warning process (FIG. 11)
As in steps S101 and S102, the vehicle speed sensor 14, the steering angle sensor 18, the yaw rate sensor 1
5, and the traveling path of the own vehicle is calculated based on the detection data from the inter-vehicle distance sensor 11.

【0082】ステップS123:算出した進行路内の所
定距離範囲L0内に歩行者が存在するかを判断し、この
判断でYESのとき(歩行者が存在するとき)にはステ
ップS124に進み、NOのとき(歩行者が存在しない
とき)にはステップS4(図4)に進む。ここで、この
進行路内に存在する歩行者の検出方法については、特開
平10−100820号等に開示された方法を採用すれ
ば良い。
Step S123: It is determined whether or not a pedestrian exists within the calculated predetermined distance range L0 in the traveling path. If the determination is YES (if a pedestrian is present), the process proceeds to step S124, and if NO If (there is no pedestrian), the process proceeds to step S4 (FIG. 4). Here, as a method of detecting a pedestrian existing in the traveling path, a method disclosed in Japanese Patent Application Laid-Open No. H10-100820 may be employed.

【0083】ステップS124,ステップS125:前
回の制御周期におけるステップS123において歩行者
の存在が検出されていたかを判断し(ステップS12
4)、この判断でNOのとき(歩行者の検出なしのと
き)にはステップS126に進み、YESのとき(歩行
者の検出ありのとき)には、その旨を報知する情報提供
動作として、スピーカ28を駆動して所定の単発人工音
(例えば「ピッ」)を出力する(ステップS125)。
Steps S124 and S125: It is determined whether the presence of a pedestrian has been detected in step S123 in the previous control cycle (step S12).
4) When the determination is NO (when no pedestrian is detected), the process proceeds to step S126, and when the determination is YES (when a pedestrian is detected), the information providing operation for notifying that is as follows. The speaker 28 is driven to output a predetermined single-shot artificial sound (for example, “beep”) (step S125).

【0084】ステップS126,ステップS127:検
出された歩行者と自車両との距離Lが所定距離L1より
短いかを判断し(ステップS126)、この判断でNO
の時にはステップS4(図4)に進み、YESのときに
は、その旨の情報提供として、スピーカ28を駆動して
クラクションの合成音を出力する(ステップS12
7)。
Steps S126 and S127: It is determined whether or not the detected distance L between the pedestrian and the host vehicle is shorter than a predetermined distance L1 (step S126).
In step S4, the process proceeds to step S4 (FIG. 4). In the case of YES, the speaker 28 is driven to output a synthesized horn sound as information provision to that effect (step S12).
7).

【0085】次に、上記の歩行者警報処理を行う際に使
用するパラメータ(しきい値)として、所定距離L1を
決定する手順について説明する。本実施形態において、
所定距離L1は、以下に示す式によって算出される。
Next, a procedure for determining the predetermined distance L1 as a parameter (threshold) used when performing the above-described pedestrian warning process will be described. In this embodiment,
The predetermined distance L1 is calculated by the following equation.

【0086】L1=T×V+(V/α0)/2, 但し、上記の式において、所定距離L1、自車速V、自
車両の想定減速度α0、ドライバの反応時間Tであり、
想定減速度α0及び反応時間Tは、ステップS6(図
4)にて判定された5段階の運転技量レベルに応じて、
例えば以下の値が設定される。
L1 = T × V + (V 2 / α0) / 2, where, in the above equation, the predetermined distance L1, the own vehicle speed V, the assumed deceleration α0 of the own vehicle, and the reaction time T of the driver,
The assumed deceleration α0 and the reaction time T are determined according to the five driving skill levels determined in step S6 (FIG. 4).
For example, the following values are set.

【0087】 レベル1:α0=α01(=0.15G),T=T1(=1.2s), レベル2:α0=α02(=0.20G),T=T2(=1.1s), レベル3:α0=α03(=0.25G),T=T3(=1.0s), レベル4:α0=α04(=0.30G),T=T4(=0.9s), レベル5:α0=α05(=0.35G),T=T5(=0.8s), <車線逸脱警報システムを実現する場合>次に、上述し
たハードウエア構成に基づいて、車線逸脱警報システム
を実現する場合について説明する。
Level 1: α0 = α01 (= 0.15 G), T = T1 (= 1.2 s), Level 2: α0 = α02 (= 0.20 G), T = T2 (= 1.1 s), Level 3: α0 = α03 (= 0.25G), T = T3 (= 1.0s), Level 4: α0 = α04 (= 0.30G), T = T4 (= 0.9s), Level 5: α0 = α05 (= 0.35G), T = T5 (= 0.8 s), <Case of Realizing Lane Departure Warning System> Next, a case of realizing a lane departure warning system based on the above-described hardware configuration will be described. I do.

【0088】図13は、本実施形態に係る移動体の制御
装置に適用可能な車線逸脱警報処理を示すフローチャー
トであり、例えば車線逸脱警報システム用メインスイッ
チ37がオン状態に設定されているときにコントロール
ユニット1が実行する処理を示す。
FIG. 13 is a flow chart showing a lane departure warning process applicable to the control device for a mobile unit according to the present embodiment. For example, when the main switch 37 for the lane departure warning system is set to the ON state, 2 shows a process executed by the control unit 1.

【0089】同図において、ステップS131,ステッ
プS132:車速センサ14、操舵角センサ18、ヨー
レートセンサ15、レーンマークセンサ12による検出
データを入力し(ステップS131)、それらのデータ
に基づいて、自車両の走行車線に対する逸脱状態(逸脱
量及び逸脱方向)を検出する。この逸脱量の算出方法に
ついては、特開平8−16994号等に開示された方法
を採用すれば良い。
In the figure, steps S131 and S132: Data detected by the vehicle speed sensor 14, the steering angle sensor 18, the yaw rate sensor 15, and the lane mark sensor 12 are input (step S131), and based on these data, the own vehicle is executed. Of the vehicle in the traveling lane (deviation amount and direction). As a method of calculating the deviation amount, a method disclosed in Japanese Patent Application Laid-Open No. 8-169994 may be employed.

【0090】ステップS133:算出した逸脱量が所定
量D1より大きいかを判断し、この判断でYESのとき
(逸脱量が所定量D1より大きいとき)にはステップS
134に進み、NOのとき(逸脱量が所定量D1より小
さいとき)にはステップS4(図4)に進む。
Step S133: It is determined whether or not the calculated deviation amount is larger than the predetermined amount D1. If the determination is YES (if the deviation amount is larger than the predetermined amount D1), the process proceeds to step S133.
The process proceeds to 134, and if NO (when the deviation amount is smaller than the predetermined amount D1), the process proceeds to step S4 (FIG. 4).

【0091】ステップS134:算出した逸脱量が所定
量D2(>D1)より大きいかを判断し、この判断でY
ESのとき(逸脱量が所定量D2より大きいとき)には
ステップS135に進み、NOのとき(逸脱量が所定量
D2より小さいとき)にはステップS138に進む。
Step S134: It is determined whether or not the calculated deviation amount is larger than a predetermined amount D2 (> D1).
In the case of ES (when the deviation amount is larger than the predetermined amount D2), the process proceeds to step S135, and in the case of NO (when the deviation amount is smaller than the predetermined amount D2), the process proceeds to step S138.

【0092】ステップS135〜ステップS137:自
車両がステップS132にて検出した逸脱方向に移動し
ているかを判断し(ステップS135)、自車両の移動
方向が当該逸脱方向とは異なるときにはステップS4
(図4)に進み、自車両の移動方向が当該逸脱方向のま
まであるときには、危険回避動作として、当該逸脱方向
と逆方向の操舵を行うべく操舵機構30を制御する(ス
テップS136)と共に、その旨を報知する情報提供動
作として、スピーカ28を駆動して所定の連続人工音
(例えば「ピッピッ」)を出力する(ステップS13
7)。
Steps S135 to S137: It is determined whether the own vehicle is moving in the departure direction detected in step S132 (step S135). If the moving direction of the own vehicle is different from the departure direction, step S4 is performed.
Proceeding to (FIG. 4), when the moving direction of the own vehicle remains in the departure direction, the steering mechanism 30 is controlled to perform steering in the direction opposite to the departure direction as a danger avoidance operation (step S136). As an information providing operation for notifying the user, the speaker 28 is driven to output a predetermined continuous artificial sound (for example, “beep”) (step S13).
7).

【0093】ステップS138,ステップS139:自
車両がステップS132にて検出した逸脱方向に移動し
ているかを判断し(ステップS138)、自車両の移動
方向が当該逸脱方向とは異なるときにはステップS4
(図4)に進み、自車両の移動方向が当該逸脱方向のま
まであるときには、その旨を報知する情報提供動作とし
て、スピーカ28を駆動して所定の合成音(例えば「ゴ
トゴトゴト」)を出力する(ステップS139)。
Steps S138 and S139: It is determined whether the own vehicle is moving in the departure direction detected in Step S132 (Step S138). If the moving direction of the own vehicle is different from the departure direction, Step S4 is performed.
Proceeding to FIG. 4, when the moving direction of the own vehicle remains in the departure direction, the speaker 28 is driven to output a predetermined synthesized sound (for example, “GotoGotoGoto”) as an information providing operation for notifying the deviation direction. (Step S139).

【0094】次に、上記の逸脱警報処理を行う際に使用
するパラメータ(しきい値)として、所定量D1及びD
2を決定する手順について説明する。本実施形態におい
て、所定量D1は、ドライバの運転技量に応じて以下に
示す値が設定される。また、所定量D2も、所定値D2
st(>D1st)を用いて、同様な設定により設定され
る。
Next, as parameters (thresholds) used in performing the above-described departure warning processing, predetermined amounts D1 and D1 are set.
2 will be described. In the present embodiment, the following value is set as the predetermined amount D1 according to the driving skill of the driver. The predetermined amount D2 is also equal to the predetermined value D2.
Using st (> D1st), the same setting is performed.

【0095】 レベル1:D1=D1st×1.2, レベル2:D1=D1st×1.1, レベル3:D1=D1st×1.0, レベル4:D1=D1st×0.9, レベル5:D1=D1st×0.8, <後側方警報システムを実現する場合>次に、上述した
ハードウエア構成に基づいて、後側方警報システムを実
現する場合について説明する。
Level 1: D1 = D1st × 1.2, Level 2: D1 = D1st × 1.1, Level 3: D1 = D1st × 1.0, Level 4: D1 = D1st × 0.9, Level 5: D1 = D1st × 0.8, <Case of Realizing Rear Side Warning System> Next, a case of realizing the rear side warning system based on the above-described hardware configuration will be described.

【0096】図14は、本実施形態に係る移動体の制御
装置に適用可能な後側方警報処理を示すフローチャート
であり、例えば後側方警報システム用メインスイッチ3
8がオン状態に設定されているときにコントロールユニ
ット1が実行する処理を示す。
FIG. 14 is a flowchart showing a rear-side alarm process applicable to the control apparatus for a mobile unit according to the present embodiment. For example, the main switch 3 for the rear-side alarm system is shown.
8 shows a process executed by the control unit 1 when 8 is set to the ON state.

【0097】同図において、ステップS141,ステッ
プS142:車速センサ14、操舵角センサ18、ヨー
レートセンサ15、後側方車両センサ13による検出デ
ータを入力し(ステップS141)、それらのデータに
基づいて、自車両の後側方に位置する他車両に関する値
(離間距離や相対速度)を検出する。この後側方に位置
する他車両に関する値の算出方法については、特開平1
0−206119号等に開示された方法を採用すれば良
い。
In the figure, steps S141 and S142: Data detected by the vehicle speed sensor 14, the steering angle sensor 18, the yaw rate sensor 15, and the rear side vehicle sensor 13 are input (step S141), and based on these data, A value (separation distance and relative speed) relating to another vehicle located behind the host vehicle is detected. The method for calculating the value for the other vehicle located on the rear side is described in
The method disclosed in Japanese Patent Application No. 0-206119 may be employed.

【0098】ステップS143:自車両の後側方所定距
離L1の範囲内に存在する他車両の方向に進路変更すべ
くウインカが操作されたかをウインカスイッチ31の操
作状態を入力することによって判断し、当該他車両の方
向へのウインカ操作を検出しなかったときにはステップ
S4(図4)に進み、当該他車両の方向へのウインカ操
作を検出したときには、その旨を報知する情報提供動作
として、当該他車両が存在する側のスピーカ28を駆動
してクラクションの合成音を出力する(ステップS14
4)。
Step S143: It is determined by inputting the operation state of the blinker switch 31 whether or not the blinker has been operated to change the course in the direction of another vehicle existing within the predetermined range L1 on the rear side of the own vehicle. When the blinker operation in the direction of the other vehicle is not detected, the process proceeds to step S4 (FIG. 4). When the blinker operation in the direction of the other vehicle is detected, the information providing operation for notifying the fact is performed. The speaker 28 on the side where the vehicle is present is driven to output the synthesized sound of the horn (step S14).
4).

【0099】次に、上記の後側方警報処理を行う際に使
用するパラメータ(しきい値)として、所定距離L1を
決定する手順について説明する。本実施形態において、
所定距離L1は、ドライバの運転技量に応じて以下に示
す値が設定される。
Next, a procedure for determining the predetermined distance L1 as a parameter (threshold) used when performing the above-mentioned rear side warning process will be described. In this embodiment,
The following value is set as the predetermined distance L1 according to the driving skill of the driver.

【0100】 レベル1:L1=D1st×1.2, レベル2:L1=D1st×1.1, レベル3:L1=D1st×1.0, レベル4:L1=D1st×0.9, レベル5:L1=D1st×0.8, <カーブ侵入速度警報システムを実現する場合>次に、
上述したハードウエア構成に基づいて、カーブ侵入速度
警報システムを実現する場合について説明する。
Level 1: L1 = D1st × 1.2, Level 2: L1 = D1st × 1.1, Level 3: L1 = D1st × 1.0, Level 4: L1 = D1st × 0.9, Level 5: L1 = D1st × 0.8 <To realize a curve intrusion speed warning system>
A description will be given of a case where the curve intrusion speed warning system is realized based on the above-described hardware configuration.

【0101】図15は、本実施形態に係る移動体の制御
装置に適用可能なカーブ侵入速度警報処理を示すフロー
チャートであり、コントロールユニット1が実行する処
理を示す。
FIG. 15 is a flowchart showing a curve intrusion speed warning process applicable to the moving body control apparatus according to the present embodiment, and shows a process executed by the control unit 1.

【0102】同図において、ステップS151,ステッ
プS152:車速センサ14、操舵角センサ18、ヨー
レートセンサ15、レーンマークセンサ12による検出
データを入力し(ステップS151)、それらのデータ
に基づいて、前方走行路のカーブ形状に関する値(曲
率、カーブ侵入までの距離)を検出する。この前方走行
路のカーブ形状に関する値の入手方法については、路車
間通信ユニット22からの入手情報を利用しても良い。
In FIG. 15, steps S151 and S152: Data detected by the vehicle speed sensor 14, the steering angle sensor 18, the yaw rate sensor 15, and the lane mark sensor 12 are input (step S151), and the vehicle travels forward based on these data. A value (curvature, distance to the entry of the curve) relating to the curve shape of the road is detected. As for the method of obtaining the value related to the curve shape of the front running road, information obtained from the road-to-vehicle communication unit 22 may be used.

【0103】ステップS153:算出した前方走行路の
カーブ形状に関する値に基づいて、所定距離L0の範囲
内にカーブが有るかを判断し、この判断でYESのとき
(所定距離L0の範囲内にカーブ有りのとき)にはステ
ップS154に進み、NOのとき(所定距離L0の範囲
内にカーブなしのとき)にはステップS4(図4)に進
む。
Step S153: It is determined whether or not there is a curve within the predetermined distance L0 based on the calculated value related to the curve shape of the front traveling road. If the determination is YES (the curve is within the predetermined distance L0) When there is), the process proceeds to step S154, and when NO (when there is no curve within the range of the predetermined distance L0), the process proceeds to step S4 (FIG. 4).

【0104】ステップS154:算出した前方走行路の
カーブ形状に関する値に基づいて、所定距離L1(<L
0)の範囲内にカーブが有るかを判断し、この判断でY
ESのとき(所定距離L1の範囲内にカーブ有りのと
き)にはステップS155に進み、NOのとき(所定距
離L1の範囲内にカーブなしのとき)にはステップS1
57に進む。
Step S154: A predetermined distance L1 (<L
It is determined whether or not the curve is within the range of 0).
In the case of ES (when there is a curve within the range of the predetermined distance L1), the process proceeds to step S155, and in the case of NO (when there is no curve within the range of the predetermined distance L1), the process proceeds to step S1.
Proceed to 57.

【0105】ステップS155,ステップS156:車
速センサ14により検出した車速Vが所定速度(例えば
40km/h)より大きいかを判断し(ステップS15
5)、その所定速度より小さいときにはステップS4
(図4)に進み、当該所定速度より大きいときには、そ
の旨を報知する情報提供動作として、スピーカ28を駆
動して所定の連続人工音(例えば「ピッピッ」)を出力
する(ステップS156)。
Steps S155 and S156: It is determined whether the vehicle speed V detected by the vehicle speed sensor 14 is higher than a predetermined speed (for example, 40 km / h) (Step S15).
5) If the speed is lower than the predetermined speed, step S4
Proceeding to (FIG. 4), when the speed is higher than the predetermined speed, the speaker 28 is driven to output a predetermined continuous artificial sound (for example, “pip-pip”) as an information providing operation for notifying that (step S156).

【0106】ステップS157,ステップS158:車
速センサ14により検出した車速Vが所定速度(例えば
40km/h)より大きいかを判断し(ステップS15
7)、その所定速度より小さいときにはステップS4
(図4)に進み、当該所定速度より大きいときには、そ
の旨を報知する情報提供動作として、スピーカ28を駆
動して所定の単発人工音(例えば「ピッ」)を出力する
(ステップS158)。
Steps S157 and S158: It is determined whether the vehicle speed V detected by the vehicle speed sensor 14 is higher than a predetermined speed (for example, 40 km / h) (Step S15).
7) If the speed is lower than the predetermined speed, step S4
Proceeding to (FIG. 4), when the speed is higher than the predetermined speed, the speaker 28 is driven to output a predetermined single-shot artificial sound (for example, “beep”) as an information providing operation for notifying that (step S158).

【0107】次に、上記のカーブ侵入速度警報処理を行
う際に使用するパラメータ(しきい値)として、所定距
離L0及びL1を決定する手順について説明する。本実
施形態において、所定距離L0は、ドライバの運転技量
に応じて以下に示す値が設定される。
Next, a procedure for determining the predetermined distances L0 and L1 as parameters (threshold values) used when performing the above-described curve intrusion speed warning processing will be described. In the present embodiment, the following value is set as the predetermined distance L0 according to the driving skill of the driver.

【0108】 レベル1:L0=L0st×1.2, レベル2:L0=L0st×1.1, レベル3:L0=L0st×1.0, レベル4:L0=L0st×0.9, レベル5:L0=L0st×0.8, 同様に、所定距離L1の算出に対しては、所定値L1st
(<L0st)を用いて、例えば以下の値が設定される。
Level 1: L0 = L0st × 1.2, Level 2: L0 = L0st × 1.1, Level 3: L0 = L0st × 1.0, Level 4: L0 = L0st × 0.9, Level 5: L0 = L0st × 0.8 Similarly, for the calculation of the predetermined distance L1, the predetermined value L1st
For example, the following values are set using (<L0st).

【0109】 レベル1:L1=L1st×1.2, レベル2:L1=L1st×1.1, レベル3:L1=L1st×1.0, レベル4:L1=L1st×0.9, レベル5:L1=L1st×0.8, <前方障害物情報提供システムを実現する場合>次に、
上述したハードウエア構成に基づいて、前方障害物情報
提供システムを実現する場合について説明する。
Level 1: L1 = L1st × 1.2, Level 2: L1 = L1st × 1.1, Level 3: L1 = L1st × 1.0, Level 4: L1 = L1st × 0.9, Level 5: L1 = L1st × 0.8, <To realize a forward obstacle information providing system>
A case in which a forward obstacle information providing system is realized based on the above-described hardware configuration will be described.

【0110】図16は、本実施形態に係る移動体の制御
装置に適用可能な前方障害物情報提供処理を示すフロー
チャートであり、コントロールユニット1が実行する処
理を示す。
FIG. 16 is a flowchart showing the forward obstacle information providing processing applicable to the control apparatus of the moving object according to the present embodiment, and shows the processing executed by the control unit 1.

【0111】同図において、ステップS161,ステッ
プS162:車速センサ14、操舵角センサ18、ヨー
レートセンサ15による検出データを入力する(ステッ
プS161)と共に、路車間通信ユニット22から前方
走行路に存在する障害物に関する情報(事故、落下物、
渋滞等)を入手する(ステップS161)。
In the figure, steps S161 and S162: The detection data from the vehicle speed sensor 14, the steering angle sensor 18 and the yaw rate sensor 15 are inputted (step S161), and the obstacle existing on the front running road from the road-vehicle communication unit 22. Information about things (accidents, falling objects,
Traffic congestion, etc.) is obtained (step S161).

【0112】ステップS163:入手した前方走行路に
存在する障害物に関する情報を参照することにより、自
車両前方の所定距離L0の範囲内で障害物が存在するか
を判断し、この判断でYESのとき(所定距離L0の範
囲内に障害物有りのとき)にはステップS164に進
み、NOのとき(所定距離L0の範囲内に障害物なしの
とき)にはステップS4(図4)に進む。
Step S163: It is determined whether or not an obstacle exists within a predetermined distance L0 ahead of the host vehicle by referring to the obtained information on the obstacle existing on the front traveling road. At this time (when there is an obstacle within the predetermined distance L0), the process proceeds to step S164, and when NO (when there is no obstacle within the predetermined distance L0), the process proceeds to step S4 (FIG. 4).

【0113】ステップS164:自車両前方の所定距離
L0の範囲内で障害物が存在する旨を報知する情報提供
動作として、スピーカ28を駆動して所定の単発人工音
(例えば「ピッ」)を出力する。
Step S164: As an information providing operation for notifying that an obstacle is present within a predetermined distance L0 ahead of the host vehicle, the speaker 28 is driven to output a predetermined single-shot artificial sound (for example, "beep"). I do.

【0114】次に、上記の前方障害物情報提供処理を行
う際に使用するパラメータ(しきい値)として、所定距
離L0を決定する手順について説明する。本実施形態に
おいて、所定距離L0は、ドライバの運転技量に応じて
以下に示す値が設定される。
Next, a procedure for determining the predetermined distance L0 as a parameter (threshold) used when performing the above-described forward obstacle information providing process will be described. In the present embodiment, the following value is set as the predetermined distance L0 according to the driving skill of the driver.

【0115】 レベル1:L0=L0st×1.4, レベル2:L0=L0st×1.2, レベル3:L0=L0st×1.0, レベル4:L0=L0st×0.8, レベル5:L0=L0st×0.6, <歩行者情報提供システムを実現する場合>次に、上述
したハードウエア構成に基づいて、歩行者情報提供シス
テムを実現する場合について説明する。
Level 1: L0 = L0st × 1.4, Level 2: L0 = L0st × 1.2, Level 3: L0 = L0st × 1.0, Level 4: L0 = L0st × 0.8, Level 5: L0 = L0st × 0.6, <Case of Realizing Pedestrian Information Providing System> Next, a case of realizing a pedestrian information providing system based on the above-described hardware configuration will be described.

【0116】図17は、本実施形態に係る移動体の制御
装置に適用可能な歩行者情報提供処理を示すフローチャ
ートであり、コントロールユニット1が実行する処理を
示す。
FIG. 17 is a flowchart showing a pedestrian information providing process applicable to the moving object control apparatus according to the present embodiment, and shows a process executed by the control unit 1.

【0117】同図において、ステップS171,ステッ
プS172:車速センサ14、操舵角センサ18、ヨー
レートセンサ15による検出データを入力する(ステッ
プS171)と共に、路車間通信ユニット22から前方
交差点の横断歩道上に存在する歩行者に関する情報を入
手する。
In the figure, steps S171 and S172: Data detected by the vehicle speed sensor 14, the steering angle sensor 18 and the yaw rate sensor 15 are input (step S171), and the road-vehicle communication unit 22 sends the data on the pedestrian crossing at the front intersection. Get information about existing pedestrians.

【0118】ステップS173:入手した前方交差点の
横断歩道上に存在する歩行者に関する情報を参照するこ
とにより、自車両前方の所定距離L0の範囲内で歩行者
が存在するかを判断し、この判断でYESのとき(所定
距離L0の範囲内に歩行者有りのとき)にはステップS
174に進み、NOのとき(所定距離L0の範囲内に歩
行者なしのとき)にはステップS4(図4)に進む。
Step S173: It is determined whether a pedestrian exists within a predetermined distance L0 ahead of the host vehicle by referring to the obtained information on the pedestrian existing on the pedestrian crossing at the front intersection. If YES (when there is a pedestrian within the range of the predetermined distance L0), step S
The process proceeds to 174, and if NO (when there is no pedestrian within the range of the predetermined distance L0), the process proceeds to step S4 (FIG. 4).

【0119】ステップS174:自車両前方の所定距離
L0の範囲内で歩行者が存在する旨を報知する情報提供
動作として、スピーカ28を駆動して所定の単発人工音
(例えば「ピッ」)を出力する。
Step S174: As an information providing operation for notifying that a pedestrian is present within a predetermined distance L0 ahead of the host vehicle, the speaker 28 is driven to output a predetermined single-shot artificial sound (for example, "beep"). I do.

【0120】尚、上記の歩行者情報提供処理を行う際に
使用するパラメータ(しきい値)として、所定距離L0
を決定する手順については、前方障害物情報提供処理と
同様に行えば良い。
The parameter (threshold) used when performing the pedestrian information providing process is a predetermined distance L0.
May be determined in the same manner as the forward obstacle information providing process.

【0121】<右折車両情報提供システムを実現する場
合>次に、上述したハードウエア構成に基づいて、右折
車両情報提供システムを実現する場合について説明す
る。
<Case of Realizing Right Turn Vehicle Information Providing System> Next, a case of realizing a right turn vehicle information providing system based on the above-described hardware configuration will be described.

【0122】図18は、本実施形態に係る移動体の制御
装置に適用可能な右折車両情報提供処理を示すフローチ
ャートであり、コントロールユニット1が実行する処理
を示す。
FIG. 18 is a flowchart showing a right turn vehicle information providing process applicable to the moving object control apparatus according to the present embodiment, and shows the process executed by the control unit 1.

【0123】同図に示す右折車両情報提供処理及びその
処理に使用するパラメータ(しきい値)の設定方法は、
上述した歩行者情報提供処理と略同様であり、重複する
説明は省略するが、当該右折車両情報提供処理において
は、ステップS182において路車間通信ユニット22
から前方交差点における対向車に関する情報を入手し、
ステップS183において入手した情報に基づいて対向
車の有無を判断する点が歩行者情報提供処理と異なる。
The right turn vehicle information providing process shown in the figure and the method of setting parameters (thresholds) used in the process are as follows.
This is substantially the same as the above-described pedestrian information providing process, and the overlapping description is omitted. However, in the right-turn vehicle information providing process, in the step S182, the road-vehicle communication unit 22
Get information about oncoming vehicles at the intersection ahead from
The difference from the pedestrian information providing process is that the presence or absence of an oncoming vehicle is determined based on the information obtained in step S183.

【0124】<第1の出会い頭車両情報提供システムを
実現する場合>次に、上述したハードウエア構成に基づ
いて、第1の出会い頭車両情報提供システムを実現する
場合について説明する。
<Case of Implementing First Encounter Vehicle Information Providing System> Next, a case of implementing the first encounter vehicle information providing system based on the above-described hardware configuration will be described.

【0125】図19は、本実施形態に係る移動体の制御
装置に適用可能な第1の出会い頭車両情報提供処理を示
すフローチャートであり、コントロールユニット1が実
行する処理を示す。
FIG. 19 is a flowchart showing a first meeting vehicle information providing process applicable to the control apparatus for a moving object according to the present embodiment, and shows a process executed by the control unit 1.

【0126】同図において、ステップS191,ステッ
プS192:車速センサ14、操舵角センサ18、ヨー
レートセンサ15による検出データを入力する(ステッ
プS191)と共に、路車間通信ユニット22から前方
走行路に存在する一時停止が必要な交差点に関する情報
(係る交差点の停止位置までの距離)を入手する(ステ
ップS192)。
In FIG. 19, steps S191 and S192: Data detected by the vehicle speed sensor 14, the steering angle sensor 18, and the yaw rate sensor 15 are input (step S191), and at the same time, the vehicle-to-vehicle communication unit 22 temporarily outputs the data on the front traveling road. Information on the intersection that needs to be stopped (distance to the stop position of the intersection) is obtained (step S192).

【0127】ステップS193:入手した前方走行路に
存在する一時停止が必要な交差点に関する情報を参照す
ることにより、自車両前方の所定距離L0の範囲内で一
時停止が必要な交差点が存在するかを判断し、この判断
でYESのとき(所定距離L0の範囲内に一時停止が必
要な交差点有りのとき)にはステップS194に進み、
NOのとき(所定距離L0の範囲内に一時停止が必要な
交差点なしのとき)にはステップS4(図4)に進む。
Step S193: It is determined whether there is an intersection which needs to be stopped within a predetermined distance L0 ahead of the own vehicle by referring to the obtained information regarding the intersection which needs to be temporarily stopped and exists on the front traveling road. If the determination is YES (if there is an intersection requiring a temporary stop within the range of the predetermined distance L0), the process proceeds to step S194,
When the determination is NO (when there is no intersection requiring a temporary stop within the range of the predetermined distance L0), the process proceeds to step S4 (FIG. 4).

【0128】ステップS194,ステップS195:前
回の制御周期におけるステップS193において自車両
に接近する車両が検出されたかを判断し(ステップS1
94)、この判断でNOのとき(接近車両なしのとき)
にはステップS196に進み、YESのとき(接近車両
有りのとき)には、自車両前方の所定距離L0の範囲内
の一時停止が必要な交差点に接近する他車両が存在する
旨を報知する情報提供動作として、スピーカ28を駆動
して所定の単発人工音(例えば「ピッ」)を出力する
(ステップS195)。
Steps S194 and S195: It is determined whether or not a vehicle approaching the own vehicle has been detected in step S193 in the previous control cycle (step S1).
94) When the judgment is NO (when there is no approaching vehicle)
Proceeds to step S196, and when YES (when there is an approaching vehicle), information notifying that there is another vehicle approaching an intersection which needs to be temporarily stopped within a predetermined distance L0 ahead of the own vehicle. As the providing operation, the speaker 28 is driven to output a predetermined single-shot artificial sound (for example, “beep”) (step S195).

【0129】ステップS196:入手した前方走行路に
存在する一時停止が必要な交差点に関する情報を参照す
ることにより、自車両前方の所定距離L1(<L0)の
範囲内で一時停止が必要な交差点が存在するかを判断
し、この判断でYESのとき(所定距離L1の範囲内に
一時停止が必要な交差点有りのとき)にはステップS1
97に進み、NOのとき(所定距離L1の範囲内に一時
停止が必要な交差点なしのとき)にはステップS4(図
4)に進む。
Step S196: By referring to the obtained information on the intersection that needs to be temporarily stopped and exists on the front traveling road, the intersection that needs to be temporarily stopped within a predetermined distance L1 (<L0) ahead of the own vehicle is determined. It is determined whether the vehicle is present. If the determination is YES (if there is an intersection that needs to be temporarily stopped within the range of the predetermined distance L1), the process proceeds to step S1.
The process proceeds to step S4 (FIG. 4) when the answer is NO (when there is no intersection requiring a temporary stop within the range of the predetermined distance L1).

【0130】ステップS197:自車両前方の所定距離
L1の範囲内の一時停止が必要な交差点に接近する他車
両が存在する旨を報知する情報提供動作として、スピー
カ28を駆動して所定の連側人工音(例えば「ピッピ
ッ」)を出力する。
Step S197: As an information providing operation for notifying that there is another vehicle approaching an intersection which needs to be temporarily stopped within a predetermined distance L1 in front of the own vehicle, the speaker 28 is driven to perform a predetermined connection. Outputs an artificial sound (for example, “beep”).

【0131】次に、上記の第1の出会い頭車両情報提供
処理を行う際に使用するパラメータ(しきい値)とし
て、所定距離L0及びL1を決定する手順について説明
する。本実施形態において、所定距離L0は、ドライバ
の運転技量に応じて以下に示す値が設定される。
Next, a description will be given of a procedure for determining the predetermined distances L0 and L1 as parameters (thresholds) used in performing the first encountering vehicle information providing process. In the present embodiment, the following value is set as the predetermined distance L0 according to the driving skill of the driver.

【0132】 レベル1:L0=L0st×1.4, レベル2:L0=L0st×1.2, レベル3:L0=L0st×1.0, レベル4:L0=L0st×0.8, レベル5:L0=L0st×0.6, 同様に、所定距離L1の算出に対しては、所定値L1st
(<L0st)を用いて、例えば以下の値が設定される。
Level 1: L0 = L0st × 1.4, Level 2: L0 = L0st × 1.2, Level 3: L0 = L0st × 1.0, Level 4: L0 = L0st × 0.8, Level 5: L0 = L0st × 0.6 Similarly, for the calculation of the predetermined distance L1, the predetermined value L1st
For example, the following values are set using (<L0st).

【0133】 レベル1:L1=L1st×1.2, レベル2:L1=L1st×1.1, レベル3:L1=L1st×1.0, レベル4:L1=L1st×0.9, レベル5:L1=L1st×0.8, <第2の出会い頭車両情報提供システムを実現する場合
>次に、上述したハードウエア構成に基づいて、第2の
出会い頭車両情報提供システムを実現する場合について
説明する。
Level 1: L1 = L1st × 1.2, Level 2: L1 = L1st × 1.1, Level 3: L1 = L1st × 1.0, Level 4: L1 = L1st × 0.9, Level 5: L1 = L1st × 0.8, <Case of Realizing Second Encounter Vehicle Information Providing System> Next, a case of realizing the second encounter vehicle information providing system based on the above-described hardware configuration will be described.

【0134】図20は、本実施形態に係る移動体の制御
装置に適用可能な第2の出会い頭車両情報提供処理を示
すフローチャートであり、コントロールユニット1が実
行する処理を示す。
FIG. 20 is a flowchart showing the second meeting vehicle information providing process applicable to the moving body control apparatus according to the present embodiment, and shows the process executed by the control unit 1.

【0135】同図に示す第2の出会い頭車両情報提供処
理及びその処理に使用するパラメータ(しきい値)の設
定方法は、、上述した第1の出会い頭車両情報提供処理
と略同様であり、重複する説明は省略するが、当該第2
の出会い頭車両情報提供処理においては、ステップS2
02において前方走行路に存在する一時停止が必要な交
差点における非優先道路側の道路を、その交差点に向か
って接近してくる他車両に関する情報(係る車両の車
速、交差点までの距離)を路車間通信ユニット22から
入手し、ステップS203においては、係る他車両が自
車両前方の所定距離L0の範囲内に存在するかを判断す
る点が第1の出会い頭車両情報提供処理と異なる。
The second encounter vehicle information providing process and the method of setting parameters (thresholds) used in the process are substantially the same as the first encounter vehicle information providing process shown in FIG. The description of the second is omitted,
In the encounter vehicle information providing process of step S2,
02, information on other vehicles approaching the intersection on the non-priority road side at the intersection requiring a temporary stop existing on the front traveling road (vehicle speed of the relevant vehicle, distance to the intersection) is set between the road and the vehicle. Obtained from the communication unit 22 and differs from the first encounter vehicle information providing process in that in step S203, it is determined whether the other vehicle is within a predetermined distance L0 ahead of the host vehicle.

【0136】このように、上述した本実施形態によれ
ば、危険回避能力が一般に低い運転技量の低いドライバ
に対しては、情報提供、或いは危険回避動作が早めに実
行されるため、ドライバの運転特性に応じて最適な情報
提供制御、或いは危険回避制御を行うことができ、安全
運転に寄与することができる。
As described above, according to the above-described embodiment, the information provision or the danger avoidance operation is performed promptly for the driver having a low danger avoidance ability and a low driving skill. Optimal information provision control or danger avoidance control can be performed according to the characteristics, which can contribute to safe driving.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態に係る移動体の制御装置を搭載する
自動車のシステム構成を示す図である。
FIG. 1 is a diagram showing a system configuration of an automobile equipped with a control device for a moving body according to an embodiment.

【図2】本実施形態に係る移動体の制御装置における制
御機能の構成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a control function in the moving object control device according to the embodiment;

【図3】図1に示す自動車の運転席を示す図である。FIG. 3 is a view showing a driver's seat of the automobile shown in FIG. 1;

【図4】本実施形態に係る移動体の制御装置のコントロ
ールユニット1が実行する制御処理の基本フローチャー
トを示す図である。
FIG. 4 is a diagram showing a basic flowchart of a control process executed by a control unit 1 of the control device for a moving body according to the present embodiment.

【図5】本実施形態における注視点検出センサ19のシ
ステム構成を示すブロック図である。
FIG. 5 is a block diagram illustrating a system configuration of a gazing point detection sensor 19 according to the present embodiment.

【図6】車線変更時のドライバの頭顔の動きと視線方向
の動きに関する実験結果を示す図である。
FIG. 6 is a diagram illustrating experimental results regarding the movement of the driver's head and face and the line of sight when changing lanes.

【図7】本実施形態における注視点検出処理のフローチ
ャートを示す図である。
FIG. 7 is a diagram illustrating a flowchart of a gazing point detection process according to the embodiment.

【図8】間接ミラーの注視頻度に基づく運転技量判定処
理を示すフローチャートである。
FIG. 8 is a flowchart illustrating a driving skill determination process based on the gaze frequency of the indirect mirror.

【図9】車両周囲への注視頻度に基づく運転技量判定処
理を示すフローチャートである。
FIG. 9 is a flowchart illustrating a driving skill determination process based on the frequency of gazing around the vehicle.

【図10】車両前方の遠方注視頻度に基づく運転技量判
定処理を示すフローチャートである。
FIG. 10 is a flowchart illustrating a driving skill determination process based on a distant gaze frequency in front of the vehicle.

【図11】本実施形態に係る移動体の制御装置に適用可
能な前方車両衝突警報処理を示すフローチャートであ
る。
FIG. 11 is a flowchart showing a forward vehicle collision warning process applicable to the control device for a moving object according to the present embodiment.

【図12】本実施形態に係る移動体の制御装置に適用可
能な歩行者警報処理を示すフローチャートである。
FIG. 12 is a flowchart illustrating a pedestrian warning process applicable to the moving object control device according to the embodiment;

【図13】本実施形態に係る移動体の制御装置に適用可
能な車線逸脱警報処理を示すフローチャートである。
FIG. 13 is a flowchart showing a lane departure warning process applicable to the moving object control device according to the embodiment;

【図14】本実施形態に係る移動体の制御装置に適用可
能な後側方警報処理を示すフローチャートである。
FIG. 14 is a flowchart illustrating a rear side warning process applicable to the control device of the moving body according to the present embodiment.

【図15】本実施形態に係る移動体の制御装置に適用可
能なカーブ侵入速度警報処理を示すフローチャートであ
る。
FIG. 15 is a flowchart showing a curve intrusion speed warning process applicable to the moving object control device according to the embodiment;

【図16】本実施形態に係る移動体の制御装置に適用可
能な前方障害物情報提供処理を示すフローチャートであ
る。
FIG. 16 is a flowchart illustrating a forward obstacle information providing process applicable to the moving object control device according to the embodiment;

【図17】本実施形態に係る移動体の制御装置に適用可
能な歩行者情報提供処理を示すフローチャートである。
FIG. 17 is a flowchart showing a pedestrian information providing process applicable to the moving object control device according to the embodiment;

【図18】本実施形態に係る移動体の制御装置に適用可
能な右折車両情報提供処理を示すフローチャートであ
る。
FIG. 18 is a flowchart illustrating a right-turn vehicle information providing process applicable to the moving object control device according to the present embodiment.

【図19】本実施形態に係る移動体の制御装置に適用可
能な第1の出会い頭車両情報提供処理を示すフローチャ
ートである。
FIG. 19 is a flowchart showing a first meeting vehicle information providing process applicable to the control device for a moving object according to the present embodiment.

【図20】本実施形態に係る移動体の制御装置に適用可
能な第2の出会い頭車両情報提供処理を示すフローチャ
ートである。
FIG. 20 is a flowchart illustrating a second meeting vehicle information providing process applicable to the control device of the moving object according to the embodiment.

【符号の説明】[Explanation of symbols]

1:コントロールユニット, 3:各種操作スイッチ群, 11:車間距離センサ, 12:レーンマーカセンサ, 13:後側方車両センサ, 14:車速センサ, 15:ヨーレートセンサ, 16:スロットルセンサ, 17:ブレーキ圧センサ, 18:操舵角センサ, 19:注視点検出センサ, 20:地図情報, 21:GPSセンサ, 22:路車間通信ユニット, 23:赤外投光ランプ, 24:赤外投光領域撮像カメラ, 27:ディスプレイ, 28:スピーカ, 29:加減速機構, 30:操舵機構, 1: control unit, 3: various operation switches, 11: inter-vehicle distance sensor, 12: lane marker sensor, 13: rear side vehicle sensor, 14: vehicle speed sensor, 15: yaw rate sensor, 16: throttle sensor, 17: brake Pressure sensor, 18: steering angle sensor, 19: fixation point detection sensor, 20: map information, 21: GPS sensor, 22: road-to-vehicle communication unit, 23: infrared light emitting lamp, 24: infrared light emitting area imaging camera , 27: display, 28: speaker, 29: acceleration / deceleration mechanism, 30: steering mechanism,

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3D037 FA01 FA10 FA13 FA16 FA23 FA24 FA25 FA26 FB00 FB02 FB09 FB10 FB12 3D044 AA24 AA25 AC01 AC26 AC31 AC51 AC55 AC59 AE14 3G084 DA00 FA00 5H180 AA01 CC02 CC03 CC04 CC14 FF05 FF13 LL01 LL07 LL08 LL09  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 3D037 FA01 FA10 FA13 FA16 FA23 FA24 FA25 FA26 FB00 FB02 FB09 FB10 FB12 3D044 AA24 AA25 AC01 AC26 AC31 AC51 AC55 AC59 AE14 3G084 DA00 FA00 5H180 AA01 CC02 CC03 CC04 LLFF LL08 LL09

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 ドライバにより運転される移動体の制御
装置であって、 移動体の運転状態を検出する運転状態検出手段と、 前記運転状態検出手段によって検出された運転状態が所
定状態となったときに、その検出された運転状態に関す
る情報をドライバに提供する情報提供手段と、 前記ドライバの視認行動を検出する視認行動検出手段
と、 前記視認行動検出手段によって検出された視認行動に基
づいて前記ドライバの運転特性を判定し、その判定され
た運転特性に応じて、前記情報提供手段による情報提供
制御を補正する制御手段と、を備えることを特徴とする
移動体の制御装置。
1. A control device for a moving body driven by a driver, wherein a driving state detecting means for detecting a driving state of the moving body, and a driving state detected by the driving state detecting means is a predetermined state. Information providing means for providing information on the detected driving state to the driver, a visual recognition behavior detecting means for detecting the visual recognition behavior of the driver, and a visual recognition action detected by the visual recognition behavior detection means. A control device for a moving body, comprising: control means for determining a driving characteristic of a driver and correcting information provision control by the information providing means according to the determined driving characteristic.
【請求項2】 前記視認行動検出手段は、前記移動体に
設けられたミラーに対する前記ドライバの注視頻度を検
出しており、 前記制御手段は、前記視認行動検出手段によって検出さ
れた注視頻度が所定回数より少ないときに、前記補正を
実行することを特徴とする請求項1記載の移動体の制御
装置。
2. The visual recognition behavior detecting means detects a gaze frequency of the driver with respect to a mirror provided on the moving body, and the control means determines that the gaze frequency detected by the visual behavior detection means is a predetermined frequency. 2. The control device for a moving body according to claim 1, wherein the correction is performed when the number of times is less than the number of times.
【請求項3】 前記視認行動検出手段は、前記ドライバ
による前記移動体前方に対する注視範囲を検出してお
り、 前記制御手段は、前記視認行動検出手段によって検出さ
れた注視範囲が所定範囲より狭いときに、前記補正を実
行することを特徴とする請求項1記載の移動体の制御装
置。
3. The visual recognition action detection means detects a gaze range of the driver with respect to the front of the moving body, and the control means sets a gaze range detected by the visual recognition action detection means smaller than a predetermined range. 2. The control device for a moving body according to claim 1, wherein the correction is performed.
【請求項4】 前記視認行動検出手段は、前記ドライバ
による前記移動体前方に対する注視距離を検出してお
り、 前記制御手段は、前記視認行動検出手段によって検出さ
れた注視距離が所定距離より短いときに、前記補正を実
行することを特徴とする請求項1記載の移動体の制御装
置。
4. The visual recognition action detecting means detects a gaze distance of the driver with respect to the front of the moving object, and the control means detects when the gaze distance detected by the visual recognition action detection means is shorter than a predetermined distance. 2. The control device for a moving body according to claim 1, wherein the correction is performed.
【請求項5】 ドライバにより運転される移動体の制御
装置であって、 移動体の運転状態を検出する運転状態検出手段と、 前記運転状態検出手段によって検出された運転状態が所
定状態となったときに、前記移動体に自動的に危険回避
動作を行わせる危険回避手段と、 前記ドライバの視認行動を検出する視認行動検出手段
と、 前記視認行動検出手段によって検出された視認行動に基
づいて前記ドライバの運転特性を判定し、その判定され
た運転特性に応じて、前記危険回避手段による危険回避
制御を補正する制御手段と、を備えることを特徴とする
移動体の制御装置。
5. A control device for a moving body driven by a driver, wherein: an operating state detecting means for detecting an operating state of the moving body; and an operating state detected by the operating state detecting means is a predetermined state. A danger avoiding means for causing the moving body to automatically perform a danger avoiding operation; a visual recognition action detecting means for detecting a visual recognition action of the driver; and a visual recognition action detected by the visual recognition action detecting means. A control device for a moving body, comprising: control means for determining a driving characteristic of a driver and correcting danger avoidance control by the danger avoiding means in accordance with the determined driving characteristic.
JP35018199A 1999-12-09 1999-12-09 Automotive control device Expired - Fee Related JP4348663B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35018199A JP4348663B2 (en) 1999-12-09 1999-12-09 Automotive control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35018199A JP4348663B2 (en) 1999-12-09 1999-12-09 Automotive control device

Publications (2)

Publication Number Publication Date
JP2001163082A true JP2001163082A (en) 2001-06-19
JP4348663B2 JP4348663B2 (en) 2009-10-21

Family

ID=18408774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35018199A Expired - Fee Related JP4348663B2 (en) 1999-12-09 1999-12-09 Automotive control device

Country Status (1)

Country Link
JP (1) JP4348663B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003051100A (en) * 2001-08-07 2003-02-21 Nissan Motor Co Ltd Device for supporting traveling
JP2003118421A (en) * 2001-10-12 2003-04-23 Pioneer Electronic Corp Organism state measuring device and method, mobile body navigation system and method, library device, and computer program
JP2004145725A (en) * 2002-10-25 2004-05-20 Mazda Motor Corp Driving support system for vehicle
WO2005038746A1 (en) * 2003-10-20 2005-04-28 Yamaha Hatsudoki Kabushiki Kaisha Travel support method and system for two-wheeled motor vehicle
JP2005293479A (en) * 2004-04-05 2005-10-20 Denso Corp Object danger decision device
JP2006163828A (en) * 2004-12-07 2006-06-22 Nissan Motor Co Ltd Alarm device for vehicle, and method of alarming ambient condition of vehicle
JP2007017340A (en) * 2005-07-08 2007-01-25 Aisin Aw Co Ltd Navigation device and method
JP2007133692A (en) * 2005-11-10 2007-05-31 Toyota Motor Corp Driving action evaluation device
WO2008099503A1 (en) * 2007-02-16 2008-08-21 Pioneer Corporation Driving support device, driving support method, driving support program and storage medium
JP2012041021A (en) * 2010-08-23 2012-03-01 Denso Corp Speed control apparatus
JP2013514592A (en) * 2009-12-18 2013-04-25 本田技研工業株式会社 Predictive human-machine interface using gaze technology, blind spot indicator and driver experience
CN104590273A (en) * 2014-12-26 2015-05-06 贵州万臻时代通讯技术有限公司 Safe driving system and method based on human body reactions
JP2015150979A (en) * 2014-02-13 2015-08-24 トヨタ自動車株式会社 vehicle control device
JP2017087940A (en) * 2015-11-09 2017-05-25 マツダ株式会社 Vehicle speed control device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600390B2 (en) 2018-01-10 2020-03-24 International Business Machines Corporation Displaying a vehicle notification in a location determined based on driver eye gaze direction and other criteria
EP4250064A4 (en) * 2021-06-29 2024-04-24 Samsung Electronics Co., Ltd. Electronic device for correcting error during gaze direction recognition, and operating method of electronic device
WO2024186073A1 (en) * 2023-03-06 2024-09-12 엘지전자 주식회사 Driving mode display device and driving mode display method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0594600A (en) * 1991-10-01 1993-04-16 Nissan Motor Co Ltd Approach judging device for vehicle
JPH0765295A (en) * 1993-08-26 1995-03-10 Mazda Motor Corp Latent danger detecting device for automobile
JPH07167668A (en) * 1993-12-14 1995-07-04 Nissan Motor Co Ltd Equipment for offering information on running
JPH08178712A (en) * 1994-12-22 1996-07-12 Toyota Motor Corp Rambling-drive detection apparatus
JPH097100A (en) * 1995-06-19 1997-01-10 Honda Motor Co Ltd Driver's gaze point predicting device and vehicle drive support system using the same
JPH10166895A (en) * 1996-12-09 1998-06-23 Mitsubishi Electric Corp Follow-up traveling controller for vehicle
JPH10272959A (en) * 1997-03-31 1998-10-13 Mitsubishi Motors Corp Vigilance estimating device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0594600A (en) * 1991-10-01 1993-04-16 Nissan Motor Co Ltd Approach judging device for vehicle
JPH0765295A (en) * 1993-08-26 1995-03-10 Mazda Motor Corp Latent danger detecting device for automobile
JPH07167668A (en) * 1993-12-14 1995-07-04 Nissan Motor Co Ltd Equipment for offering information on running
JPH08178712A (en) * 1994-12-22 1996-07-12 Toyota Motor Corp Rambling-drive detection apparatus
JPH097100A (en) * 1995-06-19 1997-01-10 Honda Motor Co Ltd Driver's gaze point predicting device and vehicle drive support system using the same
JPH10166895A (en) * 1996-12-09 1998-06-23 Mitsubishi Electric Corp Follow-up traveling controller for vehicle
JPH10272959A (en) * 1997-03-31 1998-10-13 Mitsubishi Motors Corp Vigilance estimating device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003051100A (en) * 2001-08-07 2003-02-21 Nissan Motor Co Ltd Device for supporting traveling
JP2003118421A (en) * 2001-10-12 2003-04-23 Pioneer Electronic Corp Organism state measuring device and method, mobile body navigation system and method, library device, and computer program
JP2004145725A (en) * 2002-10-25 2004-05-20 Mazda Motor Corp Driving support system for vehicle
WO2005038746A1 (en) * 2003-10-20 2005-04-28 Yamaha Hatsudoki Kabushiki Kaisha Travel support method and system for two-wheeled motor vehicle
JP2005293479A (en) * 2004-04-05 2005-10-20 Denso Corp Object danger decision device
JP2006163828A (en) * 2004-12-07 2006-06-22 Nissan Motor Co Ltd Alarm device for vehicle, and method of alarming ambient condition of vehicle
JP4604691B2 (en) * 2004-12-07 2011-01-05 日産自動車株式会社 Alarm device for vehicle, alarm method of vehicle surrounding situation
US7930096B2 (en) 2005-07-08 2011-04-19 Aisin Aw Co., Ltd. Navigation systems, methods, and programs
JP2007017340A (en) * 2005-07-08 2007-01-25 Aisin Aw Co Ltd Navigation device and method
JP2007133692A (en) * 2005-11-10 2007-05-31 Toyota Motor Corp Driving action evaluation device
WO2008099503A1 (en) * 2007-02-16 2008-08-21 Pioneer Corporation Driving support device, driving support method, driving support program and storage medium
JP2013514592A (en) * 2009-12-18 2013-04-25 本田技研工業株式会社 Predictive human-machine interface using gaze technology, blind spot indicator and driver experience
US9650041B2 (en) 2009-12-18 2017-05-16 Honda Motor Co., Ltd. Predictive human-machine interface using eye gaze technology, blind spot indicators and driver experience
US10336323B2 (en) 2009-12-18 2019-07-02 Honda Motor Co., Ltd. Predictive human-machine interface using eye gaze technology, blind spot indicators and driver experience
JP2012041021A (en) * 2010-08-23 2012-03-01 Denso Corp Speed control apparatus
US8489252B2 (en) 2010-08-23 2013-07-16 Denso Corporation Apparatus for controlling speed of mobile object
JP2015150979A (en) * 2014-02-13 2015-08-24 トヨタ自動車株式会社 vehicle control device
CN104590273A (en) * 2014-12-26 2015-05-06 贵州万臻时代通讯技术有限公司 Safe driving system and method based on human body reactions
JP2017087940A (en) * 2015-11-09 2017-05-25 マツダ株式会社 Vehicle speed control device

Also Published As

Publication number Publication date
JP4348663B2 (en) 2009-10-21

Similar Documents

Publication Publication Date Title
CN108263279B (en) Sensor integration based pedestrian detection and pedestrian collision avoidance apparatus and method
JP4385392B2 (en) Vehicle information providing device
US9159235B2 (en) Method of operating a driver assistance system of a motor vehicle
JP7115270B2 (en) Autonomous driving system
CN109204311B (en) Automobile speed control method and device
JP6680136B2 (en) Exterior display processing device and exterior display system
JP4628683B2 (en) Pedestrian detection device and vehicle driving support device including the pedestrian detection device
JP4348663B2 (en) Automotive control device
CN108027422A (en) Detected dangerous deviation vehicle automatically by means of automobile sensor
JP6512164B2 (en) Object detection apparatus, object detection method
JP4839945B2 (en) Driver behavior evaluation device
JP4232806B2 (en) Vehicle control device
JP2018106486A (en) Vehicle collision avoidance support apparatus and vehicle collision avoidance support method
JP7056308B2 (en) Vehicle alarm device
CN111746511A (en) Vehicle control system
CN106952501B (en) Drive assistance device
JP7107329B2 (en) driving support system
TW201918406A (en) Driving notification method and driving notification system
JP2018136700A (en) Vehicle control device
WO2019155778A1 (en) Collision avoidance assistance device, program, and collision avoidance assistance method
JP6489006B2 (en) Forward vehicle monitoring device
US20190266895A1 (en) Vehicle control device
JPH08197977A (en) Alarm device of vehicle
JP4434864B2 (en) Vehicle lamp control device
WO2022070820A1 (en) Information processing device, information processing method, program, and projection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061108

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20061108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080704

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090709

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees