JP2019109591A - 自動運転支援装置 - Google Patents

自動運転支援装置 Download PDF

Info

Publication number
JP2019109591A
JP2019109591A JP2017240641A JP2017240641A JP2019109591A JP 2019109591 A JP2019109591 A JP 2019109591A JP 2017240641 A JP2017240641 A JP 2017240641A JP 2017240641 A JP2017240641 A JP 2017240641A JP 2019109591 A JP2019109591 A JP 2019109591A
Authority
JP
Japan
Prior art keywords
unit
user
vehicle
information
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017240641A
Other languages
English (en)
Other versions
JP6907920B2 (ja
Inventor
渡辺 秀樹
Hideki Watanabe
秀樹 渡辺
吉田 一郎
Ichiro Yoshida
一郎 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017240641A priority Critical patent/JP6907920B2/ja
Priority to PCT/JP2018/042682 priority patent/WO2019116832A1/ja
Publication of JP2019109591A publication Critical patent/JP2019109591A/ja
Priority to US16/892,042 priority patent/US11643074B2/en
Application granted granted Critical
Publication of JP6907920B2 publication Critical patent/JP6907920B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18159Traversing an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • B60K2360/1438
    • B60K2360/176
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/805Azimuth angle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/09675Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where a selection from the received information takes place in the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station

Abstract

【課題】自動運転中においても、運転者の注意力の低下抑制および自動運転システムの危険予測強化ができるようにした自動運転支援装置を提供する。【解決手段】自動運転支援装置100は、制御部1、カメラシステム2、表示装置3、音声入力部4、状態検出装置5などを備える。制御部1は、統合危険予測部10を備え、自動危険予測処理部11による通常の危険予測処理に加え、ユーザが指定入力する監視エリアや監視オブジェクトについての危険予測処理を追加で実施する。制御部1は、ユーザにより表示装置3などを用いて入力されると、選択ポイント判定部13により監視対象が判定され、追随処理部14により地図情報に基づいて追随をする。監視対象に近づくと、危険がある場合にこれを回避する。これにより、自動運転状態で、ユーザにより指定された監視対象も含めた危険回避処理を実施できる。【選択図】図1

Description

本発明は、自動運転支援装置に関する。
自動運転車両は、周辺監視を実施しながら危険を検出して自動回避する機能を備え、基本的には運転者が関与せずに、自動運転制御により走行する。この場合、運転者は、自動運転に頼ることで、運転へ注意が低下したり、運手以外の作業や居眠りしたりするなど、運転状態の把握の意識が鈍ることがあり、これによって緊急事態の検知が遅れて回避することが難しくなることが予想される。
これに対して、運転者の注意力が低下する状況に対しては、運転者の顔画像データから居眠りを判定し、運転者に警告することで、運転者の覚醒を補助する技術がある。また、あらかじめ居眠りしそうな場所を決めておき、その場所に近づくと、空調装置を活用して居眠りを回避するようにした技術がある。しかしながら、覚醒レベル次第では、運手への注意力は低下しており、緊急時への対応は遅れることが予想される。
特許第4702100号 特許第4935694号
本発明は、上記事情を考慮してなされたもので、その目的は、自動運転中においても、運転者の運転に対する注意力の低下を抑制することができ、さらに自動運転システムの危険予測を強化することができるようにした自動運転支援装置を提供することにある。
請求項1に記載の自動運転支援装置は、自車両の自動運転時に予め設定された危険回避条件に基づく危険予測をして危険回避処置を実施する通常回避処理部を備えた自動運転支援装置であって、使用者による前記自車両の運転に関する情報の入力を受け付ける情報入力部と、前記情報入力部により入力されたエリアまたはオブジェクトの情報を監視対象として判定する判定部と、前記監視対象を追随する追随部と、前記監視対象に対する追加危険回避処置を設定し、前記追随部により追随された前記監視対象が前記自車両に近づくと、前記通常回避処理部による危険回避処置に加えて、前記追加危険回避処置を実行する追加回避処理部とを備えている。
上記構成を採用することにより、自車両に乗車時に、通常回避処理部により自動運転時に予め設定された危険回避条件に基づく危険予測をして危険回避処置を実施することができる。さらに、乗車中に使用者が情報入力部を用いて自車両の運転に関する情報の入力をすることができる。これにより、判定部は、入力されたエリアまたはオブジェクトの情報を監視対象として判定し、その監視対象を追随部により追随する。追加回避処理部は、監視対象に対する追加危険回避処置を設定し、追随部により追随された監視対象が自車両に近づくと、通常回避処理部による危険回避処置に加えて、追加危険回避処置を実行する。
これにより、自車両に乗車している運転者や同乗者などの使用者が自動運転に自車両の運転を任せきりにするのではなく、自車両の周囲への注意をしながら自動運転に対する助言的な情報提供によってさらに自動運転の安全性の向上を図ることもできる。
実施形態を示す電気的なブロック構成図 危険予測処理の流れ図 追加の危険予測処理の流れ図 注意項目の制御設定処理の流れ図 指定オブジェクト群の詳細監視処理の流れ図 探索・追従・解析の処理の流れ図 第1ケースの状況説明図(その1) 第1ケースの状況説明図(その2) 第1ケースの注意項目の制御設定処理の流れ図 第1ケースの指定オブジェクト群の詳細監視処理の流れ図 第1ケースの表示画面の例(その1) 第1ケースの表示画面の例(その2) 第1ケースの表示画面の例(その3) 第1ケースの表示画面の例(その4) 第1ケースの表示画面の例(その5) 第2ケースの注意項目の制御設定処理の流れ図 第2ケースの指定オブジェクト群の詳細監視処理の流れ図 第2ケースの表示画面の例(その1) 第2ケースの表示画面の例(その2) 第2ケースの表示画面の例(その3) 第2ケースの表示画面の例(その4) 第2ケースの表示画面の例(その5) 第3ケースの注意項目の制御設定処理の流れ図 第3ケースの指定オブジェクト群の詳細監視処理の流れ図 第3ケースの表示画面の例(その1) 第3ケースの表示画面の例(その2) 第3ケースの表示画面の例(その3) 第3ケースの表示画面の例(その4) 第3ケースの表示画面の例(その5) 第4ケースの注意項目の制御設定処理の流れ図 第4ケースの指定オブジェクト群の詳細監視処理の流れ図 第4ケースの表示画面の例(その1) 第4ケースの表示画面の例(その2) 第4ケースの表示画面の例(その3) 第4ケースの表示画面の例(その4) 第4ケースの表示画面の例(その5)
以下、本発明の一実施形態について、図1〜図36を参照して説明する。
図1は自動運転支援装置100の全体構成を示しており、車両の自動運転制御を行う自動運転システムによる自動運転時に危険回避をするための回避処置を実行する装置である。自動運転支援装置100は、回避処置の実施制御を行う制御部1、車両の前方を撮影するカメラシステム2、画像を表示する表示装置3、音声入力をするための音声入力部4およびドライバの運転状態を検出する状態検出装置5を備えている。ここで、表示装置3、音声入力部4および状態検出装置5は、運転者や同乗者などのユーザによる情報入力部としての機能を果たすヒューマン・マシン・インターフェイス(HMI:Human-Machine Interface)を構成している。
カメラシステム2は、車両の前方および周囲を撮影して自動運転に必要な車両周囲の画像情報を取り込むためのもので、複数台のカメラが車両に装着され、それらにより撮影された画像情報が制御部1に取り込まれる。表示装置3は、運転席から確認できる位置に配置され、画像を表示する表示部31および表示部31の表面に配置されたタッチパネル32を備える。タッチパネル32は、ドライバなどがタッチすると、表示部31のタッチされた位置の情報を入力情報として制御部1に入力する。表示部31は、ヘッドアップディスプレイを用いることもできる。この場合には、タッチパネル32の代わりに、音声入力部4による音声入力や、状態検出装置5によるジェスチャや指差しの入力によって位置を入力することもできる。
音声入力部4は、ドライバの音声を入力するマイク41および音声認識部42を備えている。音声認識部42は、マイク41により入力されるドライバの音声を取り込み、音声認識ソフトによって解析処理を行い、ドライバが発した言葉や音声を制御部1に入力する。音声認識部42は、制御部1内に設けても良い。
状態検出装置5は、車内カメラ51、ドライバ視線位置検出部52およびドライバ動作検出部53を有する。車内カメラ51は、車室内にドライバの様子を撮影するもので、撮影された画像情報は、ドライバ視線位置検出部52およびドライバ動作検出部53のそれぞれに取り込まれる。ドライバ視線位置検出部52およびドライバ動作検出部53は制御部1内に設けても良い。
ドライバ視線位置検出部52は、車内カメラ51により撮影されたドライバの視線を解析ソフトにより解析処理をして、ドライバがどの方向を見ているかを検出して制御部1に入力する。この場合、ドライバが見ている視線の先にある画像などの位置をドライバの入力情報として取り込むことができる。ドライバ動作検出部53は、車内カメラ51により撮影されたドライバの動作を解析ソフトにより解析処理をして、ドライバの姿勢や手の動作などを検出して制御部1に入力する。
制御部1は、追加回避処理部としての統合危険予測部10を中心として、以下の各処理部を備える。通常回避処理部としての自動危険予測処理部11は、カメラシステム2から映像を取り込み、車両側で行う通常の危険予測処理を実行する。この自動危険予測処理部11は、映像取り込み部11a、映像格納部11b、画像処理部11c、自動危険予測部11dを備える。映像取り込み部11aは、カメラシステム2で撮影された映像情報を取り込み、映像格納部11bに格納する。
画像処理部11cは、映像格納部11bに格納された映像情報から画像処理を実施して運転上で危険予測に必要な情報を抽出する。自動危険予測部11dは、画像処理部11cで抽出された情報に基づいて、予め設定された危険が予測される対象物や状態から危険予測処理を実行して統合危険予測部10に出力する。
映像格納部11bは、映像合成部12および判定部としての選択ポイント判定部13に画像情報を出力する。映像合成部12は、映像格納部11bからの画像情報と選択ポイント判定部13からの選択ポイントの情報を合成して表示装置3の表示部31に出力して表示させる。選択ポイント判定部13は、ドライバがタッチパネル32を用いて表示部32に表示された画面中の位置を選択して入力した部分を選択ポイントとして判定する。
追随部としての選択ポイント追随処理部14は、選択ポイント判定部13により判定された選択ポイントについて、地図情報提示部としての地図情報記憶部15の地図情報データに基づいて車両の移動に伴う選択ポイントの移動を追随して統合危険予測部10に出力する。記憶部としてのユーザ入力情報記憶部16は、統合危険予測部10からユーザ入力情報が記録され、また記憶しているユーザ入力情報を読み出し要求に応じて統合危険予測部10に出力する。ユーザ入力情報は、表示装置3、音声入力部4および状態検出装置5などにより入力されたユーザであるドライバや同乗者により入力される情報である。
通信部としての無線通信部17は、アンテナ17aを介して外部と無線通信により情報の授受を行うためのもので、ユーザ入力情報記憶部16のユーザ入力情報を外部の情報センタ200に送信したり、情報センタ200から送信される情報を統合危険予測部10に出力する。なお、情報センタ200は、自車両P以外に、他車両300や400などの自動運転システムを備える車両からもユーザ入力情報を受け付けており、これらのユーザ入力情報を互いに利用できるように構築されている。
通知部18は、統合危険予測部10からの指示により、ドライバに対して表示あるいは音声などの情報提示手段に通知情報や注意情報あるいは警告情報などを出力する。車両制御部19は、統合危険予測部10により危険回避のために必要な制御情報が与えられると、車両の動作を制御するものである。
次に、上記構成の作用について、図2〜図13を参照して説明する。なお、この実施形態では、一般的な自動運転による危険予測処理が自動危険予測部11dにより実施されるものとしている。自動危険予測処理部11は、カメラシステム2から映像取り込み部11aにより映像を取り込んで映像格納部11bに格納し、画像処理部11cにより画像処理を実施する。
自動危険予測部11は、画像処理部11cにより処理された映像情報に基づいて、予め設定されている危険予測処理に対応したエリアやオブジェクトに対して危険予測を行って安全に走行できるように統合危険予測部10に情報を提供している。統合危険予測部10は、自動危険予測部11からの情報に基づく危険予測処理を通常の危険予測処理として自動運転において適用している。
そして、この実施形態では、上記の通常の危険予測処理に加えて、自動危険予測部11では対象としていなかったエリアやオブジェクトについて、ドライバや同乗者などのユーザが指定した場合に、制御部1により、これに対応して監視対象として設定して危険予測処理を実行することで、危険を回避しながら自動走行制御を実施するようにしたものである。
図2は制御部1による全体の危険予測処理の概略的な流れを示している。制御部1は、ステップA1で、ドライバあるいは同乗者などのユーザによる設定の入力を受け付ける。ユーザによる設定としては、自動危険予測処理部11では対象とされていない監視エリアや監視オブジェクトなどを監視対象として指定することができる。監視エリアは、車両の進行方向などに注意を必要と感じる領域がある場合に設定する。また監視オブジェクトは、車両の走行する近傍に人物や車両などの対象物が存在する場合に設定する。
上記したユーザによる設定は、車両が自動運転制御されている状態で、ユーザが自車両Pに対して、走行に注意してほしい地点であって、近づいたときに注意して走行してほしいという地点である。ユーザによる設定は、カメラシステム2のカメラで撮影して表示装置3の表示部31に表示した画像を使い、該当する地点をタップやダブルタッチあるいは「なぞり操作」などで選択することでタッチパネル32により認識することができる。
なお、ユーザによる設定は、上記の方法以外に、例えば、表示部31に表示された電子地図の地点をタッチして入力したり、ユーザの発声により例えば「次の信号交差点の右側」などとマイク41に入力することもできる。さらには、対話が可能な構成としてユーザが対話により入力したり、指差しなどのジェスチャをして状態認識装置5により認識して入力するなどの方法もある。また、ドライバがステアリング等に設けられたスイッチを操作した状態で対象となる物体を視線で示すといった方法も可能である。
制御部1は、次に、ステップA2で、ユーザによる設定で指定された監視エリアあるいは監視オブジェクトの入力情報があるか否かを判断する。ここで、ユーザの入力情報がない場合には、制御部1は、ステップA2でNOと判断してステップA3の通常の危険予測処理に進む。ここでは、通常の危険予測処理に対応して設定されたプログラムに従って自動危険予測処理部11による危険回避の動作を実行しながら自動運転を継続する。通常の危険予測処理の動作については、一般的な自動運転において実施されているものと同様であるので、ここでは説明を省略する。
一方、ユーザの入力情報がある場合には、制御部1は、ステップA2でYESと判断してステップA4の追加の危険予測処理に進む。追加の危険予測処理では、制御部1は、複数の注意項目を表示部31に表示し、いずれかを選択するようにユーザへの選択依頼が行われる。具体的には、図3に示す追加の危険予測処理を実行する。これら複数の注意項目は、これらに対応した追加危険回避処置が設けられている。
次に、上記した制御部1によるステップA1の処理において、ユーザが選択して入力することができるエリアやオブジェクトの例を具体的に示す。ユーザは、表示部31に表示された表示画面上の中から、危険予測を行うエリアを指で「なぞり操作」することで設定したり、移動体や人物などのオブジェクトを指でタップ操作をすることで設定することができる。
ここで、上記した表示部31で指定できる監視エリアや監視オブジェクトとしては、例えば、(1)道路エリアや(2)不安エリアあるいはオブジェクトがある。これらは、以下のように識別IDを付与して識別している。
(1)道路エリア
道路エリアとは、ユーザの位置には関係なく電子地図上に設定されたエリアで、複数地点(ポイント)と、それらをつなぐ線で構成される境界により定義される道路上のエリアで、3次元空間座標で定義されている。また、エリア内にある固定物には、固定された名前として例えば次のような固定IDが付けられている。
・道路の位置として、右側はID=1000、左側はID=1050とする。
・交差点の位置として、交差点全体はID=1000、交差点右側はID=1110、交差点前はID=1120、交差点左側はID=1130、交差点後ろはID=1140とする。
・横断歩道はID=1300、歩道はID=1310とする。
(2)不安エリア
不安エリアとは、走行状況、走行環境(死角)、周辺車両や歩行者の存在などによって、ユーザが不安を感じるエリア、あるいはユーザが不安を感じて指定するエリアである。例えば、これからユーザの車両が通過するエリアであり、視覚で確認できない移動体が急に飛び出してくるのではないかとユーザが不安を感じる道路上のエリアなどである。
具体的には、例えば、前方に駐停車された車両があって、その車両の陰のエリアや、左右の見通しが悪い交差点のエリアや、夜間の道路上で照明しても暗い場所などがある。さらには、自車両の周りに多くの移動体がある場合に、特に注意したいエリアなども含む。
・不安エリアは、監視エリアの固有IDとして、例えばID=9000とする。
・また、不安エリアで、監視物体の存在が認識できた場合には、次に定義する移動物体の識別IDを設定する。
そして、それぞれの識別IDに紐づいた表示用の注意項目が選択されて、優先順に表示される。この場合、表示優先順位は、ユーザの特性例えばユーザが手動運転中に気を付けている場所や、選択されたエリアの道路状況、例えば渋滞あるいは工事中などの状況に応じて決められる。
次に、上記した表示部31のタップ操作で指定できるオブジェクトとしては、例えば、移動物体がある。移動物体としては、例えば、車両はID=100、歩行者はID=200を設定し、その他の移動可能の物体については適宜のIDを順次設定する。
また、表示部31の画面に表示されない監視オブジェクトについては、例えばID=9500を設定する。これは、ユーザにとっては、窓外の車両等を確認することはできるが、カメラ画像が得られない場合などで、表示部31の画像では指定ができない場合である。そのため、画面に映らない監視オブジェクトを選択するための操作エリアあるいはスイッチを事前に設定しておくことができる。
たとえば、画面の右上端をタッチすると、車両の右側の併走オブジェクトを設定し、画面の左上端をタッチすると、車両の左側の併走オブジェクトを設定する。そして、物体が認識できたら、上で定義する移動物体IDを設定する。それぞれのIDを持つ移動物体に紐づいた注意項目が、移動物体の位置(存在エリア)に応じて自動選択され、表示部31に表示される。
そして、注意項目の表示のために、移動物体をタップして選択した場合、移動物体の存在あるいは移動する位置や存在エリアに応じて、注意項目すなわち表示メニュー項目が変化する。なお、上記した「なぞり操作」やタップ操作のセット以外でもオブジェクトを設定できるようにすることができる。また、設定のために、範囲指定入力ができる器具や、入力完了用スイッチ等を設けることもできる。
次に、制御部1は、上記した追加の危険予測処理として、図3に示す流れで処理を実行する。図3において、制御部1は、ステップB1で、ユーザによる入力情報である監視エリア/オブジェクトに対応した複数の注意項目を読み出して表示部31に表示させ、ユーザへの選択依頼をする。
この場合、制御部1の統合危険予測部10には、さまざまなユーザ入力情報の監視エリアや監視オブジェクトに対応して予め表示させるべき注意項目が設定されている。また、注意項目の表示は、表示部31に表示している車両前方の画像中、走行に影響が少ない領域に表示するか、あるいは表示項目が読めて且つ車両前方の画像が隠れないように半透明の状態にするなどして表示する。
不安エリアとして指定されたエリアに対する注意項目の表示例としては、例えば次のようなものが予め設定されている。
(1)駐停車された車両の影を不安エリアとした場合、例えば移動体の影あるいは影を作る物体が動いている場合には、注意項目は、「飛び出し注意」、「速度低減」、「左側によって走行」、「人影注意」などがある。
(2)左右の見通しが悪い交差点を不安エリアとした場合、例えば固定物の影で物体は動かない場合には、注意項目は、「速度低減」、「左右注意」、「歩行者注意」、「一時停止」などがある。
(3)夜間の道路上の前照灯で照明しても暗い場所を不安エリアとした場合、例えば走行環境として光量が不足している場合には、注意項目は、「歩行者注意」、「中央走行」、「路側注意」、「ハイビーム(暗いところを見やすくする)」などがある。
(4)歩行者が多い歩道環境を不安エリアとして指定した場合、例えば走行環境として歩行者検知処理の負荷が大となる場合には、注意項目は、「歩行者注意」、「中央走行」、「徐行」、「路側注意」、「はみだし注意」などがある。
(5)多くの自転車が走行する車道を不安エリアとして指定した場合、例えば走行環境として同じく自転車検知処理の負荷が大となる場合には、注意項目は、「中央走行」、「後方注意」、「接触注意」、「徐行」などがある。
上記の場合、初期設定では、車両メーカが各地点の道路エリアにて、交通事故を回避するために、一般ユーザにどのような注意をしてほしいかを知らせるための「注意項目」が設定されているが、ユーザが指定する不安エリアは一定ではなく、ユーザの運転技能や不安感情に応じて異なることが一般的である。また、ユーザは、表示された初期設定の「注意項目」以外の「注意項目」が必要と考える場合もあり、このような場合にその「注意項目」を車両側に伝えて、ユーザが指定する「注意項目」を追加することも可能である。
また、このようにユーザが指定した不安エリアにユーザが追加要求した「注意項目」は、制御部1は、学習機能を用いることで、ユーザ入力情報記憶部16に記憶しておき、次回ユーザがその場所を走行し、同様の道路状況(たとえば道路に車両が駐車して死角がある)の場合、不安エリアの指定なしに、不安エリアとして自動設定することもできる。これによって、ユーザの余分な操作を減らすことができる効果もある。
上記した「注意項目」としては、各車両メーカの安全走行制御機能の性能に応じて表示させる。たとえば、自動ブレーキを搭載した車両では、前車との車間距離を確保して、自動ブレーキを作動させても前車と衝突しないように、「車間距離確保」を注意項目として表示させることができる。
次に、制御部1は、ステップB2で、予め設定された時間を待機し、続くステップB3で、ユーザが注意項目を選択したか否かを判断する。この結果、ユーザが注意項目を選択している場合には、制御部1は、ステップB3でYESと判断して次のステップB4に移行し、追加危険回避処置として注意項目の制御設定の処理を実行する。
また、ユーザが注意項目を選択していない場合には、制御部1は、ステップB3でNOと判断してステップB5に移行し、選択操作の確認するための報知動作を行う。ここでは、制御部1は、統合危険予測部10から通知部18に選択を促す報知のための情報を出力してユーザに通知する。
この後、制御部1は、ステップB6に進み、上述した報知動作に応じてユーザが注意項目を選択した場合には、ステップB4に移行し、注意項目の制御設定の処理を実行する。また、ユーザが注意項目を選択していない場合には、制御部1は、図2に示したステップA2の通常の危険予測処理に移行する。
次に、注意項目の制御設定の処理について、図4を参照して概略的な処理内容について説明する。なお、この処理は、ユーザが指定した監視エリアあるいは監視オブジェクトの対象によって異なるので、具体的な処理内容については後述する幾つかの事例によって説明する。
図4において、制御部1は、ステップC1で、通常の危険予測の内容とユーザ指定の監視エリア/オブジェクトの危険予測の内容を設定する。通常の危険予測は、自動危険予測処理部11で設定されるもので、予め場所や状況に応じて監視対象が設定されているので、処理の実行時の状況に対応して項目が設定される。
次に、制御部1は、ステップC2で、ユーザ指定の監視エリア/オブジェクトに対して表示部31に表示した複数の注意項目について、ユーザが一つの注意項目を選択したものについてこれをユーザ指定として取り込む。この後、制御部1は、ステップC3で、通常の危険予測に対応した通常の車両制御とユーザ指定による監視エリア/オブジェクトの注意項目についての制御項目を実施するように設定する。
制御部1は、この後、設定した制御項目について追随して対応することが可能であるか否かをステップC4で判断し、NOとなって対応が可能でない場合には、ステップC5で所定時間が経過するまで待機している。所定時間が経過しても対応が可能とならない場合には、制御部1は、ステップC5でYESと判断して前述したステップB8の通常の危険予測処理に移行する。
そして、ステップC4でYESになると、制御部1は、ステップC6に進み、表示部31に運転制御の動作開始の表示を行った後、図3におけるステップB4の処理を終了し、次のステップB7に移行する。ここでは、制御部1は、車両が設定されている監視エリアあるいは監視オブジェクトの詳細な監視が可能な範囲に入ったか否かを判断する。ここで、監視オブジェクトの詳細な監視が可能な範囲とは、監視オブジェクトの危険予測処理が行える範囲である。
次に、制御部1は、ステップB7に進み、詳細監視が可能な状態であるか否か、すなわち危険予測処理が行える範囲に入ったか否かを判断する。制御部1は、選択ポイント追随処理部14により、現在位置情報や監視オブフェクトの移動位置情報から車両との距離を予測し、所定範囲に入ったか否かを判定している。
そして、車両が危険予測処理を行える範囲に入っていない場合は、制御部1は、ステップB7でNOと判断し、ステップB8に進み通常の危険予測処理を実行しながらステップB7でYESの判断になるのを待機する。これは、ユーザが指定した監視エリアあるいは監視オブジェクトの位置が遠方の地点である場合に、車両の危険予測処理がまだ行えない場合があることを想定している。なお、ステップB8の通常の危険予測処理は、前述した図2のステップA3で実行する通常の危険予測処理と同じ処理である。
この後、制御部1は、車両が危険予測処理を行える範囲に入ったことを確認すると、ステップB7でYESと判断してステップB9に移行し、ユーザ指定の監視エリア/オブジェクトの詳細監視処理を開始する。
次に、監視エリア/オブジェクトの詳細監視処理について、図5を参照して概略的な処理内容について説明する。なお、この処理についても、ユーザが指定した監視エリアあるいは監視オブジェクトの対象によって異なるので、具体的な処理内容については後述する幾つかの事例によって説明する。
図5において、制御部1は、ステップD1で、監視エリアあるいは監視オブジェクトを追随することができているか否かを判断する。この結果、指定された監視エリアあるいは監視オブジェクトが追随できている場合、すなわち監視できている場合には、制御部1は、ステップD1で、YESと判断して次のステップD2で、「監視エリア/オブジェクトを追随中」と表示部31に表示させる。この後、制御部1は、ステップD3の探索・追随・解析処理に移行する。
また、制御部1は、指定された監視エリアあるいは監視オブジェクトが追随できていない場合、すなわち監視できていない場合には、ステップD1で、NOと判断してステップD4に移行し、監視エリア/オブジェクトの再設定をユーザに促して再設定されるのを待機する。この場合、待機時間に制限を設け、再設定がうまくいかない場合には、制御部1は、最初に戻って、図2の処理を開始して監視エリア/オブジェクトの設定からやり直すことができる。
上述のようにして、ユーザによる監視エリア/オブジェクトの再設定が成功してその追随ができている場合には、制御部1は、ステップD1、D2を経てステップD3に移行して探索・追随・解析の処理を開始する。この処理は、ユーザが指定した監視エリア/オブジェクトについて、センシング精度を高めるために実行するものである。探索・追随・解析の処理については、監視エリア/オブジェクトの詳細監視処理の説明をした後に、図6を参照して説明する。
制御部1は、ステップD3を実施すると次にステップD5に進み、ユーザが指定した監視エリア/オブジェクトが認識されたか否かを判断する。そして、認識されている場合には、制御部1は、ステップD5でYESと判断してステップD6に進み、認識した監視エリア/オブジェクトをハイライト色で表示部31に表示させる。
一方、ユーザが指定した監視エリア/オブジェクトが認識されていない場合には、制御部1は、ステップD5でNOと判断してステップD7に移行し、ユーザが指定した監視エリア/オブジェクトが追随できていないかどうかを判断する。ここで制御部1は、ユーザが指定した監視エリア/オブジェクトが追随できている場合にはステップD7でNOと判断してステップD3に戻って探索・追随・解析処理を繰り返す。また、ユーザが指定した監視エリア/オブジェクトが追随できていない場合には、制御部1は、ステップD7でYESと判断して前述したステップD4を経てステップD1に戻る。
この後、制御部1は、ステップD6を実施したら、次にステップD8に進み、ユーザが指定した監視エリア/オブジェクトが安全な状態であるか否かを判断し、YESの場合にはステップD9に進んでユーザが指定した監視エリア/オブジェクトについて、表示部31にハイライト色で表示していたのを、安全状態を示す安全色に切り替えて表示させる。
一方、ユーザが指定した監視エリア/オブジェクトの危険度が大の場合には、制御部1は、ステップD8でNOと判断し、ステップD10に移行し、ユーザが指定した監視エリア/オブジェクトの危険度が大で自車両Pが衝突する可能性が高い場合であるか否かを判断する。
制御部1は、ユーザが指定した監視エリア/オブジェクトの危険度が大きく、衝突する可能性が高い場合には、ステップD10でYESと判断してステップD11に進み、危険アラームを出す。ここでは、もし、危険度が高いにもかかわらず、自動走行システムの回避動作が始まっていない場合には、制御部1は、緊急処理依頼して危険なエリアや危険なオブジェクトの情報を指定入力するようにユーザに促す。これによって危険なエリア/オブジェクトがユーザにより入力されると、制御部1は、自動走行システムにその位置を指示して、自動走行システムが制御に生かすようにしたり、あるいはユーザが手動運転に切り替えることで危険を回避することができる。
一方、制御部1は、ユーザが指定した監視エリア/オブジェクトの危険度が大きくなく、衝突する可能性が低い場合には、ステップD10でNOと判断してステップD12に進み、注意アラームを出すとともに、表示部31のユーザが指定した監視エリア/オブジェクトの表示状態を注意色に切り替えて表示させることでユーザに促す。
制御部1は、この後、ステップD13に進み、自車両Pが危険な監視エリア/オブジェクトを通過したか否かを判断し、YESの場合にはこの処理を終了する。また、ステップD13でNOの場合は、制御部1は、ステップD3に戻り、上記した処理を繰り返し実行する。
そして、上述したステップB9のユーザ指定オブジェクトの詳細監視処理が終了すると、制御部1は、追加の危険予測処理を終了して再び図2に示した危険予測処理を実行するようになる。
次に、探索・追随・解析の処理について、図6を参照して概略的な処理内容について説明する。なお、この処理は、自動走行制御システムにて実施されるもので、自動走行制御システムは、ユーザが指定した監視エリア/オブジェクトをカメラシステム2に備えられるカメラとレーダにより追跡するものである。また、図5のステップD1でYESとなる場合には、監視エリア/オブジェクトの追随制御が行われているので、カメラは、監視エリア/オブジェクトを撮影できている状態である。
図6において、制御部1は、ステップE1で、カメラシステム2で撮影された画像の撮影精度を上げるように処理する。画像の撮影精度を上げる処理は、カメラのズーム、フォーカス、明るさ、振動補正などを行うことで、後の画像処理が行いやすい条件で撮影条件を設定する。
この後、制御部1は、ステップE2で、調整した条件で撮影された画像の画質が十分か否かを判断する。画質が十分である場合には、制御部1は、ステップE2でYESと判断してステップE3に進んで画像認識処理を実施する。なお、ステップE2でNOの場合には、制御部1は、ステップE4に移行して画質向上処理の条件を変更する。続いて、制御部1は、ステップE5で、解析が可能な画像となったか否かを判断し、NOの場合にはステップE1に戻って上記の処理を繰り返し、YESになるとステップE3に移行する。
制御部1は、ステップEでは、画像認識処理を行うことで、輪郭抽出、物体検出確率と移動予測を行って、監視エリア/オブジェクトとの衝突確率を算定する。これにより、監視エリア/オブジェクトに対する詳細な危険度算定が行われる。
この後、制御部1は、ステップE6で、対象物体である監視エリア/オブジェクトについてレーダによる再チェックが必要か否かを判断する。ここでは、制御部1は、ステップE3で算出された危険度が設定値以上の場合に、レーダによる再チェックを実施する。再チェックが必要なく、ステップE6でNOの場合には、制御部1は処理を終了する。
そして、ステップE6でYESの場合、すなわちレーダ再チェックが必要と判断された場合には、制御部1は、ステップE7に移行して、レーダによる再チェックを実施し、続いてステップE8で、監視エリア/オブジェクトまでの距離を測定して、詳細な危険度の再計算を実施する。この結果、制御部1は、画像解析と距離計測の結果から、精度の高い危険度の計算をすることができる。この後、制御部1は、処理を終了する。
なお、上記したように、ユーザが監視エリアを指定した場合には、制御部1は、学習機能を実施することで、この監視エリアおよび監視エリアを指定した場所や状況などの情報を、ユーザ入力情報記憶部16に記憶させている。そして、制御部1は、自動運転の実施時に、通常の危険予測の項目にユーザ入力情報記憶部16に記憶された監視エリアの情報を取り込んでユーザの要求に適応した自動運転制御を実現することができる。
また、監視エリアだけでなく、ユーザが指示した「注意項目」についても同様にしてユーザ入力情報記憶部16に記憶しておくことで、自動運転時に提示する「注意項目」として提示することができる。
このようにして、ユーザが新たに指定した監視エリアや「注意項目」の情報を次回以降の自動運転に反映させることで、ユーザに適合した自動運転制御の機能を高めることができる。
なお、ユーザの運転能力や状態によって、必要のない監視エリア情報や「注意項目」情報が発生する場合もある。このような場合には、制御部1は、ユーザからの指定を受けてユーザ入力情報記憶部16の情報を適宜変更することができる。このような学習機能を用いることで、自動運転の機能をさらにユーザに適合したものにすることができる。
また、自車両Pのユーザが指定する監視エリアや「注意項目」の情報だけでなく、他のユーザが指定する監視エリアや「注意項目」の情報を用いることもできる。これは、例えば無線通信部17を介して外部に設けた情報センタ200などにこれらの情報を送信するようにすることで構築できる。
これにより、制御部1は、無線通信部17を介して情報センタ200から他車両300、400のユーザが指定する監視エリアや「注意項目」の情報を取得することができ、自車両Pのユーザが指定する監視エリアや「注意項目」の情報に加えてこれらの情報を利用して自動運転制御に反映させることができる。
また、これらの情報センタ200からの情報を、自車両Pのユーザの運転経験や性格などの条件に応じて有効な情報を提供することで、必要となる確率が高い情報だけを提供するようにすることもできる。
<<具体的事例の説明>>
次に、上記の動作について、具体的な事例を以下の4つのケースについて説明する。
第1ケースは、車両の進行方向の前方に左側の見通しが悪い交差点が接近しているケースで、これをユーザであるドライバが確認して監視エリアとして指定する場合である。第2ケースは、車両の進行方向の遠方に停車中の車両の近傍に人影があるのをドライバが認識して監視オブジェクトとして指定する場合である。第3ケースは、ドライバが車両の進行方向の遠方に蛇行運転をしている危険車両を発見して監視オブジェクトとして指定する場合である。そして、第4ケースは、車両と並走する車両が存在していて、その並走車両のドライバが携帯電話使用などの状態でこれをドライバが危険車両として監視オブジェクトとして指定する場合である。
<第1ケース>
第1ケースとしては、例えば図7に示すように、地図上で自車両Pが、道幅RD1の道路R1上をセンタラインCLの左側の車線を白抜き矢印方向に進行している状態で、前方に道幅RD2の道路R2と交差する交差点Xが存在している。交差点Xの付近には左側手前に建物BDが存在していて、自車両Pからは交差点Xの左側の見通しが悪い状態である。このため、道路R1と交差する狭い道幅RD2の道路R2を左側から交差点Xに向かって走行する他車両Qが存在している状況では、自車両Pが交差点Xに近づいたときに他車両Qを視覚的に確認しにくくなっている。
このような状況において、例えば図8に示すように、ユーザが、希望する走行経路として、交差点X付近に近づいた他車両Q1が自車両Pに接近するのを避けるため、交差点Xに近づいた時に右側に寄ってP1、P2、P3のようなコースを通行することを考えた場合を想定する。
この第1ケースについて、前述した処理の流れを図9および図10も参照して具体的に説明するとともに、表示部31の表示状態の変化についても図11から図15を参照して説明する。
第1ケースでは、表示部31の表示状態は例えば図11に示すように、画面上で自車両Pが前方の交差点Xに向けて進んでいる状態で、交差する道路R2には左側に交差点Xに接近する他車両Qが存在している。また、交差点Xの左手前には建物BDが存在していて、他車両Qがさらに交差点Xに接近すると見通すことができない状況である。ユーザがこの状況を認識して表示部31の交差点Xの左側付近を監視エリアとして指定するケースである。
ここでは、道路R1は、道路R2よりも道幅が広い(RD1>RD2)ので優先道路であるが、道路R2を交差点X方向に走行する他車両Qが遠方に存在するのが確認できたため、ユーザはこの他車両Qが交差点Xで飛び出してこないかどうかが心配になる状況である。
なお、このような状況については、通常の自動運転システムで行う自動危険予測処理では、前方の交差点を通行する際には、予め設定された運転制御として、「速度低減」を設定するようになっている。したがって、ユーザが監視エリアとして交差点Xを設定しなかった場合には、制御部1は、自動危険予測処理部11によって交差点X付近での走行時に速度を低減するように制御する。
そして、図12に示すように、ユーザUSが表示部31の画面中、交差点Xの左側部分を指でタッチすると、これが入力情報となりタッチパネル32により検出される。制御部1は、タッチパネル32によるユーザUSの入力情報を制御部1の選択ポイント判定部13により検出して統合危険予測部10に出力するとともに、図13に示すように、映像合成部12を介して表示部31に出力して画面上にタッチされた監視エリアAXを表示させる。
また、制御部1は、選択ポイント判定部13により検出された監視エリアAXを、選択ポイント追随処理部14にも出力して、車両の移動にともなって変化する位置を地図情報記憶部15の地図情報を参照しながら追随する処理を実行する。選択ポイント追随処理部14は、追随情報を統合危険予測部10に出力する。
制御部1は、前述の図2のステップA1で監視エリアが入力されていることから、ステップA2でYESと判断してステップA4の追加の危険予測処理を実施する。制御部1は、図3のステップB1で、入力情報として設定された監視エリアに対応して、表示部31に注意項目のメニューを表示させる。
ここでは、例えば、図13に示すように、表示部31の左下部分に、交差点の監視エリアに対応して、「飛び出し注意」S1、「右側によって走行」S2、「速度低減」S3、「人影発見」S4の4つの注意項目を表示させる。これに対して、ユーザUSが「右側によって走行」S2をタッチすると、制御部1は、図3のステップB3でYESとなってこれを認識し、図14に示すように、「右側によって走行」S2を残して他の注意項目S1、S3、S4の表示を消す。
制御部1は、これに対応して統合危険予測部10から車両制御部19に対して上記の指定を自動運転に反映させるように指示を送る。これにより、図15に示すように、制御部1は、表示部31に「右側に寄って走行します」と表示MSを表示すると共に、自車両Pの走行経路を図中太実線RTで示すように、交差点AX付近で右側つまりセンタラインCL側に寄って走行するように示す。
また、制御部1は、図3のステップB4で、注意項目の制御設定処理を実施する。この場合、制御部1は、図4に示す流れに相当する具体的な流れである図9に従って処理を実行する。制御部1は、ステップC1aで、通常の危険予測にユーザ選択の入力情報である監視エリアは「前方交差点左側」を設定し、4つの注意項目に対する選択項目の受付をする。
次に、制御部1は、ステップC2aで、ユーザにより選択された注意項目として、S2の「右側によって走行」の指示を入力して設定する。この後、制御部1は、通常の自動運転制御で実施する交差点接近時の車両制御である「速度低減」と、ユーザ選択の「右側によって走行」の設定データを制御項目として設定する。
制御部1は、この後、設定した制御項目について追随して対応することが可能であるか否かをステップC4で判断し、NOとなって対応が可能でない場合には、ステップC5で所定時間が経過するまで待機している。所定時間が経過しても対応が可能とならない場合には、制御部1は、ステップC5でYESと判断して前述したステップB8の通常の危険予測処理に移行する。そして、ステップC4でYESになると、制御部1は、ステップC6に進み、表示部31に運転制御の動作開始の表示を行った後、図3の処理に戻ってステップB7に移行する。
次に、制御部1は、ステップB7で、指定された監視エリアAXの詳細監視処理が可能な範囲に入ったか否かを判断する。これは、制御部1が、対象となる監視エリアが所定範囲に入って詳細な監視処理が実施できる状態となったかどうかを判断するもので、NOの場合には、ステップB8に進んで通常の危険予測処理を実行しながら待機する。これにより、制御部1は、監視エリアAXが所定範囲に入るまでの間は、自動危険予測処理部11により実行可能な他に存在する通常の危険予測処理を実行する。
そして、ステップB7でYESになると、制御部1は、図5に示す監視エリア、監視オブジェクトの詳細監視処理の具体的な内容を示す図10に従って処理を実行する。この処理では、制御部1は、ステップD1で、監視エリアAXである「交差点」を追随して認識できているか否かを判断する。制御部1は、前述した処理を進めることで、ステップD5を経てステップD6aになると、表示部31の監視エリアAXである「交差点」の領域をハイライト色で表示させる。
次に、制御部1は、ステップD8に進み、ユーザが指定した監視エリア/オブジェクトが安全な状態であるか否かを判断し、YESの場合にはステップD9aに進んでユーザが指定した監視エリアAXについて、表示部31に「交差点」の領域をハイライト色で表示していたのを、安全状態を示す安全色に切り替えて表示させる。
一方、ユーザが指定した監視エリア/オブジェクトの危険度が大の場合には、制御部1は、ステップD10に移行し、ユーザが指定した監視エリアAXの「交差点」の危険度が大で自車両Pが衝突する可能性が高い場合であるか否かを判断する。制御部1は、ユーザが指定した監視エリア/オブジェクトの危険度が大きく、衝突する可能性が高い場合には、ステップD11に進んで危険アラームを出す。
一方、制御部1は、ユーザが指定した監視エリアAXの「交差点」の危険度が大きくなく、衝突する可能性が低い場合には、ステップD12aに進み、注意アラームを出すとともに、表示部31の「交差点」のハイライト色を注意色に切り替えて表示させることでユーザに促す。
制御部1は、この後、ステップD13に進み、自車両Pが危険な監視エリア/オブジェクトを通過したか否かを判断し、YESの場合にはこの処理を終了する。また、ステップD13でNOの場合は、制御部1は、ステップD3に戻り、上記した処理を繰り返し実行する。
そして、上述したステップB9のユーザ指定オブジェクトの詳細監視処理が終了すると、制御部1は、追加の危険予測処理を終了して再び図2に示した危険予測処理を実行するようになる。
<第2ケース>
次に、第2ケースとして、車両の進行方向の遠方に停車中の車両の近傍に人影があるのをドライバが認識して監視オブジェクトとして指定する場合について説明する。この第2ケースとしては、例えば図18に示すように、自車両Pの運転者あるいは同乗者などの使用者が、道路R1の前方路肩にトラックXQが停車していて、その後ろに人影XHらしきものが存在することに気づいた場合で、通過時の走行で注意したいと感じた場合などの状況である。
この場合に、図19に示すように、ユーザが、表示部31の画面に表示されたトラックXQの後部領域を指でなぞることで監視エリアAYを選択する場合を想定する。ユーザが指定した監視エリアAYは、停車中のトラックXQであるから、移動体の指定ではなくエリアの指定がなされたことになる。また、指定された監視エリアAYは、通常の危険予測処理で監視する領域よりも狭い領域である。
これは図19に示しているように、通常では、道路R1の横幅範囲Maを奥行きLの範囲で監視するように設定されているのに対して狭い領域である。そして、このように狭い領域AYが設定されたことで、後述するように監視処理をこの領域AYに絞り込むことができるので、精度を高めることができる。
制御部1は、なぞられた監視エリアAYの場所特性と、監視エリアAY内の画像から認識された物体の配置状況から、危険が起きそうな状況を交通事故データベースなどから検索する。そして、なぞった監視エリアAYの範囲を地図情報で参照すると、指定された場所は道路の右側(反対車線)であり、監視エリアAY内に車両が存在していることが撮影画像から判定される。そして、制御部1は、このオブジェクトの配置状況と場所情報から、どのような危険が発生しうるかなどについて、交通事故データベースを使って予測する。
制御部1は、図2に示した危険予測処理を実施していて、ステップA2で監視エリアAYが設定されたことに応じて、図3に示した追加の危険予測処理を実施する。制御部1は、図3のステップB1で、表示部31に注意項目のメニュー表示をして選択依頼をする。ここでは、例えば、図20に示すように、道路右側から何かが飛び出ることを想定して「飛び出し注意」T1、「右側によって走行」T2と、飛び出したときに衝突しないようにすることを想定して「速度低減」T3および「人影発見」T4の4つの注意項目が示される。
図21では、ユーザが表示部31に表示された4つの注意項目T1〜T4のうち、タッチ操作などで、「人影発見」T4の項目を選んだ状態を示している。制御部1は、ステップB2、B3を経て、ユーザによる選択依頼がなされたのを確認すると、ステップB4つまり図16に示す注意項目の制御設定処理を実施する。
制御部1は、ステップC1bで、ユーザが選択した2つの注意項目T4の情報に基づき、追加制御する情報が選択され、自動走行制御システムに送られる。この場合、自動運転システムにおいては、予め設定された監視領域に対して「速度低減」の危険予測を設定しているので、追加の危険予測として「人影発見」T4が設定されることになる。
制御部1は、ステップC2bで、「人影発見」T4の選択に対しては、ユーザが指定した監視エリアAYの歩行者検知を詳細に行うように、自動走行制御システムに指示を行うとともに、危険回避手段として「速度低減」を設定する。また、制御部1は、続くステップC3bで、自動走行制御システムへの指示を実施し、ステップC4、C5で、自動走行制御システムが処理を受け付けたという応答が有るかをチェックする。
制御部1は、自動走行制御システムが処理を受け付けた場合、ステップC4でYESとなってステップC6に進み、図22に示すように、危険予測処理が受け付けられたことを表示部31により「減速して走行します」MSのメッセージを表示させてユーザに報知する。
なお、制御部1は、上記のステップC4、C6の処理で待機中に、所定時間が経過しても自動走行制御システムに追加依頼が行えない場合は、ステップC6でNOと判断して追加依頼処理を放棄し、ユーザに追加処理が行えないことを報知した後、図3のステップB8すなわち通常の危険予測処理に戻る。
次に、上記の処理において、通常の監視領域よりも狭い監視エリアAYが設定された場合に実施する処理について説明する。前述のように、自動運転制御においては、障害物検知機能を実現する手段としてレーダを使って、走行している道路の前方車両や障害物を検知している。レーダは走行路に電波を放射し、その反射波を計測することでレーダ照射領域の物体の検知を行うものである。
ここで、レーダには測距できる範囲があるため、物体が遠方に存在する場合は反射波の強度が減衰されて計測ができない。またレーダの走査角度が限定されているため、物体が道路脇にある場合、車両が物体に近づきすぎると、電波が当たらなくなり、距離の計測が行えなくなる。このため、通常監視エリアは、限定されている。この領域が図19に示した領域Maで奥行きの距離Lの範囲となる。
なお、レーダに代えて、カメラシステム2を使っても、物体の位置と距離を計測することができる。しかし、カメラシステム2のカメラでは、光の強さによって撮影できる画像の良否が決まるため、カメラ単体では物体の検知が難しい状況もある。
本案は、人の眼で認識しにくい場所をユーザは「注意エリア」として設定することができる。この場合、ユーザが「注意エリア」として監視エリアAYを設定すると、注意エリア情報が自動運転制御のECUに送られる。なお、注意エリアが設定されない場合には、通常の監視エリアを均等に物体の検知処理を行う。
本実施形態では、表示部31の画面上をユーザがタッチあるいはなぞることで、タッチパネル32によりタッチポイント(「なぞり操作」エリア)が検出され、制御部1により、これが実空間のどの地点に対応するかを判定できる構成となっている。この場合、制御部1は、画像処理によって撮影画像を静止画に変更して輪郭抽出を行い、その輪郭形状から撮影されたものがどのような物体か、物体の特徴を抽出することで判定するように構成されている。
また、ユーザが指定した「監視エリア」の画像が不明瞭な場合、制御部1は、輪郭抽出処理がしやすくなるように、監視エリア内の画像の解像度、倍率を上げたり、明るさ補正や、フォーカスの設定を調整して詳細な解析が行えるように画像処理を行う。また、監視エリアへのレーダの走査頻度を上げて注意エリア内の物体移動の計測精度を上げることでも、移動体の検知精度を上げることができる。
別の方法として、主要な道路上の物体検出する主レーダに加えて、主レーダが計測できなくなっても、車両の左右を計測できるようにするための補助レーダを別途設定するようにして、左右の計測精度を上げるようにしてもよい。さらには赤外線を使ったカメラが搭載されていれば、検知された物体の温度分布がわかるため、歩行者など顔の画像から、歩行者の検知精度が向上する。
次に、上記したユーザ指定オブジェクトの詳細監視処理について、図17を参照して説明する。ここでは、まず、制御部1は、図17のステップD1でユーザが指定した監視エリアAYを追随できているか否かを判断し、YESの場合に表示部31に「監視エリア/オブジェクトを追随中」と表示させる。なお、制御部1は、監視エリアAYの追随ができてない場合には、ステップD4でユーザに対して指定エリアの再設定を促して再設定されるのを待つ。
制御部1は、ステップD3になると、監視エリアAYの探索・追随・解析処理を実施する。探索・追随・解析処理については、前述した図6に示す流れに従って制御部1により実施されるが、ここでは説明を省略する。
次に、制御部1は、ステップD5bで、ユーザが指定したオブジェクトである人影XHが認識されたか否かを判断し、認識ができた場合にはステップD6bに進み、認識した人影XHをハイライト色で表示部31に表示させる。なお、制御部1は、人影XHが認識できない場合については、前述のようにして処理を実施する。
この後、制御部1は、ステップD8bに進み、ユーザが指定した人影XHが安全な状態であるか否かを判断し、YESの場合にはステップD9に進んでユーザが指定した人影XHについて、表示部31にハイライト色で表示していたのを、安全状態を示す安全色に切り替えて表示させる。
一方、ユーザが指定した監視エリアに存在していたオブジェクトである人影XHの危険度が大の場合には、制御部1は、ステップD8bでNOと判断し、ステップD10で人影XHの危険度が大で自車両Pが衝突する可能性が高い場合であるか否かを判断する。制御部1は、ユーザが指定した人影XHが衝突する可能性が高い場合には、ステップD10からステップD11に進み、危険アラームを出す。ここでは、もし、危険度が高いにもかかわらず、自動走行システムの回避動作が始まっていない場合には、ユーザに対して緊急処理依頼して情報を指定入力するように促して対処する。
一方、制御部1は、ユーザが指定した人影XHの危険度が大きくなく、衝突する可能性が低い場合には、ステップD10からステップD12bに進み、注意アラームを出すとともに、表示部31のユーザが指定した人影XHの表示状態を注意色に切り替えて表示させることでユーザに促す。
制御部1は、この後、ステップD13に進み、自車両Pが危険な監視エリア/オブジェクトを通過したか否かを判断し、YESの場合にはこの処理を終了する。また、ステップD13でNOの場合は、制御部1は、ステップD3に戻り、上記した処理を繰り返し実行する。
<第3ケース>
次に、第3ケースとして、車両の進行方向の遠方に蛇行運転している危険車両を発見した場合について説明する。この第3ケースとしては、例えば図25に示すように、片側2車線の道路R1の前方に危険な走行をしている前方車両Pxが走行していて、自車両Pのユーザが、前方車両Pxに起因して発生する危険を回避するように走行したいといった状況である。
この場合に、図26に示すように、前方車両Pxは、左側のレーンを走行しており、左右に揺れるように蛇行運転をしている状態である。ユーザは、表示部31の画面に表示された前方車両Pxの領域を指でなぞることで監視エリアAZを選択することができる。
これにより、制御部1は、タッチパネル32からの情報により、自車両Pの現在位置と地図情報から指が触れた前方車両Pxの位置を演算し、対象位置を判定する。その判定された対象位置の地図データを参照し、カメラシステム2に注意すべき撮影範囲を伝える。制御部1は、カメラシステム2により前方車両Pxの位置情報を用いて、対象監視エリアAZのセンシング精度を上げる。また、制御部1は、ユーザが指定した前方車両Pxを内部に記録する。
制御部1は、図2に示した危険予測処理を実施して、ステップA2で、監視オブジェクトとして前方車両Pxが設定されたことに応じて、図3に示した追加の危険予測処理を実施する。制御部1は、図3のステップB1で、表示部31に注意項目のメニュー表示をして選択依頼をする。ここでは、例えば、図27に示すように、例えば「危険車両」U1、「接近禁止」U2、「並走禁止」U3および「速度低減」U4の4つの注意項目が示される。この場合、表示部31への表示だけでなく、通知部18から音声による通知を同時に実施することもできる。
図28では、ユーザが表示部31に表示された4つの注意項目U1〜U4のうち、タッチ操作などで、「危険車両」U1の項目を選んだ状態を示している。制御部1は、ステップB2、B3を経て、ユーザによる選択依頼がなされたのを確認すると、ステップB4つまり図23に示す注意項目の制御設定処理を実施する。
制御部1は、ステップC1cで、ユーザが選択した注意項目U1の情報に基づき、追加制御する情報が選択され、自動走行制御システムに送られる。この場合、自動運転システムにおいては、予め設定された監視領域において危険予測は発生しておらず、追加の危険予測として指定された「危険車両」U1について対応するようになる。
制御部1は、ステップC2cで、「危険車両」U1の選択に対しては、続くステップC3cで、自動走行制御システムへの指示として、「危険車両に接近せずに走行する」走行態様を設定し、ステップC4、C5で、自動走行制御システムが処理を受け付けたという応答が有るかをチェックする。
制御部1は、自動走行制御システムが処理を受け付けた場合、ステップC4でYESとなってステップC6に進み、図29に示すように、危険予測処理が受け付けられたことを表示部31により「危険車両に接近せずに走行します」のメッセージMSを表示させてユーザに報知する。
このとき、前方車両Pxが左側のレーンを蛇行しながら走行しているのに対して、自車両Pは、車線分離線SLで区切られた右側のレーンを走行するように運転制御され、「危険車両」である前方車両Pxに対して接近しないようにして走行するように制御され、危険な状態に遭遇することなく回避することができる。
なお、制御部1は、上記のステップC4、C6の処理で待機中に、所定時間が経過しても自動走行制御システムに追加依頼が行えない場合は、ステップC6でNOと判断して追加依頼処理を放棄し、ユーザに追加処理が行えないことを報知した後、図3のステップB8すなわち通常の危険予測処理に戻る。
次に、上記したユーザ指定オブジェクトである前方車両Pxの詳細監視処理について、図24を参照して説明する。ここでは、まず、制御部1は、図24のステップD1でユーザが指定した監視エリアAZを追随できているか否かを判断し、YESの場合に表示部31に「監視エリア/オブジェクトを追随中」と表示させる。なお、制御部1は、監視エリアAYの追随ができてない場合には、ステップD4でユーザに対して指定エリアの再設定を促して再設定されるのを待つ。
制御部1は、ステップD3になると、監視エリアAZの探索・追随・解析処理を実施する。探索・追随・解析処理については、前述した図6に示す流れに従って制御部1により実施されるが、ここでは説明を省略する。
次に、制御部1は、ステップD5cで、ユーザが指定したオブジェクトである前方車両Pxが認識されたか否かを判断し、認識ができた場合にはステップD6cに進み、認識した前方車両Pxをハイライト色で表示部31に表示させる。なお、制御部1は、前方車両Pxが認識できない場合については、前述のようにして処理を実施する。
この後、制御部1は、ステップD8cに進み、ユーザが指定した前方車両Pxが安全な状態であるか否かを判断し、YESの場合にはステップD9に進んでユーザが指定した前方車両Pxについて、表示部31にハイライト色で表示していたのを、安全状態を示す安全色に切り替えて表示させる。
一方、ユーザが指定した監視エリアに存在していたオブジェクトである前方車両Pxの危険度が大の場合には、制御部1は、ステップD8cでNOと判断し、ステップD10で前方車両Pxの危険度が大で自車両Pが衝突する可能性が高い場合であるか否かを判断する。制御部1は、ユーザが指定した前方車両Pxが衝突する可能性が高い場合には、ステップD10からステップD11に進み、危険アラームを出す。ここでは、もし、危険度が高いにもかかわらず、自動走行システムの回避動作が始まっていない場合には、ユーザに対して緊急処理依頼して情報を指定入力するように促して対処する。
一方、制御部1は、ユーザが指定した前方車両Pxの危険度が大きくなく、衝突する可能性が低い場合には、ステップD10からステップD12cに進み、注意アラームを出すとともに、表示部31のユーザが指定した前方車両Pxの表示状態を注意色に切り替えて表示させることでユーザに促す。
制御部1は、この後、ステップD13に進み、自車両Pが危険な監視エリア/オブジェクトを通過したか否かを判断し、YESの場合にはこの処理を終了する。また、ステップD13でNOの場合は、制御部1は、ステップD3に戻り、上記した処理を繰り返し実行する。
これにより、自車両Pが、「危険車両」として指定した前方車両Pxに接近すると、例えば、従来の危険回避の処理では「危険なし」と判定されている場合であっても、ユーザが入力した「危険車両」の指定が加算されることによって、危険予知を実施し、「接近禁止」の対処を行う危険回避制御を実施することができる。
<第4ケース>
次に、第4ケースとして、表示部31には表示されないが、自車両Pの側方を走行する並走車両が存在しているのに気が付き、その並走車両のドライバが携帯電話使用などの状態がわかったときに、これをユーザが監視オブジェクトとして危険車両に指定する場合を想定する。
この第4ケースとしては、例えば図32に示すように、自車両Pが片側2車線の道路R1の車線分離線SLで分離された左側レーンを走行しており、側方の右側レーンを走行する並走車両Px(図36に示す)が存在している状況である。並走車両Pxの運転者が例えば携帯電話を使用していたり、前方を見ていないことに自車両Pのユーザが気づいたとする。この場合には、表示部31にはカメラによる画像で撮影されていない並走車両Pxを直接監視オブジェクトとして指定することができない。
このような場合に、図33に示すように、表示部31の並走車両Pxが存在する右側レーンの自車両Pの側方エリアAWをタッチすることで指定することができる。これにより、制御部1は、タッチパネル32からの情報により、自車両Pの現在位置と地図情報から指が触れた側方エリアAWの並走車両Pxの位置を演算し、対象位置を判定する。その判定された対象位置の地図データを参照し、カメラシステム2に注意すべき撮影範囲を伝える。制御部1は、カメラシステム2により並走車両Pxの位置情報を用いてセンシング精度を上げる。また、制御部1は、ユーザが指定した並走車両Pxを内部に記録する。
制御部1は、図2に示した危険予測処理を実施して、ステップA2で、監視オブジェクトとして並走車両Pxが設定されたことに応じて、図3に示した追加の危険予測処理を実施する。制御部1は、図3のステップB1で、表示部31に注意項目のメニュー表示をして選択依頼をする。ここでは、例えば、図34に示すように、例えば「危険車両」V1、「接近禁止」V2、「並走禁止」V3および「速度低減」V4の4つの注意項目が示される。この場合、表示部31への表示だけでなく、通知部18から音声による通知を同時に実施することもできる。
図35では、ユーザが表示部31に表示された4つの注意項目V1〜V4のうち、タッチ操作などで、「並走禁止」V3の項目を選んだ状態を示している。制御部1は、ステップB2、B3を経て、ユーザによる選択依頼がなされたのを確認すると、ステップB4つまり図35に示す注意項目の制御設定処理を実施する。
制御部1は、ステップC1dで、ユーザが選択した注意項目V3の情報に基づき、追加制御する情報が選択され、自動走行制御システムに送られる。この場合、自動運転システムにおいては、予め設定された監視領域において危険予測は発生しておらず、追加の危険予測として指定された「並走禁止」V3について対応するようになる。
制御部1は、ステップC2dで、「並走禁止」V3の選択に対しては、続くステップC3dで、自動走行制御システムへの指示として、「並走せずに走行する」走行態様を設定し、ステップC4、C5で、自動走行制御システムが処理を受け付けたという応答が有るかをチェックする。
制御部1は、自動走行制御システムが処理を受け付けた場合、ステップC4でYESとなってステップC6に進み、図36に示すように、危険予測処理が受け付けられたことを表示部31により「危険車両と並走せずに走行します」のメッセージMSを表示させてユーザに報知する。
なお、制御部1は、上記のステップC4、C6の処理で待機中に、所定時間が経過しても自動走行制御システムに追加依頼が行えない場合は、ステップC6でNOと判断して追加依頼処理を放棄し、ユーザに追加処理が行えないことを報知した後、図3のステップB8すなわち通常の危険予測処理に戻る。
次に、上記したユーザ指定オブジェクトである並走車両Pxの詳細監視処理について、図31を参照して説明する。ここでは、まず、制御部1は、図31のステップD1でユーザが指定した監視エリアAWの並走車両Pxを追随できているか否かを判断し、YESの場合に表示部31に「監視エリア/オブジェクトを追随中」と表示させる。なお、制御部1は、並走車両Pxの追随ができてない場合には、ステップD4でユーザに対して指定エリアの再設定を促して再設定されるのを待つ。
制御部1は、ステップD3になると、並走車両Pxの探索・追随・解析処理を実施する。探索・追随・解析処理については、前述した図6に示す流れに従って制御部1により実施されるが、ここでは説明を省略する。
次に、制御部1は、ステップD5dで、ユーザが指定したオブジェクトである並走車両Pxが認識されたか否かを判断し、認識ができた場合にはステップD6dに進み、認識した並走車両Pxをハイライト色で表示部31に表示させる。なお、制御部1は、並走車両Pxが認識できない場合については、前述のようにして処理を実施する。
この後、制御部1は、ステップD8dに進み、ユーザが指定した並走車両Pxが安全な状態であるか否かを判断し、YESの場合にはステップD9に進んでユーザが指定した並走車両Pxについて、表示部31にハイライト色で表示していたのを、安全状態を示す安全色に切り替えて表示させる。
一方、ユーザが指定した監視エリアに存在していたオブジェクトである並走車両Pxの危険度が大の場合には、制御部1は、ステップD8cでNOと判断し、ステップD10で並走車両Pxの危険度が大で自車両Pが衝突する可能性が高い場合であるか否かを判断する。制御部1は、ユーザが指定した並走車両Pxが衝突する可能性が高い場合には、ステップD10からステップD11に進み、危険アラームを出す。ここでは、もし、危険度が高いにもかかわらず、自動走行システムの回避動作が始まっていない場合には、ユーザに対して緊急処理依頼して情報を指定入力するように促して対処する。
一方、制御部1は、ユーザが指定した並走車両Pxの危険度が大きくなく、衝突する可能性が低い場合には、ステップD10からステップD12cに進み、注意アラームを出すとともに、表示部31のユーザが指定した並走車両Pxの表示状態を注意色に切り替えて表示させることでユーザに促す。
制御部1は、この後、ステップD13に進み、自車両Pが危険な監視エリア/オブジェクトを通過したか否かを判断し、YESの場合にはこの処理を終了する。また、ステップD13でNOの場合は、制御部1は、ステップD3に戻り、上記した処理を繰り返し実行する。
このような本実施形態においては、自動運転制御において、運転中にユーザにより監視エリアや監視オブジェクトを指定可能にして、ユーザが選択する注意項目に対応して追加の危険回避処理を実行するようにした制御部1を設けた。
これにより、自動運転システムにおいても、ユーザが運転に関わる状態を保持しつつ注意したい監視エリアや監視オブジェクトがある場合には、自動運転システムに対する指示という方法により自動運転機能をより高い機能で実現できるようにすることができる。
また、ユーザが自動運転制御を実施している自車両Pに対して、ユーザが「注意してほしい対象」を教えてもらうのではなく、教えることができる仕組みを構築することができる。すなわち、本来ユーザは運転者であるが、誰かに代行運転してもらっている状態すなわち自動運転制御機能を実行している状態の同乗者の立場として、代行運転者に注意してほしいところを伝える(入力できる)仕組みを構築することができる。
この結果、ユーザが自動運転中に運転に適度に関与することで、ユーザが安心できる好みの安全運転状態が得られ、しかもユーザが運転に参加しているという意識を維持できるという効果が得られる。
(他の実施形態)
なお、本発明は、上述した実施形態のみに限定されるものではなく、その要旨を逸脱しない範囲で種々の実施形態に適用可能であり、例えば、以下のように変形または拡張することができる。
情報入力部として、表示装置3、音声入力部4および状態検出装置5を設ける構成の例を示したが、すべてを備える場合にかぎらず、これらのうちの少なくとも一つを備える構成とすることもできる。
ユーザが指定する監視エリアや監視オブジェクトなどの入力情報をユーザ入力情報記憶部16に記憶させて学習機能を持たせることができる例として示したが、学習機能は必要に応じて適宜設けることができる。同様に、無線通信部17を通じて外部の情報センタ200と情報の授受を行うことで自動運転機能を向上させることについても、必要に応じて適宜設けることができるものである。
表示装置3は、表示部31およびタッチパネル32を設ける構成の例を示したが、ヘッドアップディスプレイなどを用いるとともに、ユーザの動作や音声を検知して入力情報を取り込む構成としても良い。
本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
図面中、1は制御部、2はカメラシステム(カメラ)、3は表示装置(情報入力部)、4は音声入力部(情報入力部)、5は状態検出装置(情報入力部)、10は統合危険予測部(追加回避処理部)、11は自動危険予測処理部(通常回避処理部)、11dは自動危険予測部、13は選択ポイント判定部(判定部)、14は選択ポイント追随処理部(追随部)、15は地図情報記憶部(地図情報提示部)、16はユーザ入力情報記憶部(記憶部)、17は無線通信部(通信部)、18は通知部、19は車両制御部、31は表示部、32はタッチパネル、41はマイク、42は音声認識部、51は車内カメラ、52はドライバ視線位置検出部、53はドライバ動作検出部、100は自動運転支援装置、200は情報センタ、300、400は他車両である。

Claims (10)

  1. 自車両の自動運転時に予め設定された危険回避条件に基づく危険予測をして危険回避処置を実施する通常回避処理部を備えた自動運転支援装置であって、
    使用者による前記自車両の運転に関する情報の入力を受け付ける情報入力部(3、4、5)と、
    前記情報入力部により入力されたエリアまたはオブジェクトの情報を監視対象として判定する判定部(13)と、
    前記監視対象を追随する追随部(14)と、
    前記監視対象に対する追加危険回避処置を設定し、前記追随部により追随された前記監視対象が前記自車両に近づくと、前記通常回避処理部(11)による危険回避処置に加えて、前記追加危険回避処置を実行する追加回避処理部(10)とを備えた自動運転支援装置。
  2. 前記情報入力部により入力された前記監視対象に対応して、前記追加回避処理部により実施する追加危険回避処置を表示させる表示部(31)を備えた請求項1に記載の自動運転支援装置。
  3. 前記追加回避処理部は、前記情報入力部により入力された前記監視対象に対応して実施する複数の前記追加危険回避処置がある場合に、前記表示部に表示させて前記使用者により選択を受け付けて実施する請求項2に記載の自動運転支援装置。
  4. 前記追随部は、前記監視対象を撮影するカメラ(2)を備え、前記カメラによる撮影画像を画像解析することで前記監視対象を追随する請求項3に記載の自動運転支援装置。
  5. 前記自車両の現在位置を地図情報に対応させた情報として提示する地図情報提示部(15)を備え、
    前記追随部は、前記地図情報提示部から提示される情報に基づいて前記カメラによる撮影範囲を前記監視対象に対応して設定することで前記監視対象に絞り込んだ追随を実施する請求項4に記載の自動運転支援装置。
  6. 前記追加回避処理部は、前記追随部により絞り込まれた追随による前記監視対象の情報に基づいて前記追加危険回避処置よりも精度を高めた追加危険回避処置を実施する請求項5に記載の自動運転支援装置。
  7. 前記表示部には画面に触れることで前記監視対象として入力可能なタッチパネル(32)を備えた請求項2から6のいずれか一項に記載の自動運転支援装置。
  8. 前記使用者により入力された前記自車両の運転に関する情報を学習情報として記憶する記憶部(16)を備え、
    前記追加回避処理部は、前記記憶部に記憶された前記学習情報で設定した過去の監視対象についても前記監視対象として設定する請求項1から7のいずれか一項に記載の自動運転支援装置。
  9. 外部に設置された情報センタ(200)から他車両の使用者により設定された監視対象の情報を受信可能な通信部(17)を備え、
    前記追加回避処理部は、前記通信部を介して受信した他の車両の使用者により設定された監視対象についても前記監視対象として設定する請求項1から8のいずれか一項に記載の自動運転支援装置。
  10. 前記追加危険回避処置を実行時に前記使用者に対して表示若しくは音声による通知を行う通知部(18)を備えた請求項1から9のいずれか一項に記載の自動運転支援装置。
JP2017240641A 2017-12-15 2017-12-15 自動運転支援装置 Active JP6907920B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017240641A JP6907920B2 (ja) 2017-12-15 2017-12-15 自動運転支援装置
PCT/JP2018/042682 WO2019116832A1 (ja) 2017-12-15 2018-11-19 自動運転支援装置
US16/892,042 US11643074B2 (en) 2017-12-15 2020-06-03 Autonomous driving assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017240641A JP6907920B2 (ja) 2017-12-15 2017-12-15 自動運転支援装置

Publications (2)

Publication Number Publication Date
JP2019109591A true JP2019109591A (ja) 2019-07-04
JP6907920B2 JP6907920B2 (ja) 2021-07-21

Family

ID=66819108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017240641A Active JP6907920B2 (ja) 2017-12-15 2017-12-15 自動運転支援装置

Country Status (3)

Country Link
US (1) US11643074B2 (ja)
JP (1) JP6907920B2 (ja)
WO (1) WO2019116832A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023053355A1 (ja) * 2021-09-30 2023-04-06 株式会社Subaru 運転支援装置及び車両並びにコンピュータプログラムを記録した記録媒体

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3145746A1 (en) * 2019-08-03 2021-02-11 Chuanrui ZHANG Advanced display and control system for driving assistance
JP7041700B2 (ja) * 2020-01-31 2022-03-24 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP7283461B2 (ja) * 2020-11-19 2023-05-30 トヨタ自動車株式会社 車両制御装置
US11524703B2 (en) * 2020-11-24 2022-12-13 GM Global Technology Operations LLC Method and system for interactive hypothesis estimation of multi-vehicle traffic for autonomous driving
JP2022090746A (ja) * 2020-12-08 2022-06-20 株式会社J-QuAD DYNAMICS 運転支援装置、運転支援方法、および運転支援プログラム
US11615633B2 (en) * 2021-05-21 2023-03-28 Panasonic Intellectual Property Management Co., Ltd. Monitoring device, monitoring system, and monitoring method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003200754A (ja) * 2001-11-02 2003-07-15 Honda Motor Co Ltd 車両の追従走行装置
JP2007156755A (ja) * 2005-12-02 2007-06-21 Aisin Aw Co Ltd 車車間通信システム
JP2007283910A (ja) * 2006-04-17 2007-11-01 Toyota Central Res & Dev Lab Inc 障害物回避制御装置及び障害物回避制御プログラム
JP2016143308A (ja) * 2015-02-04 2016-08-08 パイオニア株式会社 報知装置、制御方法、プログラム及び記憶媒体
JP2017055181A (ja) * 2015-09-07 2017-03-16 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置
JP2017119508A (ja) * 2017-01-30 2017-07-06 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP2017187982A (ja) * 2016-04-07 2017-10-12 トヨタ自動車株式会社 走行制御装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4702100B2 (ja) 2006-02-27 2011-06-15 トヨタ自動車株式会社 居眠り判定装置および居眠り運転警告装置
JP4935694B2 (ja) 2008-01-28 2012-05-23 株式会社デンソー 車両用空調装置
JP2016139181A (ja) * 2015-01-26 2016-08-04 三菱自動車工業株式会社 運転支援装置
US20170028850A1 (en) * 2015-07-31 2017-02-02 Ford Global Technologies, Llc Vehicle display systems
JP6558238B2 (ja) * 2015-12-22 2019-08-14 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
JP6473936B2 (ja) * 2016-05-17 2019-02-27 山内 和博 自動運転車
JP6638556B2 (ja) * 2016-05-20 2020-01-29 アイシン・エィ・ダブリュ株式会社 自動運転支援装置及びコンピュータプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003200754A (ja) * 2001-11-02 2003-07-15 Honda Motor Co Ltd 車両の追従走行装置
JP2007156755A (ja) * 2005-12-02 2007-06-21 Aisin Aw Co Ltd 車車間通信システム
JP2007283910A (ja) * 2006-04-17 2007-11-01 Toyota Central Res & Dev Lab Inc 障害物回避制御装置及び障害物回避制御プログラム
JP2016143308A (ja) * 2015-02-04 2016-08-08 パイオニア株式会社 報知装置、制御方法、プログラム及び記憶媒体
JP2017055181A (ja) * 2015-09-07 2017-03-16 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置
JP2017187982A (ja) * 2016-04-07 2017-10-12 トヨタ自動車株式会社 走行制御装置
JP2017119508A (ja) * 2017-01-30 2017-07-06 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023053355A1 (ja) * 2021-09-30 2023-04-06 株式会社Subaru 運転支援装置及び車両並びにコンピュータプログラムを記録した記録媒体

Also Published As

Publication number Publication date
US11643074B2 (en) 2023-05-09
JP6907920B2 (ja) 2021-07-21
US20200290606A1 (en) 2020-09-17
WO2019116832A1 (ja) 2019-06-20

Similar Documents

Publication Publication Date Title
WO2019116832A1 (ja) 自動運転支援装置
CN112965502B (zh) 视觉跟踪确认方法、装置、设备及存储介质
JP6369487B2 (ja) 表示装置
JP4614005B2 (ja) 移動軌跡生成装置
US20180174460A1 (en) Apparatus and method for sensing and notifying pedestrian
JP4967015B2 (ja) 安全運転支援装置
US20170010679A1 (en) Communication between autonomous vehicle and external observers
JP2019050005A (ja) 自動運転制御装置
WO2017134876A1 (ja) ヘッドアップディスプレイ装置及びその表示制御方法
JP4134891B2 (ja) 衝突可能性判定装置
JPWO2008029802A1 (ja) 走行情報提供装置
JP2020042778A (ja) 無人車の交差点通過方法、装置、機器及び記憶媒体
JP2009184554A (ja) 安全走行支援システム
WO2013115241A1 (ja) 車両の運転手の注意を喚起する装置及びその方法
JP2019001314A (ja) 走行支援装置及び制御プログラム
JP6296684B2 (ja) 運転支援装置
KR20210120398A (ko) 차량에 탑재된 CMS 사이드 디스플레이(Camera Monitoring System Side Display)를 이용하여 영상을 디스플레이하는 전자 장치 및 그 동작 방법
JP2022126492A (ja) 車両制御装置、及び車両制御方法
JP2005182307A (ja) 車両運転支援装置
JP2002049998A (ja) 運転支援装置
JP6860068B2 (ja) 運転支援装置、運転支援システムおよび運転支援方法
JP2013171390A (ja) 運転支援装置
JP7147858B2 (ja) 車両の走行制御方法及び走行制御装置
JP2014119256A (ja) 先行車発進報知装置
JP7418683B2 (ja) 評価装置、評価方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210614

R151 Written notification of patent or utility model registration

Ref document number: 6907920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151