JP7166325B2 - 車両走行システム、死角推定方法 - Google Patents

車両走行システム、死角推定方法 Download PDF

Info

Publication number
JP7166325B2
JP7166325B2 JP2020214993A JP2020214993A JP7166325B2 JP 7166325 B2 JP7166325 B2 JP 7166325B2 JP 2020214993 A JP2020214993 A JP 2020214993A JP 2020214993 A JP2020214993 A JP 2020214993A JP 7166325 B2 JP7166325 B2 JP 7166325B2
Authority
JP
Japan
Prior art keywords
blind spot
area
vehicle
spot area
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020214993A
Other languages
English (en)
Other versions
JP2022100793A (ja
Inventor
海越 張
敏英 佐竹
徹 樋口
英之 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020214993A priority Critical patent/JP7166325B2/ja
Priority to US17/505,884 priority patent/US20220206502A1/en
Priority to DE102021211882.8A priority patent/DE102021211882A1/de
Priority to CN202111508335.0A priority patent/CN114670840A/zh
Publication of JP2022100793A publication Critical patent/JP2022100793A/ja
Application granted granted Critical
Publication of JP7166325B2 publication Critical patent/JP7166325B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3461Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/3867Geometry of map features, e.g. shape points, polygons or for simplified maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3893Transmission of map data from distributed sources, e.g. from roadside stations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0297Fleet control by controlling means in a control room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本開示は、車両走行システム、死角推定方法に関する。
従来の車両走行システムは、路側に設置される機器である路側監視機器(RSU:Road Side Unit)で、予め定められた領域内の物体の位置などを物体情報として把握して、領域内の自動運転車両に物体情報を提供する(例えば特許文献1)。より具体的には、サーバーが、RSUで取得された物体情報を処理して、領域内の自動運転車両に送る。自動運転車両は、物体情報を考慮して走行経路を決定し、当該走行経路に基づいて走行する。このような構成によれば、周辺環境を検出するためのセンサーを備えない自動運転車両であっても、領域内を自動運転で走行することが可能となる。
特開2020-37400号公報
しかしながら、RSUは高所から地面を監視するように設けられることが多いため、当該地面上の物体の遮蔽によって検出できない領域、つまり物体によってRSUの死角となる領域である死角領域が生じる。このように、RSUが状況を把握できない死角領域内に障害物がある場合には、死角領域内を通る自動運転車両が障害物と衝突する可能性がある。このため、自動運転などで使用可能な死角領域が必要であった。
そこで、本開示は、上記のような問題点を鑑みてなされたものであり、死角領域を推定可能な技術を提供することを目的とする。
本開示に係る車両走行システムは、死角推定装置を備え、前記死角推定装置は検出部で検出された予め定められた領域内の物体の情報である物体情報に基づいて、前記物体の領域である物体領域を取得する取得部と、前記物体領域に基づいて、前記物体によって前記検出部の死角となる領域である死角領域を推定する推定部とを備える。前記物体は移動物及び静止物を含み、前記死角推定装置は、前記死角領域が、前記移動物によって前記死角となる領域であるか、前記静止物によって前記死角となる領域であるかを推定する。前記車両走行システムは、走行パターンに基づいて走行する自動運転車両と、前記物体領域及び前記死角領域に基づいて、前記予め定められた領域内の前記自動運転車両の前記走行パターンを決定する走行パターン生成装置とをさらに備え、前記走行パターン生成装置は、前記死角領域が、前記静止物によって前記死角となる領域であると推定された場合には、前記自動運転車両が前記死角領域を避けるための前記走行パターンを決定し、前記死角領域が、前記移動物によって前記死角となる領域であると推定された場合には、前記自動運転車両が、前記死角領域の手前で停止し、前記自動運転車両の手前から当該死角領域がなくなった場合に走行を開始するための前記走行パターンを決定する。
本開示によれば、検出部で検出された予め定められた領域内の物体の情報である物体情報に基づいて、物体の領域である物体領域を取得し、物体領域に基づいて、物体によって検出部の死角となる領域である死角領域を推定する。このような構成によれば、自動運転などで使用可能な死角領域を推定することができる。
実施の形態1に係る車両走行システムを示す図である。 実施の形態1に係るRSUの構成を示すブロック図である。 物体による死角発生メカニズムと死角領域の計算方法とを説明するための図である。 物体による死角発生メカニズムと死角領域の計算方法とを説明するための図である。 実施の形態1に係る死角領域を説明するための図である。 実施の形態1に係るRSUの動作を示すフローチャートである。 実施の形態1に係るRSUからフュージョンサーバーへの送信情報を示す図である。 実施の形態1に係るフュージョンサーバーの構成を示すブロック図である。 実施の形態1に係るフュージョンサーバーの動作を示すフローチャートである。 実施の形態1に係るフュージョンサーバーによる領域の統合を説明するための図である。 実施の形態1に係るフュージョンサーバーから自動運転車両への送信情報を示す図である。 実施の形態1に係る車両制御装置の構成を示すブロック図である。 実施の形態1に係る車両制御装置の動作を示すフローチャートである。 実施の形態1に係る車両制御装置の動作を説明するための図である。 実施の形態1に係る車両制御装置の動作を説明するための図である。 実施の形態1に係る車両制御装置の動作を説明するための図である。 実施の形態1に係る車両制御装置の動作を説明するための図である。 実施の形態1に係る車両制御装置の動作を説明するための図である。 実施の形態2に係る車両走行システムを示す図である。 実施の形態2に係る経路計画サーバーの構成を示すブロック図である。 実施の形態2に係る経路計画サーバーから自動運転車両への送信情報を示す図である。 実施の形態2に係る経路計画サーバーの動作を示すフローチャートである。 実施の形態2に係る車両制御装置の構成を示すブロック図である。 その他の変形例に係る死角推定装置のハードウェア構成を示すブロック図である。 その他の変形例に係る死角推定装置のハードウェア構成を示すブロック図である。
<実施の形態1>
図1は、本実施の形態1に係る車両走行システムを示す図である。図1の車両走行システムは、路側監視機器(RSU)1と、フュージョンサーバー2と、自動運転車両3とを備える。
RSU1は死角推定装置であり、後述するように、予め定められた領域内の物体の領域である物体領域と、当該物体によってRSU1の検出部の死角となる領域である死角領域とを生成する。本実施の形態1では、予め定められた領域は、RSU1による物体領域及び死角領域の生成対象となる領域、つまり生成対象領域が、これに限ったものではない。また本実施の形態1では、複数のRSU1が、複数の方向にそれぞれ向けられているが、これに限ったものではなく、例えば1つのRSU1だけが設けられてもよい。
フュージョンサーバー2は、複数のRSU1で生成された物体領域及び死角領域に基づいて、統合的な物体領域及び死角領域を生成する。自動運転車両3は、フュージョンサーバー2で生成された統合的な物体領域及び死角領域に基づいて、自動運転車両3が自動運転を行うべき走行経路を決定する。なお、自動運転車両3の自動運転は、AD(Autonomous Driving)制御の自動運転であってもよいし、ADAS(Advanced Driver Assistance System)制御の自動運転であってもよい。
<RSUの構成>
図2は、本実施の形態1に係るRSU1の構成を示すブロック図である。図2のRSU1は、検出部11と、一次フュージョン部12と、ロケーション部13と、通信部14とを含む。
検出部11は、生成対象領域内の物体の情報である物体情報を検出できるセンサー及びセンサーのサポーター回路によって構成される。本実施の形態1では、そのセンサーは、カメラ111、電波レーダー112、及び、レーザレーダー113を含み、物体情報は、カメラ111、電波レーダー112、及び、レーザレーダー113の検出結果に対応する情報である。物体は、移動物であってもよいし、静止物であってもよい。
一次フュージョン部12は、検出部11で検出された物体情報を処理する。一次フュージョン部12は、取得部である物体フュージョン部121と、推定部である死角計算部122とを含む。物体フュージョン部121は、検出部11で検出された物体情報に基づいて、生成対象領域内の物体の領域である物体領域を計算などによって取得する。死角計算部122は、計算された物体領域に基づいて、当該物体によって検出部11の死角となる領域である死角領域を計算などによって推定する。
ロケーション部13は、RSU1の位置と、RSU1の向き(例えば方位)とを取得する。ロケーション部13は、例えば、GPS、「みちびき」などの準天頂衛星、Beidou、Galileo、GLONASS、NAVICなどのGNSS(全球測位衛星システム)の測位モジュールと、ジャイロなどの慣性原理を用いた方位計測手段とにより構成される。
通信部14は、一次フュージョン部12の物体領域及び死角領域の情報と、ロケーション部13のRSU1の位置及び向きの情報とを、フュージョンサーバー2に送信する。通信部14は、例えば、汎用の通信機器または専用通信ネットワークの機器により構成される。
図3及び図4は、物体による死角発生メカニズムと死角領域の計算方法とを説明するための図である。図3は、地上の水平方向から見た図であり、図4は、地上の鉛直方向から見た図(すなわち平面図)である。図3及び図4には、生成対象領域内の物体6と、物体6によって生成された、RSU1の死角7とが図示されている。つまり、図3及び図4には、RSU1から検出できる物体6の領域である物体領域と、物体6に対してRSU1と逆側に存在してRSU1から検出できない死角7の領域である死角領域とが図示されている。
ここで図3において、RSU1の設置基準点をOとし、Oの地上からの高さをHとし、RSU1と物体6の断面遠方側頂点VAとの距離をLとし、OとVAとの線分と水平方向とがなす角度をθとする。この場合、死角7の最遠点AとOの地面投影O’との距離rと、物体6の断面遠方側とRSU1の設置位置との地面に沿った距離ra’と、死角領域の断面の地面に沿った幅wとは、それぞれ次式(1)、(2)、(3)を用いて計算できる。
Figure 0007166325000001
Figure 0007166325000002
Figure 0007166325000003
図4において、物体6を四角形と仮定すれば、RSU1の設置基準点Oを基準にして当該四角形の辺を地上に投影した辺などに囲まれる死角領域が生じる。例えば、図4の場合、物体6の辺C’B’で生じる死角領域は領域C’B’BCであり、辺A’B’で生じる死角領域は領域A’B’BAである。死角領域C’B’BC及び死角領域A’B’BAのそれぞれは四角形と近似できる。このため図4の場合には、物体6で生じる死角領域は、死角領域C’B’BCと死角領域A’B’BAとを足し合わせた六角形の領域A’B’C’CBAとなる。このように、死角領域は、物体6の頂点A’B’C’の座標と、それに対応する点A,B,Cの座標とで表現できる。
次に、点A,B,Cの座標の計算について説明する。例えば、図4に示すように、RSU1の設置基準点Oを原点として有する、地上と平行な平面座標系を想定する。点Aは設置基準点Oと点A’との延長線上にある。直線OA’Aとx軸とのなす角をφとすると、Aの座標は次式(4)を用いて、A’の座標は次式(5)を用いて計算できる。点B,C,B’,C’の座標についても、点A,A’の座標と同様に計算できる。
Figure 0007166325000004
Figure 0007166325000005
以上のように、死角計算部122は、物体6の各点のL、θ、φを含む物体領域と、設置基準点Oの地上からの高さHとを上式(1)~(5)に適用して死角領域を推定する。高さHは、RSU1の設置時に設定される固定値であってもよいし、検出部11で適宜検出される値であってもよい。
なお、図5に示すように、死角領域の形状は、RSU1に対する物体6の物体領域の向き(例えば方位)によって、例えば、二つの四角形を組み合わせた形状、及び、三つの四角形を組み合わせた形状などに変化する。例えば、物体領域61の向きの場合には、死角領域71の形状は、二つの四角形を組み合わせた六角形となり、物体領域62の向きの場合には、死角領域72の形状は、三つの四角形を組み合わせた八角形となる。死角計算部122は、八角形の死角領域72についても六角形の死角領域71と同様に推定することができる。
<RSUのフローチャート>
図6は、本実施の形態1に係るRSU1の動作を示すフローチャートである。RSU1は、図6に示す動作を一定時間の周期ごとに実行する。
まずステップS1にて、検出部11は、各センサーの生データを取り込み、各センサーの生データに基づいて物体情報を生成する。例えば、検出部11は、カメラ111の生データである画像信号から、ある時刻の画面中の物体6を識別して、物体6の位置と向きとを物体情報として生成する。そして、検出部11は、電波レーダー112及びレーザレーダー113の生データである点群を物体情報として生成する。なお、検出部11は、各センサーの出力周期が異なる場合には、各センサーの出力であるデータの同期を行う。
ステップS2にて、物体フュージョン部121は、検出部11で生成された物体情報を融合するフュージョン処理を行い、物体領域を計算する。なお、フュージョン処理としては、例えば、異なるセンサーで同じ項目の値が検出された場合に、温度、光度などの環境条件における各センサーの信頼性を考慮しながら信頼性が高いセンサーの値を優先的に用いる公知の技術が用いられる。物体フュージョン部121は、物体領域の計算だけではなく、物体6の速度及び加速度なども計算してもよい。
本実施の形態1では、ステップS2にて物体フュージョン部121は、物体6が移動物であるか静止物であるかを推定する。つまり、物体フュージョン部121は、次のステップS3にて推定される死角領域が、移動物によって死角となる領域であるか、静止物によって死角となる領域であるかを推定する。例えば、物体フュージョン部121は、物体6の停止時間が閾値以下である場合に、物体6を移動物であると推定し、物体6の停止時間が閾値よりも大きい場合に、物体6を静止物であると推定する。なお、一次フュージョン部12の他の構成要素(例えば死角計算部122)が、移動物によって死角となる領域であるか、静止物によって死角となる領域であるかの推定を行ってもよい。
ステップS3にて、死角計算部122は、物体フュージョン部121で計算された物体領域に基づいて、図3及び図4で説明した上記計算方法を用いることにより、死角領域を計算する。
ステップS4にて、通信部14は、物体領域及び死角領域の情報と、物体6が移動物であるか静止物であるかの推定結果と、ロケーション部13のRSU1の位置及び向きの情報とを、フュージョンサーバー2に送信する。その後、図6の動作が終了する。
なお、以上の動作は、複数の方向にそれぞれ向けられた複数のRSU1のそれぞれで行われる。このため、複数のRSU1の一次フュージョン部12は、複数の方向の物体情報に基づいて複数の物体領域を計算することになり、複数のRSU1の死角計算部122は、複数の物体領域に基づいて複数の死角領域を計算することになる。
<RSUの送信情報の説明>
図7は、RSU1からフュージョンサーバー2への送信情報を示す図である。図7の表の各行は、物体領域と、死角領域の四角形の部分とのいずれか1つを示している。
図7の表の一列目は、RSU1で検出される物体ごとの番号であり、1つのRSU1内で各物体に対して付与される物体ナンバーを表す。なお、死角領域には、その死角の発生元となる物体の物体ナンバーが付与される。例えば、図5において、物体領域62に物体ナンバー「1」が付与された場合、それに対応する3つの四角形の死角領域72にも物体ナンバー「1」が付与される。図5において、物体領域61に物体ナンバー「2」が付与された場合、それに対応する2つの四角形の死角領域71にも物体ナンバー「2」が付与される。
図7の二列目は領域の種類コードを表す。obj_moveは移動物の物体領域を表し、obj_standは静止物の物体領域を表す。bld_moveは移動物による死角領域を表し、bld_standは静止物による死角領域を表す。
図7の三列目は各領域の四角形の頂点座標を表す。この座標値は各RSU1に固有の座標系での値である。
なお、各RSU1からフュージョンサーバー2への送信情報には、図7の情報だけでなく、ロケーション部13のRSU1の位置及び向きの情報が含まれる。
<フュージョンサーバーの構成>
図8は、本実施の形態1に係るフュージョンサーバー2の構成を示すブロック図である。図8のフュージョンサーバー2は、受信部21と、二次フュージョン部22と、送信部23とを含む。
受信部21は、複数のRSU1から図7の物体領域及び死角領域などを受信する。なお、受信部21は、公知の技術によって、複数のRSU1間の同期をとる。
二次フュージョン部22は、複数のRSU1からの送信情報を処理する。二次フュージョン部22は、座標変換部221と、統合フュージョン部222と、死角再計算部223とを含む。座標変換部221は、複数のRSU1の位置及び向きの情報に基づいて、複数のRSU1からの物体領域及び死角領域の座標系を、統一的なグローバル座標系に変換する。統合フュージョン部222は、座標変換部221で座標が変換された、複数のRSU1からの物体領域の統合を行う。死角再計算部223は、座標変換部221で座標が変換された、複数のRSU1からの死角領域の統合を行う。
送信部23は、統合された物体領域及び死角領域を含む生成対象領域内の自動運転車両3に、統合された物体領域及び死角領域を送信する。これにより実質的に、RSU1の物体領域及び死角領域が、生成対象領域内の自動運転車両3に送信される。
<フュージョンサーバーのフローチャート>
図9は、本実施の形態1に係るフュージョンサーバー2の動作を示すフローチャートである。フュージョンサーバー2は、図9に示す動作を一定時間の周期ごとに実行する。
まずステップS11にて、受信部21は、複数のRSU1から図7の物体領域及び死角領域を受信する。
ステップS12にて、座標変換部221は、複数のRSU1の位置及び向きの情報に基づいて、複数のRSU1からの物体領域及び死角領域の座標系を、複数のRSU1において統一的なグローバル座標系に変換する。
ステップS13にて、統合フュージョン部222は、各物体6に関して複数のRSU1からの物体領域を統合するフュージョン処理を行う。このフュージョン処理では、例えば、各物体6について複数のRSU1からの物体領域を足し合わせるOR処理が行われる。
ステップS14にて、死角再計算部223は、各物体6に関して複数のRSU1からの死角領域を統合するフュージョン処理を行う。このフュージョン処理では、例えば、各物体6について複数のRSU1からの死角領域の共通部分を抽出するAND処理が行われる。
例えば、図10に示すように、RSU1aは物体6について死角領域73aを生成し、RSU1bは物体6について死角領域73bを生成したとする。この場合に、死角再計算部223は、同一の物体6の死角領域73a,73bの図10の共通部分を、フュージョン後の死角領域73cとして抽出する。この死角領域73cは、RSU1a,1bのいずれにおいても死角となる領域である。
図9のステップS15にて、送信部23は、統合された物体領域及び死角領域を含む生成対象領域内の自動運転車両3に、統合された物体領域及び死角領域を送信する。その後、図9の動作が終了する。
<フュージョンサーバーの送信情報の構成>
図11は、フュージョンサーバー2から自動運転車両3への送信情報を示す図である。図11の表の各行は、統合された物体領域及び死角領域のいずれか1つを示している。
図11の表の一列目は、物体と死角との関係によらず、物体領域及び死角領域のそれぞれに1つのアイテムとして付与される物体ナンバーを表す。図11の表の二列目は、図7の送信情報と同様の種類コードを表す。この種類コードには、静止物よりも静止時間が長い固定体の物体領域を表すobj_fix、及び、固定体による死角領域を表すbld_fixが含まれてもよい。図11の表の三列目は、図7の送信情報と同様の各領域の頂点座標を表す。ただし、図11の座標値は、複数のRSU1において統一的なグローバル座標系での値である。図11の一つの行に対応する領域が三角形の場合は、v4に無効値が入れられてもよいし、図11の一つの行に対応する領域が五角形以上の場合は、5つ以上の座標で表されてもよい。
<車両側制御装置の構成>
図12は、自動運転車両3に設けられた車両側制御装置の構成を示すブロック図である。図12の車両側制御装置は、通信部31と、ロケーション測定部32と、制御部33と、運転部34とを含む。以下、車両側制御装置が設けられた自動運転車両3を「自車両」と記すこともある。
通信部31は、フュージョンサーバー2と通信する。これにより、通信部31は、フュージョンサーバー2で統合された物体領域及び死角領域を受信する。
ロケーション測定部32は、図2のRSU1のロケーション部13と同様に、自車両の位置及び向き(例えば方位)を測定する。ロケーション測定部32で測定された自車両の位置と向きは、グローバル座標系で表される。
制御部33は、通信部31で受信された物体領域及び死角領域に基づいて、自車両の走行を制御する。制御部33は、経路生成部331と、目標値生成部332とを含む。経路生成部331は、ロケーション測定部32で測定された自車両の位置と、目的地と、物体領域と、死角領域と、グローバル座標系の地図とに基づいて、自車両が走行すべき走行経路を生成して決定する。目標値生成部332は、経路生成部331で生成された走行経路に沿って自車両が走行するための、車速、ハンドル角などの制御目標値を生成する。
運転部34は、センサー341と、ECU(Electronic Control Unit)342と、アーキテクチャ343とを含む。ECU342は、センサー341で検出された自車両周辺の情報と、制御部33で生成された制御目標値とに基づいて、アーキテクチャ343を駆動する。
<車両側制御システムのフローチャート>
図13は、本実施の形態1に係る自動運転車両3の車両側制御装置の動作を示すフローチャートである。車両側制御装置は、図13に示す動作を一定時間の周期ごとに実行する。
まずステップS21にて、ロケーション測定部32は、自車両の位置及び向きを測定して取得する。
ステップS22にて、通信部31は、フュージョンサーバー2で統合された物体領域及び死角領域を受信する。
ステップS23にて、経路生成部331は、ロケーション測定部32で測定された自車両の位置及び向きと、目的地と、物体領域と、死角領域とを、グローバル座標系の地図上に転記してマッピングする。なお、全ての座標値をグローバル座標系の値に予め統一しておくことで、ステップS23のマッピングは容易に行うことができる。
ステップS24にて、経路生成部331は、マッピングされた地図に基づいて、自車両が走行すべき走行経路を生成する。例えばまず、図14のように、経路生成部331は、ロケーション測定部32で測定された自車両51の位置及び向きから目的地52まで最短で到達できる経路を暫定経路53として生成する。なお、図14の例では、目的地52は、駐車枠内の地点であるが、これに限ったものではない。経路生成部331は、暫定経路53に物体領域及び死角領域を反映させて走行経路を生成する。これについて以下、図15~図18を用いて説明する。
図15のように、暫定経路53上に移動物の物体領域54が存在する場合、経路生成部331は、自車両が、移動物の物体領域54の手前で一旦停止し、自車両51の手前から当該物体領域がなくなった場合に走行を開始するための走行経路を生成する。図16のように、暫定経路53上に静止物の物体領域55が存在する場合、経路生成部331は、自車両が静止物の物体領域55を避けるための走行経路56を生成する。
図17のように、暫定経路53上に移動物の死角領域57が存在する場合、経路生成部331は、自車両が、移動物の死角領域57の手前で一旦停止し、自車両51の手前から当該死角領域57がなくなった場合に走行を開始するための走行経路を生成する。図18のように、暫定経路53上に静止物の死角領域58が存在する場合、経路生成部331は、静止物の物体領域及び死角領域58を避けるための走行経路59を生成する。
目的地までの間に物体領域及び死角領域を含む複数の領域が存在する場合、経路生成部331は、全ての領域について図15~図18の条件を満たす走行経路を最終的な走行経路として生成する。なお、移動物の物体領域及び死角領域に対して一旦停止した後、図13のフローチャートの動作が周期的に実行されるため、移動物の物体領域及び死角領域の移動に伴って、自車両は走行を再開する。
図13のステップS25にて、目標値生成部332は、経路生成部331で生成された走行経路に基づいて制御目標値を生成する。その後、図13の動作が終了する。
<実施の形態1のまとめ>
以上のような本実施の形態1によれば、RSU1は、物体の物体領域を取得し、物体の死角領域を推定する。このような構成によれば、例えば自動運転車両3は、センサーを備えなくても、自動運転車両3の周りに存在している物体の物体領域及び死角領域を把握することができる。このため、自動運転車両3は、センサーを備えなくても、物体領域及び死角領域に基づいて、物体との衝突、及び、死角領域内の障害物との衝突が抑制された走行経路を計画できる。また、死角領域が、移動物によって死角となる領域であるか、静止物によって死角となる領域であるかが推定されるので、例えば自動運転車両3は、物体の種類によって、適切な走行経路を計画できる。
<変形例>
実施の形態1では、図2のRSU1の検出部11は、カメラ111、電波レーダー112及びレーザレーダー113の3種類のセンサーを含んだが、必要な物体及び死角領域を取得するために、他のセンサーを含んでもよい。
また実施の形態1では、図2の一次フュージョン部12はRSU1に含まれたが、これに限ったものではない。例えば、一次フュージョン部は、フュージョンサーバー2に含まれてもよいし、RSU1及びフュージョンサーバー2と異なる構成要素に設けられてもよい。この場合、RSU1の構成から一次フュージョン部12を省くことができ、かつ、図6のRSU1のフローチャートから、ステップS2の物体領域の計算及びステップS3の死角領域の計算を省くことができる。
また実施の形態1では、図2のロケーション部13として、様々なGNSSを使用したが、これに限ったものではない。例えば、固定式のRSU1の場合に、ロケーション部13は、GNSSを搭載せずに、RSU1の位置及び向きが記憶された固定ロケーション用のメモリであってもよい。この固定ロケーション用のメモリは、通信部14、一次フュージョン部12、または、検出部11に組み込まれてもよい。また、強風による振動の対策などのために、ロケーション部13は、加速度センサー及びジャイロセンサーを含んでもよい。
<実施の形態2>
図19は、本実施の形態2に係る車両走行システムを示す図である。以下、本実施の形態2に係る構成要素のうち、上述の構成要素と同じまたは類似する構成要素については同じまたは類似する参照符号を付し、異なる構成要素について主に説明する。
実施の形態1では、フュージョンサーバー2が自動運転車両3に物体領域及び死角領域を送信し、自動運転車両3が物体領域及び死角領域に基づいて走行経路及び制御目標値を生成した。これに対して本実施の形態2では、走行パターン生成装置である経路計画サーバー8が、複数のRSU1からの物体領域及び死角領域に基づいて、生成対象領域内の自動運転車両9の走行パターンを決定し、当該走行パターンを自動運転車両9に送信する。なお、走行パターンは、実施の形態1で説明した走行経路56に沿った走行を行うための走行パターンであり、実質的に走行経路56と同じである。自動運転車両9は、経路計画サーバー8から受信した走行パターンに基づいて制御目標値を生成し、制御目標値に基づいて走行する。なお、自動運転車両9の自動運転は、AD(Autonomous Driving)制御の自動運転であってもよいし、ADAS(Advanced Driver Assistance System)制御の自動運転であってもよい。
<RSUの構成>
本実施の形態2に係るRSU1の構成は、実施の形態1に係るRSU1の構成と同様である。
<経路計画サーバーの構成>
図20は、本実施の形態2に係る経路計画サーバー8の構成を示すブロック図である。図20の経路計画サーバー8は、受信部81と、二次フュージョン部82と、車両位置取得部83と、地図データベース84と、走行パターン生成部85と、送信部86とを含む。
受信部81は、実施の形態1の受信部21と同様に、複数のRSU1から送信情報などを受信する。
二次フュージョン部82は、実施の形態1の座標変換部221、統合フュージョン部222、及び、死角再計算部223と同様の座標変換部821、統合フュージョン部822、及び、死角再計算部823を含む。このように構成された二次フュージョン部82は、実施の形態1の二次フュージョン部22と同様に、複数のRSU1からの物体領域の統合と、複数のRSU1からの死角領域の統合とを行う。
車両位置取得部83は、例えば生成対象領域内の各自動運転車両9と通信を行うことによって、生成対象領域内の各自動運転車両9の位置、方位、及び、目的地を逐次的に取得する。地図データベース84は、生成対象領域内のグローバル座標系の地図を記憶している。
走行パターン生成部85は、実施の形態1の自動運転車両3が備えた経路生成部331と同様の処理を行う。具体的には、走行パターン生成部85は、車両位置取得部83で取得された自動運転車両9の位置、方位及び目的地と、二次フュージョン部82で統合された物体領域及び死角領域と、地図データベース84の地図とに基づいて、自動運転車両9の走行パターンを生成して決定する。送信部86は、時刻と目標位置のリストを含む走行パターンを、自動運転車両9に送信する。図21は、経路計画サーバー8から自動運転車両9に送信される時刻と目標位置のリストを示す図である。目標位置は、グローバル座標系でのXY座標で示される。
<経路計画サーバーのフローチャート>
図22は、本実施の形態2に係る経路計画サーバー8の動作を示すフローチャートを示す。経路計画サーバー8は、図22に示す動作を一定時間の周期ごとに実行する。
ステップS31からステップS34まで、経路計画サーバー8は、図9のステップS11の送信情報の受信から、ステップS14の死角領域の統合までの処理と同様の処理を行う。
ステップS35からステップS38まで、経路計画サーバー8は、図13のステップS21の自車両の位置及び向きの方位の取得から、ステップS24の走行経路の生成までの処理と同様の処理を行う。つまり、本実施の形態2ではステップS38にて、経路計画サーバー8は、ステップS24の走行経路と同様に、自動運転車両9が当該走行経路に沿った走行を行うための走行パターンを生成する。これにより、図15~図18で説明された走行経路に沿って走行を行うための走行パターンが生成される。
例えば、経路計画サーバー8は、死角領域が静止物によって死角となる領域であると推定された場合に、自動運転車両9が当該死角領域を避けるための走行パターンを決定する。また例えば、経路計画サーバー8は、死角領域が移動物によって死角となる領域であると推定された場合に、自動運転車両9が、死角領域の手前で停止し、自動運転車両9の手前から当該死角領域がなくなった場合に走行を開始するための走行パターンを決定する。
ステップS39にて、経路計画サーバー8は、走行パターンを自動運転車両9に送信する。その後、図22の動作が終了する。
<自動運転車の構成>
図23は、自動運転車両9に設けられた車両側制御装置の構成を示すブロック図である。図23の車両側制御装置は、通信部91と、ロケーション測定部92と、制御値生成部93と、運転部94とを含む。
通信部91は、経路計画サーバー8と通信する。これにより、通信部91は、経路計画サーバー8で生成された走行パターンを受信する。ロケーション測定部92は、実施の形態1のロケーション測定部32と同様に、自車両の位置及び向きを測定する。
制御値生成部93は、通信部91で受信された走行パターンと、ロケーション測定部32で測定された自車両の位置及び方位とに基づいて、車速、ハンドル角などの制御目標値を生成する。
運転部94は、センサー941と、ECU942と、アーキテクチャ943とを含む。ECU942は、センサー941で検出された自車両周辺の情報と、制御値生成部93で生成された制御目標値とに基づいて、アーキテクチャ943を駆動する。
<実施の形態2のまとめ>
以上のような本実施の形態2によれば、経路計画サーバー8は、各自動運転車両9の周りに存在している物体の物体領域及び死角領域を把握することができる。これにより、自動運転車両9がセンサー及び経路生成部を備えなくても、経路計画サーバー8は、物体領域及び死角領域に基づいて、自動運転車両9の物体などとの衝突が抑制された走行パターンを計画できる。また、死角領域が、移動物によって死角となる領域であるか、静止物によって死角となる領域であるかが推定されるので、例えば自動運転車両9は、物体の種類によって、適切な走行パターンを計画できる。
<その他の変形例>
図2で物体フュージョン部121及び死角計算部122としてそれぞれ説明した取得部及び推定部を、以下「取得部等」と記す。取得部等は、図24に示す処理回路101により実現される。すなわち、処理回路101は、検出部で検出された予め定められた領域内の物体の情報である物体情報に基づいて、物体の領域である物体領域を取得する取得部と、物体領域に基づいて、物体によって検出部の死角となる領域である死角領域を推定する推定部と、を備える。処理回路101には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサが適用されてもよい。プロセッサには、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などが該当する。
処理回路101が専用のハードウェアである場合、処理回路101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。取得部等の各部の機能それぞれは、処理回路を分散させた回路で実現されてもよいし、各部の機能をまとめて1つの処理回路で実現されてもよい。
処理回路101がプロセッサである場合、取得部等の機能は、ソフトウェア等との組み合わせにより実現される。なお、ソフトウェア等には、例えば、ソフトウェア、ファームウェア、または、ソフトウェア及びファームウェアが該当する。ソフトウェア等はプログラムとして記述され、メモリに格納される。図25に示すように、処理回路101に適用されるプロセッサ102は、メモリ103に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、死角推定装置は、処理回路101により実行されるときに、検出部で検出された予め定められた領域内の物体の情報である物体情報に基づいて、物体の領域である物体領域を取得するステップと、物体領域に基づいて、物体によって検出部の死角となる領域である死角領域を推定するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ103を備える。換言すれば、このプログラムは、取得部等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ103は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)、そのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
以上、取得部等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、取得部等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、取得部については専用のハードウェアとしての処理回路101、インターフェース及びレシーバなどでその機能を実現し、それ以外についてはプロセッサ102としての処理回路101がメモリ103に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
以上のように、処理回路101は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
なお、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。
1 RSU、3,9 自動運転車両、6 物体、7 死角、8 経路計画サーバー、11 検出部、56 走行経路、61,62 物体領域、71,72 死角領域、121 物体フュージョン部、122 死角計算部。

Claims (7)

  1. 死角推定装置を備える車両走行システムであって、
    前記死角推定装置は、
    検出部で検出された予め定められた領域内の物体の情報である物体情報に基づいて、前記物体の領域である物体領域を取得する取得部と、
    前記物体領域に基づいて、前記物体によって前記検出部の死角となる領域である死角領域を推定する推定部と
    を備え、
    前記推定部は、
    前記検出部と前記物体領域のうち前記検出部で検出可能な遠方側頂点との間の距離と、前記検出部の水平方向と前記検出部から前記遠方側頂点に進む方向との間の角度とに基づいて、前記死角領域を推定し、
    前記物体は移動物及び静止物を含み、
    前記死角推定装置は、
    前記死角領域が、前記移動物によって前記死角となる領域であるか、前記静止物によって前記死角となる領域であるかを推定し、
    前記車両走行システムは、
    走行パターンに基づいて走行する自動運転車両と、
    前記物体領域及び前記死角領域に基づいて、前記予め定められた領域内の前記自動運転車両の前記走行パターンを決定する走行パターン生成装置と
    をさらに備え、
    前記走行パターン生成装置は、
    前記死角領域が、前記静止物によって前記死角となる領域であると推定された場合には、前記自動運転車両が前記死角領域を避けるための前記走行パターンを決定し、
    前記死角領域が、前記移動物によって前記死角となる領域であると推定された場合には、前記自動運転車両が、前記死角領域の手前で停止し、前記自動運転車両の手前から当該死角領域がなくなった場合に走行を開始するための前記走行パターンを決定する、車両走行システム
  2. 死角推定装置を備える車両走行システムであって、
    前記死角推定装置は、
    検出部で検出された予め定められた領域内の物体の情報である物体情報に基づいて、前記物体の領域である物体領域を取得する取得部と、
    前記物体領域に基づいて、前記物体によって前記検出部の死角となる領域である死角領域を推定する推定部と
    を備え、
    前記推定部は、
    前記検出部と前記物体領域のうち前記検出部で検出可能な遠方側頂点との間の距離と、前記検出部の水平方向と前記検出部から前記遠方側頂点に進む方向との間の角度とに基づいて、前記死角領域を推定し、
    前記物体は移動物及び静止物を含み、
    前記死角推定装置は、
    前記死角領域が、前記移動物によって前記死角となる領域であるか、前記静止物によって前記死角となる領域であるかを推定し、
    前記物体領域及び前記死角領域を、前記予め定められた領域内の自動運転車両に送信し、
    前記車両走行システムは、
    前記自動運転車両をさらに備え、
    前記自動運転車両は、
    前記物体領域及び前記死角領域に基づいて、前記自動運転車両の走行経路を決定し、
    前記死角領域が、前記静止物によって前記死角となる領域であると推定された場合には、前記死角領域を避けるための前記走行経路を決定し、
    前記死角領域が、前記移動物によって前記死角となる領域であると推定された場合には、前記走行経路上の前記死角領域の手前で停止し、前記自動運転車両の手前から当該死角領域がなくなった場合に走行を開始するための前記走行経路を決定する、車両走行システム。
  3. 請求項1または請求項2に記載の車両走行システムであって、
    前記取得部は、複数の方向の前記物体情報に基づいて複数の物体領域を取得し、
    前記推定部は、前記複数の物体領域に基づいて複数の死角領域を推定し、
    前記複数の死角領域の共通部分を抽出する、車両走行システム
  4. 死角推定装置を備える車両走行システムであって、
    前記死角推定装置は、
    検出部で検出された予め定められた領域内の物体の情報である物体情報に基づいて、前記物体の領域である物体領域を取得する取得部と、
    前記物体領域に基づいて、前記物体によって前記検出部の死角となる領域である死角領域を推定する推定部と
    を備え、
    前記物体は移動物及び静止物を含み、
    前記死角推定装置は、
    前記死角領域が、前記移動物によって前記死角となる領域であるか、前記静止物によって前記死角となる領域であるかを推定し、
    前記物体領域及び前記死角領域を、前記予め定められた領域内の自動運転車両に送信し、
    前記車両走行システムは、
    前記自動運転車両をさらに備え、
    前記自動運転車両は、
    前記物体領域及び前記死角領域に基づいて、前記自動運転車両の走行経路を決定し、
    前記死角領域が、前記静止物によって前記死角となる領域であると推定された場合には、前記死角領域を避けるための前記走行経路を決定し、
    前記死角領域が、前記移動物によって前記死角となる領域であると推定された場合には、前記走行経路上の前記死角領域の手前で停止し、前記自動運転車両の手前から当該死角領域がなくなった場合に走行を開始するための前記走行経路を決定する、車両走行システム。
  5. 死角推定装置を備える車両走行システムであって、
    前記死角推定装置は、
    検出部で検出された予め定められた領域内の物体の情報である物体情報に基づいて、前記物体の領域である物体領域を取得する取得部と、
    前記物体領域に基づいて、前記物体によって前記検出部の死角となる領域である死角領域を推定する推定部と
    を備え、
    前記物体は移動物及び静止物を含み、
    前記死角推定装置は、
    前記死角領域が、前記移動物によって前記死角となる領域であるか、前記静止物によって前記死角となる領域であるかを推定し、
    前記車両走行システムは、
    走行パターンに基づいて走行する自動運転車両と、
    前記物体領域及び前記死角領域に基づいて、前記予め定められた領域内の前記自動運転車両の前記走行パターンを決定する走行パターン生成装置と
    をさらに備え、
    前記走行パターン生成装置は、
    前記死角領域が、前記静止物によって前記死角となる領域であると推定された場合には、前記自動運転車両が前記死角領域を避けるための前記走行パターンを決定し、
    前記死角領域が、前記移動物によって前記死角となる領域であると推定された場合には、前記自動運転車両が、前記死角領域の手前で停止し、前記自動運転車両の手前から当該死角領域がなくなった場合に走行を開始するための前記走行パターンを決定する、車両走行システム。
  6. 検出部で検出された予め定められた領域内の物体の情報である物体情報に基づいて、前記物体の領域である物体領域を取得し、
    前記物体領域に基づいて、前記物体によって前記検出部の死角となる領域である死角領域を推定し、
    前記物体は移動物及び静止物を含み、
    前記死角領域が、前記移動物によって前記死角となる領域であるか、前記静止物によって前記死角となる領域であるかを推定し、
    前記物体領域及び前記死角領域を、前記予め定められた領域内の自動運転車両に送信し、
    前記自動運転車両は、
    前記物体領域及び前記死角領域に基づいて、前記自動運転車両の走行経路を決定し、
    前記死角領域が、前記静止物によって前記死角となる領域であると推定された場合には、前記死角領域を避けるための前記走行経路を決定し、
    前記死角領域が、前記移動物によって前記死角となる領域であると推定された場合には、前記走行経路上の前記死角領域の手前で停止し、前記自動運転車両の手前から当該死角領域がなくなった場合に走行を開始するための前記走行経路を決定する、死角推定方法。
  7. 検出部で検出された予め定められた領域内の物体の情報である物体情報に基づいて、前記物体の領域である物体領域を取得し、
    前記物体領域に基づいて、前記物体によって前記検出部の死角となる領域である死角領域を推定し、
    前記物体は移動物及び静止物を含み、
    前記死角領域が、前記移動物によって前記死角となる領域であるか、前記静止物によって前記死角となる領域であるかを推定し、
    自動運転車両は走行パターンに基づいて走行し、
    走行パターン生成装置は、
    前記物体領域及び前記死角領域に基づいて、前記予め定められた領域内の前記自動運転車両の前記走行パターンを決定し、
    前記死角領域が、前記静止物によって前記死角となる領域であると推定された場合には、前記自動運転車両が前記死角領域を避けるための前記走行パターンを決定し、
    前記死角領域が、前記移動物によって前記死角となる領域であると推定された場合には、前記自動運転車両が、前記死角領域の手前で停止し、前記自動運転車両の手前から当該死角領域がなくなった場合に走行を開始するための前記走行パターンを決定する、死角推定方法。
JP2020214993A 2020-12-24 2020-12-24 車両走行システム、死角推定方法 Active JP7166325B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020214993A JP7166325B2 (ja) 2020-12-24 2020-12-24 車両走行システム、死角推定方法
US17/505,884 US20220206502A1 (en) 2020-12-24 2021-10-20 Blind area estimation apparatus, vehicle travel system, and blind area estimation method
DE102021211882.8A DE102021211882A1 (de) 2020-12-24 2021-10-21 Sichtschattenschätzvorrichtung, Fahrzeugfahrsystem und Sichtschattenschätzverfahren
CN202111508335.0A CN114670840A (zh) 2020-12-24 2021-12-10 死角推测装置、车辆行驶系统、死角推测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020214993A JP7166325B2 (ja) 2020-12-24 2020-12-24 車両走行システム、死角推定方法

Publications (2)

Publication Number Publication Date
JP2022100793A JP2022100793A (ja) 2022-07-06
JP7166325B2 true JP7166325B2 (ja) 2022-11-07

Family

ID=81972301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020214993A Active JP7166325B2 (ja) 2020-12-24 2020-12-24 車両走行システム、死角推定方法

Country Status (4)

Country Link
US (1) US20220206502A1 (ja)
JP (1) JP7166325B2 (ja)
CN (1) CN114670840A (ja)
DE (1) DE102021211882A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115547105A (zh) * 2022-09-19 2022-12-30 智道网联科技(北京)有限公司 路侧设备数据处理方法、装置及电子设备、存储介质
CN116798272B (zh) * 2023-08-23 2023-11-28 威海爱思特传感技术有限公司 基于车辆通信的道路十字路口盲区车辆预警系统及方法
CN117022260A (zh) * 2023-08-29 2023-11-10 中国第一汽车股份有限公司 安全驾驶辅助方法、装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248870A (ja) 2010-04-27 2011-12-08 Denso Corp 死角領域検出装置、死角領域検出プログラム、および死角領域検出方法
JP2018193535A (ja) 2017-05-16 2018-12-06 株式会社ブリヂストン タイヤ
JP2018195289A (ja) 2017-05-18 2018-12-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 車両システム、車両情報処理方法、プログラム、交通システム、インフラシステムおよびインフラ情報処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10993688B2 (en) * 2015-12-15 2021-05-04 Koninklijke Philips N.V. Method of data processing for computed tomography
JP6798611B2 (ja) * 2017-04-19 2020-12-09 日産自動車株式会社 走行支援方法及び走行支援装置
CN110874945A (zh) 2018-08-31 2020-03-10 百度在线网络技术(北京)有限公司 基于车路协同的路侧感知系统及其车辆控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248870A (ja) 2010-04-27 2011-12-08 Denso Corp 死角領域検出装置、死角領域検出プログラム、および死角領域検出方法
JP2018193535A (ja) 2017-05-16 2018-12-06 株式会社ブリヂストン タイヤ
JP2018195289A (ja) 2017-05-18 2018-12-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 車両システム、車両情報処理方法、プログラム、交通システム、インフラシステムおよびインフラ情報処理方法

Also Published As

Publication number Publication date
CN114670840A (zh) 2022-06-28
JP2022100793A (ja) 2022-07-06
US20220206502A1 (en) 2022-06-30
DE102021211882A1 (de) 2022-06-30

Similar Documents

Publication Publication Date Title
JP7166325B2 (ja) 車両走行システム、死角推定方法
CN106289275B (zh) 用于改进定位精度的单元和方法
JP6700382B2 (ja) 車線縁石補助による自律走行車の車線逸脱検出及び車線維持システム
US8775063B2 (en) System and method of lane path estimation using sensor fusion
US20100121518A1 (en) Map enhanced positioning sensor system
US10369993B2 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
US20180211530A1 (en) Computer-assisted or autonomous driving with region-of-interest determination for traffic light analysis
CN111025308B (zh) 车辆定位方法、装置、系统和存储介质
JP2007309757A (ja) 対象物認識装置
JP2007178310A (ja) 車載システムおよびレーダ故障診断方法
US11796324B2 (en) Vehicle control device
US20200124422A1 (en) Localization using dynamic landmarks
JP7193572B2 (ja) 移動体制御装置、移動体制御方法、および、移動体制御装置用プログラム
JP2019513996A (ja) 地上標識による周辺内の少なくとも部分自動運転走行車両の姿勢の決定方法
CN109416884A (zh) 识别区域推定装置、识别区域推定方法及识别区域推定程序
KR20180068555A (ko) 차량의 위치 정보 측위 시스템
JP2018073010A (ja) 移動体制御装置、移動体制御方法、および、移動体制御装置用プログラム
JP6790951B2 (ja) 地図情報学習方法及び地図情報学習装置
KR20200002257A (ko) 꼭지점 검출 기반의 도로 표지판 검출 방법 및 장치
KR102406498B1 (ko) 차량의 자율주행모드와 운전보조모드 간의 변환방법
JP7123117B2 (ja) 自車位置信頼度演算装置、自車位置信頼度演算方法、車両制御装置、及び車両制御方法
JP7031748B2 (ja) 自己位置推定方法及び自己位置推定装置
WO2020248209A1 (en) 3d odometry in 6d space with roadmodel 2d manifold
WO2020021596A1 (ja) 車両位置推定装置および車両位置推定方法
US11301700B2 (en) System and method for safely parking an autonomous vehicle on sensor anomaly

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221025

R150 Certificate of patent or registration of utility model

Ref document number: 7166325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150