JP6223607B1 - 周辺認知装置、周辺認知方法及び周辺認知プログラム - Google Patents

周辺認知装置、周辺認知方法及び周辺認知プログラム Download PDF

Info

Publication number
JP6223607B1
JP6223607B1 JP2016570060A JP2016570060A JP6223607B1 JP 6223607 B1 JP6223607 B1 JP 6223607B1 JP 2016570060 A JP2016570060 A JP 2016570060A JP 2016570060 A JP2016570060 A JP 2016570060A JP 6223607 B1 JP6223607 B1 JP 6223607B1
Authority
JP
Japan
Prior art keywords
allocation rate
allocation
sensing
moving body
mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016570060A
Other languages
English (en)
Other versions
JPWO2017183141A1 (ja
Inventor
隆文 春日
隆文 春日
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6223607B1 publication Critical patent/JP6223607B1/ja
Publication of JPWO2017183141A1 publication Critical patent/JPWO2017183141A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

制御部(21)は、移動体(100)の周辺を観測する複数のセンサから出力されたセンサデータを解析する複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を、移動体(100)が走行する道路の種別と、移動体(100)の挙動と、移動体(100)からの視界といった移動体(100)の移動環境に応じて決定する。検出部(22)は、制御部(21)によって決定された割当率から特定される割当量の演算リソースを、対応するセンシングに対して使用して、移動体(100)の周辺の物体を検出する。

Description

この発明は、移動体の周辺に存在する物体を認知する技術に関する。
ドライバーの運転サポート及び予防安全を目的として、車線逸脱警報システム(LDW)、歩行者検知システム(PD)、アダプティブクルーズコントロールシステム(ACC)といった先進運転支援システムが開発又は製品化されている。また、目的地までの一部又は全ての運転をドライバーに代わって行う自動運転システムの開発が行われている。
先進運転支援システム及び自動運転システムは、センサ等により認知された車両周辺の状況に基づき実現される。そのため、先進運転支援システム及び自動運転システムの精度を高くするためには、車両周辺の状況を正確に認知することが必要である。
一般的に、センサが出力したセンサデータを解析するセンシングでは、検出精度を高くするには必要な演算リソースが多くなる。検出精度を高くするとは、センシング周期を短くすること、センシング範囲を広くすること、検出分解能を細かくすることである。
特に、先進運転支援システム及び自動運転システムでは、複数のセンサデータについて同時にセンシングする必要があるため、演算リソースが不足するという課題がある。
特許文献1には、車両の走行状態と車両のドライバーの状態とのいずれかに基づいて、車両周辺の異なる領域を監視する複数のセンサの優先順位を設定し、優先順位に基づいてセンサの動作とセンサが出力した情報の処理とのいずれかを制御することが記載されている。これにより、特許文献1では、複数のセンサを用いる場合に、CPU(Central Processing Unit)や車載LANの負荷を低減しつつ、車両周辺を認知している。
国際公開第2010/140239号パンフレット
しかしながら、特許文献1の技術では、優先順位の高いセンシングに多くの演算リソースを使用してしまい、優先度の低いセンシングに当てる演算リソースが不足してしまう。その結果、本来認知すべき物体を認知できない恐れがある。
この発明は、使用可能な演算リソース内で移動体周辺の物体を適切に認知することを目的とする。
この発明に係る周辺認知装置は、
移動体の周辺を観測する複数のセンサから出力されたセンサデータを解析する複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を、前記移動体の移動環境に応じて決定する制御部と、
前記制御部によって決定された割当率から特定される割当量の演算リソースを、対応するセンシングに対して使用して、前記移動体の周辺の物体を検出する検出部と
を備える。
この発明は、移動体の移動環境に応じて各センシングに対する演算リソースの割当率を決定し、決定された割当率から特定される割当量の演算リソースを使用して物体を検出する。これにより、使用可能な演算リソース内で移動体周辺の物体を適切に認知することが可能になる。
実施の形態1に係る周辺認知装置10の構成図。 実施の形態1に係る周辺認知装置10の基本的な動作のフローチャート。 実施の形態1に係るリソース制御処理のフローチャート。 実施の形態1に係るセンシング領域の説明図。 実施の形態1に係るセンシングの精度毎に必要な演算リソースの割当率を示す割当率テーブル411。 実施の形態1に係る走行環境に応じた演算リソースの配分を示す配分テーブル412。 実施の形態2に係るリソース制御処理のフローチャート。 実施の形態2に係る危険度分布の説明図。 実施の形態2に係る危険度分布の説明図。 実施の形態3に係る周辺認知装置10の構成図。 実施の形態3に係るリソース制御処理のフローチャート。 実施の形態3に係るセンシングの精度毎に必要な演算リソースの割当率を示す割当率テーブル411。 実施の形態3に係る回路データ43の説明図。
実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係る周辺認知装置10の構成を説明する。
図1では、周辺認知装置10が移動体100に搭載された状態が示されている。移動体100は、車両、船舶、歩行者である。実施の形態1では、移動体100は、車両である。
なお、周辺認知装置10は、移動体100または図示した他の構成要素と、一体化した形態または分離不可能な形態で実装されても、あるいは、取り外し可能な形態または分離可能な形態で実装されてもよい。
周辺認知装置10は、移動体100に搭載されるコンピュータである。
周辺認知装置10は、プロセッサ11と、メモリ12と、センサインタフェース13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、システムバスを介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
図1では、プロセッサ11は、1つだけ示されている。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。実施の形態1では、プロセッサ11は、CPUと、DSPと、GPUとを有しており、これらが連携して各機能を実現するプログラムを実行する。
CPUは、プログラムの実行、データ演算といった処理を行うプロセッサである。
DSPは、算術演算、データ移動といったデジタル信号処理に特化したプロセッサである。例えば、ソナーから得られるセンサデータのセンシングといったデジタル信号の処理はCPUで行わず、DSPで高速に処理することが望ましい。
GPUは、画像の処理に特化したプロセッサであり、複数の画素データを並列処理することで高速な処理を実現するとともに、テンプレートマッチングといった画像処理で頻繁に使われる処理を高速に処理可能なプロセッサである。例えば、カメラから得られるセンサデータのセンシングをCPUで処理すると処理時間が膨大になるため、GPUで処理することが望ましい。
メモリ12は、周辺認知装置10の電源がオフの間も実行プログラム及びデータを保持し続けることが可能な不揮発性メモリと、周辺認知装置10の動作時にデータを高速に移動可能な揮発性メモリとで構成される。不揮発性メモリは、具体例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリである。揮発性メモリは、具体例としては、DDR2−SDRAM(Double−Data−Rate2 Synchronous Dynamic Random Access Memory)、DDR3−SDRAM(Double−Data−Rate3 Synchronous Dynamic Random Access Memory)である。不揮発性メモリは、SD(Secure Digital)メモリカード、CF(CompactFlash)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVDといった可搬記憶媒体であってもよい。
メモリ12は、メモリインタフェースを介してプロセッサ11と接続される。メモリインタフェースは、プロセッサ11からのメモリアクセスを一元的に管理し、効率的なメモリアクセス制御を行う装置である。メモリインタフェースは、後述する機能構成要素間のデータ転送と、センサデータのメモリ12への書き込みといった処理に利用される。
センサインタフェース13は、移動体100に搭載されたセンサ31を接続するための装置である。センサインタフェース13は、具体例としては、イーサネット(登録商標)、アイ・スクエア・シー(I2C)、シリアル・ペリフェラル・インターエース(SPI)、映像信号、Controller Area Network(CAN)などの通信規格に対応したインタフェースの端子である。
移動体100には、移動体100の周辺を観測する複数のセンサ31が搭載されている。センサ31は、具体例としては、カメラ、ソナー、レーザセンサ、GPS(Global Positioning System)センサである。センサ31の種類及び数は、必要とされる物体の検出精度及びコストに応じて決定される。
通信インタフェース14は、移動体100に搭載されたECU32(Electronic Control Unit)を接続するための装置である。通信インタフェース14は、具体例としては、Ethernet、CAN(Controller Area Network)、RS232C、USB、IEEE1394の端子である。
ECU32は、移動体100の速度を示す車速情報、ステアリング角情報、移動体100の周辺の温度を示す温度情報を取得する装置である。
周辺認知装置10は、機能構成要素として、制御部21と、検出部22とを備える。検出部22は、センシング部23と、統合部24と、位置特定部25と、認知情報生成部26とを備える。制御部21と、検出部22と、センシング部23と、統合部24と、位置特定部25と、認知情報生成部26との各部の機能は、ソフトウェアにより実現される。
メモリ12には、各部の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11により読み込まれ実行される。
また、メモリ12には、リソース情報41と、地図データ42とが記憶されている。リソース情報41は、センシングの精度毎に必要な演算リソースの割当率を示す割当率テーブル411と、走行環境に応じた演算リソースの配分を示す配分テーブル412とを有する。地図データ42は、静的地図データと動的地図データとで構成される。静的地図データは、道路の車線数、車線幅、形状、傾斜、標識、信号等を示す。動的地図データは、渋滞情報、規制情報、交通事故情報、道路工事情報等の動的に変化する状況を示す。
周辺認知装置10の各部の機能の処理の結果を示す情報とデータと信号値と変数値とは、メモリ12、又は、プロセッサ11内のレジスタ又はキャッシュメモリに記憶される。以下の説明では、周辺認知装置10の各部の機能の処理の結果を示す情報とデータと信号値と変数値は、メモリ12に記憶されるものとする。
また、周辺認知装置10は、移動体100に搭載された予測装置33と接続されている。予測装置33は、周辺認知装置10によって認知された情報から危険度分布及び周辺状況を推定し、推定された危険度分布及び周辺状況から移動体100の走行内容を決定する装置である。そして、予測装置33は、決定された走行内容に従い、移動体100を操作する装置である。
危険度分布は、移動体100の位置を原点として、どの位置にどの程度の危険があるかを示す。周辺状況は、移動体100の周囲にある物体の行動、移動、加減速等を示す。走行内容は、走行する経路、車線、車線変更位置等を示す。
***動作の説明***
図2から図6を参照して、実施の形態1に係る周辺認知装置10の動作を説明する。
実施の形態1に係る周辺認知装置10の動作は、実施の形態1に係る周辺認知方法に相当する。また、実施の形態1に係る周辺認知装置10の動作は、実施の形態1に係る周辺認知プログラムの処理に相当する。
図2を参照して、実施の形態1に係る周辺認知装置10の基本的な動作を説明する。
(ステップS11:リソース制御処理)
制御部21は、移動体の周辺を観測する複数のセンサから出力されたセンサデータを解析する複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を決定する。
実施の形態1では、演算リソースは、プロセッサ11及びメモリ12である。したがって、演算リソースの割当率は、プロセッサ11及びメモリ12の使用可能な量に対する割り当てられた量の割合を表す。
(ステップS12:センシング処理)
センシング部23は、ステップS11で決定された割当率から特定される割当量の演算リソースを対応するセンシングに対して使用して、センサ31から出力されたセンサデータをセンシングし、監視領域にある障害物及び標識といった物体を検出する。センシング部23は、検出した物体を示すセンシング情報を生成する。
具体例としては、センシング部23は、移動体100の前方を撮像する2台の前方カメラから出力されたセンサデータである画像データを解析して、画像データに示された物体を検出する。また、センシング部23は、2台の前方カメラそれぞれから出力された画像データから、ステレオ法により検出された物体までの距離を特定する。そして、センシング部23は、検出された物体及び特定された物体までの距離を示すセンシング情報を生成する。
(ステップS13:統合処理)
統合部24は、ステップS12で生成されたセンシング情報を統合して情報量が多く、かつ、精度の高い統合情報を生成する。
具体例としては、ステップS12で、2台の前方カメラから出力された画像データをセンシングした結果、前方10メートル前後に人がいることが特定されたとする。また、ステップS12で、レーザセンサから出力されたセンサデータをセンシングした結果、前方10.2メートルに障害物があると特定されたとする。この場合、統合部24は、両方のセンシング情報を統合して、前方10.2メートルに人がいるという統合情報を生成する。
(ステップS14:位置特定処理)
位置特定部25は、通信インタフェース14を介してECU32から取得された移動体100に関する各種情報と、ステップS12で生成されたセンシング情報と、メモリ12に記憶された地図データ42とから、移動体100の位置及び姿勢を特定する。
具体例としては、位置特定部25は、センシング情報が示す位置と、その位置についての地図データ42とから片側3車線の道路における最も中央寄りの車線を走行中であるということを特定する。また、位置特定部25は、ECU32から取得された情報に含まれるステアリング角情報から、移動体100が右に2度傾いているということを特定する。
(ステップS15:認知情報生成処理)
認知情報生成部26は、ステップS13で生成された統合情報と、ステップS14で特定された位置及び姿勢とから、移動体100の周辺の3次元空間に、障害物、標識、信号といった物体の位置と属性と大きさとをマッピングした認知情報を生成する。
属性とは、具体例としては、人、標識、信号、対向車、前方車等である。なお、信号のように状態が変化する物体の場合には、その物体の状態、つまり信号であればどの色かも属性に含んでもよい。また、3次元空間とは、具体例としては、移動体100のある一点を原点とし、進行方向をX軸、横方向をY軸、上下方向をZ軸とする3次元空間である。複数のセンシングで得られた情報を1つの空間座標系にマッピングすることで、移動体100から見てどの位置にどのような物体がどのような状態で存在するかを示すことができる。
ステップS12からステップS15の処理を総称して検出処理と呼ぶ。
その後、予測装置33は、ステップS15で生成された認知情報に基づき、危険度分布及び周辺状況を推定し、推定された危険度分布及び周辺状況から移動体100の走行内容を決定する。そして、予測装置33は、決定された走行内容に従い、移動体100を操作する。
図3を参照して、実施の形態1に係るステップS11のリソース制御処理を説明する。
(ステップS21:初期化処理)
周辺認知装置10が処理を開始すると、制御部21は、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率の初期値をリソース情報41から読み出す。そして、制御部21は、読み出された初期値を演算リソースの割当率に決定する。
実施の形態1では、図4に示すように、移動体100である車両の周辺を前後左右4つの領域に分類し、それぞれの領域を1つのセンサでセンシングする例を説明する。以下の説明では、前方をセンシングすることを前方センシング、左方をセンシングすることを左方センシング、右方をセンシングすることを右方センシング、後方をセンシングすることを後方センシングと呼ぶ。制御部21は、図5に示すように、リソース情報41が有する割当率テーブル411から、複数のセンシングそれぞれについて初期値として設定された精度の割当率を読み出す。例えば、前方センシングと、左方センシングと、右方センシングと、後方センシングとのそれぞれについて、分類がAの割当率を読み出す。
すると、決定された演算リソースの割当率から特定される割当量に従い、図2のステップS12が実行される。これに伴い、図2のステップS13からステップS15も実行される。
(ステップS22:割当率読出処理)
制御部21は、演算リソースの割当率を、移動体100の移動環境に応じて決定する。移動体100の移動環境は、移動体100が走行する道路の種別と、移動体100の挙動と、移動体100からの視界との少なくともいずれかを示す。
具体的には、制御部21は、図6に示すように、リソース情報41が有する配分テーブル412から、移動体100の移動環境である道路の種別と挙動と視界とに対応する、複数のセンシングそれぞれについての分類を読み出す。具体例としては、制御部21は、移動体100が一般道を直進しており、天気が晴れの日中のため視界が良好な場合には、図6の処理分類1における複数のセンシングそれぞれについての分類を読み出す。つまり、制御部21は、前方センシングについては分類Cを読み出し、左方センシングについては分類Aを読み出し、右方センシングについては分類Aを読み出し、後方センシングについては分類Cを読み出す。
実施の形態1では、移動体100の移動環境は、通信インタフェース14を介してECU32から取得された車速情報とステアリング角情報と温度情報といった移動体100及び移動体100の周辺環境に関する各種情報と、ステップS14で位置特定部25によって特定された移動体100の位置及び姿勢と、ステップS15で認知情報生成部26によって生成された認知情報と、予測装置33によって決定された周辺状況とによって特定される。
例えば、制御部21は、移動体100の位置から移動体100が走行する道路の種別を特定する。この際、制御部21は、地図データ42を参照して道路の種別を特定してもよい。また、制御部21は、移動体100及び移動体100の周辺環境に関する各種情報が示す移動体100の速度及びステアリング角と、移動体100の位置及び姿勢と、認知情報と、周辺状況とから、移動体100の挙動を特定する。また、制御部21は、移動体100及び移動体100の周辺環境に関する各種情報が示す温度等から視界を特定する。この際、制御部21は、外部のサーバ等から、移動体100の位置を含むエリアの気象情報を取得し、取得された気象情報を参照して、視界を特定してもよい。
(ステップS23:割当変更処理)
制御部21は、複数のセンシングそれぞれに対して割り当てられている演算リソースの割当率を、ステップS22で決定された演算リソースの割当率に変更する。
すると、変更された演算リソースの割当率に従い、図2のステップS12が実行される。これに伴い、図2のステップS13からステップS15も実行される。
(ステップS24:継続判定処理)
制御部21は、図2のステップS12からステップS15の検出処理を継続するか否かを判定する。
制御部21は、検出処理を継続する場合には処理をステップS25に進め、検出処理を継続しない場合には処理を終了する。
(ステップS25:状況判定処理)
制御部21は、走行環境が変化したか否かを判定する。
制御部21は、走行環境が変化した場合には、処理をステップS22に戻す。制御部21は、走行環境が変化しない場合には、処理をステップS24に戻す。
***実施の形態1の効果***
以上のように、実施の形態1に係る周辺認知装置10は、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を、移動体100の移動環境に応じて決定する。これにより、使用可能な演算リソース内で移動体周辺の物体を適切に認知することが可能になる。
***他の構成***
<変形例1>
図3のステップS25では、走行環境と危険度分布とのそれぞれについて、閾値以上に変化した場合のみ変化したと判定し、微細な変化は変化なしと判定してもよい。これにより、微細な変化を変化ありと見なして、演算リソースの割当率の再分配が頻繁に発生し、効率の悪いセンシング制御となってしまうことを防ぐことができる。
実施の形態2.
実施の形態2は、さらに危険度分布を考慮して、演算リソースの割当率を決定する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明する。
***動作の説明***
図7から図9を参照して、実施の形態2に係る周辺認知装置10の動作を説明する。
実施の形態2に係る周辺認知装置10の動作は、実施の形態2に係る周辺認知方法に相当する。また、実施の形態2に係る周辺認知装置10の動作は、実施の形態2に係る周辺認知プログラムの処理に相当する。
図7を参照して、実施の形態2に係るリソース制御処理を説明する。
ステップS31からステップS32の処理と、ステップS36の処理とは、図3のステップS21からステップS22と、ステップS24の処理と同じである。
(ステップS33:重要度判定処理)
制御部21は、予測装置33によって推定された移動体100の周辺の危険度分布から複数のセンシングそれぞれについての重要度を判定する。制御部21は、危険度の高いエリアについてのセンシングほど、重要度が高いと判定する。なお、危険度分布は、予測装置33から取得されるものに限らず、路側機といった他の装置から取得されてもよい。
危険度分布は、移動体100を原点とした3次元空間座標、又は、2次元空間座標において、どの位置にどの程度の危険度があるかを示す。危険度は、具体例としては、予測装置33によって生成される走行内容が示す走行する経路上に物体が侵入する確率と、衝突した場合の衝撃度とから計算される。衝撃度は、具体例としては、物体の種別、車速、重量等から計算される。
この際、制御部21は、予測装置33によって推定された周辺状況も考慮して、重要度を判定してもよい。周辺状況は、移動体100の周囲にある物体の行動、移動、加減速等を示す。
具体例としては、片側2車線の道路を直進している場合の危険度分布は、図8に示すようになる。図8では、ハッチングが入れられた地点の危険度が高いことを示している。図8では、検出された前方の走行車及び対向車及び後方のバイク等が存在する地点が、危険度が高い地点として示されている。また、他の具体例としては、交差点を右折する場合の危険度分布は、図9に示すようになる。図9でも、ハッチングが入れられた地点の危険度が高いことを示している。図9では、検出された対向車及び後続車が存在する地点と、検出された対向車に隠れて見えない地点とが、危険度が高い地点として示されている。
(ステップS34:最適化処理)
制御部21は、ステップS32で決定された演算リソースの割当率と、ステップS33で判定された重要度とから、演算リソースの割当率を最適化する。
具体的には、制御部21は、移動体100の周辺の危険度分布が示す危険度が高いエリアについてのセンシングに対してステップS32で決定(仮決定)された演算リソースの割当率を高くすることにより、演算リソースの割当率を最適化し本決定する。
具体例としては、ステップS32で図6の処理分類6の分類が読み出されたとする。この場合、前方センシングは、分類Iであり、使用可能な演算リソースのうち26%を使用する。左方センシングは、分類Iであり、使用可能な演算リソースのうち18%を使用する。右法センシングは、分類Iであり、使用可能な演算リソースのうち18%を使用する。後方センシングは、分類Iであり、使用可能な演算リソースのうち22%を使用する。したがって、各センシングで使用する演算リソースの合計は、使用可能な演算リソースのうち84%となる。
ステップS33の結果で前方センシングが重要と判定されていたとする。この場合、制御部21は、前方センシングに対する演算リソースの割当率を、ステップS32で求めた分類Iよりも精度の高い分類J、分類K、分類Lのいずれかの割当率に変更する。このとき、制御部21は、各センシングで使用する演算リソースの合計が100%を超えない範囲で最も精度が高い分類を選択する。ここでは、最も精度が高い分類Lとしても合計で92%となり、100%を超えないため、制御部21は、前方センシングに対する演算リソースの割当率を分類Lの割当率に変更する。
ここでは、重要度が高いセンシングが前方センシングのみであったが、2つ以上のセンシングの重要度が高いと判定されていた場合には、使用可能な演算リソース内で最も重要度の高い領域のセンシング精度を可能な限り上げる、又は、重要度に合わせてバランスをとって精度を上げる制御としてもよい。
また、制御部21は、消費電力を抑えるために、必要最低限の精度とする制御をしてもよい。つまり、上記説明では、各センシングで使用する演算リソースの合計が100%を超えない範囲で最も精度が高い分類を選択したが、制御部21は、重要度の高さに応じて、必要最低限の精度の分類を選択してもよい。
(ステップS35:割当変更処理)
制御部21は、複数のセンシングそれぞれに対して割り当てられている演算リソースの割当率を、ステップS35で本決定された演算リソースの割当率に変更する。
すると、変更された演算リソースの割当率から特定される割当量に従い、図2のステップS12が実行される。これに伴い、図2のステップS13からステップS15も実行される。
(ステップS37:状況判定処理)
制御部21は、走行環境と危険度分布との少なくともいずれかが変化したか否かを判定する。
制御部21は、走行環境だけが変化した場合、及び、走行環境と危険度分布との両方が変化した場合には、処理をステップS32に戻す。制御部21は、危険度分布だけが変化した場合には、処理をステップS33に戻す。制御部21は、いずれも変化しない場合には、処理をステップS36に戻す。
***実施の形態2の効果***
以上のように、実施の形態2に係る周辺認知装置10は、演算リソースの割当率を、移動体の周辺の危険度分布に応じて決定する。これにより、使用可能な演算リソース内で危険を回避するために必要な物体を適切に認知することが可能になる。
実施の形態3.
実施の形態3は、周辺認知装置10の各部の機能がハードウェアで実現される点が実施の形態1,2と異なる。実施の形態3について、この異なる点を説明する。
実施の形態3では、実施の形態2と異なる点を説明するが、実施の形態1についても同様に各部の機能がハードウェアで実現することができる。
***構成の説明***
図10を参照して、実施の形態3に係る周辺認知装置10の構成を説明する。
周辺認知装置10は、プロセッサ11に代えて、処理回路15を備える。
処理回路15は、周辺認知装置10の各部の機能を実現する電子回路である。図10では、処理回路15は、1つだけ示されている。しかし、処理回路15は、複数であってもよく、複数の処理回路15が連携して各機能を実現してもよい。
実施の形態3では、処理回路15は、FPGA(Field−Programmable Gate Array)である。 FPGAは、複数の論理ブロックと複数の演算器ブロックと複数のブロックRAM(SRAM,Static Random Access Memory)とで構成され、論理ブロックの構成と各ブロックを接続する配線のルートとを切り替えることで、回路構成を動的に変更することが可能なLSI(Large−Scale Integration)である。
メモリ12には、さらに、回路データ43が記憶されている。回路データ43は、複数のセンシングそれぞれを実行する回路構成を示す。
実施の形態3では、演算リソースは、FPGAで実現される回路である。したがって、演算リソースの割当率から特定される割当量は、回路の規模を表す。回路データ43は、センシング及び回路規模の分類毎に、回路構成を示す。
***動作の説明***
図11から図13を参照して、実施の形態3に係る周辺認知装置10の動作を説明する。
実施の形態3に係る周辺認知装置10の動作は、実施の形態3に係る周辺認知方法に相当する。また、実施の形態3に係る周辺認知装置10の動作は、実施の形態3に係る周辺認知プログラムの処理に相当する。
図11を参照して、実施の形態3に係るリソース制御処理を説明する。
ステップS42からステップS44の処理と、ステップS47からステップS48の処理とは、図7のステップS32からステップS34の処理と、ステップS36からステップS37の処理と同じである。
(ステップS41:初期化処理)
周辺認知装置10が処理を開始すると、実施の形態1と同様に、制御部21は、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率の初期値をリソース情報41から読み出す。制御部21は、読み出された初期値を演算リソースの割当率に決定する。そして、制御部21は、複数のセンシングそれぞれについて、決定された割当率から特定される割当量が示す回路規模に対して、回路データ43が示す回路構成となるようにFPGAを設定する。
具体的には、制御部21は、図12に示すように、リソース情報41が有する割当率テーブル411から、複数のセンシングそれぞれについて初期値として設定された精度の割当率を読み出す。例えば、前方センシングと、左方センシングと、右方センシングと、後方センシングとのそれぞれについて、分類がAの割当率を読み出す。制御部21は、図13に示すように、回路データ43が示す回路構成から、前方センシングと、左方センシングと、右方センシングと、後方センシングとのそれぞれについて、読み出された割当率から特定される割当量が示す回路規模に対応する構成情報を読み出す。そして、制御部21は、複数のセンシングそれぞれについて、読み出された構成情報が示す回路構成となるようにFPGAを設定する。
すると、設定されたFPGAにより、図2のステップS12が実行される。これに伴い、図2のステップS13からステップS15も実行される。
(ステップS45:変更判定処理)
制御部21は、複数のセンシングそれぞれについて、ステップS44で本決定された演算リソースの割当率から特定される割当量が示す回路規模に対して、回路データ43が示す回路構成にFPGAを設定するのに要する時間を計算する。そして、制御部21は、計算された時間が基準時間よりも短い場合には、演算リソースの割当率を変更すると判定し、長い場合には演算リソースの割当率を変更しないと判定する。
制御部21は、演算リソースの割当率を変更する場合には処理をステップS46に進め、演算リソースの割当率を変更しない場合には処理をステップS47に進める。
具体的には、制御部21は、図12に示すリソース情報41が有する割当率テーブル411から、複数のセンシングそれぞれについて決定された精度の更新時間を読み出す。そして、制御部21は、読み出された更新時間を合計する。例えば、前方センシングが分類Dに変更となり、左方センシングが分類Fに変更になり、右方センシングが分類Iに変更になり、後方センシングが分類Eに変更になるとする。この場合、前方センシングの更新時間は8[ms(ミリ秒)]、左方センシングの更新時間は9[ms]、右方センシングの更新時間は9[ms]、後方センシングの更新時間は7[ms]である。したがって、更新時間の合計は、33[ms]である。
そして、制御部21は、計算された更新時間の合計が基準時間よりも短い場合には、演算リソースの割当率を変更すると判定し、長い場合には演算リソースの割当率を変更しないと判定する。基準時間は、移動環境毎に定められる。具体例としては、基準時間は、一般道を走行中で快晴時に障害物無の場合には40[ms]と定められる。
(ステップS46:割当変更処理)
制御部21は、複数のセンシングそれぞれに対して割り当てられている演算リソースの割当率を、ステップS44で決定された演算リソースの割当率に変更する。そして、制御部21は、複数のセンシングそれぞれについて、変更された割当率から特定される割当量が示す回路規模に対して、回路データ43が示す回路構成となるようにFPGAを設定する。
すると、設定されたFPGAにより、図2のステップS12が実行される。これに伴い、図2のステップS13からステップS15も実行される。
***実施の形態3の効果***
以上のように、実施の形態3に係る周辺認知装置10は、演算リソースの割当率が示す規模の回路を構成してセンシングを行う。これにより、センシングが回路により実現される場合でも、使用可能な演算リソース内で必要な物体を適切に認知することが可能になる。
FPGAの回路構成を変更するには、変更する規模にもよるが、ミリ秒オーダーの時間を要する。しかし、実施の形態3に係る周辺認知装置10は、回路構成を変更するのに必要な更新時間が、移動環境毎に定められた基準時間よりも長い場合には回路構成の変更を行わない。これにより、回路構成を変更することにより、物体の認知が遅れるといったことを防止できる。
***他の構成***
<変形例2>
実施の形態3では、周辺認知装置10の各部の機能がハードウェアで実現された。しかし、変形例2として、周辺認知装置10の一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。この場合、周辺認知装置10は、プロセッサ11と処理回路15との両方を備える。
なお、以上の説明において、プロセッサ11とメモリ12と処理回路15とを、総称して「プロセッシングサーキットリー」という。つまり、各部の機能は、プロセッシングサーキットリーにより実現される。
10 周辺認知装置、11 プロセッサ、12 メモリ、13 センサインタフェース、14 通信インタフェース、15 処理回路、21 制御部、22 検出部、23 センシング部、24 統合部、25 位置特定部、26 認知情報生成部、31 センサ、32 ECU、33 予測装置、41 リソース情報、42 地図データ、43 回路データ、100 移動体。

Claims (9)

  1. 移動体の周辺を観測する複数のセンサから出力されたセンサデータを解析する複数のセンシングそれぞれに対して割り当てる演算リソースの割当率が、前記割当率の合計が100%を超えない範囲で、移動環境に応じて定められた配分テーブルから、前記移動体の移動環境に対応する割当率を読み出すことにより、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を前記移動体の移動環境に応じて決定する制御部と、
    使用可能な演算リソースの量と前記制御部によって決定された割当率から特定される割当量の演算リソースを対応するセンシングに対して使用して、前記移動体の周辺の物体を検出する検出部と
    を備える周辺認知装置。
  2. 前記制御部は、前記割当率を、前記移動環境と、前記移動体の周辺の危険度分布とに応じて決定する
    請求項1に記載の周辺認知装置。
  3. 前記制御部は、前記移動環境に応じて前記割当率を仮決定し、前記移動体の周辺の危険度分布が示す危険度が高いエリアについてのセンシングに対して仮決定された前記割当率を高くすることにより、前記割当率を本決定する
    請求項2に記載の周辺認知装置。
  4. 前記移動環境は、前記移動体が走行する道路の種別と、前記移動体の挙動と、前記移動体からの視界との少なくともいずれかを示す
    請求項1から3までのいずれか1項に記載の周辺認知装置。
  5. 前記検出部は、少なくとも一部の機能が回路により実現され、
    前記割当量は、前記回路の規模を表す
    請求項1から4までのいずれか1項に記載の周辺認知装置。
  6. 前記制御部は、前記複数のセンシングそれぞれを実行する前記回路を、前記割当量が示す規模で構成し、
    前記検出部は、構成された前記回路を用いて、前記移動体の周辺の物体を検出する
    請求項5に記載の周辺認知装置。
  7. 前記制御部は、前記移動環境が閾値以上変化した場合に、前記割当率を決定し直す
    請求項1から6までのいずれか1項に記載の周辺認知装置。
  8. プロセッサが、移動体の周辺を観測する複数のセンサから出力されたセンサデータを解析する複数のセンシングそれぞれに対して割り当てる演算リソースの割当率が、前記割当率の合計が100%を超えない範囲で、移動環境に応じて定められた配分テーブルから、前記移動体の移動環境に対応する割当率を読み出すことにより、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を前記移動体の移動環境に応じて決定し、
    プロセッサが、使用可能な演算リソースの量と決定された割当率から特定される割当量の演算リソースを対応するセンシングに対して使用して、前記移動体の周辺の物体を検出する周辺認知方法。
  9. 移動体の周辺を観測する複数のセンサから出力されたセンサデータを解析する複数のセンシングそれぞれに対して割り当てる演算リソースの割当率が、前記割当率の合計が100%を超えない範囲で、移動環境に応じて定められた配分テーブルから、前記移動体の移動環境に対応する割当率を読み出すことにより、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を前記移動体の移動環境に応じて決定する制御処理と、
    使用可能な演算リソースの量と前記制御処理によって決定された割当率から特定される割当量の演算リソースを対応するセンシングに対して使用して、前記移動体の周辺の物体を検出する検出処理と
    をコンピュータに実行させる周辺認知プログラム。
JP2016570060A 2016-04-20 2016-04-20 周辺認知装置、周辺認知方法及び周辺認知プログラム Active JP6223607B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/062558 WO2017183141A1 (ja) 2016-04-20 2016-04-20 周辺認知装置、周辺認知方法及び周辺認知プログラム

Publications (2)

Publication Number Publication Date
JP6223607B1 true JP6223607B1 (ja) 2017-11-01
JPWO2017183141A1 JPWO2017183141A1 (ja) 2018-04-26

Family

ID=60116644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016570060A Active JP6223607B1 (ja) 2016-04-20 2016-04-20 周辺認知装置、周辺認知方法及び周辺認知プログラム

Country Status (5)

Country Link
US (1) US11003922B2 (ja)
JP (1) JP6223607B1 (ja)
CN (1) CN109074742B (ja)
DE (1) DE112016006616T5 (ja)
WO (1) WO2017183141A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018043540A1 (ja) * 2016-08-31 2018-03-08 パイオニア株式会社 制御装置、計測装置、制御方法、およびプログラム
JP6652477B2 (ja) * 2016-10-03 2020-02-26 日立オートモティブシステムズ株式会社 車載処理装置
CN109885392B (zh) * 2019-01-03 2021-04-13 北京百度网讯科技有限公司 分配车载计算资源的方法以及装置
JP2020181105A (ja) * 2019-04-25 2020-11-05 キヤノン株式会社 投影装置およびその制御方法
US20200361452A1 (en) * 2019-05-13 2020-11-19 Toyota Research Institute, Inc. Vehicles and methods for performing tasks based on confidence in accuracy of module output
CN112257486B (zh) * 2019-12-23 2023-12-29 北京国家新能源汽车技术创新中心有限公司 算力分配方法、装置、计算机设备和存储介质
WO2022139843A1 (en) * 2020-12-24 2022-06-30 Intel Corporation Radar apparatus, system, and method
JPWO2023281784A1 (ja) * 2021-07-05 2023-01-12
US20230194704A1 (en) * 2021-12-22 2023-06-22 Gm Cruise Holdings Llc Anomaly prioritization using dual-mode adaptive radar

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008015891A1 (fr) * 2006-08-02 2008-02-07 Pioneer Corporation appareil de gestion de ressources, procédé de gestion de ressources, programme de gestion de ressources et support d'enregistrement lisible par un ordinateur
JP2008310804A (ja) * 2007-06-12 2008-12-25 Palo Alto Research Center Inc 早期警報のために衝突の危険を評価するための長距離ダイナミクス及び精神状態モデルの使用
JP2008310805A (ja) * 2007-06-12 2008-12-25 Palo Alto Research Center Inc 衝突の危険に対する迅速で控えめな評価のためのセグメント化錐体の使用
JP2011242860A (ja) * 2010-05-14 2011-12-01 Toyota Motor Corp 障害物認識装置
WO2014132747A1 (ja) * 2013-02-27 2014-09-04 日立オートモティブシステムズ株式会社 物体検知装置

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19845568A1 (de) 1998-04-23 1999-10-28 Volkswagen Ag Vorrichtung zur Objekterfassung für Kraftfahrzeuge
JP4052496B2 (ja) 1998-08-07 2008-02-27 富士通テン株式会社 車両用障害物検知システム
US6577269B2 (en) 2000-08-16 2003-06-10 Raytheon Company Radar detection method and apparatus
US6489927B2 (en) 2000-08-16 2002-12-03 Raytheon Company System and technique for mounting a radar system on a vehicle
JP2004506906A (ja) 2000-08-16 2004-03-04 レイセオン・カンパニー 自動車用レーダ・システムおよび方法
AU2001284984A1 (en) 2000-08-16 2002-02-25 Raytheon Company Highly integrated single substrate mmw multi-beam sensor
JP5063851B2 (ja) 2000-08-16 2012-10-31 ヴァレオ・レイダー・システムズ・インコーポレーテッド 近接物体検出システム
AU2001288273A1 (en) 2000-08-16 2002-02-25 Raytheon Company Video amplifier for a radar receiver
US20020075138A1 (en) 2000-08-16 2002-06-20 Van Rees H. Barteld Portable object detection system
US6657581B1 (en) 2000-08-16 2003-12-02 Raytheon Company Automotive lane changing aid indicator
EP1310018B1 (en) 2000-08-16 2018-07-25 Valeo Radar Systems, Inc. Switched beam antenna architecture
EP1309464B1 (en) 2000-08-16 2006-08-09 Raytheon Company Safe distance algorithm for adaptive cruise control
US6708100B2 (en) 2001-03-14 2004-03-16 Raytheon Company Safe distance algorithm for adaptive cruise control
US6970142B1 (en) 2001-08-16 2005-11-29 Raytheon Company Antenna configurations for reduced radar complexity
US6995730B2 (en) 2001-08-16 2006-02-07 Raytheon Company Antenna configurations for reduced radar complexity
US7183995B2 (en) 2001-08-16 2007-02-27 Raytheon Company Antenna configurations for reduced radar complexity
JP3879610B2 (ja) 2002-07-15 2007-02-14 株式会社デンソー 障害物検出装置及びプログラム並びに記録媒体
DE10238936A1 (de) 2002-08-24 2004-03-04 Robert Bosch Gmbh Vorrichtung und Verfahren zur Steuerung wenigstens einer Systemkomponente eines informationstechnischen Systems
JP2005309644A (ja) * 2004-04-20 2005-11-04 Hitachi Ltd リソース制御方法及びそのシステム
DE102005046045A1 (de) 2005-09-27 2007-03-29 Robert Bosch Gmbh Verfahren und Vorrichtung zur Steuerung mindestens eines Objektdetektionssensors
DE102006032541A1 (de) * 2006-07-13 2008-01-17 Robert Bosch Gmbh Warneinrichtung und Verfahren zur Umfeldüberwachung
DE112009004844B4 (de) * 2009-06-02 2015-05-13 Toyota Jidosha Kabushiki Kaisha Fahrzeugumgebungsüberwachungsvorrichtung
US8676488B2 (en) 2009-06-04 2014-03-18 Toyota Jidosha Kabushiki Kaisha Vehicle surrounding monitor device and method for monitoring surroundings used for vehicle
JP5634046B2 (ja) 2009-09-25 2014-12-03 クラリオン株式会社 センサコントローラ、ナビゲーション装置、センサ制御方法
JP5441626B2 (ja) 2009-11-06 2014-03-12 日立オートモティブシステムズ株式会社 車載用マルチアプリ実行装置
US20120182160A1 (en) * 2011-01-14 2012-07-19 TCS International, Inc. Directional Vehicle Sensor Matrix
JP2012221031A (ja) 2011-04-05 2012-11-12 Toyota Motor Corp 車両データ取得装置及び車両データ取得方法
WO2012144076A1 (ja) * 2011-04-22 2012-10-26 トヨタ自動車株式会社 車両周辺監視装置及び車両周辺監視情報の表示方法
JP5639282B2 (ja) * 2011-10-18 2014-12-10 本田技研工業株式会社 車両周辺監視装置
CN103108152A (zh) 2011-11-09 2013-05-15 能晶科技股份有限公司 盲点侦测警示系统
US20130278441A1 (en) * 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying
US9021493B2 (en) * 2012-09-14 2015-04-28 International Business Machines Corporation Management of resources within a computing environment
DE102012219637A1 (de) * 2012-10-26 2014-04-30 Continental Teves Ag & Co. Ohg Verfahren und system zur fusion von umfeldsensordaten mit kommunikationsdaten sowie verwendung des systems
CN103402261B (zh) * 2013-07-12 2017-02-08 北京邮电大学 一种自适应的多业务资源分配的方法和装置
US20150153184A1 (en) * 2013-12-04 2015-06-04 GM Global Technology Operations LLC System and method for dynamically focusing vehicle sensors
CN106060947B (zh) * 2016-07-12 2019-09-24 惠州Tcl移动通信有限公司 一种无线移动通信中的资源分配方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008015891A1 (fr) * 2006-08-02 2008-02-07 Pioneer Corporation appareil de gestion de ressources, procédé de gestion de ressources, programme de gestion de ressources et support d'enregistrement lisible par un ordinateur
JP2008310804A (ja) * 2007-06-12 2008-12-25 Palo Alto Research Center Inc 早期警報のために衝突の危険を評価するための長距離ダイナミクス及び精神状態モデルの使用
JP2008310805A (ja) * 2007-06-12 2008-12-25 Palo Alto Research Center Inc 衝突の危険に対する迅速で控えめな評価のためのセグメント化錐体の使用
JP2011242860A (ja) * 2010-05-14 2011-12-01 Toyota Motor Corp 障害物認識装置
WO2014132747A1 (ja) * 2013-02-27 2014-09-04 日立オートモティブシステムズ株式会社 物体検知装置

Also Published As

Publication number Publication date
US20190042863A1 (en) 2019-02-07
WO2017183141A1 (ja) 2017-10-26
DE112016006616T5 (de) 2018-11-29
JPWO2017183141A1 (ja) 2018-04-26
CN109074742B (zh) 2022-05-13
US11003922B2 (en) 2021-05-11
CN109074742A (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
JP6223607B1 (ja) 周辺認知装置、周辺認知方法及び周辺認知プログラム
JP7050025B2 (ja) 自動運転車両のための計画運転感知システム
CN111095291B (zh) 由自动驾驶车辆实时检测车道和边界
US11260855B2 (en) Methods and systems to predict object movement for autonomous driving vehicles
EP3321757B1 (en) Planning feedback based decision improvement system for autonomous driving vehicle
US10824153B2 (en) Cost design for path selection in autonomous driving technology
CN109389026B (zh) 车道检测方法和设备
JP2022523614A (ja) 駐車スペース検出に適したスキューされたポリゴンを使用した物体検出
JP6975775B2 (ja) 自動運転車両の高速道路における自動運転に用いる、地図及びポジショニングなしで車線に沿う走行方法
JP2022536030A (ja) ビデオ分析アプリケーションにおける相関フィルタを使用した複数物体追跡
JP2023503729A (ja) 自律運転アプリケーションのための曲線適合を使用するランドマーク検出
JP2023533507A (ja) 人間の運転振る舞いに基づいて軌跡プランナを最適化するシステム及び方法
US20190325234A1 (en) Lane post-processing in an autonomous driving vehicle
WO2020132959A1 (en) Spiral curve based vertical parking planner system for autonomous driving vehicles
US20180284791A1 (en) Automatic driving control method, automatic driving control device using the same, and non-transitory storage medium
US20210001883A1 (en) Action selection device, computer readable medium, and action selection method
WO2020132942A1 (en) A mutual nudge algorithm for self-reverse lane of autonomous driving
WO2020132938A1 (en) Methods for obstacle filtering for non-nudge planning system in autonomous driving vehicle
JP7126629B1 (ja) 情報統合装置、情報統合方法、及び情報統合プログラム
CN220040762U (zh) 多立体相机设备
US20230182723A1 (en) Apparatus for controlling driving of vehicle and method therefore
JP6861911B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20230339499A1 (en) Distributed computing architecture with shared memory for autonomous robotic systems
KR20220101540A (ko) 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법 및 전자장치
JP2023071168A (ja) 自律マシン・アプリケーションのための粒子ベース危険検出

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171003

R150 Certificate of patent or registration of utility model

Ref document number: 6223607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250