JP6223607B1 - 周辺認知装置、周辺認知方法及び周辺認知プログラム - Google Patents
周辺認知装置、周辺認知方法及び周辺認知プログラム Download PDFInfo
- Publication number
- JP6223607B1 JP6223607B1 JP2016570060A JP2016570060A JP6223607B1 JP 6223607 B1 JP6223607 B1 JP 6223607B1 JP 2016570060 A JP2016570060 A JP 2016570060A JP 2016570060 A JP2016570060 A JP 2016570060A JP 6223607 B1 JP6223607 B1 JP 6223607B1
- Authority
- JP
- Japan
- Prior art keywords
- allocation rate
- allocation
- sensing
- moving body
- mobile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Abstract
Description
先進運転支援システム及び自動運転システムは、センサ等により認知された車両周辺の状況に基づき実現される。そのため、先進運転支援システム及び自動運転システムの精度を高くするためには、車両周辺の状況を正確に認知することが必要である。
特に、先進運転支援システム及び自動運転システムでは、複数のセンサデータについて同時にセンシングする必要があるため、演算リソースが不足するという課題がある。
この発明は、使用可能な演算リソース内で移動体周辺の物体を適切に認知することを目的とする。
移動体の周辺を観測する複数のセンサから出力されたセンサデータを解析する複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を、前記移動体の移動環境に応じて決定する制御部と、
前記制御部によって決定された割当率から特定される割当量の演算リソースを、対応するセンシングに対して使用して、前記移動体の周辺の物体を検出する検出部と
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る周辺認知装置10の構成を説明する。
図1では、周辺認知装置10が移動体100に搭載された状態が示されている。移動体100は、車両、船舶、歩行者である。実施の形態1では、移動体100は、車両である。
なお、周辺認知装置10は、移動体100または図示した他の構成要素と、一体化した形態または分離不可能な形態で実装されても、あるいは、取り外し可能な形態または分離可能な形態で実装されてもよい。
周辺認知装置10は、プロセッサ11と、メモリ12と、センサインタフェース13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、システムバスを介して他のハードウェアと接続され、これら他のハードウェアを制御する。
図1では、プロセッサ11は、1つだけ示されている。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。実施の形態1では、プロセッサ11は、CPUと、DSPと、GPUとを有しており、これらが連携して各機能を実現するプログラムを実行する。
CPUは、プログラムの実行、データ演算といった処理を行うプロセッサである。
DSPは、算術演算、データ移動といったデジタル信号処理に特化したプロセッサである。例えば、ソナーから得られるセンサデータのセンシングといったデジタル信号の処理はCPUで行わず、DSPで高速に処理することが望ましい。
GPUは、画像の処理に特化したプロセッサであり、複数の画素データを並列処理することで高速な処理を実現するとともに、テンプレートマッチングといった画像処理で頻繁に使われる処理を高速に処理可能なプロセッサである。例えば、カメラから得られるセンサデータのセンシングをCPUで処理すると処理時間が膨大になるため、GPUで処理することが望ましい。
メモリ12は、メモリインタフェースを介してプロセッサ11と接続される。メモリインタフェースは、プロセッサ11からのメモリアクセスを一元的に管理し、効率的なメモリアクセス制御を行う装置である。メモリインタフェースは、後述する機能構成要素間のデータ転送と、センサデータのメモリ12への書き込みといった処理に利用される。
移動体100には、移動体100の周辺を観測する複数のセンサ31が搭載されている。センサ31は、具体例としては、カメラ、ソナー、レーザセンサ、GPS(Global Positioning System)センサである。センサ31の種類及び数は、必要とされる物体の検出精度及びコストに応じて決定される。
ECU32は、移動体100の速度を示す車速情報、ステアリング角情報、移動体100の周辺の温度を示す温度情報を取得する装置である。
メモリ12には、各部の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11により読み込まれ実行される。
危険度分布は、移動体100の位置を原点として、どの位置にどの程度の危険があるかを示す。周辺状況は、移動体100の周囲にある物体の行動、移動、加減速等を示す。走行内容は、走行する経路、車線、車線変更位置等を示す。
図2から図6を参照して、実施の形態1に係る周辺認知装置10の動作を説明する。
実施の形態1に係る周辺認知装置10の動作は、実施の形態1に係る周辺認知方法に相当する。また、実施の形態1に係る周辺認知装置10の動作は、実施の形態1に係る周辺認知プログラムの処理に相当する。
(ステップS11:リソース制御処理)
制御部21は、移動体の周辺を観測する複数のセンサから出力されたセンサデータを解析する複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を決定する。
実施の形態1では、演算リソースは、プロセッサ11及びメモリ12である。したがって、演算リソースの割当率は、プロセッサ11及びメモリ12の使用可能な量に対する割り当てられた量の割合を表す。
センシング部23は、ステップS11で決定された割当率から特定される割当量の演算リソースを対応するセンシングに対して使用して、センサ31から出力されたセンサデータをセンシングし、監視領域にある障害物及び標識といった物体を検出する。センシング部23は、検出した物体を示すセンシング情報を生成する。
具体例としては、センシング部23は、移動体100の前方を撮像する2台の前方カメラから出力されたセンサデータである画像データを解析して、画像データに示された物体を検出する。また、センシング部23は、2台の前方カメラそれぞれから出力された画像データから、ステレオ法により検出された物体までの距離を特定する。そして、センシング部23は、検出された物体及び特定された物体までの距離を示すセンシング情報を生成する。
統合部24は、ステップS12で生成されたセンシング情報を統合して情報量が多く、かつ、精度の高い統合情報を生成する。
具体例としては、ステップS12で、2台の前方カメラから出力された画像データをセンシングした結果、前方10メートル前後に人がいることが特定されたとする。また、ステップS12で、レーザセンサから出力されたセンサデータをセンシングした結果、前方10.2メートルに障害物があると特定されたとする。この場合、統合部24は、両方のセンシング情報を統合して、前方10.2メートルに人がいるという統合情報を生成する。
位置特定部25は、通信インタフェース14を介してECU32から取得された移動体100に関する各種情報と、ステップS12で生成されたセンシング情報と、メモリ12に記憶された地図データ42とから、移動体100の位置及び姿勢を特定する。
具体例としては、位置特定部25は、センシング情報が示す位置と、その位置についての地図データ42とから片側3車線の道路における最も中央寄りの車線を走行中であるということを特定する。また、位置特定部25は、ECU32から取得された情報に含まれるステアリング角情報から、移動体100が右に2度傾いているということを特定する。
認知情報生成部26は、ステップS13で生成された統合情報と、ステップS14で特定された位置及び姿勢とから、移動体100の周辺の3次元空間に、障害物、標識、信号といった物体の位置と属性と大きさとをマッピングした認知情報を生成する。
属性とは、具体例としては、人、標識、信号、対向車、前方車等である。なお、信号のように状態が変化する物体の場合には、その物体の状態、つまり信号であればどの色かも属性に含んでもよい。また、3次元空間とは、具体例としては、移動体100のある一点を原点とし、進行方向をX軸、横方向をY軸、上下方向をZ軸とする3次元空間である。複数のセンシングで得られた情報を1つの空間座標系にマッピングすることで、移動体100から見てどの位置にどのような物体がどのような状態で存在するかを示すことができる。
(ステップS21:初期化処理)
周辺認知装置10が処理を開始すると、制御部21は、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率の初期値をリソース情報41から読み出す。そして、制御部21は、読み出された初期値を演算リソースの割当率に決定する。
実施の形態1では、図4に示すように、移動体100である車両の周辺を前後左右4つの領域に分類し、それぞれの領域を1つのセンサでセンシングする例を説明する。以下の説明では、前方をセンシングすることを前方センシング、左方をセンシングすることを左方センシング、右方をセンシングすることを右方センシング、後方をセンシングすることを後方センシングと呼ぶ。制御部21は、図5に示すように、リソース情報41が有する割当率テーブル411から、複数のセンシングそれぞれについて初期値として設定された精度の割当率を読み出す。例えば、前方センシングと、左方センシングと、右方センシングと、後方センシングとのそれぞれについて、分類がAの割当率を読み出す。
制御部21は、演算リソースの割当率を、移動体100の移動環境に応じて決定する。移動体100の移動環境は、移動体100が走行する道路の種別と、移動体100の挙動と、移動体100からの視界との少なくともいずれかを示す。
具体的には、制御部21は、図6に示すように、リソース情報41が有する配分テーブル412から、移動体100の移動環境である道路の種別と挙動と視界とに対応する、複数のセンシングそれぞれについての分類を読み出す。具体例としては、制御部21は、移動体100が一般道を直進しており、天気が晴れの日中のため視界が良好な場合には、図6の処理分類1における複数のセンシングそれぞれについての分類を読み出す。つまり、制御部21は、前方センシングについては分類Cを読み出し、左方センシングについては分類Aを読み出し、右方センシングについては分類Aを読み出し、後方センシングについては分類Cを読み出す。
例えば、制御部21は、移動体100の位置から移動体100が走行する道路の種別を特定する。この際、制御部21は、地図データ42を参照して道路の種別を特定してもよい。また、制御部21は、移動体100及び移動体100の周辺環境に関する各種情報が示す移動体100の速度及びステアリング角と、移動体100の位置及び姿勢と、認知情報と、周辺状況とから、移動体100の挙動を特定する。また、制御部21は、移動体100及び移動体100の周辺環境に関する各種情報が示す温度等から視界を特定する。この際、制御部21は、外部のサーバ等から、移動体100の位置を含むエリアの気象情報を取得し、取得された気象情報を参照して、視界を特定してもよい。
制御部21は、複数のセンシングそれぞれに対して割り当てられている演算リソースの割当率を、ステップS22で決定された演算リソースの割当率に変更する。
すると、変更された演算リソースの割当率に従い、図2のステップS12が実行される。これに伴い、図2のステップS13からステップS15も実行される。
制御部21は、図2のステップS12からステップS15の検出処理を継続するか否かを判定する。
制御部21は、検出処理を継続する場合には処理をステップS25に進め、検出処理を継続しない場合には処理を終了する。
制御部21は、走行環境が変化したか否かを判定する。
制御部21は、走行環境が変化した場合には、処理をステップS22に戻す。制御部21は、走行環境が変化しない場合には、処理をステップS24に戻す。
以上のように、実施の形態1に係る周辺認知装置10は、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を、移動体100の移動環境に応じて決定する。これにより、使用可能な演算リソース内で移動体周辺の物体を適切に認知することが可能になる。
<変形例1>
図3のステップS25では、走行環境と危険度分布とのそれぞれについて、閾値以上に変化した場合のみ変化したと判定し、微細な変化は変化なしと判定してもよい。これにより、微細な変化を変化ありと見なして、演算リソースの割当率の再分配が頻繁に発生し、効率の悪いセンシング制御となってしまうことを防ぐことができる。
実施の形態2は、さらに危険度分布を考慮して、演算リソースの割当率を決定する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明する。
図7から図9を参照して、実施の形態2に係る周辺認知装置10の動作を説明する。
実施の形態2に係る周辺認知装置10の動作は、実施の形態2に係る周辺認知方法に相当する。また、実施の形態2に係る周辺認知装置10の動作は、実施の形態2に係る周辺認知プログラムの処理に相当する。
ステップS31からステップS32の処理と、ステップS36の処理とは、図3のステップS21からステップS22と、ステップS24の処理と同じである。
制御部21は、予測装置33によって推定された移動体100の周辺の危険度分布から複数のセンシングそれぞれについての重要度を判定する。制御部21は、危険度の高いエリアについてのセンシングほど、重要度が高いと判定する。なお、危険度分布は、予測装置33から取得されるものに限らず、路側機といった他の装置から取得されてもよい。
危険度分布は、移動体100を原点とした3次元空間座標、又は、2次元空間座標において、どの位置にどの程度の危険度があるかを示す。危険度は、具体例としては、予測装置33によって生成される走行内容が示す走行する経路上に物体が侵入する確率と、衝突した場合の衝撃度とから計算される。衝撃度は、具体例としては、物体の種別、車速、重量等から計算される。
この際、制御部21は、予測装置33によって推定された周辺状況も考慮して、重要度を判定してもよい。周辺状況は、移動体100の周囲にある物体の行動、移動、加減速等を示す。
制御部21は、ステップS32で決定された演算リソースの割当率と、ステップS33で判定された重要度とから、演算リソースの割当率を最適化する。
具体的には、制御部21は、移動体100の周辺の危険度分布が示す危険度が高いエリアについてのセンシングに対してステップS32で決定(仮決定)された演算リソースの割当率を高くすることにより、演算リソースの割当率を最適化し本決定する。
ステップS33の結果で前方センシングが重要と判定されていたとする。この場合、制御部21は、前方センシングに対する演算リソースの割当率を、ステップS32で求めた分類Iよりも精度の高い分類J、分類K、分類Lのいずれかの割当率に変更する。このとき、制御部21は、各センシングで使用する演算リソースの合計が100%を超えない範囲で最も精度が高い分類を選択する。ここでは、最も精度が高い分類Lとしても合計で92%となり、100%を超えないため、制御部21は、前方センシングに対する演算リソースの割当率を分類Lの割当率に変更する。
また、制御部21は、消費電力を抑えるために、必要最低限の精度とする制御をしてもよい。つまり、上記説明では、各センシングで使用する演算リソースの合計が100%を超えない範囲で最も精度が高い分類を選択したが、制御部21は、重要度の高さに応じて、必要最低限の精度の分類を選択してもよい。
制御部21は、複数のセンシングそれぞれに対して割り当てられている演算リソースの割当率を、ステップS35で本決定された演算リソースの割当率に変更する。
すると、変更された演算リソースの割当率から特定される割当量に従い、図2のステップS12が実行される。これに伴い、図2のステップS13からステップS15も実行される。
制御部21は、走行環境と危険度分布との少なくともいずれかが変化したか否かを判定する。
制御部21は、走行環境だけが変化した場合、及び、走行環境と危険度分布との両方が変化した場合には、処理をステップS32に戻す。制御部21は、危険度分布だけが変化した場合には、処理をステップS33に戻す。制御部21は、いずれも変化しない場合には、処理をステップS36に戻す。
以上のように、実施の形態2に係る周辺認知装置10は、演算リソースの割当率を、移動体の周辺の危険度分布に応じて決定する。これにより、使用可能な演算リソース内で危険を回避するために必要な物体を適切に認知することが可能になる。
実施の形態3は、周辺認知装置10の各部の機能がハードウェアで実現される点が実施の形態1,2と異なる。実施の形態3について、この異なる点を説明する。
実施の形態3では、実施の形態2と異なる点を説明するが、実施の形態1についても同様に各部の機能がハードウェアで実現することができる。
図10を参照して、実施の形態3に係る周辺認知装置10の構成を説明する。
周辺認知装置10は、プロセッサ11に代えて、処理回路15を備える。
実施の形態3では、処理回路15は、FPGA(Field−Programmable Gate Array)である。 FPGAは、複数の論理ブロックと複数の演算器ブロックと複数のブロックRAM(SRAM,Static Random Access Memory)とで構成され、論理ブロックの構成と各ブロックを接続する配線のルートとを切り替えることで、回路構成を動的に変更することが可能なLSI(Large−Scale Integration)である。
実施の形態3では、演算リソースは、FPGAで実現される回路である。したがって、演算リソースの割当率から特定される割当量は、回路の規模を表す。回路データ43は、センシング及び回路規模の分類毎に、回路構成を示す。
図11から図13を参照して、実施の形態3に係る周辺認知装置10の動作を説明する。
実施の形態3に係る周辺認知装置10の動作は、実施の形態3に係る周辺認知方法に相当する。また、実施の形態3に係る周辺認知装置10の動作は、実施の形態3に係る周辺認知プログラムの処理に相当する。
ステップS42からステップS44の処理と、ステップS47からステップS48の処理とは、図7のステップS32からステップS34の処理と、ステップS36からステップS37の処理と同じである。
周辺認知装置10が処理を開始すると、実施の形態1と同様に、制御部21は、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率の初期値をリソース情報41から読み出す。制御部21は、読み出された初期値を演算リソースの割当率に決定する。そして、制御部21は、複数のセンシングそれぞれについて、決定された割当率から特定される割当量が示す回路規模に対して、回路データ43が示す回路構成となるようにFPGAを設定する。
具体的には、制御部21は、図12に示すように、リソース情報41が有する割当率テーブル411から、複数のセンシングそれぞれについて初期値として設定された精度の割当率を読み出す。例えば、前方センシングと、左方センシングと、右方センシングと、後方センシングとのそれぞれについて、分類がAの割当率を読み出す。制御部21は、図13に示すように、回路データ43が示す回路構成から、前方センシングと、左方センシングと、右方センシングと、後方センシングとのそれぞれについて、読み出された割当率から特定される割当量が示す回路規模に対応する構成情報を読み出す。そして、制御部21は、複数のセンシングそれぞれについて、読み出された構成情報が示す回路構成となるようにFPGAを設定する。
制御部21は、複数のセンシングそれぞれについて、ステップS44で本決定された演算リソースの割当率から特定される割当量が示す回路規模に対して、回路データ43が示す回路構成にFPGAを設定するのに要する時間を計算する。そして、制御部21は、計算された時間が基準時間よりも短い場合には、演算リソースの割当率を変更すると判定し、長い場合には演算リソースの割当率を変更しないと判定する。
制御部21は、演算リソースの割当率を変更する場合には処理をステップS46に進め、演算リソースの割当率を変更しない場合には処理をステップS47に進める。
そして、制御部21は、計算された更新時間の合計が基準時間よりも短い場合には、演算リソースの割当率を変更すると判定し、長い場合には演算リソースの割当率を変更しないと判定する。基準時間は、移動環境毎に定められる。具体例としては、基準時間は、一般道を走行中で快晴時に障害物無の場合には40[ms]と定められる。
(ステップS46:割当変更処理)
制御部21は、複数のセンシングそれぞれに対して割り当てられている演算リソースの割当率を、ステップS44で決定された演算リソースの割当率に変更する。そして、制御部21は、複数のセンシングそれぞれについて、変更された割当率から特定される割当量が示す回路規模に対して、回路データ43が示す回路構成となるようにFPGAを設定する。
すると、設定されたFPGAにより、図2のステップS12が実行される。これに伴い、図2のステップS13からステップS15も実行される。
以上のように、実施の形態3に係る周辺認知装置10は、演算リソースの割当率が示す規模の回路を構成してセンシングを行う。これにより、センシングが回路により実現される場合でも、使用可能な演算リソース内で必要な物体を適切に認知することが可能になる。
<変形例2>
実施の形態3では、周辺認知装置10の各部の機能がハードウェアで実現された。しかし、変形例2として、周辺認知装置10の一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。この場合、周辺認知装置10は、プロセッサ11と処理回路15との両方を備える。
Claims (9)
- 移動体の周辺を観測する複数のセンサから出力されたセンサデータを解析する複数のセンシングそれぞれに対して割り当てる演算リソースの割当率が、前記割当率の合計が100%を超えない範囲で、移動環境に応じて定められた配分テーブルから、前記移動体の移動環境に対応する割当率を読み出すことにより、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を前記移動体の移動環境に応じて決定する制御部と、
使用可能な演算リソースの量と前記制御部によって決定された割当率とから特定される割当量の演算リソースを対応するセンシングに対して使用して、前記移動体の周辺の物体を検出する検出部と
を備える周辺認知装置。 - 前記制御部は、前記割当率を、前記移動環境と、前記移動体の周辺の危険度分布とに応じて決定する
請求項1に記載の周辺認知装置。 - 前記制御部は、前記移動環境に応じて前記割当率を仮決定し、前記移動体の周辺の危険度分布が示す危険度が高いエリアについてのセンシングに対して仮決定された前記割当率を高くすることにより、前記割当率を本決定する
請求項2に記載の周辺認知装置。 - 前記移動環境は、前記移動体が走行する道路の種別と、前記移動体の挙動と、前記移動体からの視界との少なくともいずれかを示す
請求項1から3までのいずれか1項に記載の周辺認知装置。 - 前記検出部は、少なくとも一部の機能が回路により実現され、
前記割当量は、前記回路の規模を表す
請求項1から4までのいずれか1項に記載の周辺認知装置。 - 前記制御部は、前記複数のセンシングそれぞれを実行する前記回路を、前記割当量が示す規模で構成し、
前記検出部は、構成された前記回路を用いて、前記移動体の周辺の物体を検出する
請求項5に記載の周辺認知装置。 - 前記制御部は、前記移動環境が閾値以上変化した場合に、前記割当率を決定し直す
請求項1から6までのいずれか1項に記載の周辺認知装置。 - プロセッサが、移動体の周辺を観測する複数のセンサから出力されたセンサデータを解析する複数のセンシングそれぞれに対して割り当てる演算リソースの割当率が、前記割当率の合計が100%を超えない範囲で、移動環境に応じて定められた配分テーブルから、前記移動体の移動環境に対応する割当率を読み出すことにより、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を前記移動体の移動環境に応じて決定し、
プロセッサが、使用可能な演算リソースの量と決定された割当率とから特定される割当量の演算リソースを対応するセンシングに対して使用して、前記移動体の周辺の物体を検出する周辺認知方法。 - 移動体の周辺を観測する複数のセンサから出力されたセンサデータを解析する複数のセンシングそれぞれに対して割り当てる演算リソースの割当率が、前記割当率の合計が100%を超えない範囲で、移動環境に応じて定められた配分テーブルから、前記移動体の移動環境に対応する割当率を読み出すことにより、複数のセンシングそれぞれに対して割り当てる演算リソースの割当率を前記移動体の移動環境に応じて決定する制御処理と、
使用可能な演算リソースの量と前記制御処理によって決定された割当率とから特定される割当量の演算リソースを対応するセンシングに対して使用して、前記移動体の周辺の物体を検出する検出処理と
をコンピュータに実行させる周辺認知プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/062558 WO2017183141A1 (ja) | 2016-04-20 | 2016-04-20 | 周辺認知装置、周辺認知方法及び周辺認知プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6223607B1 true JP6223607B1 (ja) | 2017-11-01 |
JPWO2017183141A1 JPWO2017183141A1 (ja) | 2018-04-26 |
Family
ID=60116644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016570060A Active JP6223607B1 (ja) | 2016-04-20 | 2016-04-20 | 周辺認知装置、周辺認知方法及び周辺認知プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11003922B2 (ja) |
JP (1) | JP6223607B1 (ja) |
CN (1) | CN109074742B (ja) |
DE (1) | DE112016006616T5 (ja) |
WO (1) | WO2017183141A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018043540A1 (ja) * | 2016-08-31 | 2018-03-08 | パイオニア株式会社 | 制御装置、計測装置、制御方法、およびプログラム |
JP6652477B2 (ja) * | 2016-10-03 | 2020-02-26 | 日立オートモティブシステムズ株式会社 | 車載処理装置 |
CN109885392B (zh) * | 2019-01-03 | 2021-04-13 | 北京百度网讯科技有限公司 | 分配车载计算资源的方法以及装置 |
JP2020181105A (ja) * | 2019-04-25 | 2020-11-05 | キヤノン株式会社 | 投影装置およびその制御方法 |
US20200361452A1 (en) * | 2019-05-13 | 2020-11-19 | Toyota Research Institute, Inc. | Vehicles and methods for performing tasks based on confidence in accuracy of module output |
CN112257486B (zh) * | 2019-12-23 | 2023-12-29 | 北京国家新能源汽车技术创新中心有限公司 | 算力分配方法、装置、计算机设备和存储介质 |
WO2022139843A1 (en) * | 2020-12-24 | 2022-06-30 | Intel Corporation | Radar apparatus, system, and method |
JPWO2023281784A1 (ja) * | 2021-07-05 | 2023-01-12 | ||
US20230194704A1 (en) * | 2021-12-22 | 2023-06-22 | Gm Cruise Holdings Llc | Anomaly prioritization using dual-mode adaptive radar |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008015891A1 (fr) * | 2006-08-02 | 2008-02-07 | Pioneer Corporation | appareil de gestion de ressources, procédé de gestion de ressources, programme de gestion de ressources et support d'enregistrement lisible par un ordinateur |
JP2008310804A (ja) * | 2007-06-12 | 2008-12-25 | Palo Alto Research Center Inc | 早期警報のために衝突の危険を評価するための長距離ダイナミクス及び精神状態モデルの使用 |
JP2008310805A (ja) * | 2007-06-12 | 2008-12-25 | Palo Alto Research Center Inc | 衝突の危険に対する迅速で控えめな評価のためのセグメント化錐体の使用 |
JP2011242860A (ja) * | 2010-05-14 | 2011-12-01 | Toyota Motor Corp | 障害物認識装置 |
WO2014132747A1 (ja) * | 2013-02-27 | 2014-09-04 | 日立オートモティブシステムズ株式会社 | 物体検知装置 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19845568A1 (de) | 1998-04-23 | 1999-10-28 | Volkswagen Ag | Vorrichtung zur Objekterfassung für Kraftfahrzeuge |
JP4052496B2 (ja) | 1998-08-07 | 2008-02-27 | 富士通テン株式会社 | 車両用障害物検知システム |
US6577269B2 (en) | 2000-08-16 | 2003-06-10 | Raytheon Company | Radar detection method and apparatus |
US6489927B2 (en) | 2000-08-16 | 2002-12-03 | Raytheon Company | System and technique for mounting a radar system on a vehicle |
JP2004506906A (ja) | 2000-08-16 | 2004-03-04 | レイセオン・カンパニー | 自動車用レーダ・システムおよび方法 |
AU2001284984A1 (en) | 2000-08-16 | 2002-02-25 | Raytheon Company | Highly integrated single substrate mmw multi-beam sensor |
JP5063851B2 (ja) | 2000-08-16 | 2012-10-31 | ヴァレオ・レイダー・システムズ・インコーポレーテッド | 近接物体検出システム |
AU2001288273A1 (en) | 2000-08-16 | 2002-02-25 | Raytheon Company | Video amplifier for a radar receiver |
US20020075138A1 (en) | 2000-08-16 | 2002-06-20 | Van Rees H. Barteld | Portable object detection system |
US6657581B1 (en) | 2000-08-16 | 2003-12-02 | Raytheon Company | Automotive lane changing aid indicator |
EP1310018B1 (en) | 2000-08-16 | 2018-07-25 | Valeo Radar Systems, Inc. | Switched beam antenna architecture |
EP1309464B1 (en) | 2000-08-16 | 2006-08-09 | Raytheon Company | Safe distance algorithm for adaptive cruise control |
US6708100B2 (en) | 2001-03-14 | 2004-03-16 | Raytheon Company | Safe distance algorithm for adaptive cruise control |
US6970142B1 (en) | 2001-08-16 | 2005-11-29 | Raytheon Company | Antenna configurations for reduced radar complexity |
US6995730B2 (en) | 2001-08-16 | 2006-02-07 | Raytheon Company | Antenna configurations for reduced radar complexity |
US7183995B2 (en) | 2001-08-16 | 2007-02-27 | Raytheon Company | Antenna configurations for reduced radar complexity |
JP3879610B2 (ja) | 2002-07-15 | 2007-02-14 | 株式会社デンソー | 障害物検出装置及びプログラム並びに記録媒体 |
DE10238936A1 (de) | 2002-08-24 | 2004-03-04 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Steuerung wenigstens einer Systemkomponente eines informationstechnischen Systems |
JP2005309644A (ja) * | 2004-04-20 | 2005-11-04 | Hitachi Ltd | リソース制御方法及びそのシステム |
DE102005046045A1 (de) | 2005-09-27 | 2007-03-29 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Steuerung mindestens eines Objektdetektionssensors |
DE102006032541A1 (de) * | 2006-07-13 | 2008-01-17 | Robert Bosch Gmbh | Warneinrichtung und Verfahren zur Umfeldüberwachung |
DE112009004844B4 (de) * | 2009-06-02 | 2015-05-13 | Toyota Jidosha Kabushiki Kaisha | Fahrzeugumgebungsüberwachungsvorrichtung |
US8676488B2 (en) | 2009-06-04 | 2014-03-18 | Toyota Jidosha Kabushiki Kaisha | Vehicle surrounding monitor device and method for monitoring surroundings used for vehicle |
JP5634046B2 (ja) | 2009-09-25 | 2014-12-03 | クラリオン株式会社 | センサコントローラ、ナビゲーション装置、センサ制御方法 |
JP5441626B2 (ja) | 2009-11-06 | 2014-03-12 | 日立オートモティブシステムズ株式会社 | 車載用マルチアプリ実行装置 |
US20120182160A1 (en) * | 2011-01-14 | 2012-07-19 | TCS International, Inc. | Directional Vehicle Sensor Matrix |
JP2012221031A (ja) | 2011-04-05 | 2012-11-12 | Toyota Motor Corp | 車両データ取得装置及び車両データ取得方法 |
WO2012144076A1 (ja) * | 2011-04-22 | 2012-10-26 | トヨタ自動車株式会社 | 車両周辺監視装置及び車両周辺監視情報の表示方法 |
JP5639282B2 (ja) * | 2011-10-18 | 2014-12-10 | 本田技研工業株式会社 | 車両周辺監視装置 |
CN103108152A (zh) | 2011-11-09 | 2013-05-15 | 能晶科技股份有限公司 | 盲点侦测警示系统 |
US20130278441A1 (en) * | 2012-04-24 | 2013-10-24 | Zetta Research and Development, LLC - ForC Series | Vehicle proxying |
US9021493B2 (en) * | 2012-09-14 | 2015-04-28 | International Business Machines Corporation | Management of resources within a computing environment |
DE102012219637A1 (de) * | 2012-10-26 | 2014-04-30 | Continental Teves Ag & Co. Ohg | Verfahren und system zur fusion von umfeldsensordaten mit kommunikationsdaten sowie verwendung des systems |
CN103402261B (zh) * | 2013-07-12 | 2017-02-08 | 北京邮电大学 | 一种自适应的多业务资源分配的方法和装置 |
US20150153184A1 (en) * | 2013-12-04 | 2015-06-04 | GM Global Technology Operations LLC | System and method for dynamically focusing vehicle sensors |
CN106060947B (zh) * | 2016-07-12 | 2019-09-24 | 惠州Tcl移动通信有限公司 | 一种无线移动通信中的资源分配方法及系统 |
-
2016
- 2016-04-20 WO PCT/JP2016/062558 patent/WO2017183141A1/ja active Application Filing
- 2016-04-20 JP JP2016570060A patent/JP6223607B1/ja active Active
- 2016-04-20 DE DE112016006616.3T patent/DE112016006616T5/de active Pending
- 2016-04-20 CN CN201680084618.8A patent/CN109074742B/zh active Active
- 2016-04-20 US US16/080,926 patent/US11003922B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008015891A1 (fr) * | 2006-08-02 | 2008-02-07 | Pioneer Corporation | appareil de gestion de ressources, procédé de gestion de ressources, programme de gestion de ressources et support d'enregistrement lisible par un ordinateur |
JP2008310804A (ja) * | 2007-06-12 | 2008-12-25 | Palo Alto Research Center Inc | 早期警報のために衝突の危険を評価するための長距離ダイナミクス及び精神状態モデルの使用 |
JP2008310805A (ja) * | 2007-06-12 | 2008-12-25 | Palo Alto Research Center Inc | 衝突の危険に対する迅速で控えめな評価のためのセグメント化錐体の使用 |
JP2011242860A (ja) * | 2010-05-14 | 2011-12-01 | Toyota Motor Corp | 障害物認識装置 |
WO2014132747A1 (ja) * | 2013-02-27 | 2014-09-04 | 日立オートモティブシステムズ株式会社 | 物体検知装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190042863A1 (en) | 2019-02-07 |
WO2017183141A1 (ja) | 2017-10-26 |
DE112016006616T5 (de) | 2018-11-29 |
JPWO2017183141A1 (ja) | 2018-04-26 |
CN109074742B (zh) | 2022-05-13 |
US11003922B2 (en) | 2021-05-11 |
CN109074742A (zh) | 2018-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6223607B1 (ja) | 周辺認知装置、周辺認知方法及び周辺認知プログラム | |
JP7050025B2 (ja) | 自動運転車両のための計画運転感知システム | |
CN111095291B (zh) | 由自动驾驶车辆实时检测车道和边界 | |
US11260855B2 (en) | Methods and systems to predict object movement for autonomous driving vehicles | |
EP3321757B1 (en) | Planning feedback based decision improvement system for autonomous driving vehicle | |
US10824153B2 (en) | Cost design for path selection in autonomous driving technology | |
CN109389026B (zh) | 车道检测方法和设备 | |
JP2022523614A (ja) | 駐車スペース検出に適したスキューされたポリゴンを使用した物体検出 | |
JP6975775B2 (ja) | 自動運転車両の高速道路における自動運転に用いる、地図及びポジショニングなしで車線に沿う走行方法 | |
JP2022536030A (ja) | ビデオ分析アプリケーションにおける相関フィルタを使用した複数物体追跡 | |
JP2023503729A (ja) | 自律運転アプリケーションのための曲線適合を使用するランドマーク検出 | |
JP2023533507A (ja) | 人間の運転振る舞いに基づいて軌跡プランナを最適化するシステム及び方法 | |
US20190325234A1 (en) | Lane post-processing in an autonomous driving vehicle | |
WO2020132959A1 (en) | Spiral curve based vertical parking planner system for autonomous driving vehicles | |
US20180284791A1 (en) | Automatic driving control method, automatic driving control device using the same, and non-transitory storage medium | |
US20210001883A1 (en) | Action selection device, computer readable medium, and action selection method | |
WO2020132942A1 (en) | A mutual nudge algorithm for self-reverse lane of autonomous driving | |
WO2020132938A1 (en) | Methods for obstacle filtering for non-nudge planning system in autonomous driving vehicle | |
JP7126629B1 (ja) | 情報統合装置、情報統合方法、及び情報統合プログラム | |
CN220040762U (zh) | 多立体相机设备 | |
US20230182723A1 (en) | Apparatus for controlling driving of vehicle and method therefore | |
JP6861911B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
US20230339499A1 (en) | Distributed computing architecture with shared memory for autonomous robotic systems | |
KR20220101540A (ko) | 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법 및 전자장치 | |
JP2023071168A (ja) | 自律マシン・アプリケーションのための粒子ベース危険検出 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171003 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6223607 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |