JP2021504856A - 前方衝突制御方法および装置、電子機器、プログラムならびに媒体 - Google Patents
前方衝突制御方法および装置、電子機器、プログラムならびに媒体 Download PDFInfo
- Publication number
- JP2021504856A JP2021504856A JP2020545852A JP2020545852A JP2021504856A JP 2021504856 A JP2021504856 A JP 2021504856A JP 2020545852 A JP2020545852 A JP 2020545852A JP 2020545852 A JP2020545852 A JP 2020545852A JP 2021504856 A JP2021504856 A JP 2021504856A
- Authority
- JP
- Japan
- Prior art keywords
- target
- collision
- frame image
- pseudo
- detection box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 126
- 238000001514 detection method Methods 0.000 claims abstract description 413
- 238000013528 artificial neural network Methods 0.000 claims abstract description 123
- 230000008859 change Effects 0.000 claims description 39
- 230000009471 action Effects 0.000 claims description 35
- 230000015654 memory Effects 0.000 claims description 31
- 230000001133 acceleration Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 206010039203 Road traffic accident Diseases 0.000 abstract description 11
- 230000009467 reduction Effects 0.000 abstract description 7
- 239000010410 layer Substances 0.000 description 28
- 238000013135 deep learning Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000011229 interlayer Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60T—VEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
- B60T2201/00—Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
- B60T2201/02—Active or adaptive cruise control system; Distance control
- B60T2201/022—Collision avoidance systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/18—Braking system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/20—Steering systems
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
本開示は2018年04月20日に中国特許局に提出された、出願番号がCN2018103608445であり、発明の名称が「前方衝突制御方法および装置、電子機器、プログラムならびに媒体」である中国特許出願の優先権を主張し、その開示の全てが参照によって本開示に組み込まれる。
ニューラルネットワークによって、現在走行対象の所在する道路の前方における疑似衝突対象を検出することと、
現在走行対象と前記疑似衝突対象との衝突時間を予測することと、
前記衝突時間に基づいて、前記現在走行対象に対して、前方衝突警報および/または運転制御を含む前方衝突制御を行うことと、を含む前方衝突制御方法が提供される。
ニューラルネットワークによって、現在走行対象の所在する道路の前方における疑似衝突対象を検出するように構成される第一検出モジュールと、
現在走行対象と前記疑似衝突対象との衝突時間を予測するように構成される第一予測モジュールと、
前記衝突時間に基づいて、前記現在走行対象に対して、前方衝突警報および/または運転制御を含む前方衝突制御を行うように構成される制御モジュールと、を含む前方衝突制御装置が提供される。
コンピュータプログラムを記憶するように構成されるメモリと、
前記メモリに記憶される、実行される時に本開示の上記いずれかの実施例に記載の前方衝突制御方法を実現するコンピュータプログラムを実行するように構成されるプロセッサと、を含むことを特徴とする電子機器が提供される。
ニューラルネットワークに入力される現在フレーム画像に対して、順にニューラルネットワークの各特徴層によって特徴を抽出し、ネットワーク深さがiである第一特徴層により出力される第一特徴とネットワーク深さがjである第二特徴層により出力される第二特徴とを融合し、融合特徴をネットワーク深さがj+1である第三特徴層の入力特徴またはニューラルネットワークにより出力される現在フレーム画像の特徴として得ることを含んでもよく、ここで、1≦i<jであり、かつi、jの値は整数とする。
ニューラルネットワークにより、抽出された特徴に基づいて目標対象を含む候補ボックスを特定することと、
ニューラルネットワークにより、各候補ボックスの特徴にそれぞれ基づいて各候補ボックスを分類し、各候補ボックスが各種類の目標対象にそれぞれ属する確率スコアを得ることと、
各候補ボックスの確率スコアのうちの値が最も大きい確率スコアの対応する種類をそれぞれ該候補ボックスにおける目標対象の、例えば車両、歩行者、軽車両、建築物などを含んでもよいがこれらに限定されない種類とすることと、
重畳率が予め設定された閾値よりも大きくかつ目標対象の種類(値が最も大きい確率スコアの対応する種類)が同じである候補ボックスを1セットの候補ボックスとしてそれぞれ選択し、1セットの候補ボックスから目標対象の種類とする確率スコアのうちの最大値の対応する候補ボックス(即ち、該候補ボックスは対応する目標対象の種類と判定される確率が最も大きい)を、目標対象の検出ボックスとして選択し、かつ該セットの候補ボックスのうちの他の候補ボックスを抑制することと、を含む。
現在フレーム画像が、それの所在するフレームシーケンスにおける1フレーム目の画像である場合、ニューラルネットワークにより現在フレーム画像における目標対象を検出すること、および/または、
現在フレーム画像が、それの所在するフレームシーケンスにおける1フレーム目の画像ではない場合、フレームシーケンスにおける1フレーム目の画像中の検出ボックス情報に基づき、現在フレーム画像における目標対象の検出ボックスを回帰することを含み、
ここのフレームシーケンスは、画像採集順に並ぶMフレームの画像を含み、ここで、Mは1よりも大きい整数である。
1フレーム目の画像中の検出ボックス情報に基づき、1フレーム目の画像中の検出ボックス情報で特定した検出ボックスの中心点を中心点とし、現在フレーム画像において、例えば長さおよび/または幅が上記特定した検出ボックスの長さおよび/または幅のそれぞれの2倍である領域画像を切り出すように、特定した検出ボックスの長さおよび/または幅より大きい領域に対応する領域画像を切り出すことと、
ニューラルネットワークにより領域画像における目標対象を検出し、目標対象の領域画像における検出ボックスを得ることと、
目標対象の領域画像における検出ボックス、および領域画像の現在フレーム画像における位置に基づき、目標対象の現在フレーム画像における検出ボックス情報を特定することと、を含む。
同一目標対象の現在より前のNフレームの画像における検出ボックスの大きさおよび位置に基づき、前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置変化の速度および加速度をフィッティングすることと、
前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置変化の速度および加速度に基づき、同一目標対象の現在フレーム画像における物体ボックスの大きさおよび位置を予測することと、を含む。
各目標対象のうちの、検出ボックスと物体ボックスとの重畳率が予め設定された閾値以上である第一目標対象に対して、該第一目標対象の検出ボックスと物体ボックスとの大きさおよび位置のそれぞれにおける平均値を、該第一目標対象の現在フレーム画像における、検出ボックスの大きさおよび位置を含む検出ボックス情報として取得することを含んでもよい。
各目標対象のうち、検出ボックスと物体ボックスとの重畳率が予め設定された閾値よりも小さい第二目標対象に対して、予測された該第二目標対象の物体ボックスの大きさおよび位置を、該第二目標対象の現在フレーム画像における検出ボックス情報とすることをさらに含んでもよい。
各目標対象のうち、現在フレーム画像に物体ボックスの対応する検出ボックスが存在していない第三目標対象、即ち、前のNフレームの画像において検出ボックスが存在しているが、現在フレーム画像においてそれが検出されていない目標対象に対して、予測された該第三目標対象の物体ボックスの大きさおよび位置を、該第三目標対象の現在フレーム画像における検出ボックス情報とすることをさらに含んでもよい。
ニューラルネットワークにより、現在フレーム画像中の検出ボックス情報に基づいて各人またはロボットの行為を予測し、各人またはロボットの現在フレーム画像における予測行為情報を得、前記予測行為情報が、運動方向、運動状態および動き分類情報を含むことと、
各人またはロボットの予測行為情報、および各人またはロボットの現在より前のNフレームの画像および現在フレーム画像における検出ボックス情報にそれぞれ基づき、各人またはロボットの運動情報を特定することと、を含んでもよい。
現在フレーム画像中の検出ボックス情報に基づき、対応する人またはロボットのキーポイントを検出し、キーポイント検出結果に基づいて対応する人またはロボットの頭部方向および身体方向を取得し、対応する人またはロボットの頭部方向および身体方向に基づいて対応する人またはロボットの運動方向を取得することと、キーポイント検出結果に基づいて対応する人またはロボットの動きを分類し、対応する人の動き分類情報を得ることと、キーポイント検出結果に基づいて対応する人またはロボットの運動状態を分類し、対応する人またはロボットの運動状態情報を得ることと、を含む。
ニューラルネットワークによって、現在走行対象の所在する道路の前方における疑似衝突対象を検出するように構成される第一検出モジュールと、
現在走行対象と疑似衝突対象との衝突時間を予測するように構成される第一予測モジュールと、
衝突時間に基づいて現在走行対象に対して、前方衝突警報および/または運転制御を含む前方衝突制御を行うように構成される制御モジュールと、を含む。
ニューラルネットワークにより現在フレーム画像における目標対象を検出し、現在フレーム画像における目標対象の検出ボックスを得るように構成される第二検出モジュールと、
前のNフレームの画像における目標対象の検出ボックスに基づき、目標対象の現在フレーム画像における物体ボックスを予測するように構成される第二予測モジュールと、
目標対象の検出ボックスおよび物体ボックスに基づき、目標対象の現在フレーム画像における検出ボックス情報を特定するように構成される特定モジュールと、を含み、
ここで、前のNフレームの画像は現在フレーム画像よりも前の、画像採集順に並ぶNフレームの画像を含み、Nは0よりも大きい整数である。
現在フレーム画像中の検出ボックス情報に基づき、対応する人またはロボットのキーポイントを検出し、キーポイント検出結果に基づいて対応する人またはロボットの頭部方向および身体方向を取得し、対応する人またはロボットの頭部方向および身体方向に基づいて対応する人またはロボットの運動方向を取得し、キーポイント検出結果に基づいて対応する人またはロボットの動きを分類し、対応する人の動き分類情報を得て、キーポイント検出結果に基づいて人またはロボットの運動状態を分類し、対応する人またはロボットの運動状態情報を得るように構成される。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
ニューラルネットワークによって、現在走行対象の所在する道路の前方における疑似衝突対象を検出することと、
現在走行対象と前記疑似衝突対象との衝突時間を予測することと、
前記衝突時間に基づいて、前記現在走行対象に対して、前方衝突警報および/または運転制御を含む前方衝突制御を行うことと、を含むことを特徴とする前方衝突制御方法。
(項目2)
前記現在走行対象は、車両またはロボットを含み、および/または、
前記疑似衝突対象は、人、車両、軽車両、ロボット、障害物のいずれか一つまたは複数を含むことを特徴とする項目1に記載の方法。
(項目3)
前記ニューラルネットワークによって、現在走行対象の所在する道路の前方における疑似衝突対象を検出することは、
前記道路上の区画線に対する検出結果を取得することと、
前記区画線に対する検出結果に基づいて、前記道路上の少なくとも一部の目標対象を疑似衝突対象として特定することと、を含むことを特徴とする項目1または2に記載の方法。
(項目4)
前記道路上の区画線に対する検出結果を取得することは、
ニューラルネットワークに基づいて前記道路上の区画線を検出し、前記区画線に対する検出結果を得ること、または、
先進運転支援システムから前記区画線に対する検出結果を取得することを含むことを特徴とする項目3に記載の方法。
(項目5)
前記区画線に対する検出結果に基づいて、前記道路上の少なくとも一部の目標対象を疑似衝突対象として特定することは、
前記区画線に対する検出結果が検出された区画線情報である場合、前記区画線情報に基づいて、前記現在走行対象の所在する車線内の少なくとも一部の目標対象を疑似衝突対象として選択することを含むことを特徴とする項目3または4に記載の方法。
(項目6)
前記区画線に対する検出結果に基づいて、前記道路上の少なくとも一部の目標対象を疑似衝突対象として特定することは、
前記区画線に対する検出結果として区画線が検出されていない場合、前記現在走行対象との距離が予め設定された範囲内にある目標対象を疑似衝突対象として選択することを含むことを特徴とする項目3または4に記載の方法。
(項目7)
前記現在走行対象と前記疑似衝突対象との衝突時間を予測することは、
現在より前のNフレームの画像および現在フレーム画像における各疑似衝突対象の検出ボックス情報にそれぞれ基づき、各疑似衝突対象の運動情報を予測することと、
各疑似衝突対象の運動情報に基づき、現在走行対象と各疑似衝突対象との衝突時間を計算することと、を含むことを特徴とする項目1から6のいずれか一項に記載の方法。
(項目8)
前記衝突時間に基づいて前記現在走行対象に対して前方衝突警報を行うことは、
現在走行対象と前記疑似衝突対象との衝突時間を少なくとも一つの予め設定された閾値と比較することと、
比較結果が一つ以上の予め設定された条件を満たす場合、満たされる予め設定された条件の対応する前方衝突制御を行うことと、を含むことを特徴とする項目1から7のいずれか一項に記載の方法。
(項目9)
前記予め設定された条件が複数ある場合、複数の予め設定された条件のそれぞれ対応する前方衝突制御の程度は段階的に増加することを特徴とする項目8に記載の方法。
(項目10)
前記比較結果が一つ以上の予め設定された条件を満たす場合、満たされる予め設定された条件の対応する前方衝突警報を行うことは、
現在走行対象との衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい疑似衝突対象が存在する場合、衝突警報を行うことを含み、ここで、第一の予め設定された閾値は第二の予め設定された閾値よりも小さいことを特徴とする項目8に記載の方法。
(項目11)
前記現在走行対象との衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい疑似衝突対象が存在する場合、衝突警報を行うことは、
衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい第一疑似衝突対象に対して、前記第一疑似衝突対象の運動情報に基づいて前記第一疑似衝突対象が衝突領域から離れる傾向があるかどうかを予測することと、
前記第一疑似衝突対象が衝突領域から離れる傾向がない場合、衝突警報を行うことと、を含むことを特徴とする項目10に記載の方法。
(項目12)
前記現在走行対象との衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい疑似衝突対象が存在する場合、衝突警報を行うことはさらに、
前記第一疑似衝突対象が衝突領域から離れる傾向がある場合、衝突警報を行わないことを含むことを特徴とする項目10に記載の方法。
(項目13)
前記比較結果が一つ以上の予め設定された条件を満たす場合、満たされる予め設定された条件の対応する前方衝突警報を行うことはさらに、
現在走行対象との衝突時間が前記第一の予め設定された閾値以下である疑似衝突対象が存在する場合、衝突警報、および/または、運転制御を行うことを含み、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことを特徴とする項目10から12のいずれか一項に記載の方法。
(項目14)
前記現在走行対象との衝突時間が前記第一の予め設定された閾値以下である疑似衝突対象が存在する場合、衝突警報を行うことは、
衝突時間が前記第一の予め設定された閾値以下である第二疑似衝突対象に対して、前記第二疑似衝突対象の運動情報に基づいて前記第二疑似衝突対象が衝突領域から離れる傾向があるかどうかを予測することと、
前記第二疑似衝突対象が衝突領域から離れる傾向がない場合、衝突警報、および/または、運転制御を行い、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことと、を含むことを特徴とする項目13に記載の方法。
(項目15)
前記現在走行対象との衝突時間が前記第一の予め設定された閾値以下である疑似衝突対象が存在する場合、衝突警報を行うことはさらに、
前記第二疑似衝突対象が衝突領域から離れる傾向がある場合、衝突警報、および/または、運転制御を行わないことを含み、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことを特徴とする項目13または14に記載の方法。
(項目16)
さらに、
ニューラルネットワークにより現在フレーム画像における目標対象を検出し、前記現在フレーム画像における目標対象の検出ボックスを得ることと、
前のNフレームの画像における目標対象の検出ボックスに基づき、前記現在フレーム画像における目標対象の物体ボックスを予測することと、
目標対象の検出ボックスおよび物体ボックスに基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定することと、を含み、
ここで、前記前のNフレームの画像は、前記現在フレーム画像よりも前の、画像採集順に並ぶNフレームの画像を含み、Nは0よりも大きい整数であることを特徴とする項目7から15のいずれか一項に記載の方法。
(項目17)
前記ニューラルネットワークにより現在フレーム画像における目標対象を検出し、前記現在フレーム画像における目標対象の検出ボックスを得ることは、
ニューラルネットワークにより前記現在フレーム画像の特徴を抽出することと、
前記ニューラルネットワークにより、抽出された特徴に基づいて目標対象の検出ボックスを特定することと、を含むことを特徴とする項目16に記載の方法。
(項目18)
前記ニューラルネットワークは、異なるネットワーク深さにそれぞれ位置する複数の特徴層を含み、
前記ニューラルネットワークにより前記現在フレーム画像の特徴を抽出することは、
前記ニューラルネットワークに入力される現在フレーム画像を、順に前記ニューラルネットワークの各特徴層によって特徴を抽出し、ネットワーク深さがiである第一特徴層により出力される第一特徴とネットワーク深さがjである第二特徴層により出力される第二特徴とを融合し、融合特徴を、ネットワーク深さがj+1である第三特徴層の入力特徴または前記ニューラルネットワークにより出力される前記現在フレーム画像の特徴として得ることを含み、ここで、1≦i<jであることを特徴とする項目17に記載の方法。
(項目19)
前記ニューラルネットワークにより、抽出された特徴に基づいて目標対象の検出ボックスを特定することは、
前記ニューラルネットワークにより、抽出された特徴に基づいて目標対象を含む候補ボックスを特定することと、
前記ニューラルネットワークにより、各候補ボックスの特徴にそれぞれ基づいて各候補ボックスを分類し、各候補ボックスが各種類の目標対象にそれぞれ属する確率スコアを得ることと、
各候補ボックスの確率スコアのうちの値が最も大きい確率スコアの対応する種類をそれぞれ該候補ボックスにおける目標対象の種類とすることと、
重畳率が予め設定された閾値よりも大きくかつ目標対象の種類が同じである候補ボックスを1セットの候補ボックスとしてそれぞれ選択し、1セットの候補ボックスから、目標対象の種類とする確率スコアのうちの最大値の対応する候補ボックスを、目標対象の検出ボックスとして選択することと、を含むことを特徴とする項目17または18に記載の方法。
(項目20)
前記ニューラルネットワークにより現在フレーム画像における目標対象を検出することは、
現在フレーム画像が、それの所在するフレームシーケンスにおける1フレーム目の画像である場合、ニューラルネットワークにより現在フレーム画像における目標対象を検出すること、および/または、
現在フレーム画像が、それの所在するフレームシーケンスにおける1フレーム目の画像ではない場合、前記フレームシーケンスにおける1フレーム目の画像中の検出ボックス情報に基づき、前記現在フレーム画像における目標対象の検出ボックスを回帰することを含み、
ここで、前記フレームシーケンスは、画像採集順に並ぶMフレームの画像を含み、Mは1よりも大きい整数であることを特徴とする項目16から19のいずれか一項に記載の方法。
(項目21)
前記フレームシーケンスにおける1フレーム目の画像中の検出ボックス情報に基づき、前記現在フレーム画像における目標対象の検出ボックスを回帰することは、
前記1フレーム目の画像中の検出ボックス情報に基づき、前記1フレーム目の画像中の検出ボックス情報で特定した検出ボックスの中心点を中心点とし、前記現在フレーム画像において、長さおよび/または幅が前記特定した検出ボックスの長さおよび/または幅より大きい領域に対応する領域画像を切り出すことと、
前記ニューラルネットワークにより前記領域画像における目標対象を検出し、前記領域画像における目標対象の検出ボックスを得ることと、
前記前記領域画像における目標対象の検出ボックス、および前記現在フレーム画像における前記領域画像の位置に基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定することと、を含むことを特徴とする項目20に記載の方法。
(項目22)
前記前のNフレームの画像における目標対象の検出ボックスに基づき、前記現在フレーム画像における目標対象の物体ボックスを予測することは、
それぞれ前記前のNフレームの画像における各同一目標対象に対して、
前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置に基づき、前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置変化の速度および加速度をフィッティングすることと、
前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置変化の速度および加速度に基づき、前記現在フレーム画像における同一目標対象の物体ボックスの大きさおよび位置を予測することと、を含むことを特徴とする項目16から21のいずれか一項に記載の方法。
(項目23)
前記目標対象の検出ボックスおよび物体ボックスに基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定することは、
各目標対象のうちの、検出ボックスと物体ボックスとの重畳率が予め設定された閾値以上である第一目標対象に対して、前記第一目標対象の検出ボックスと物体ボックスとの大きさおよび位置のそれぞれにおける平均値を、前記現在フレーム画像における前記第一目標対象の検出ボックス情報として取得し、前記検出ボックス情報が、検出ボックスの大きさおよび位置を含むことを含むことを特徴とする項目22に記載の方法。
(項目24)
前記目標対象の検出ボックスおよび物体ボックスに基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定することはさらに、
各目標対象のうちの、検出ボックスと物体ボックスとの重畳率が前記予め設定された閾値よりも小さい第二目標対象に対して、予測された前記第二目標対象の物体ボックスの大きさおよび位置を、前記現在フレーム画像における前記第二目標対象の検出ボックス情報とすることを含むことを特徴とする項目22または23に記載の方法。
(項目25)
前記目標対象の検出ボックスおよび物体ボックスに基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定することはさらに、
各目標対象のうちの、前記現在フレーム画像に物体ボックスの対応する検出ボックスが存在していない第三目標対象に対して、予測された前記第三目標対象の物体ボックスの大きさおよび位置を、前記現在フレーム画像における前記第三目標対象の検出ボックス情報とすることを含むことを特徴とする項目22から24のいずれか一項に記載の方法。
(項目26)
前記疑似衝突対象が人またはロボットである場合、現在より前のNフレームの画像および現在フレーム画像における各疑似衝突対象の検出ボックス情報にそれぞれ基づき、各疑似衝突対象の運動情報を予測することは、
ニューラルネットワークにより、前記現在フレーム画像中の検出ボックス情報に基づいて各人またはロボットの行為を予測し、前記現在フレーム画像における各人またはロボットの予測行為情報を得、前記予測行為情報が、運動方向、運動状態および動き分類情報を含むことと、
各人またはロボットの前記予測行為情報、および前記前のNフレームの画像および前記現在フレーム画像における各人またはロボットの検出ボックス情報にそれぞれ基づき、各人またはロボットの運動情報を特定することと、を含むことを特徴とする項目7から25のいずれか一項に記載の方法。
(項目27)
前記現在フレーム画像中の検出ボックス情報に基づいて各人またはロボットの行為を予測し、前記現在フレーム画像における各人またはロボットの予測行為情報を得ることは、
前記現在フレーム画像中の検出ボックス情報に基づき、対応する人またはロボットのキーポイントを検出し、キーポイント検出結果に基づいて対応する人またはロボットの頭部方向および身体方向を取得し、対応する人またはロボットの頭部方向および身体方向に基づいて対応する人またはロボットの運動方向を取得することと、前記キーポイント検出結果に基づいて対応する人またはロボットの動きを分類し、対応する人の動き分類情報を得ることと、前記キーポイント検出結果に基づいて対応する人またはロボットの運動状態を分類し、対応する人またはロボットの運動状態情報を得ることと、を含むことを特徴とする項目26に記載の方法。
(項目28)
ニューラルネットワークによって、現在走行対象の所在する道路の前方における疑似衝突対象を検出するように構成される第一検出モジュールと、
現在走行対象と前記疑似衝突対象との衝突時間を予測するように構成される第一予測モジュールと、
前記衝突時間に基づいて、前記現在走行対象に対して、前方衝突警報および/または運転制御を含む前方衝突制御を行うように構成される制御モジュールと、を含むことを特徴とする前方衝突制御装置。
(項目29)
前記現在走行対象は、車両またはロボットを含み、および/または、
前記疑似衝突対象は、人、車両、軽車両、ロボット、障害物のいずれか一つまたは複数を含むことを特徴とする項目28に記載の装置。
(項目30)
前記第一検出モジュールは、
前記道路上の区画線に対する検出結果を取得するように構成される取得ユニットと、
前記区画線に対する検出結果に基づいて、前記道路上の少なくとも一部の目標対象を疑似衝突対象として特定するように構成される特定ユニットと、を含むことを特徴とする項目28または29に記載の装置。
(項目31)
前記取得ユニットは、ニューラルネットワークに基づいて前記道路上の区画線を検出し、前記区画線に対する検出結果を得ること、または、先進運転支援システムから前記区画線に対する検出結果を取得することを実行するように構成されることを特徴とする項目30に記載の装置。
(項目32)
前記特定ユニットは、前記区画線に対する検出結果が検出された区画線情報である場合、前記区画線情報に基づいて、前記現在走行対象の所在する車線内の少なくとも一部の目標対象を疑似衝突対象として選択するように構成されることを特徴とする項目30または31に記載の装置。
(項目33)
前記特定ユニットは、前記区画線に対する検出結果として区画線が検出されていない場合、前記現在走行対象との距離が予め設定された範囲内にある目標対象を疑似衝突対象として選択するように構成されることを特徴とする項目30または31に記載の装置。
(項目34)
前記第一予測モジュールは、
現在より前のNフレームの画像および現在フレーム画像における各疑似衝突対象の検出ボックス情報にそれぞれ基づき、各疑似衝突対象の運動情報を予測するように構成される予測ユニットと、
各疑似衝突対象の運動情報に基づき、現在走行対象と各疑似衝突対象との衝突時間を計算するように構成される計算ユニットと、を含むことを特徴とする項目28から33のいずれか一項に記載の装置。
(項目35)
前記制御モジュールは、
現在走行対象と前記疑似衝突対象との衝突時間を少なくとも一つの予め設定された閾値と比較するように構成される比較ユニットと、
比較結果が一つ以上の予め設定された条件を満たす場合、満たされる予め設定された条件の対応する前方衝突制御を行うように構成される制御ユニットと、を含むことを特徴とする項目28から34のいずれか一項に記載の装置。
(項目36)
前記予め設定された条件が複数ある場合、複数の予め設定された条件のそれぞれ対応する前方衝突制御の程度は段階的に増加することを特徴とする項目35に記載の装置。
(項目37)
前記制御ユニットは、
前記衝突時間に基づいて前記現在走行対象に対して前方衝突警報を行うように構成される警報ユニット、および/または、
前記衝突時間に基づいて前記現在走行対象に対して運転制御を行うように構成される運転制御ユニットを含むことを特徴とする項目35または36に記載の装置。
(項目38)
前記警報ユニットは、現在走行対象との衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい疑似衝突対象が存在する場合、衝突警報を行うように構成され、ここで、第一の予め設定された閾値は第二の予め設定された閾値よりも小さいことを特徴とする項目37に記載の装置。
(項目39)
前記警報ユニットは、衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい第一疑似衝突対象に対して、前記第一疑似衝突対象の運動情報に基づいて前記第一疑似衝突対象が衝突領域から離れる傾向があるかどうかを予測し、
前記第一疑似衝突対象が衝突領域から離れる傾向がない場合、衝突警報を行うように構成されることを特徴とする項目38に記載の装置。
(項目40)
前記警報ユニットはさらに、
前記第一疑似衝突対象が衝突領域から離れる傾向がある場合、衝突警報を行わないように構成されることを特徴とする項目38に記載の装置。
(項目41)
前記警報ユニットはさらに、現在走行対象との衝突時間が前記第一の予め設定された閾値以下である疑似衝突対象が存在する場合、衝突警報、および/または、運転制御を行うように構成され、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことを特徴とする項目38から40のいずれか一項に記載の装置。
(項目42)
前記警報ユニットは、衝突時間が前記第一の予め設定された閾値以下である第二疑似衝突対象に対して、前記第二疑似衝突対象の運動情報に基づいて前記第二疑似衝突対象が衝突領域から離れる傾向があるかどうかを予測し、
前記第二疑似衝突対象が衝突領域から離れる傾向がない場合、衝突警報、および/または、運転制御を行うように構成され、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことを特徴とする項目41に記載の装置。
(項目43)
前記警報ユニットはさらに、前記第二疑似衝突対象が衝突領域から離れる傾向がある場合、衝突警報、および/または、運転制御を行わないように構成され、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことを特徴とする項目41に記載の装置。
(項目44)
さらに、
ニューラルネットワークにより現在フレーム画像における目標対象を検出し、前記現在フレーム画像における目標対象の検出ボックスを得るように構成される第二検出モジュールと、
前のNフレームの画像における目標対象の検出ボックスに基づき、前記現在フレーム画像における目標対象の物体ボックスを予測するように構成される第二予測モジュールと、
目標対象の検出ボックスおよび物体ボックスに基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定するように構成される特定モジュールと、を含み、
ここで、前記前のNフレームの画像は、前記現在フレーム画像よりも前の、画像採集順に並ぶNフレームの画像を含み、Nは0よりも大きい整数であることを特徴とする項目34から43のいずれか一項に記載の装置。
(項目45)
前記第二検出モジュールは、
ニューラルネットワークにより前記現在フレーム画像の特徴を抽出するように構成される特徴抽出ユニットと、
前記ニューラルネットワークにより、抽出された特徴に基づいて目標対象の検出ボックスを特定するように構成される特定ユニットと、を含むことを特徴とする項目44に記載の装置。
(項目46)
前記ニューラルネットワークは、異なるネットワーク深さにそれぞれ位置する複数の特徴層を含み、
前記特徴抽出ユニットは、前記ニューラルネットワークに入力される現在フレーム画像を、順に前記ニューラルネットワークの各特徴層によって特徴を抽出し、ネットワーク深さがiである第一特徴層により出力される第一特徴とネットワーク深さがjである第二特徴層により出力される第二特徴とを融合し、融合特徴を、ネットワーク深さがj+1である第三特徴層の入力特徴または前記ニューラルネットワークにより出力される前記現在フレーム画像の特徴として得るように構成され、ここで、1≦i<jであることを特徴とする項目45に記載の装置。
(項目47)
前記特定ユニットは、
ニューラルネットワークにより、抽出された特徴に基づいて目標対象を含む候補ボックスを特定し、
前記ニューラルネットワークにより、各候補ボックスの特徴にそれぞれ基づいて各候補ボックスを分類し、各候補ボックスが各種類の目標対象にそれぞれ属する確率スコアを得て、
各候補ボックスの確率スコアのうちの値が最も大きい確率スコアの対応する種類をそれぞれ該候補ボックスにおける目標対象の種類とし、
重畳率が予め設定された閾値よりも大きくかつ目標対象の種類が同じである候補ボックスを1セットの候補ボックスとしてそれぞれ選択し、1セットの候補ボックスから、目標対象の種類とする確率スコアのうちの最大値の対応する候補ボックスを、目標対象の検出ボックスとして選択するように構成されることを特徴とする項目45または46に記載の装置。
(項目48)
前記第二検出モジュールは、
現在フレーム画像が、それの所在するフレームシーケンスにおける1フレーム目の画像である場合、ニューラルネットワークにより現在フレーム画像における目標対象を検出するように構成される検出ユニット、および/または、
現在フレーム画像が、それの所在するフレームシーケンスにおける1フレーム目の画像ではない場合、前記フレームシーケンスにおける1フレーム目の画像中の検出ボックス情報に基づき、前記現在フレーム画像における目標対象の検出ボックスを回帰するように構成される回帰ユニットを含み、
ここで、前記フレームシーケンスは、画像採集順に並ぶMフレームの画像を含み、Mは1よりも大きい整数であることを特徴とする項目44から47のいずれか一項に記載の装置。
(項目49)
前記回帰ユニットは、
前記1フレーム目の画像中の検出ボックス情報に基づき、前記1フレーム目の画像中の検出ボックス情報で特定した検出ボックスの中心点を中心点とし、前記現在フレーム画像において、長さおよび/または幅が前記特定した検出ボックスの長さおよび/または幅より大きい領域に対応する領域画像を切り出し、
前記ニューラルネットワークにより前記領域画像における目標対象を検出し、前記領域画像における目標対象の検出ボックスを得て、
前記前記領域画像における目標対象の検出ボックス、および前記現在フレーム画像における前記領域画像の位置に基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定するように構成されることを特徴とする項目48に記載の装置。
(項目50)
前記第二予測モジュールは、
それぞれ前記前のNフレームの画像における各同一目標対象に対して、
前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置に基づき、前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置変化の速度および加速度をフィッティングし、
前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置変化の速度および加速度に基づき、前記現在フレーム画像における同一目標対象の物体ボックスの大きさおよび位置を予測するように構成されることを特徴とする項目44から49のいずれか一項に記載の装置。
(項目51)
前記特定モジュールは、
各目標対象のうちの、検出ボックスと物体ボックスとの重畳率が予め設定された閾値以上である第一目標対象に対して、前記第一目標対象の検出ボックスと物体ボックスとの大きさおよび位置のそれぞれにおける平均値を、前記現在フレーム画像における前記第一目標対象の検出ボックス情報として取得するように構成され、前記検出ボックス情報が、検出ボックスの大きさおよび位置を含むことを特徴とする項目50に記載の装置。
(項目52)
前記特定モジュールは、各目標対象のうちの、検出ボックスと物体ボックスとの重畳率が前記予め設定された閾値よりも小さい第二目標対象に対して、予測された前記第二目標対象の物体ボックスの大きさおよび位置を、前記現在フレーム画像における前記第二目標対象の検出ボックス情報とするように構成されることを特徴とする項目50または51に記載の装置。
(項目53)
前記特定モジュールは、各目標対象のうちの、前記現在フレーム画像に物体ボックスの対応する検出ボックスが存在していない第三目標対象に対して、予測された前記第三目標対象の物体ボックスの大きさおよび位置を、前記現在フレーム画像における前記第三目標対象の検出ボックス情報とするように構成されることを特徴とする項目50から52のいずれか一項に記載の装置。
(項目54)
前記疑似衝突対象が人またはロボットである場合、前記予測ユニットは、
ニューラルネットワークにより、前記現在フレーム画像中の検出ボックス情報に基づいて各人またはロボットの行為を予測し、前記現在フレーム画像における各人またはロボットの予測行為情報を得、前記予測行為情報が、運動方向、運動状態および動き分類情報を含み、
各人またはロボットの前記予測行為情報、および前記前のNフレームの画像および前記現在フレーム画像における各人またはロボットの検出ボックス情報にそれぞれ基づき、各人またはロボットの運動情報を特定するように構成されることを特徴とする項目34から53のいずれか一項に記載の装置。
(項目55)
前記予測ユニットは、前記現在フレーム画像中の検出ボックス情報に基づいて各人またはロボットの行為を予測し、前記現在フレーム画像における各人またはロボットの予測行為情報を得るときに、
前記現在フレーム画像中の検出ボックス情報に基づき、対応する人またはロボットのキーポイントを検出し、キーポイント検出結果に基づいて対応する人またはロボットの頭部方向および身体方向を取得し、対応する人またはロボットの頭部方向および身体方向に基づいて対応する人またはロボットの運動方向を取得し、前記キーポイント検出結果に基づいて対応する人またはロボットの動きを分類し、対応する人の動き分類情報を得て、前記キーポイント検出結果に基づいて対応する人またはロボットの運動状態を分類し、対応する人またはロボットの運動状態情報を得るように構成されることを特徴とする項目54に記載の装置。
(項目56)
コンピュータプログラムを記憶するように構成されるメモリと、
前記メモリに記憶される、実行される時に項目1から27のいずれか一項に記載の方法を実現するコンピュータプログラムを実行するように構成されるプロセッサと、を含むことを特徴とする電子機器。
(項目57)
コンピュータプログラムが記憶されているコンピュータ読み取り可能記憶媒体であって、該コンピュータプログラムはプロセッサにより実行される時、項目1から27のいずれか一項に記載の方法を実現することを特徴とするコンピュータ読み取り可能記憶媒体。
(項目58)
コンピュータ命令を含むコンピュータプログラムであって、前記コンピュータ命令は機器のプロセッサに実行される時、項目1から27のいずれか一項に記載の方法を実現することを特徴とするコンピュータプログラム。
Claims (58)
- ニューラルネットワークによって、現在走行対象の所在する道路の前方における疑似衝突対象を検出することと、
現在走行対象と前記疑似衝突対象との衝突時間を予測することと、
前記衝突時間に基づいて、前記現在走行対象に対して、前方衝突警報および/または運転制御を含む前方衝突制御を行うことと、を含むことを特徴とする前方衝突制御方法。 - 前記現在走行対象は、車両またはロボットを含み、および/または、
前記疑似衝突対象は、人、車両、軽車両、ロボット、障害物のいずれか一つまたは複数を含むことを特徴とする請求項1に記載の方法。 - 前記ニューラルネットワークによって、現在走行対象の所在する道路の前方における疑似衝突対象を検出することは、
前記道路上の区画線に対する検出結果を取得することと、
前記区画線に対する検出結果に基づいて、前記道路上の少なくとも一部の目標対象を疑似衝突対象として特定することと、を含むことを特徴とする請求項1または2に記載の方法。 - 前記道路上の区画線に対する検出結果を取得することは、
ニューラルネットワークに基づいて前記道路上の区画線を検出し、前記区画線に対する検出結果を得ること、または、
先進運転支援システムから前記区画線に対する検出結果を取得することを含むことを特徴とする請求項3に記載の方法。 - 前記区画線に対する検出結果に基づいて、前記道路上の少なくとも一部の目標対象を疑似衝突対象として特定することは、
前記区画線に対する検出結果が検出された区画線情報である場合、前記区画線情報に基づいて、前記現在走行対象の所在する車線内の少なくとも一部の目標対象を疑似衝突対象として選択することを含むことを特徴とする請求項3または4に記載の方法。 - 前記区画線に対する検出結果に基づいて、前記道路上の少なくとも一部の目標対象を疑似衝突対象として特定することは、
前記区画線に対する検出結果として区画線が検出されていない場合、前記現在走行対象との距離が予め設定された範囲内にある目標対象を疑似衝突対象として選択することを含むことを特徴とする請求項3または4に記載の方法。 - 前記現在走行対象と前記疑似衝突対象との衝突時間を予測することは、
現在より前のNフレームの画像および現在フレーム画像における各疑似衝突対象の検出ボックス情報にそれぞれ基づき、各疑似衝突対象の運動情報を予測することと、
各疑似衝突対象の運動情報に基づき、現在走行対象と各疑似衝突対象との衝突時間を計算することと、を含むことを特徴とする請求項1から6のいずれか一項に記載の方法。 - 前記衝突時間に基づいて前記現在走行対象に対して前方衝突警報を行うことは、
現在走行対象と前記疑似衝突対象との衝突時間を少なくとも一つの予め設定された閾値と比較することと、
比較結果が一つ以上の予め設定された条件を満たす場合、満たされる予め設定された条件の対応する前方衝突制御を行うことと、を含むことを特徴とする請求項1から7のいずれか一項に記載の方法。 - 前記予め設定された条件が複数ある場合、複数の予め設定された条件のそれぞれ対応する前方衝突制御の程度は段階的に増加することを特徴とする請求項8に記載の方法。
- 前記比較結果が一つ以上の予め設定された条件を満たす場合、満たされる予め設定された条件の対応する前方衝突警報を行うことは、
現在走行対象との衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい疑似衝突対象が存在する場合、衝突警報を行うことを含み、ここで、第一の予め設定された閾値は第二の予め設定された閾値よりも小さいことを特徴とする請求項8に記載の方法。 - 前記現在走行対象との衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい疑似衝突対象が存在する場合、衝突警報を行うことは、
衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい第一疑似衝突対象に対して、前記第一疑似衝突対象の運動情報に基づいて前記第一疑似衝突対象が衝突領域から離れる傾向があるかどうかを予測することと、
前記第一疑似衝突対象が衝突領域から離れる傾向がない場合、衝突警報を行うことと、を含むことを特徴とする請求項10に記載の方法。 - 前記現在走行対象との衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい疑似衝突対象が存在する場合、衝突警報を行うことはさらに、
前記第一疑似衝突対象が衝突領域から離れる傾向がある場合、衝突警報を行わないことを含むことを特徴とする請求項10に記載の方法。 - 前記比較結果が一つ以上の予め設定された条件を満たす場合、満たされる予め設定された条件の対応する前方衝突警報を行うことはさらに、
現在走行対象との衝突時間が前記第一の予め設定された閾値以下である疑似衝突対象が存在する場合、衝突警報、および/または、運転制御を行うことを含み、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことを特徴とする請求項10から12のいずれか一項に記載の方法。 - 前記現在走行対象との衝突時間が前記第一の予め設定された閾値以下である疑似衝突対象が存在する場合、衝突警報を行うことは、
衝突時間が前記第一の予め設定された閾値以下である第二疑似衝突対象に対して、前記第二疑似衝突対象の運動情報に基づいて前記第二疑似衝突対象が衝突領域から離れる傾向があるかどうかを予測することと、
前記第二疑似衝突対象が衝突領域から離れる傾向がない場合、衝突警報、および/または、運転制御を行い、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことと、を含むことを特徴とする請求項13に記載の方法。 - 前記現在走行対象との衝突時間が前記第一の予め設定された閾値以下である疑似衝突対象が存在する場合、衝突警報を行うことはさらに、
前記第二疑似衝突対象が衝突領域から離れる傾向がある場合、衝突警報、および/または、運転制御を行わないことを含み、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことを特徴とする請求項13または14に記載の方法。 - さらに、
ニューラルネットワークにより現在フレーム画像における目標対象を検出し、前記現在フレーム画像における目標対象の検出ボックスを得ることと、
前のNフレームの画像における目標対象の検出ボックスに基づき、前記現在フレーム画像における目標対象の物体ボックスを予測することと、
目標対象の検出ボックスおよび物体ボックスに基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定することと、を含み、
ここで、前記前のNフレームの画像は、前記現在フレーム画像よりも前の、画像採集順に並ぶNフレームの画像を含み、Nは0よりも大きい整数であることを特徴とする請求項7から15のいずれか一項に記載の方法。 - 前記ニューラルネットワークにより現在フレーム画像における目標対象を検出し、前記現在フレーム画像における目標対象の検出ボックスを得ることは、
ニューラルネットワークにより前記現在フレーム画像の特徴を抽出することと、
前記ニューラルネットワークにより、抽出された特徴に基づいて目標対象の検出ボックスを特定することと、を含むことを特徴とする請求項16に記載の方法。 - 前記ニューラルネットワークは、異なるネットワーク深さにそれぞれ位置する複数の特徴層を含み、
前記ニューラルネットワークにより前記現在フレーム画像の特徴を抽出することは、
前記ニューラルネットワークに入力される現在フレーム画像を、順に前記ニューラルネットワークの各特徴層によって特徴を抽出し、ネットワーク深さがiである第一特徴層により出力される第一特徴とネットワーク深さがjである第二特徴層により出力される第二特徴とを融合し、融合特徴を、ネットワーク深さがj+1である第三特徴層の入力特徴または前記ニューラルネットワークにより出力される前記現在フレーム画像の特徴として得ることを含み、ここで、1≦i<jであることを特徴とする請求項17に記載の方法。 - 前記ニューラルネットワークにより、抽出された特徴に基づいて目標対象の検出ボックスを特定することは、
前記ニューラルネットワークにより、抽出された特徴に基づいて目標対象を含む候補ボックスを特定することと、
前記ニューラルネットワークにより、各候補ボックスの特徴にそれぞれ基づいて各候補ボックスを分類し、各候補ボックスが各種類の目標対象にそれぞれ属する確率スコアを得ることと、
各候補ボックスの確率スコアのうちの値が最も大きい確率スコアの対応する種類をそれぞれ該候補ボックスにおける目標対象の種類とすることと、
重畳率が予め設定された閾値よりも大きくかつ目標対象の種類が同じである候補ボックスを1セットの候補ボックスとしてそれぞれ選択し、1セットの候補ボックスから、目標対象の種類とする確率スコアのうちの最大値の対応する候補ボックスを、目標対象の検出ボックスとして選択することと、を含むことを特徴とする請求項17または18に記載の方法。 - 前記ニューラルネットワークにより現在フレーム画像における目標対象を検出することは、
現在フレーム画像が、それの所在するフレームシーケンスにおける1フレーム目の画像である場合、ニューラルネットワークにより現在フレーム画像における目標対象を検出すること、および/または、
現在フレーム画像が、それの所在するフレームシーケンスにおける1フレーム目の画像ではない場合、前記フレームシーケンスにおける1フレーム目の画像中の検出ボックス情報に基づき、前記現在フレーム画像における目標対象の検出ボックスを回帰することを含み、
ここで、前記フレームシーケンスは、画像採集順に並ぶMフレームの画像を含み、Mは1よりも大きい整数であることを特徴とする請求項16から19のいずれか一項に記載の方法。 - 前記フレームシーケンスにおける1フレーム目の画像中の検出ボックス情報に基づき、前記現在フレーム画像における目標対象の検出ボックスを回帰することは、
前記1フレーム目の画像中の検出ボックス情報に基づき、前記1フレーム目の画像中の検出ボックス情報で特定した検出ボックスの中心点を中心点とし、前記現在フレーム画像において、長さおよび/または幅が前記特定した検出ボックスの長さおよび/または幅より大きい領域に対応する領域画像を切り出すことと、
前記ニューラルネットワークにより前記領域画像における目標対象を検出し、前記領域画像における目標対象の検出ボックスを得ることと、
前記前記領域画像における目標対象の検出ボックス、および前記現在フレーム画像における前記領域画像の位置に基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定することと、を含むことを特徴とする請求項20に記載の方法。 - 前記前のNフレームの画像における目標対象の検出ボックスに基づき、前記現在フレーム画像における目標対象の物体ボックスを予測することは、
それぞれ前記前のNフレームの画像における各同一目標対象に対して、
前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置に基づき、前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置変化の速度および加速度をフィッティングすることと、
前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置変化の速度および加速度に基づき、前記現在フレーム画像における同一目標対象の物体ボックスの大きさおよび位置を予測することと、を含むことを特徴とする請求項16から21のいずれか一項に記載の方法。 - 前記目標対象の検出ボックスおよび物体ボックスに基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定することは、
各目標対象のうちの、検出ボックスと物体ボックスとの重畳率が予め設定された閾値以上である第一目標対象に対して、前記第一目標対象の検出ボックスと物体ボックスとの大きさおよび位置のそれぞれにおける平均値を、前記現在フレーム画像における前記第一目標対象の検出ボックス情報として取得し、前記検出ボックス情報が、検出ボックスの大きさおよび位置を含むことを含むことを特徴とする請求項22に記載の方法。 - 前記目標対象の検出ボックスおよび物体ボックスに基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定することはさらに、
各目標対象のうちの、検出ボックスと物体ボックスとの重畳率が前記予め設定された閾値よりも小さい第二目標対象に対して、予測された前記第二目標対象の物体ボックスの大きさおよび位置を、前記現在フレーム画像における前記第二目標対象の検出ボックス情報とすることを含むことを特徴とする請求項22または23に記載の方法。 - 前記目標対象の検出ボックスおよび物体ボックスに基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定することはさらに、
各目標対象のうちの、前記現在フレーム画像に物体ボックスの対応する検出ボックスが存在していない第三目標対象に対して、予測された前記第三目標対象の物体ボックスの大きさおよび位置を、前記現在フレーム画像における前記第三目標対象の検出ボックス情報とすることを含むことを特徴とする請求項22から24のいずれか一項に記載の方法。 - 前記疑似衝突対象が人またはロボットである場合、現在より前のNフレームの画像および現在フレーム画像における各疑似衝突対象の検出ボックス情報にそれぞれ基づき、各疑似衝突対象の運動情報を予測することは、
ニューラルネットワークにより、前記現在フレーム画像中の検出ボックス情報に基づいて各人またはロボットの行為を予測し、前記現在フレーム画像における各人またはロボットの予測行為情報を得、前記予測行為情報が、運動方向、運動状態および動き分類情報を含むことと、
各人またはロボットの前記予測行為情報、および前記前のNフレームの画像および前記現在フレーム画像における各人またはロボットの検出ボックス情報にそれぞれ基づき、各人またはロボットの運動情報を特定することと、を含むことを特徴とする請求項7から25のいずれか一項に記載の方法。 - 前記現在フレーム画像中の検出ボックス情報に基づいて各人またはロボットの行為を予測し、前記現在フレーム画像における各人またはロボットの予測行為情報を得ることは、
前記現在フレーム画像中の検出ボックス情報に基づき、対応する人またはロボットのキーポイントを検出し、キーポイント検出結果に基づいて対応する人またはロボットの頭部方向および身体方向を取得し、対応する人またはロボットの頭部方向および身体方向に基づいて対応する人またはロボットの運動方向を取得することと、前記キーポイント検出結果に基づいて対応する人またはロボットの動きを分類し、対応する人の動き分類情報を得ることと、前記キーポイント検出結果に基づいて対応する人またはロボットの運動状態を分類し、対応する人またはロボットの運動状態情報を得ることと、を含むことを特徴とする請求項26に記載の方法。 - ニューラルネットワークによって、現在走行対象の所在する道路の前方における疑似衝突対象を検出するように構成される第一検出モジュールと、
現在走行対象と前記疑似衝突対象との衝突時間を予測するように構成される第一予測モジュールと、
前記衝突時間に基づいて、前記現在走行対象に対して、前方衝突警報および/または運転制御を含む前方衝突制御を行うように構成される制御モジュールと、を含むことを特徴とする前方衝突制御装置。 - 前記現在走行対象は、車両またはロボットを含み、および/または、
前記疑似衝突対象は、人、車両、軽車両、ロボット、障害物のいずれか一つまたは複数を含むことを特徴とする請求項28に記載の装置。 - 前記第一検出モジュールは、
前記道路上の区画線に対する検出結果を取得するように構成される取得ユニットと、
前記区画線に対する検出結果に基づいて、前記道路上の少なくとも一部の目標対象を疑似衝突対象として特定するように構成される特定ユニットと、を含むことを特徴とする請求項28または29に記載の装置。 - 前記取得ユニットは、ニューラルネットワークに基づいて前記道路上の区画線を検出し、前記区画線に対する検出結果を得ること、または、先進運転支援システムから前記区画線に対する検出結果を取得することを実行するように構成されることを特徴とする請求項30に記載の装置。
- 前記特定ユニットは、前記区画線に対する検出結果が検出された区画線情報である場合、前記区画線情報に基づいて、前記現在走行対象の所在する車線内の少なくとも一部の目標対象を疑似衝突対象として選択するように構成されることを特徴とする請求項30または31に記載の装置。
- 前記特定ユニットは、前記区画線に対する検出結果として区画線が検出されていない場合、前記現在走行対象との距離が予め設定された範囲内にある目標対象を疑似衝突対象として選択するように構成されることを特徴とする請求項30または31に記載の装置。
- 前記第一予測モジュールは、
現在より前のNフレームの画像および現在フレーム画像における各疑似衝突対象の検出ボックス情報にそれぞれ基づき、各疑似衝突対象の運動情報を予測するように構成される予測ユニットと、
各疑似衝突対象の運動情報に基づき、現在走行対象と各疑似衝突対象との衝突時間を計算するように構成される計算ユニットと、を含むことを特徴とする請求項28から33のいずれか一項に記載の装置。 - 前記制御モジュールは、
現在走行対象と前記疑似衝突対象との衝突時間を少なくとも一つの予め設定された閾値と比較するように構成される比較ユニットと、
比較結果が一つ以上の予め設定された条件を満たす場合、満たされる予め設定された条件の対応する前方衝突制御を行うように構成される制御ユニットと、を含むことを特徴とする請求項28から34のいずれか一項に記載の装置。 - 前記予め設定された条件が複数ある場合、複数の予め設定された条件のそれぞれ対応する前方衝突制御の程度は段階的に増加することを特徴とする請求項35に記載の装置。
- 前記制御ユニットは、
前記衝突時間に基づいて前記現在走行対象に対して前方衝突警報を行うように構成される警報ユニット、および/または、
前記衝突時間に基づいて前記現在走行対象に対して運転制御を行うように構成される運転制御ユニットを含むことを特徴とする請求項35または36に記載の装置。 - 前記警報ユニットは、現在走行対象との衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい疑似衝突対象が存在する場合、衝突警報を行うように構成され、ここで、第一の予め設定された閾値は第二の予め設定された閾値よりも小さいことを特徴とする請求項37に記載の装置。
- 前記警報ユニットは、衝突時間が第二の予め設定された閾値以下かつ第一の予め設定された閾値よりも大きい第一疑似衝突対象に対して、前記第一疑似衝突対象の運動情報に基づいて前記第一疑似衝突対象が衝突領域から離れる傾向があるかどうかを予測し、
前記第一疑似衝突対象が衝突領域から離れる傾向がない場合、衝突警報を行うように構成されることを特徴とする請求項38に記載の装置。 - 前記警報ユニットはさらに、
前記第一疑似衝突対象が衝突領域から離れる傾向がある場合、衝突警報を行わないように構成されることを特徴とする請求項38に記載の装置。 - 前記警報ユニットはさらに、現在走行対象との衝突時間が前記第一の予め設定された閾値以下である疑似衝突対象が存在する場合、衝突警報、および/または、運転制御を行うように構成され、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことを特徴とする請求項38から40のいずれか一項に記載の装置。
- 前記警報ユニットは、衝突時間が前記第一の予め設定された閾値以下である第二疑似衝突対象に対して、前記第二疑似衝突対象の運動情報に基づいて前記第二疑似衝突対象が衝突領域から離れる傾向があるかどうかを予測し、
前記第二疑似衝突対象が衝突領域から離れる傾向がない場合、衝突警報、および/または、運転制御を行うように構成され、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことを特徴とする請求項41に記載の装置。 - 前記警報ユニットはさらに、前記第二疑似衝突対象が衝突領域から離れる傾向がある場合、衝突警報、および/または、運転制御を行わないように構成され、前記運転制御が、制動減速、走行方向変更のいずれか一つまたは複数を含むことを特徴とする請求項41に記載の装置。
- さらに、
ニューラルネットワークにより現在フレーム画像における目標対象を検出し、前記現在フレーム画像における目標対象の検出ボックスを得るように構成される第二検出モジュールと、
前のNフレームの画像における目標対象の検出ボックスに基づき、前記現在フレーム画像における目標対象の物体ボックスを予測するように構成される第二予測モジュールと、
目標対象の検出ボックスおよび物体ボックスに基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定するように構成される特定モジュールと、を含み、
ここで、前記前のNフレームの画像は、前記現在フレーム画像よりも前の、画像採集順に並ぶNフレームの画像を含み、Nは0よりも大きい整数であることを特徴とする請求項34から43のいずれか一項に記載の装置。 - 前記第二検出モジュールは、
ニューラルネットワークにより前記現在フレーム画像の特徴を抽出するように構成される特徴抽出ユニットと、
前記ニューラルネットワークにより、抽出された特徴に基づいて目標対象の検出ボックスを特定するように構成される特定ユニットと、を含むことを特徴とする請求項44に記載の装置。 - 前記ニューラルネットワークは、異なるネットワーク深さにそれぞれ位置する複数の特徴層を含み、
前記特徴抽出ユニットは、前記ニューラルネットワークに入力される現在フレーム画像を、順に前記ニューラルネットワークの各特徴層によって特徴を抽出し、ネットワーク深さがiである第一特徴層により出力される第一特徴とネットワーク深さがjである第二特徴層により出力される第二特徴とを融合し、融合特徴を、ネットワーク深さがj+1である第三特徴層の入力特徴または前記ニューラルネットワークにより出力される前記現在フレーム画像の特徴として得るように構成され、ここで、1≦i<jであることを特徴とする請求項45に記載の装置。 - 前記特定ユニットは、
ニューラルネットワークにより、抽出された特徴に基づいて目標対象を含む候補ボックスを特定し、
前記ニューラルネットワークにより、各候補ボックスの特徴にそれぞれ基づいて各候補ボックスを分類し、各候補ボックスが各種類の目標対象にそれぞれ属する確率スコアを得て、
各候補ボックスの確率スコアのうちの値が最も大きい確率スコアの対応する種類をそれぞれ該候補ボックスにおける目標対象の種類とし、
重畳率が予め設定された閾値よりも大きくかつ目標対象の種類が同じである候補ボックスを1セットの候補ボックスとしてそれぞれ選択し、1セットの候補ボックスから、目標対象の種類とする確率スコアのうちの最大値の対応する候補ボックスを、目標対象の検出ボックスとして選択するように構成されることを特徴とする請求項45または46に記載の装置。 - 前記第二検出モジュールは、
現在フレーム画像が、それの所在するフレームシーケンスにおける1フレーム目の画像である場合、ニューラルネットワークにより現在フレーム画像における目標対象を検出するように構成される検出ユニット、および/または、
現在フレーム画像が、それの所在するフレームシーケンスにおける1フレーム目の画像ではない場合、前記フレームシーケンスにおける1フレーム目の画像中の検出ボックス情報に基づき、前記現在フレーム画像における目標対象の検出ボックスを回帰するように構成される回帰ユニットを含み、
ここで、前記フレームシーケンスは、画像採集順に並ぶMフレームの画像を含み、Mは1よりも大きい整数であることを特徴とする請求項44から47のいずれか一項に記載の装置。 - 前記回帰ユニットは、
前記1フレーム目の画像中の検出ボックス情報に基づき、前記1フレーム目の画像中の検出ボックス情報で特定した検出ボックスの中心点を中心点とし、前記現在フレーム画像において、長さおよび/または幅が前記特定した検出ボックスの長さおよび/または幅より大きい領域に対応する領域画像を切り出し、
前記ニューラルネットワークにより前記領域画像における目標対象を検出し、前記領域画像における目標対象の検出ボックスを得て、
前記前記領域画像における目標対象の検出ボックス、および前記現在フレーム画像における前記領域画像の位置に基づき、前記現在フレーム画像における目標対象の検出ボックス情報を特定するように構成されることを特徴とする請求項48に記載の装置。 - 前記第二予測モジュールは、
それぞれ前記前のNフレームの画像における各同一目標対象に対して、
前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置に基づき、前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置変化の速度および加速度をフィッティングし、
前記前のNフレームの画像における同一目標対象の検出ボックスの大きさおよび位置変化の速度および加速度に基づき、前記現在フレーム画像における同一目標対象の物体ボックスの大きさおよび位置を予測するように構成されることを特徴とする請求項44から49のいずれか一項に記載の装置。 - 前記特定モジュールは、
各目標対象のうちの、検出ボックスと物体ボックスとの重畳率が予め設定された閾値以上である第一目標対象に対して、前記第一目標対象の検出ボックスと物体ボックスとの大きさおよび位置のそれぞれにおける平均値を、前記現在フレーム画像における前記第一目標対象の検出ボックス情報として取得するように構成され、前記検出ボックス情報が、検出ボックスの大きさおよび位置を含むことを特徴とする請求項50に記載の装置。 - 前記特定モジュールは、各目標対象のうちの、検出ボックスと物体ボックスとの重畳率が前記予め設定された閾値よりも小さい第二目標対象に対して、予測された前記第二目標対象の物体ボックスの大きさおよび位置を、前記現在フレーム画像における前記第二目標対象の検出ボックス情報とするように構成されることを特徴とする請求項50または51に記載の装置。
- 前記特定モジュールは、各目標対象のうちの、前記現在フレーム画像に物体ボックスの対応する検出ボックスが存在していない第三目標対象に対して、予測された前記第三目標対象の物体ボックスの大きさおよび位置を、前記現在フレーム画像における前記第三目標対象の検出ボックス情報とするように構成されることを特徴とする請求項50から52のいずれか一項に記載の装置。
- 前記疑似衝突対象が人またはロボットである場合、前記予測ユニットは、
ニューラルネットワークにより、前記現在フレーム画像中の検出ボックス情報に基づいて各人またはロボットの行為を予測し、前記現在フレーム画像における各人またはロボットの予測行為情報を得、前記予測行為情報が、運動方向、運動状態および動き分類情報を含み、
各人またはロボットの前記予測行為情報、および前記前のNフレームの画像および前記現在フレーム画像における各人またはロボットの検出ボックス情報にそれぞれ基づき、各人またはロボットの運動情報を特定するように構成されることを特徴とする請求項34から53のいずれか一項に記載の装置。 - 前記予測ユニットは、前記現在フレーム画像中の検出ボックス情報に基づいて各人またはロボットの行為を予測し、前記現在フレーム画像における各人またはロボットの予測行為情報を得るときに、
前記現在フレーム画像中の検出ボックス情報に基づき、対応する人またはロボットのキーポイントを検出し、キーポイント検出結果に基づいて対応する人またはロボットの頭部方向および身体方向を取得し、対応する人またはロボットの頭部方向および身体方向に基づいて対応する人またはロボットの運動方向を取得し、前記キーポイント検出結果に基づいて対応する人またはロボットの動きを分類し、対応する人の動き分類情報を得て、前記キーポイント検出結果に基づいて対応する人またはロボットの運動状態を分類し、対応する人またはロボットの運動状態情報を得るように構成されることを特徴とする請求項54に記載の装置。 - コンピュータプログラムを記憶するように構成されるメモリと、
前記メモリに記憶される、実行される時に請求項1から27のいずれか一項に記載の方法を実現するコンピュータプログラムを実行するように構成されるプロセッサと、を含むことを特徴とする電子機器。 - コンピュータプログラムが記憶されているコンピュータ読み取り可能記憶媒体であって、該コンピュータプログラムはプロセッサにより実行される時、請求項1から27のいずれか一項に記載の方法を実現することを特徴とするコンピュータ読み取り可能記憶媒体。
- コンピュータ命令を含むコンピュータプログラムであって、前記コンピュータ命令は機器のプロセッサに実行される時、請求項1から27のいずれか一項に記載の方法を実現することを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810360844.5A CN108725440B (zh) | 2018-04-20 | 2018-04-20 | 前向碰撞控制方法和装置、电子设备、程序和介质 |
CN201810360844.5 | 2018-04-20 | ||
PCT/CN2019/082403 WO2019201163A1 (zh) | 2018-04-20 | 2019-04-12 | 前向碰撞控制方法和装置、电子设备、程序和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021504856A true JP2021504856A (ja) | 2021-02-15 |
JP6934574B2 JP6934574B2 (ja) | 2021-09-15 |
Family
ID=63939710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020545852A Active JP6934574B2 (ja) | 2018-04-20 | 2019-04-12 | 前方衝突制御方法および装置、電子機器、プログラムならびに媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11643076B2 (ja) |
JP (1) | JP6934574B2 (ja) |
CN (1) | CN108725440B (ja) |
SG (1) | SG11202005082RA (ja) |
WO (1) | WO2019201163A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210370829A1 (en) * | 2020-06-02 | 2021-12-02 | Hyundai Motor Company | Apparatus, method, and vehicle for providing braking level of forward vehicle |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108725440B (zh) * | 2018-04-20 | 2020-11-27 | 深圳市商汤科技有限公司 | 前向碰撞控制方法和装置、电子设备、程序和介质 |
US11861480B2 (en) * | 2018-08-21 | 2024-01-02 | Siemens Mobility GmbH | Orientation detection in overhead line insulators |
CN109359676A (zh) * | 2018-10-08 | 2019-02-19 | 百度在线网络技术(北京)有限公司 | 用于生成车辆损伤信息的方法和装置 |
CN111497741B (zh) * | 2019-01-30 | 2022-04-08 | 杭州海康威视数字技术股份有限公司 | 碰撞预警方法及装置 |
US11579629B2 (en) * | 2019-03-15 | 2023-02-14 | Nvidia Corporation | Temporal information prediction in autonomous machine applications |
CN111846046B (zh) * | 2019-04-03 | 2022-05-20 | 杭州青奇科技有限公司 | 一种单车安全检测的系统、方法及装置 |
DE102019112625A1 (de) | 2019-05-14 | 2020-11-19 | Eyyes Gmbh | Verfahren zum Anzeigen und/oder Berechnen einer Relativbewegung |
CN112149458A (zh) * | 2019-06-27 | 2020-12-29 | 商汤集团有限公司 | 障碍物检测方法、智能驾驶控制方法、装置、介质及设备 |
CN112668363B (zh) * | 2019-10-15 | 2024-06-14 | 北京地平线机器人技术研发有限公司 | 报警准确度确定方法、装置及计算机可读存储介质 |
CN110764109A (zh) * | 2019-10-29 | 2020-02-07 | Oppo广东移动通信有限公司 | 车辆危险预警方法及相关产品 |
CN111339834B (zh) * | 2020-02-04 | 2023-06-02 | 浙江大华技术股份有限公司 | 车辆行驶方向的识别方法、计算机设备及存储介质 |
CN112287855B (zh) * | 2020-11-02 | 2024-05-10 | 东软睿驰汽车技术(沈阳)有限公司 | 基于多任务神经网络的驾驶行为检测方法和装置 |
CN112477868B (zh) * | 2020-12-07 | 2022-03-29 | 北京紫光展锐通信技术有限公司 | 碰撞时间计算方法、装置、可读存储介质和计算机设备 |
CN112633474B (zh) * | 2020-12-20 | 2022-04-05 | 东南大学 | 一种重型营运车辆的后向防撞驾驶决策方法 |
CN113104045B (zh) * | 2021-03-24 | 2022-05-31 | 东风柳州汽车有限公司 | 车辆碰撞预警方法、装置、设备及存储介质 |
CN113361364B (zh) * | 2021-05-31 | 2022-11-01 | 北京市商汤科技开发有限公司 | 目标行为检测方法、装置、设备及存储介质 |
CN113643325B (zh) * | 2021-06-02 | 2022-08-16 | 范加利 | 一种用于航母舰面舰载机碰撞警告的方法及系统 |
CN113421298A (zh) * | 2021-06-17 | 2021-09-21 | 深圳市高格通讯技术有限公司 | 车辆测距方法、车辆控制装置、车辆及可读存储介质 |
KR20230022339A (ko) * | 2021-08-06 | 2023-02-15 | 현대자동차주식회사 | 주변 차량 주의도 표시 시스템 및 이를 이용한 알람 제공 방법 |
CN113895431B (zh) * | 2021-09-30 | 2023-07-04 | 重庆电子工程职业学院 | 一种车辆检测方法及系统 |
CN113610900B (zh) * | 2021-10-11 | 2022-02-15 | 深圳佑驾创新科技有限公司 | 车尾序列尺度变化预测方法、装置和计算机设备 |
CN113978457B (zh) * | 2021-12-24 | 2022-05-03 | 深圳佑驾创新科技有限公司 | 一种碰撞风险预测方法及装置 |
CN114435405A (zh) * | 2022-03-21 | 2022-05-06 | 北京主线科技有限公司 | 一种车辆换道方法、装置、设备和存储介质 |
CN114820691B (zh) * | 2022-06-28 | 2022-11-15 | 苏州魔视智能科技有限公司 | 本车运动状态检测方法、装置、设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008021269A (ja) * | 2006-07-14 | 2008-01-31 | Denso It Laboratory Inc | 衝突危険度判定装置、衝突危険度判定方法及び歩行者識別方法 |
JP2008507454A (ja) * | 2004-07-26 | 2008-03-13 | オートモーティブ システムズ ラボラトリー インコーポレーテッド | 道路使用弱者保護システム |
US20100191391A1 (en) * | 2009-01-26 | 2010-07-29 | Gm Global Technology Operations, Inc. | multiobject fusion module for collision preparation system |
JP2011517632A (ja) * | 2008-02-20 | 2011-06-16 | コンチネンタル・テーヴエス・アクチエンゲゼルシヤフト・ウント・コンパニー・オツフエネハンデルスゲゼルシヤフト | 車両の周辺にある物体を検出する方法及び援助システム |
JP2013105432A (ja) * | 2011-11-16 | 2013-05-30 | Clarion Co Ltd | 車両用外界認識装置およびそれを用いた車両システム |
JP2017010560A (ja) * | 2015-06-24 | 2017-01-12 | スズキ株式会社 | 車両の運転支援装置 |
US20180005054A1 (en) * | 2016-06-30 | 2018-01-04 | Beijing Kuangshi Technology Co., Ltd. | Driving assistance information generating method and device, and driving assistance system |
US20180012085A1 (en) * | 2016-07-07 | 2018-01-11 | Ants Technology (Hk) Limited. | Computer Vision Based Driver Assistance Devices, Systems, Methods and Associated Computer Executable Code |
US20180075309A1 (en) * | 2016-09-14 | 2018-03-15 | Nauto, Inc. | Systems and methods for near-crash determination |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7284769B2 (en) | 1995-06-07 | 2007-10-23 | Automotive Technologies International, Inc. | Method and apparatus for sensing a vehicle crash |
JPH0785280B2 (ja) | 1992-08-04 | 1995-09-13 | タカタ株式会社 | 神経回路網による衝突予測判定システム |
JPH11353565A (ja) * | 1998-06-09 | 1999-12-24 | Yazaki Corp | 車両用衝突警報方法及び装置 |
KR20020055094A (ko) * | 2000-12-28 | 2002-07-08 | 이계안 | 차로 변경 안내방법 |
JP2007148835A (ja) * | 2005-11-28 | 2007-06-14 | Fujitsu Ten Ltd | 物体判別装置、報知制御装置、物体判別方法および物体判別プログラム |
DE102011106485A1 (de) * | 2011-06-14 | 2012-11-15 | Daimler Ag | Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs in einer Gegenverkehrssituation |
CN102303605A (zh) * | 2011-06-30 | 2012-01-04 | 中国汽车技术研究中心 | 基于多传感器信息融合的碰撞及偏离预警装置及预警方法 |
CN102390320B (zh) * | 2011-08-22 | 2013-06-12 | 武汉理工大学 | 基于车载传感网络的车辆防撞预警系统及用途 |
CN102745194B (zh) * | 2012-06-19 | 2015-02-25 | 东南大学 | 一种高速公路汽车防追尾前车的自适应报警方法 |
CN105270398B (zh) * | 2015-10-21 | 2018-06-12 | 北京新能源汽车股份有限公司 | 电动汽车的车距控制方法、装置和电动汽车 |
CN107346612B (zh) * | 2016-05-06 | 2021-02-12 | 中国科学院微电子研究所 | 一种基于车联网的车辆防碰撞方法和系统 |
CN106407931B (zh) * | 2016-09-19 | 2019-11-22 | 杭州电子科技大学 | 一种深度卷积神经网络运动车辆检测方法 |
CN107657237B (zh) * | 2017-09-28 | 2020-03-31 | 东南大学 | 基于深度学习的汽车碰撞检测方法及系统 |
CN108725440B (zh) * | 2018-04-20 | 2020-11-27 | 深圳市商汤科技有限公司 | 前向碰撞控制方法和装置、电子设备、程序和介质 |
-
2018
- 2018-04-20 CN CN201810360844.5A patent/CN108725440B/zh active Active
-
2019
- 2019-04-12 WO PCT/CN2019/082403 patent/WO2019201163A1/zh active Application Filing
- 2019-04-12 JP JP2020545852A patent/JP6934574B2/ja active Active
- 2019-04-12 SG SG11202005082RA patent/SG11202005082RA/en unknown
-
2020
- 2020-05-28 US US16/886,596 patent/US11643076B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008507454A (ja) * | 2004-07-26 | 2008-03-13 | オートモーティブ システムズ ラボラトリー インコーポレーテッド | 道路使用弱者保護システム |
JP2008021269A (ja) * | 2006-07-14 | 2008-01-31 | Denso It Laboratory Inc | 衝突危険度判定装置、衝突危険度判定方法及び歩行者識別方法 |
JP2011517632A (ja) * | 2008-02-20 | 2011-06-16 | コンチネンタル・テーヴエス・アクチエンゲゼルシヤフト・ウント・コンパニー・オツフエネハンデルスゲゼルシヤフト | 車両の周辺にある物体を検出する方法及び援助システム |
US20100191391A1 (en) * | 2009-01-26 | 2010-07-29 | Gm Global Technology Operations, Inc. | multiobject fusion module for collision preparation system |
JP2013105432A (ja) * | 2011-11-16 | 2013-05-30 | Clarion Co Ltd | 車両用外界認識装置およびそれを用いた車両システム |
JP2017010560A (ja) * | 2015-06-24 | 2017-01-12 | スズキ株式会社 | 車両の運転支援装置 |
US20180005054A1 (en) * | 2016-06-30 | 2018-01-04 | Beijing Kuangshi Technology Co., Ltd. | Driving assistance information generating method and device, and driving assistance system |
US20180012085A1 (en) * | 2016-07-07 | 2018-01-11 | Ants Technology (Hk) Limited. | Computer Vision Based Driver Assistance Devices, Systems, Methods and Associated Computer Executable Code |
US20180075309A1 (en) * | 2016-09-14 | 2018-03-15 | Nauto, Inc. | Systems and methods for near-crash determination |
Non-Patent Citations (1)
Title |
---|
HAIYU ZHAO, MAOQING TIAN, SHUYANG SUN, JING SHAO, JUNJIE YAN, SHUAI YI, XIAOGANG WANG, XIAOOU TANG: "Spindle Net: Person Re-identification with Human Body Region Guided Feature Decomposition and Fusion", 2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN7021002351, 21 July 2017 (2017-07-21), US, pages 907 - 915, XP033249429, ISSN: 0004536412, DOI: 10.1109/CVPR.2017.103 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210370829A1 (en) * | 2020-06-02 | 2021-12-02 | Hyundai Motor Company | Apparatus, method, and vehicle for providing braking level of forward vehicle |
US11535153B2 (en) * | 2020-06-02 | 2022-12-27 | Hyundai Motor Company | Apparatus, method, and vehicle for providing braking level of forward vehicle |
Also Published As
Publication number | Publication date |
---|---|
WO2019201163A1 (zh) | 2019-10-24 |
CN108725440B (zh) | 2020-11-27 |
JP6934574B2 (ja) | 2021-09-15 |
US20200290608A1 (en) | 2020-09-17 |
SG11202005082RA (en) | 2020-06-29 |
CN108725440A (zh) | 2018-11-02 |
US11643076B2 (en) | 2023-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6934574B2 (ja) | 前方衝突制御方法および装置、電子機器、プログラムならびに媒体 | |
Schulz et al. | Pedestrian intention recognition using latent-dynamic conditional random fields | |
KR20210118912A (ko) | 교통 개체를 통한 신경망 기반 자율주행자동차 항법 | |
Schulz et al. | A controlled interactive multiple model filter for combined pedestrian intention recognition and path prediction | |
Köhler et al. | Early detection of the pedestrian's intention to cross the street | |
KR101982298B1 (ko) | 차량에서의 돌발적으로 출현한 이동 객체를 탐지하는 방법 및 장치 | |
JP4692344B2 (ja) | 画像認識装置 | |
JP5278419B2 (ja) | 運転シーンの遷移予測装置及び車両用推奨運転操作提示装置 | |
JP6092527B2 (ja) | ユーザ凝視データに基づいた時空間データのセグメント化 | |
JP7536023B2 (ja) | イベントベースセンサからの情報を処理する方法 | |
KR102195317B1 (ko) | 비디오 게임을 활용한 차량 사고 예측 방법 | |
KR20160135482A (ko) | 동적 장애물 움직임 예측 장치 및 그 방법 | |
CN111497741B (zh) | 碰撞预警方法及装置 | |
US9558410B2 (en) | Road environment recognizing apparatus | |
KR20180047149A (ko) | 충돌 위험 경고 장치 및 방법 | |
Czech et al. | On-board pedestrian trajectory prediction using behavioral features | |
US20120189161A1 (en) | Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus | |
Vorapatratorn et al. | Fast obstacle detection system for the blind using depth image and machine learning. | |
Riera et al. | Driver behavior analysis using lane departure detection under challenging conditions | |
CN117636307A (zh) | 基于语义信息的目标检测方法、设备及自动驾驶车辆 | |
JP7269694B2 (ja) | 事象発生推定のための学習データ生成方法・プログラム、学習モデル及び事象発生推定装置 | |
Shahid et al. | Eye-gaze and augmented reality framework for driver assistance | |
CN116563801A (zh) | 交通事故检测方法、装置、电子设备和介质 | |
EP4207066A1 (en) | Object tracking method and apparatus, device, and a computer-readable storage medium | |
Karaduman et al. | Approaching car detection via clustering of vertical-horizontal line scanning optical edge flow |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200527 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210812 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6934574 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |