JP2021528732A - 運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器 - Google Patents
運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器 Download PDFInfo
- Publication number
- JP2021528732A JP2021528732A JP2020567917A JP2020567917A JP2021528732A JP 2021528732 A JP2021528732 A JP 2021528732A JP 2020567917 A JP2020567917 A JP 2020567917A JP 2020567917 A JP2020567917 A JP 2020567917A JP 2021528732 A JP2021528732 A JP 2021528732A
- Authority
- JP
- Japan
- Prior art keywords
- image
- waiting
- map
- moving object
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 139
- 238000001514 detection method Methods 0.000 title claims abstract description 100
- 238000012545 processing Methods 0.000 claims abstract description 159
- 230000033001 locomotion Effects 0.000 claims abstract description 153
- 238000004590 computer program Methods 0.000 claims abstract description 28
- 238000003860 storage Methods 0.000 claims abstract description 17
- 238000009826 distribution Methods 0.000 claims description 181
- 238000013527 convolutional neural network Methods 0.000 claims description 92
- 230000008569 process Effects 0.000 claims description 73
- 230000008859 change Effects 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 31
- 238000004458 analytical method Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 238000012423 maintenance Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 abstract description 20
- 238000003384 imaging method Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000013519 translation Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 238000005457 optimization Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computer Graphics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Geometry (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Electromagnetism (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
本発明の実施形態は、運動物体検出方法および装置、スマート運転制御方法および装置、電子機器、コンピュータ可読記憶媒体、並びにコンピュータプログラムを開示する。
【解決手段】
当該運動物体検出方法は、処理待ち画像中のピクセルの深度情報を取得するステップと、前記処理待ち画像と参考画像との間の光流情報を取得するステップであって、前記参考画像と前記処理待ち画像とは、撮影装置の連続撮影によって得られた、時系列関係を有する2つの画像であるステップと、前記深度情報および光流情報に基づいて、前記処理待ち画像中のピクセルの前記参考画像に対する3次元モーションフィールドを取得するステップと、前記3次元モーションフィールドに基づいて、前記処理待ち画像中の運動物体を確定するステップと、を含む。
【選択図】図1
Description
<関連出願の互いに引用>
本発明は、2019年5月29日に中国専利局へ提出された、出願番号がCN201910459420.9であり、発明名称が「運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器」である中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が援用により本願に組み入れられる。
Rは、回転情報を表し、3×3のマトリックスであり、R11は、cosαcosγ−cosβsinαsinγを表し、
R12は、−cosβcosγsinα−cosαsinγを表し、R13は、sinαsinβを表し、
R21は、cosγsinα+cosαcosβsinγを表し、R22は、cosαcosβcosγ−sinαsinγを表し、
R23は、sinαsinβを表し、R31は、sinβsinγを表し、R32は、cosγsinβを表し、R33は、cosβを表し、
オイラー角度(α,β,γ)は、Roll、Yaw、および、Pitchに基づく回転角を表す。
であり、tは、撮影装置の平行移動情報を表し、すなわち平行移動ベクトルであり、tは、tx、ty、および、tzの3つの平行移動成分を利用して表すことができ、txは、X軸方向における平行移動成分を表し、tyは、Y軸方向における平行移動成分を表し、tzは、Z軸方向における平行移動成分を表す。
であり、Pi cは、処理待ち画像中のi番目のピクセルの第1座標を表す。
は、1つのクラスクラスタに対応する運動物体の実例の速度方向を表し、
は、当該クラスクラスタ中のi番目のピクセルの速度方向を表す。
Claims (61)
- 運動物体検出方法であって、
処理待ち画像中のピクセルの深度情報を取得するステップと、
前記処理待ち画像と参考画像との間の光流情報を取得するステップであって、前記参考画像と前記処理待ち画像とは、撮影装置の連続撮影によって得られた、時系列関係を有する2つの画像であるステップと、
前記深度情報および光流情報に基づいて、前記処理待ち画像中のピクセルの前記参考画像に対する3次元モーションフィールドを取得するステップと、
前記3次元モーションフィールドに基づいて、前記処理待ち画像中の運動物体を確定するステップと、を含む
ことを特徴とする運動物体検出方法。 - 前記処理待ち画像は、前記撮影装置によって撮影されたビデオ中の1つのビデオフレームであり、前記処理待ち画像の参考画像は、前記ビデオフレームの直前の1つのビデオフレームを含む
ことを特徴とする請求項1に記載の運動物体検出方法。 - 前記処理待ち画像中のピクセルの深度情報を取得するステップは、
処理待ち画像の第1視差マップを取得するステップと、
前記第1視差マップに基づいて、前記処理待ち画像中のピクセルの深度情報を取得するステップと、を含む
ことを特徴とする請求項1又は2に記載の運動物体検出方法。 - 前記処理待ち画像は、単眼画像を含み、
前記処理待ち画像の第1視差マップを取得するステップは、
処理待ち画像を畳み込みニューラルネットワーク中に入力し、前記畳み込みニューラルネットワークを利用して視差分析処理を実行し、前記畳み込みニューラルネットワークの出力に基づいて、前記処理待ち画像の第1視差マップを得るステップを含み、
ここで、前記畳み込みニューラルネットワークは、両眼画像サンプルを利用してトレーニングして得られたものである
ことを特徴とする請求項3に記載の運動物体検出方法。 - 前記処理待ち画像の第1視差マップを取得するステップは、
前記処理待ち画像の第1水平ミラー画像の第2視差マップの第2水平ミラー画像を取得するステップであって、前記処理待ち画像の第1水平ミラー画像は、前記処理待ち画像に対して水平方向のミラー処理を実行して形成されたミラー画像であり、前記第2視差マップの第2水平ミラー画像は、前記第2視差マップに対して水平方向のミラー処理を実行して形成されたミラー画像であるステップと、
前記第1視差マップの重み分布マップおよび前記第2水平ミラー画像の重み分布マップに基づいて、前記第1視差マップに対して視差調整を実行して、最終に、前記処理待ち画像の第1視差マップを得るステップと、をさらに含む
ことを特徴とする請求項4に記載の運動物体検出方法。 - 前記処理待ち画像の第1水平ミラー画像の第2視差マップの第2水平ミラー画像を取得するステップは、
処理待ち画像の第1水平ミラー画像を畳み込みニューラルネットワーク中に入力し、前記畳み込みニューラルネットワークを利用して視差分析処理を実行し、前記畳み込みニューラルネットワークの出力に基づいて、前記処理待ち画像の第1水平ミラー画像の第2視差マップを得るステップと、
前記第2視差マップに対してミラー処理を実行して、前記第2水平ミラー画像を得るステップと、を含む
ことを特徴とする請求項5に記載の運動物体検出方法。 - 前記重み分布マップは、第1重み分布マップと第2重み分布マップとの中の少なくとも1つを含み、
前記第1重み分布マップは、複数の処理待ち画像に対して統一的に設定した重み分布マップであり、
前記第2重み分布マップは、互いに異なる処理待ち画像に対して個別的に設定した重み分布マップである
ことを特徴とする請求項5又は6に記載の運動物体検出方法。 - 前記第1重み分布マップは、少なくとも2つの左右に分列された領域を含み、互いに異なる領域は、互いに異なる重み値を有する
ことを特徴とする請求項7に記載の運動物体検出方法。 - 前記処理待ち画像が左眼画像とされる場合、
前記第1視差マップの第1重み分布マップ中の任意の2つの領域の場合、右側に位置する領域の重み値が、左側に位置する領域の重み値よりも大きく、
前記第2水平ミラー画像の第1重み分布マップ中の任意の2つの領域の場合、右側に位置する領域の重み値が、左側に位置する領域の重み値よりも大きい
ことを特徴とする請求項7又は8に記載の運動物体検出方法。 - 前記第1視差マップの第1重み分布マップ中の少なくとも1つの領域の場合、当該領域中の左側部分の重み値が、当該領域中の右側部分の重み値以下であり、
前記第2水平ミラー画像の第1重み分布マップ中の少なくとも1つの領域の場合、当該領域中の左側部分の重み値が、当該領域中の右側部分の重み値以下である
ことを特徴とする請求項9に記載の運動物体検出方法。 - 前記処理待ち画像が右眼画像とされる場合、
前記第1視差マップの第1重み分布マップ中の任意の2つの領域の場合、左側に位置する領域の重み値は、右側に位置する領域の重み値よりも大きく、
前記第2水平ミラー画像の第1重み分布マップ中の任意の2つの領域の場合、左側に位置する領域の重み値は、右側に位置する領域の重み値よりも大きい
ことを特徴とする請求項7又は8に記載の運動物体検出方法。 - 前記第1視差マップの第1重み分布マップ中の少なくとも1つの領域の場合、当該領域中の右側部分の重み値が、当該領域中の左側部分の重み値以下であり、
前記第2水平ミラー画像の第1重み分布マップ中の少なくとも1つの領域の場合、当該領域中の右側部分の重み値が、当該領域中の左側部分の重み値以下である
ことを特徴とする請求項11に記載の運動物体検出方法。 - 前記第1視差マップの第2重み分布マップの設定方式は、
前記第1視差マップに対して水平ミラー処理を実行して、ミラー視差マップを形成することと、
前記ミラー視差マップ中の任意の1つのピクセル点の場合、当該ピクセル点の視差値が当該ピクセル点に対応する第1変数よりも大きいと、前記第1視差マップの第2重み分布マップ中の当該ピクセル点の重み値を第1値に設定し、当該ピクセル点の視差値が当該ピクセル点に対応する第1変数未満であると、第2値に設定することと、を含み、
ここで、前記第1値は、第2値よりも大きいことを特徴とする請求項7から12の何れか一項に記載の運動物体検出方法。 - 前記ピクセル点に対応する第1変数は、前記第1視差マップ中の当該ピクセル点の視差値、および、ゼロよりも大きい定数値に基づいて、設定された変数である
ことを特徴とする請求項13に記載の運動物体検出方法。 - 前記第2水平ミラー画像の第2重み分布マップの設定方式は、
前記第2水平ミラー画像中の任意の1つのピクセル点の場合、前記第1視差マップ中の当該ピクセル点の視差値が当該ピクセル点に対応する第2変数よりも大きいと、前記第2水平ミラー画像の第2重み分布マップ中の当該ピクセル点の重み値を第1値に設定し、前記第1視差マップ中の当該ピクセル点の視差値が当該ピクセル点に対応する第2変数未満であると、第2値に設定することを含み、
ここで、前記第1値は、第2値よりも大きいことを特徴とする請求項7から14の何れか一項に記載の運動物体検出方法。 - 前記ピクセル点に対応する第2変数は、前記第1視差マップの水平ミラー画像中の該当するピクセル点の視差値、および、ゼロよりも大きい定数値に基づいて、設定された変数であることを特徴とする請求項15に記載の運動物体検出方法。
- 前記第1視差マップの重み分布マップおよび前記第2水平ミラー画像の重み分布マップに基づいて、前記第1視差マップに対して視差調整を実行するステップは、
前記第1視差マップの第1重み分布マップおよび第2重み分布マップに基づいて、前記第1視差マップ中の視差値を調整するステップと、
前記第2水平ミラー画像の第1重み分布マップおよび第2重み分布マップに基づいて、前記第2水平ミラー画像中の視差値を調整するステップと、
視差値調整後の第1視差マップと視差値調整後の第2水平ミラー画像とを合併して、最終に、前記処理待ち画像の第1視差マップを得るステップと、を含む
ことを特徴とする請求項7から16の何れか一項に記載の運動物体検出方法。 - 前記畳み込みニューラルネットワークのトレーニング過程は、
両眼画像サンプル中の一眼画像サンプルをトレーニング待ちの畳み込みニューラルネットワーク中に入力し、前記畳み込みニューラルネットワークを利用して視差分析処理を実行し、前記畳み込みニューラルネットワークの出力に基づいて、左眼画像サンプルの視差マップおよび右眼画像サンプルの視差マップを得るステップと、
前記左眼画像サンプルおよび前記右眼画像サンプルの視差マップに基づいて右眼画像を再構築するステップと、
前記右眼画像サンプルおよび前記左眼画像サンプルの視差マップに基づいて左眼画像を再構築するステップと、
再構築した左眼画像と左眼画像サンプルとの間の差異、および、再構築した右眼画像と右眼画像サンプルとの間の差異に基づいて、前記畳み込みニューラルネットワークのネットワークパラメータを調整するステップと、を含む
ことを特徴とする請求項4から17の何れか一項に記載の運動物体検出方法。 - 前記処理待ち画像と参考画像との間の光流情報を取得するステップは、
前記処理待ち画像と前記参考画像とを撮影する撮影装置のポーズ変化情報を取得するステップと、
前記ポーズ変化情報に基づいて、前記処理待ち画像中のピクセルのピクセル値と前記参考画像中のピクセルのピクセル値との間の対応関係を構築するステップと、
前記対応関係に基づいて、参考画像に対して変換処理を実行するステップと、
前記処理待ち画像および前記変換処理後の参考画像に基づいて、前記処理待ち画像と参考画像との間の光流情報を計算するステップと、を含む
ことを特徴とする請求項1から18の何れか一項に記載の運動物体検出方法。 - 前記ポーズ変化情報に基づいて、前記処理待ち画像中のピクセルのピクセル値と前記参考画像中のピクセルのピクセル値との間の対応関係を構築するステップは、
前記深度情報および撮影装置の所定のパラメータに基づいて、前記処理待ち画像中のピクセルの、処理待ち画像に対応する撮影装置の3次元座標系における第1座標を取得するステップと、
前記ポーズ変化情報に基づいて、前記第1座標を、前記参考画像に対応する撮影装置の3次元座標系における第2座標に変換するステップと、
2次元画像の2次元座標系に基づいて、前記第2座標に対して投影処理を実行して、前記処理待ち画像の投影の2次元座標を得るステップと、
前記処理待ち画像の投影2次元座標および前記参考画像の2次元座標に基づいて、前記処理待ち画像中のピクセルのピクセル値と前記参考画像中のピクセルのピクセル値との間の対応関係を構築するステップと、を含む
ことを特徴とする請求項19に記載の運動物体検出方法。 - 前記3次元モーションフィールドに基づいて、前記処理待ち画像中の運動物体を確定するステップは、
前記3次元モーションフィールドに基づいて、前記処理待ち画像中のピクセルの3次元空間における運動情報を取得するステップと、
前記ピクセルの3次元空間における運動情報に基づいて、前記ピクセルに対してクラスタリング処理を実行するステップと、
前記クラスタリング処理の結果に基づいて、前記処理待ち画像中の運動物体を確定するステップと、を含む
ことを特徴とする請求項1から20の何れか一項に記載の運動物体検出方法。 - 前記3次元モーションフィールドに基づいて、前記処理待ち画像中のピクセルの3次元空間における運動情報を取得するステップは、
前記3次元モーションフィールド、および、前記処理待ち画像と前記参考画像との間の撮影の時間差に基づいて、前記処理待ち画像中のピクセルの、処理待ち画像に対応する撮影装置の3次元座標系の3つの座標軸方向上の速度を計算するステップを含む
ことを特徴とする請求項21に記載の運動物体検出方法。 - 前記ピクセルの3次元空間における運動情報に基づいて、前記ピクセルに対してクラスタリング処理を実行するステップは、
前記ピクセルの3次元空間における運動情報に基づいて、前記処理待ち画像の運動マスクを取得するステップと、
前記運動マスクに基づいて、処理待ち画像中の運動領域を確定するステップと、
運動領域中のピクセルの3次元空間位置情報と運動情報とに基づいて、前記運動領域中のピクセルに対してクラスタリング処理を実行するステップと、を含む
ことを特徴とする請求項21又は22に記載の運動物体検出方法。 - 前記ピクセルの3次元空間における運動情報は、ピクセルの3次元空間における速度大きさを含み、
前記ピクセルの3次元空間における運動情報に基づいて、前記処理待ち画像の運動マスクを取得するステップは、
所定の速度閾値に基づいて、前記処理待ち画像中のピクセルの速度大きさに対してフィルタリング処理を実行して、前記処理待ち画像の運動マスクを形成するステップを含む
ことを特徴とする請求項23に記載の運動物体検出方法。 - 前記運動領域中のピクセルの3次元空間位置情報と運動情報とに基づいて、前記運動領域中のピクセルに対してクラスタリング処理を実行するステップは、
前記運動領域中のピクセルの3次元空間座標値を所定の座標区間に転換するステップと、
前記運動領域中のピクセルの速度を所定の速度区間に転換するステップと、
転換後の3次元空間座標値および転換後の速度に基づいて、前記運動領域中のピクセルに対して密度クラスタリング処理を実行して、少なくとも1つのクラスクラスタを得るステップと、含む
ことを特徴とする請求項23又は24に記載の運動物体検出方法。 - 前記クラスタリング処理の結果に基づいて、前記処理待ち画像中の運動物体を確定するステップは、
任意の1つのクラスクラスタに対して、当該クラスクラスタ中の複数のピクセルの速度大きさと速度方向とに基づいて、運動物体の速度大きさと速度方向とを確定するステップを含み、
ここで、1つのクラスクラスタが、処理待ち画像中の1つの運動物体とされる
ことを特徴とする請求項25に記載の運動物体検出方法。 - 前記クラスタリング処理の結果に基づいて、前記処理待ち画像中の運動物体を確定するステップは、
同一のクラスクラスタに属するピクセルの空間位置情報に基づいて、前記処理待ち画像中の運動物体検出枠を確定するステップをさらに含む
ことを特徴とする請求項21から26の何れか一項に記載の運動物体検出方法。 - スマート運転制御方法であって、
車両に設けられた撮影装置を通じて前記車両が位置している道路のビデオストリームを取得するステップと、
請求項1から27の何れか一項に記載の方法を使用して、前記ビデオストリームに含まれた少なくとも1つのビデオフレームに対して、運動物体検出を実行して、当該ビデオフレーム中の運動物体を確定するステップと、
前記運動物体に基づいて前記車両の制御命令を生成して出力するステップと、を含む
ことを特徴とするスマート運転制御方法。 - 前記制御命令は、速度維持制御命令、速度調整制御命令、方向維持制御命令、方向調整制御命令、警告プロンプト制御命令、および、運転モード切替制御命令の中の少なくとも一つを含む
ことを特徴とする請求項28に記載のスマート運転制御方法。 - 運動物体検出装置であって、
処理待ち画像中のピクセルの深度情報を取得するための第1取得モジュールと、
前記処理待ち画像と参考画像との間の光流情報を取得するための第2取得モジュールであって、前記参考画像と前記処理待ち画像とは、撮影装置の連続撮影によって得られた、時系列関係を有する2つの画像である第2取得モジュールと、
前記深度情報および光流情報に基づいて、前記処理待ち画像中のピクセルの前記参考画像に対する3次元モーションフィールドを取得するための第3取得モジュールと、
前記3次元モーションフィールドに基づいて、前記処理待ち画像中の運動物体を確定するための運動物体確定モジュールと、を備える
ことを特徴とする運動物体検出装置。 - 前記処理待ち画像は、前記撮影装置によって撮影されたビデオ中の1つのビデオフレームであり、前記処理待ち画像の参考画像は、前記ビデオフレームの直前の1つのビデオフレームを含む
ことを特徴とする請求項30に記載の運動物体検出装置。 - 前記第1取得モジュールは、
処理待ち画像の第1視差マップを取得するための第1サブモジュールと、
前記処理待ち画像の第1視差マップに基づいて、前記処理待ち画像中のピクセルの深度情報を取得するための第2サブモジュールと、を備える
ことを特徴とする請求項30又は31に記載の運動物体検出装置。 - 前記処理待ち画像は、単眼画像を含み、
前記第1サブモジュールは、
処理待ち画像を畳み込みニューラルネットワーク中に入力し、前記畳み込みニューラルネットワークを利用して視差分析処理を実行し、前記畳み込みニューラルネットワークの出力に基づいて、前記処理待ち画像の第1視差マップを得るための第1ユニットを備え、
ここで、前記畳み込みニューラルネットワークは、両眼画像サンプルを利用してトレーニングして得られたものである
ことを特徴とする請求項32に記載の運動物体検出装置。 - 前記第1サブモジュールは、
前記処理待ち画像の第1水平ミラー画像の第2視差マップの第2水平ミラー画像を取得するための第2ユニットであって、前記処理待ち画像の第1水平ミラー画像は、前記処理待ち画像に対して水平方向のミラー処理を実行して形成されたミラー画像であり、前記第2視差マップの第2水平ミラー画像は、前記第2視差マップに対して水平方向のミラー処理を実行して形成されたミラー画像である第2ユニットと、
前記第1視差マップの重み分布マップおよび前記第2水平ミラー画像の重み分布マップに基づいて、前記第1視差マップに対して視差調整を実行して、最終に、前記処理待ち画像の第1視差マップを得るための第3ユニットと、をさらに備え、
ことを特徴とする請求項33に記載の運動物体検出装置。 - 前記第2ユニットは、
前記第1水平ミラー画像を畳み込みニューラルネットワーク中に入力し、前記畳み込みニューラルネットワークを利用して視差分析処理を実行し、前記畳み込みニューラルネットワークの出力に基づいて、前記第2視差マップを得、
前記第2視差マップに対してミラー処理を実行して、前記第2水平ミラー画像を得る
ことを特徴とする請求項34に記載の運動物体検出装置。 - 前記重み分布マップは、第1重み分布マップと第2重み分布マップとの中の少なくとも1つを含み、
前記第1重み分布マップは、複数の処理待ち画像に対して統一的に設定した重み分布マップであり、
前記第2重み分布マップは、互いに異なる処理待ち画像に対して個別的に設定した重み分布マップである
ことを特徴とする請求項34又は35に記載の運動物体検出装置。 - 前記第1重み分布マップは、少なくとも2つの左右に分列された領域を含み、互いに異なる領域は、互いに異なる重み値を有する
ことを特徴とする請求項36に記載の運動物体検出装置。 - 前記処理待ち画像が左眼画像とされる場合、
前記第1視差マップの第1重み分布マップ中の任意の2つの領域の場合、右側に位置する領域の重み値が、左側に位置する領域の重み値よりも大きく、
前記第2水平ミラー画像の第1重み分布マップ中の任意の2つの領域の場合、右側に位置する領域の重み値が、左側に位置する領域の重み値よりも大きい
ことを特徴とする請求項36又は37に記載の運動物体検出装置。 - 前記第1視差マップの第1重み分布マップ中の少なくとも1つの領域の場合、当該領域中の左側部分の重み値が、当該領域中の右側部分の重み値以下であり、
前記第2水平ミラー画像の第1重み分布マップ中の少なくとも1つの領域の場合、当該領域中の左側部分の重み値が、当該領域中の右側部分の重み値以下である
ことを特徴とする請求項38に記載の運動物体検出装置。 - 前記処理待ち画像が右眼画像とされる場合、
前記第1視差マップの第1重み分布マップ中の任意の2つの領域の場合、左側に位置する領域の重み値は、右側に位置する領域の重み値よりも大きく、
前記第2水平ミラー画像の第1重み分布マップ中の任意の2つの領域の場合、左側に位置する領域の重み値は、右側に位置する領域の重み値よりも大きい
ことを特徴とする請求項36又は37に記載の運動物体検出装置。 - 前記第1視差マップの第1重み分布マップ中の少なくとも1つの領域の場合、当該領域中の右側部分の重み値が、当該領域中の左側部分の重み値以下であり、
前記第2水平ミラー画像の第1重み分布マップ中の少なくとも1つの領域の場合、当該領域中の右側部分の重み値が、当該領域中の左側部分の重み値以下である
ことを特徴とする請求項40に記載の運動物体検出装置。 - 前記第3ユニットは、さらに、前記第1視差マップの第2重み分布マップを設定し、
第3ユニットが前記第1視差マップの第2重み分布マップを設定する方式は、
前記第1視差マップに対して水平ミラー処理を実行して、ミラー視差マップを形成することと、
前記ミラー視差マップ中の任意の1つのピクセル点の場合、当該ピクセル点の視差値が当該ピクセル点に対応する第1変数よりも大きいと、前記第1視差マップの第2重み分布マップ中の当該ピクセル点の重み値を第1値に設定し、当該ピクセル点の視差値が当該ピクセル点に対応する第1変数未満であると、第2値に設定することと、を含み、
ここで、前記第1値は、第2値よりも大きい
ことを特徴とする請求項36から41の何れか一項に記載の運動物体検出装置。 - 前記ピクセル点に対応する第1変数は、前記第1視差マップ中の当該ピクセル点の視差値、および、ゼロよりも大きい定数値に基づいて、設定された変数である
ことを特徴とする請求項42に記載の運動物体検出装置。 - 前記第3ユニットは、さらに、前記第2水平ミラー画像の第2重み分布マップを設定し、
前記第3ユニットが前記第2視差マップの第2水平ミラー画像の第2重み分布マップを設定する方式は、
前記第2水平ミラー画像中の任意の1つのピクセル点の場合、前記第1視差マップ中の当該ピクセル点の視差値が当該ピクセル点に対応する第2変数よりも大きいと、前記第2水平ミラー画像の第2重み分布マップ中の当該ピクセル点の重み値を第1値に設定し、前記第1視差マップ中の当該ピクセル点の視差値が当該ピクセル点に対応する第2変数未満であると、第2値に設定することを含み、
ここで、前記第1値は、第2値よりも大きい
ことを特徴とする請求項36から43の何れか一項に記載の運動物体検出装置。 - 前記ピクセル点に対応する第2変数は、前記第1視差マップの水平ミラー画像中の該当するピクセル点の視差値、および、ゼロよりも大きい定数値に基づいて、設定された変数である
ことを特徴とする請求項44に記載の運動物体検出装置。 - 前記第3ユニットは、
前記第1視差マップの第1重み分布マップおよび第2重み分布マップに基づいて、前記第1視差マップ中の視差値を調整し、
前記第2水平ミラー画像の第1重み分布マップおよび第2重み分布マップに基づいて、前記第2水平ミラー画像中の視差値を調整し、
視差値調整後の第1視差マップと視差値調整後の第2水平ミラー画像とを合併して、最終に、前記処理待ち画像の第1視差マップを得る
ことを特徴とする請求項36から45の何れか一項に記載の運動物体検出装置。 - トレーニングモジュールをさらに備え、
前記トレーニングモジュールは、
両眼画像サンプル中の一眼画像サンプルをトレーニング待ちの畳み込みニューラルネットワーク中に入力し、前記畳み込みニューラルネットワークを利用して視差分析処理を実行し、前記畳み込みニューラルネットワークの出力に基づいて、左眼画像サンプルの視差マップおよび右眼画像サンプルの視差マップを得、
前記左眼画像サンプルおよび前記右眼画像サンプルの視差マップに基づいて右眼画像を再構築し、
前記右眼画像サンプルおよび前記左眼画像サンプルの視差マップに基づいて左眼画像を再構築し、
再構築した左眼画像と左眼画像サンプルとの間の差異、および、再構築した右眼画像と右眼画像サンプルとの間の差異に基づいて、前記畳み込みニューラルネットワークのネットワークパラメータを調整する
ことを特徴とする請求項33から46の何れか一項に記載の運動物体検出装置。 - 前記第2取得モジュールは、
前記処理待ち画像と前記参考画像とを撮影する撮影装置のポーズ変化情報を取得するための第3サブモジュールと、
前記ポーズ変化情報に基づいて、前記処理待ち画像中のピクセルのピクセル値と前記参考画像中のピクセルのピクセル値との間の対応関係を構築するための第4サブモジュールと、
前記対応関係に基づいて、参考画像に対して変換処理を実行するための第5サブモジュールと、
前記処理待ち画像および前記変換処理後の参考画像に基づいて、前記処理待ち画像と参考画像との間の光流情報を計算するための第6サブモジュールと、を備える
ことを特徴とする請求項30から47の何れか一項に記載の運動物体検出装置。 - 前記第4サブモジュールは、
前記深度情報および撮影装置の所定のパラメータに基づいて、前記処理待ち画像中のピクセルの、処理待ち画像に対応する撮影装置の3次元座標系における第1座標を取得し、
前記ポーズ変化情報に基づいて、前記第1座標を、前記参考画像に対応する撮影装置の3次元座標系における第2座標に変換し、
2次元画像の2次元座標系に基づいて、前記第2座標に対して投影処理を実行して、前記処理待ち画像の投影の2次元座標を得、
前記処理待ち画像の投影2次元座標および前記参考画像の2次元座標に基づいて、前記処理待ち画像中のピクセルのピクセル値と前記参考画像中のピクセルのピクセル値との間の対応関係を構築する
ことを特徴とする請求項48に記載の運動物体検出装置。 - 前記運動物体確定モジュールは、
前記3次元モーションフィールドに基づいて、前記処理待ち画像中のピクセルの3次元空間における運動情報を取得するための第7サブモジュールと、
前記ピクセルの3次元空間における運動情報に基づいて、前記ピクセルに対してクラスタリング処理を実行するための第8サブモジュールと、
前記クラスタリング処理の結果に基づいて、前記処理待ち画像中の運動物体を確定するための第9サブモジュールと、を備える
ことを特徴とする請求項30から49の何れか一項に記載の運動物体検出装置。 - 前記第7サブモジュールは、
前記3次元モーションフィールド、および、前記処理待ち画像と前記参考画像との間の撮影の時間差に基づいて、前記処理待ち画像中のピクセルの、処理待ち画像に対応する撮影装置の3次元座標系の3つの座標軸方向上の速度を計算する
ことを特徴とする請求項50に記載の運動物体検出装置。 - 前記第8サブモジュールは、
前記ピクセルの3次元空間における運動情報に基づいて、前記処理待ち画像の運動マスクを取得するための第4ユニットと、
前記運動マスクに基づいて、処理待ち画像中の運動領域を確定するための第5ユニットと、
運動領域中のピクセルの3次元空間位置情報と運動情報とに基づいて、前記運動領域中のピクセルに対してクラスタリング処理を実行するための第6ユニットと、を含む
ことを特徴とする請求項50又は51に記載の運動物体検出装置。 - 前記ピクセルの3次元空間における運動情報は、ピクセルの3次元空間における速度大きさを含み、
前記第4ユニットは、
所定の速度閾値に基づいて、前記処理待ち画像中のピクセルの速度大きさに対してフィルタリング処理を実行して、前記処理待ち画像の運動マスクを形成する
ことを特徴とする請求項52に記載の運動物体検出装置。 - 前記第6ユニットは、
前記運動領域中のピクセルの3次元空間座標値を所定の座標区間に転換し、
前記運動領域中のピクセルの速度を所定の速度区間に転換し、
転換後の3次元空間座標値および転換後の速度に基づいて、前記運動領域中のピクセルに対して密度クラスタリング処理を実行して、少なくとも1つのクラスクラスタを得る
ことを特徴とする請求項52又は53に記載の運動物体検出装置。 - 前記第9サブモジュールは、
任意の1つのクラスクラスタに対して、当該クラスクラスタ中の複数のピクセルの速度大きさと速度方向とに基づいて、運動物体の速度大きさと速度方向とを確定し、
ここで、1つのクラスクラスタが、処理待ち画像中の1つの運動物体とされる
ことを特徴とする請求項54に記載の運動物体検出装置。 - 前記第9サブモジュールは、さらに、
同一のクラスクラスタに属するピクセルの空間位置情報に基づいて、前記処理待ち画像中の運動物体検出枠を確定する
ことを特徴とする請求項50から55の何れか一項に記載の運動物体検出装置。 - スマート運転制御装置であって、
車両に設けられた撮影装置を通じて前記車両が位置している道路のビデオストリームを取得するための第4取得モジュールと、
前記ビデオストリームに含まれた少なくとも1つのビデオフレームに対して、運動物体検出を実行して、当該ビデオフレーム中の運動物体を確定するための、請求項1から27の何れか一項に記載の運動物体検出装置と、
前記運動物体に基づいて前記車両の制御命令を生成して出力するための制御モジュールと、を備える
ことを特徴とするスマート運転制御装置。 - 前記制御命令は、速度維持制御命令、速度調整制御命令、方向維持制御命令、方向調整制御命令、警告プロンプト制御命令、および、運転モード切替制御命令の中の少なくとも一つを含む
ことを特徴とする請求項57に記載のスマート運転制御装置。 - 電子機器であって、
コンピュータプログラムを記憶するためのメモリと、
前記メモリに記憶されているコンピュータプログラムを実行し、前記コンピュータプログラムが実行されるときに、請求項1から29の何れか一項に記載の方法が実現されるプロセッサと、を備える
ことを特徴とする電子機器。 - コンピュータ可読記憶媒体であって、
前記コンピュータ可読記憶媒体には、コンピュータプログラムが記憶されており、
当該コンピュータプログラムがプロセッサによって実行されるときに、請求項1から29の何れか一項に記載の方法が実現される
ことを特徴とするコンピュータ可読記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムは、コンピュータ命令を含み、
前記コンピュータ命令が機器のプロセッサで運行されるときに、請求項1から29の何れか一項に記載の方法が実現される
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910459420.9A CN112015170A (zh) | 2019-05-29 | 2019-05-29 | 运动物体检测及智能驾驶控制方法、装置、介质及设备 |
CN201910459420.9 | 2019-05-29 | ||
PCT/CN2019/114611 WO2020238008A1 (zh) | 2019-05-29 | 2019-10-31 | 运动物体检测及智能驾驶控制方法、装置、介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021528732A true JP2021528732A (ja) | 2021-10-21 |
JP7091485B2 JP7091485B2 (ja) | 2022-06-27 |
Family
ID=73501844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020567917A Active JP7091485B2 (ja) | 2019-05-29 | 2019-10-31 | 運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210122367A1 (ja) |
JP (1) | JP7091485B2 (ja) |
KR (1) | KR20210022703A (ja) |
CN (1) | CN112015170A (ja) |
SG (1) | SG11202013225PA (ja) |
WO (1) | WO2020238008A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113727141B (zh) * | 2020-05-20 | 2023-05-12 | 富士通株式会社 | 视频帧的插值装置以及方法 |
CN112784738B (zh) * | 2021-01-21 | 2023-09-19 | 上海云从汇临人工智能科技有限公司 | 运动目标检测告警方法、装置以及计算机可读存储介质 |
CN113096151B (zh) * | 2021-04-07 | 2022-08-09 | 地平线征程(杭州)人工智能科技有限公司 | 对目标的运动信息进行检测的方法和装置、设备和介质 |
CN113553986B (zh) * | 2021-08-02 | 2022-02-08 | 浙江索思科技有限公司 | 一种船舶上运动目标检测方法及系统 |
CN113781539A (zh) * | 2021-09-06 | 2021-12-10 | 京东鲲鹏(江苏)科技有限公司 | 深度信息获取方法、装置、电子设备和计算机可读介质 |
CN114037740B (zh) * | 2021-11-09 | 2024-07-19 | 北京字节跳动网络技术有限公司 | 图像数据流的处理方法、装置及电子设备 |
US20230351638A1 (en) * | 2022-04-29 | 2023-11-02 | Nvidia Corporation | Detecting hazards based on disparity maps using computer vision for autonomous machine systems and applications |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010204805A (ja) * | 2009-03-02 | 2010-09-16 | Konica Minolta Holdings Inc | 周辺監視装置および該方法 |
JP2011209070A (ja) * | 2010-03-29 | 2011-10-20 | Daihatsu Motor Co Ltd | 画像処理装置 |
CN104318561A (zh) * | 2014-10-22 | 2015-01-28 | 上海理工大学 | 基于双目立体视觉与光流融合的车辆运动信息检测方法 |
CN104902246A (zh) * | 2015-06-17 | 2015-09-09 | 浙江大华技术股份有限公司 | 视频监视方法和装置 |
JP2016081108A (ja) * | 2014-10-10 | 2016-05-16 | トヨタ自動車株式会社 | 物体検出装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5627905A (en) * | 1994-12-12 | 1997-05-06 | Lockheed Martin Tactical Defense Systems | Optical flow detection system |
US8866821B2 (en) * | 2009-01-30 | 2014-10-21 | Microsoft Corporation | Depth map movement tracking via optical flow and velocity prediction |
CN102867311B (zh) * | 2011-07-07 | 2015-11-25 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
CN105100771A (zh) * | 2015-07-14 | 2015-11-25 | 山东大学 | 一种基于场景分类和几何标注的单视点视频深度获取方法 |
CN107341815B (zh) * | 2017-06-01 | 2020-10-16 | 哈尔滨工程大学 | 基于多目立体视觉场景流的剧烈运动检测方法 |
CN107330924A (zh) * | 2017-07-07 | 2017-11-07 | 郑州仁峰软件开发有限公司 | 一种基于单目摄像头识别运动物体的方法 |
CN107808388B (zh) * | 2017-10-19 | 2021-10-12 | 中科创达软件股份有限公司 | 包含运动目标的图像处理方法、装置及电子设备 |
CN109272493A (zh) * | 2018-08-28 | 2019-01-25 | 中国人民解放军火箭军工程大学 | 一种基于递归卷积神经网络的单目视觉里程计方法 |
CN109727275B (zh) * | 2018-12-29 | 2022-04-12 | 北京沃东天骏信息技术有限公司 | 目标检测方法、装置、系统和计算机可读存储介质 |
CN109727273B (zh) * | 2018-12-29 | 2020-12-04 | 北京茵沃汽车科技有限公司 | 一种基于车载鱼眼相机的移动目标检测方法 |
WO2020215194A1 (zh) * | 2019-04-23 | 2020-10-29 | 深圳市大疆创新科技有限公司 | 用于移动目标物体检测的方法、系统以及可移动平台 |
-
2019
- 2019-05-29 CN CN201910459420.9A patent/CN112015170A/zh active Pending
- 2019-10-31 KR KR1020217001946A patent/KR20210022703A/ko not_active Application Discontinuation
- 2019-10-31 WO PCT/CN2019/114611 patent/WO2020238008A1/zh active Application Filing
- 2019-10-31 SG SG11202013225PA patent/SG11202013225PA/en unknown
- 2019-10-31 JP JP2020567917A patent/JP7091485B2/ja active Active
-
2020
- 2020-12-31 US US17/139,492 patent/US20210122367A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010204805A (ja) * | 2009-03-02 | 2010-09-16 | Konica Minolta Holdings Inc | 周辺監視装置および該方法 |
JP2011209070A (ja) * | 2010-03-29 | 2011-10-20 | Daihatsu Motor Co Ltd | 画像処理装置 |
JP2016081108A (ja) * | 2014-10-10 | 2016-05-16 | トヨタ自動車株式会社 | 物体検出装置 |
CN104318561A (zh) * | 2014-10-22 | 2015-01-28 | 上海理工大学 | 基于双目立体视觉与光流融合的车辆运动信息检测方法 |
CN104902246A (zh) * | 2015-06-17 | 2015-09-09 | 浙江大华技术股份有限公司 | 视频监视方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
SG11202013225PA (en) | 2021-01-28 |
JP7091485B2 (ja) | 2022-06-27 |
US20210122367A1 (en) | 2021-04-29 |
CN112015170A (zh) | 2020-12-01 |
KR20210022703A (ko) | 2021-03-03 |
WO2020238008A1 (zh) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7091485B2 (ja) | 運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器 | |
JP7345504B2 (ja) | Lidarデータと画像データの関連付け | |
KR102319177B1 (ko) | 이미지 내의 객체 자세를 결정하는 방법 및 장치, 장비, 및 저장 매체 | |
WO2019179464A1 (zh) | 用于预测目标对象运动朝向的方法、车辆控制方法及装置 | |
US11064178B2 (en) | Deep virtual stereo odometry | |
WO2020108311A1 (zh) | 目标对象3d检测方法、装置、介质及设备 | |
US20210150231A1 (en) | 3d auto-labeling with structural and physical constraints | |
US20200202498A1 (en) | Computing system for rectifying ultra-wide fisheye lens images | |
WO2020258703A1 (zh) | 障碍物检测方法、智能驾驶控制方法、装置、介质及设备 | |
US20190080462A1 (en) | Method and apparatus for calculating depth map based on reliability | |
US11961266B2 (en) | Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture | |
US11810311B2 (en) | Two-stage depth estimation machine learning algorithm and spherical warping layer for equi-rectangular projection stereo matching | |
CN112097732A (zh) | 一种基于双目相机的三维测距方法、系统、设备及可读存储介质 | |
WO2020238073A1 (zh) | 确定目标对象朝向方法、智能驾驶控制方法和装置及设备 | |
CN113096151B (zh) | 对目标的运动信息进行检测的方法和装置、设备和介质 | |
EP3992909A1 (en) | Two-stage depth estimation machine learning algorithm and spherical warping layer for equi-rectangular projection stereo matching | |
JP7554946B2 (ja) | 画像データの処理方法及び装置 | |
JP2023539865A (ja) | リアルタイムなクロススペクトルオブジェクトの関連付け及び深度推定 | |
CN115147328A (zh) | 三维目标检测方法及装置 | |
Sattler et al. | Embedded 3d reconstruction of dynamic objects in real time for maritime situational awareness pictures | |
CN118648019A (zh) | 具有全局和局部运动补偿的高级时域低光滤波 | |
US11417063B2 (en) | Determining a three-dimensional representation of a scene | |
KR20240012426A (ko) | 비제약 이미지 안정화 | |
US20230144458A1 (en) | Estimating facial expressions using facial landmarks | |
Druml et al. | A Smartphone-Based Virtual White Cane Prototype Featuring Time-of-Flight 3D Imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220520 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7091485 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |