JP7115502B2 - 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 - Google Patents
物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 Download PDFInfo
- Publication number
- JP7115502B2 JP7115502B2 JP2020051751A JP2020051751A JP7115502B2 JP 7115502 B2 JP7115502 B2 JP 7115502B2 JP 2020051751 A JP2020051751 A JP 2020051751A JP 2020051751 A JP2020051751 A JP 2020051751A JP 7115502 B2 JP7115502 B2 JP 7115502B2
- Authority
- JP
- Japan
- Prior art keywords
- state
- image
- series
- object region
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000004590 computer program Methods 0.000 title claims description 8
- 238000001514 detection method Methods 0.000 claims description 188
- 239000000203 mixture Substances 0.000 claims description 52
- 230000008859 change Effects 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 47
- 230000015654 memory Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 230000004397 blinking Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 240000004050 Pentaglottis sempervirens Species 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 238000002347 injection Methods 0.000 description 3
- 239000007924 injection Substances 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000010923 batch production Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Description
なお、運転計画部35は、複数の走行予定経路を生成してもよい。この場合、運転計画部35は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
2 カメラ
3 電子制御装置(物体状態識別装置)
4 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 物体検出部
32 追跡部
33 混合状態判定部
34 状態識別部
35 運転計画部
36 車両制御部
Claims (7)
- 時系列に得られる一連の画像を、所定の物体を検出するように予め学習された第1の識別器に入力することで、前記一連の画像のそれぞれについて、当該画像上において前記物体を含む物体領域を検出する物体検出部と、
前記一連の画像のそれぞれにおいて検出された前記物体領域について、当該物体領域に前記物体以外の他の物体が含まれる混合状態か否か判定する混合状態判定部と、
前記一連の画像のそれぞれにおいて検出された前記物体領域内の画素値から求められる特徴を、時系列順に再帰構造を持つ第2の識別器に入力するとともに、記憶部に記憶されている前記第2の識別器の再帰的に利用される内部状態を前記第2の識別器に適用することで、時系列の外観変化を伴う前記物体の状態を識別する状態識別部と、
を有し、
前記状態識別部は、前記一連の画像のそれぞれについて、当該画像上の前記物体領域が前記混合状態である場合、当該画像上の前記物体領域についての前記特徴を前記第2の識別器に入力することで更新された最新の前記内部状態を廃棄し、一方、当該画像上の前記物体領域が前記混合状態でない場合、当該画像上の前記物体領域についての前記特徴を前記第2の識別器に入力することで更新された最新の前記内部状態で前記記憶部に記憶されている前記内部状態を更新する、
物体状態識別装置。 - 前記第1の識別器は、前記物体領域が前記混合状態である確からしさを表す混合度を算出するようにさらに学習され、
前記物体検出部が前記一連の画像のそれぞれを時系列順に前記第1の識別器に入力する度に、前記第1の識別器は当該画像上の前記物体領域についての前記混合度を算出し、
前記混合状態判定部は、前記一連の画像のそれぞれについて、当該画像上の前記物体領域についての前記混合度が所定の閾値以上である場合、当該画像上の前記物体領域は前記混合状態であると判定する、請求項1に記載の物体状態識別装置。 - 前記混合状態判定部は、前記一連の画像のそれぞれについて、当該画像上の前記物体領域についての前記特徴を、前記物体領域が前記混合状態である確からしさを表す混合度を算出するように予め学習された第3の識別器に入力することで、当該画像上の前記物体領域についての前記混合度を算出し、当該画像上の前記物体領域についての前記混合度が所定の閾値以上である場合、当該画像上の前記物体領域は前記混合状態であると判定する、請求項1に記載の物体状態識別装置。
- 前記混合状態判定部は、前記一連の画像のそれぞれについて、当該画像上の前記物体領域と、前記第1の識別器により検出された他の物体を含む他の物体領域との重複度合いを算出し、前記重複度合いが所定の閾値以上である場合、当該画像上の前記物体領域は前記混合状態であると判定する、請求項1に記載の物体状態識別装置。
- 車両の走行を制御する制御装置であって、
記憶部と、
前記車両に搭載された撮像部により時系列に得られる一連の画像を、他の車両を検出するように予め学習された第1の識別器に入力することで、前記一連の画像のそれぞれについて、当該画像上において前記他の車両を含む物体領域を検出する物体検出部と、
前記一連の画像のそれぞれにおいて検出された前記物体領域について、当該物体領域に前記他の車両以外の他の物体が含まれる混合状態か否か判定する混合状態判定部と、
前記一連の画像のそれぞれにおいて検出された前記物体領域内の画素値から求められる特徴を、時系列順に再帰構造を持つ第2の識別器に入力するとともに、前記記憶部に記憶されている前記第2の識別器の再帰的に利用される内部状態を前記第2の識別器に適用することで、時系列の外観変化を伴う前記他の車両の状態を識別する状態識別部と、
前記他の車両の状態に基づいて、前記他の車両が走行する軌跡を予測し、予測した前記軌跡に基づいて、前記車両が前記他の車両と所定距離以上離れるように前記車両の走行予定経路を設定する運転計画部と、
前記走行予定経路に沿って前記車両が走行するように前記車両を制御する車両制御部と、
を有し、
前記状態識別部は、前記一連の画像のそれぞれについて、当該画像上の前記物体領域が前記混合状態である場合、当該画像上の前記物体領域についての前記特徴を前記第2の識別器に入力することで更新された最新の前記内部状態を廃棄し、一方、当該画像上の前記物体領域が前記混合状態でない場合、当該画像上の前記物体領域についての前記特徴を前記第2の識別器に入力することで更新された最新の前記内部状態で前記記憶部に記憶されている前記内部状態を更新する、
制御装置。 - 時系列に得られる一連の画像を、所定の物体を検出するように予め学習された第1の識別器に入力することで、前記一連の画像のそれぞれについて、当該画像上において前記物体を含む物体領域を検出し、
前記一連の画像のそれぞれにおいて検出された前記物体領域について、当該物体領域に前記物体以外の他の物体が含まれる混合状態か否か判定し、
前記一連の画像のそれぞれにおいて検出された前記物体領域内の画素値から求められる特徴を、時系列順に再帰構造を持つ第2の識別器に入力するとともに、記憶部に記憶されている前記第2の識別器の再帰的に利用される内部状態を前記第2の識別器に適用することで、時系列の外観変化を伴う前記物体の状態を識別し、
前記一連の画像のそれぞれについて、当該画像上の前記物体領域が前記混合状態である場合、当該画像上の前記物体領域についての前記特徴を前記第2の識別器に入力することで更新された最新の前記内部状態を廃棄し、一方、当該画像上の前記物体領域が前記混合状態でない場合、当該画像上の前記物体領域についての前記特徴を前記第2の識別器に入力することで更新された最新の前記内部状態で前記記憶部に記憶されている前記内部状態を更新する、
ことを含む物体状態識別方法。 - 時系列に得られる一連の画像を、所定の物体を検出するように予め学習された第1の識別器に入力することで、前記一連の画像のそれぞれについて、当該画像上において前記物体を含む物体領域を検出し、
前記一連の画像のそれぞれにおいて検出された前記物体領域について、当該物体領域に前記物体以外の他の物体が含まれる混合状態か否か判定し、
前記一連の画像のそれぞれにおいて検出された前記物体領域内の画素値から求められる特徴を、時系列順に再帰構造を持つ第2の識別器に入力するとともに、記憶部に記憶されている前記第2の識別器の再帰的に利用される内部状態を前記第2の識別器に適用することで、時系列の外観変化を伴う前記物体の状態を識別し、
前記一連の画像のそれぞれについて、当該画像上の前記物体領域が前記混合状態である場合、当該画像上の前記物体領域についての前記特徴を前記第2の識別器に入力することで更新された最新の前記内部状態を廃棄し、一方、当該画像上の前記物体領域が前記混合状態でない場合、当該画像上の前記物体領域についての前記特徴を前記第2の識別器に入力することで更新された最新の前記内部状態で前記記憶部に記憶されている前記内部状態を更新する、
ことをコンピュータに実行させる物体状態識別用コンピュータプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020051751A JP7115502B2 (ja) | 2020-03-23 | 2020-03-23 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
CN202110294980.0A CN113435237B (zh) | 2020-03-23 | 2021-03-19 | 物体状态识别装置、识别方法和计算机可读的记录介质以及控制装置 |
US17/208,466 US11776277B2 (en) | 2020-03-23 | 2021-03-22 | Apparatus, method, and computer program for identifying state of object, and controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020051751A JP7115502B2 (ja) | 2020-03-23 | 2020-03-23 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021149863A JP2021149863A (ja) | 2021-09-27 |
JP7115502B2 true JP7115502B2 (ja) | 2022-08-09 |
Family
ID=77746945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020051751A Active JP7115502B2 (ja) | 2020-03-23 | 2020-03-23 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11776277B2 (ja) |
JP (1) | JP7115502B2 (ja) |
CN (1) | CN113435237B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7115502B2 (ja) * | 2020-03-23 | 2022-08-09 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
JP7359735B2 (ja) | 2020-04-06 | 2023-10-11 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
US11654933B2 (en) * | 2020-11-10 | 2023-05-23 | GM Global Technology Operations LLC | Navigation trajectory using reinforcement learning for an ego vehicle in a navigation network |
CN114092896A (zh) * | 2021-11-29 | 2022-02-25 | 上海商汤临港智能科技有限公司 | 一种状态检测方法、装置、计算机设备和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018036870A (ja) | 2016-08-31 | 2018-03-08 | 富士ゼロックス株式会社 | 画像処理装置及びプログラム |
WO2019106789A1 (ja) | 2017-11-30 | 2019-06-06 | 三菱電機株式会社 | 処理装置及び処理方法 |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06255399A (ja) | 1993-03-04 | 1994-09-13 | Mazda Motor Corp | 車両の表示装置 |
JP2983407B2 (ja) * | 1993-03-31 | 1999-11-29 | 三菱電機株式会社 | 画像追尾装置 |
JP4724522B2 (ja) | 2004-10-28 | 2011-07-13 | 株式会社デンソー | 車両周囲視界支援システム |
JP4622806B2 (ja) | 2005-10-27 | 2011-02-02 | アイシン・エィ・ダブリュ株式会社 | 駐車支援方法及び駐車支援装置 |
SE531668C2 (sv) | 2006-07-05 | 2009-06-30 | Scania Cv Ab | Anordning för bestämning av en omgivningssituation |
CN102087707A (zh) * | 2009-12-03 | 2011-06-08 | 索尼株式会社 | 图像处理设备和图像处理方法 |
US11195057B2 (en) * | 2014-03-18 | 2021-12-07 | Z Advanced Computing, Inc. | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
US20140055615A1 (en) | 2012-08-27 | 2014-02-27 | Stephen Chen | Parking assistant device |
US20140279707A1 (en) | 2013-03-15 | 2014-09-18 | CAA South Central Ontario | System and method for vehicle data analysis |
CN103617632B (zh) * | 2013-11-19 | 2017-06-13 | 浙江工业大学 | 一种结合相邻帧差法和混合高斯模型的运动目标检测方法 |
CN106537892B (zh) | 2014-05-29 | 2021-01-05 | 株式会社尼康 | 摄像装置及车辆 |
CN104318782B (zh) * | 2014-10-31 | 2016-08-17 | 浙江力石科技股份有限公司 | 一种面向区域重叠的高速公路视频测速方法及系统 |
US10303988B1 (en) * | 2015-08-14 | 2019-05-28 | Digimarc Corporation | Visual search methods and systems |
US10800455B2 (en) | 2015-12-17 | 2020-10-13 | Ford Global Technologies, Llc | Vehicle turn signal detection |
CN107180220B (zh) | 2016-03-11 | 2023-10-31 | 松下电器(美国)知识产权公司 | 危险预测方法 |
JP2017162438A (ja) | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 危険予測方法 |
JP6547785B2 (ja) | 2016-07-29 | 2019-07-24 | 株式会社デンソー | 物標検出装置 |
JP6611353B2 (ja) * | 2016-08-01 | 2019-11-27 | クラリオン株式会社 | 画像処理装置、外界認識装置 |
JP6832504B2 (ja) | 2016-08-08 | 2021-02-24 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
KR102535540B1 (ko) | 2017-01-12 | 2023-05-23 | 모빌아이 비젼 테크놀로지스 엘티디. | 차량 움직임에 기반한 항법 |
US10691962B2 (en) | 2017-09-22 | 2020-06-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for rear signal identification using machine learning |
JP2019070934A (ja) | 2017-10-06 | 2019-05-09 | 東芝デジタルソリューションズ株式会社 | 映像処理装置、映像処理方法およびプログラム |
US10606270B2 (en) | 2017-10-18 | 2020-03-31 | Luminar Technologies, Inc. | Controlling an autonomous vehicle using cost maps |
US20190130188A1 (en) * | 2017-10-26 | 2019-05-02 | Qualcomm Incorporated | Object classification in a video analytics system |
US20190130583A1 (en) * | 2017-10-30 | 2019-05-02 | Qualcomm Incorporated | Still and slow object tracking in a hybrid video analytics system |
JP6930394B2 (ja) | 2017-11-24 | 2021-09-01 | トヨタ自動車株式会社 | 物体認識装置 |
US10762396B2 (en) | 2017-12-05 | 2020-09-01 | Utac, Llc | Multiple stage image based object detection and recognition |
JP6917878B2 (ja) | 2017-12-18 | 2021-08-11 | 日立Astemo株式会社 | 移動体挙動予測装置 |
TWI649698B (zh) | 2017-12-21 | 2019-02-01 | 財團法人工業技術研究院 | 物件偵測裝置、物件偵測方法及電腦可讀取媒體 |
US11521044B2 (en) | 2018-05-17 | 2022-12-06 | International Business Machines Corporation | Action detection by exploiting motion in receptive fields |
US10760918B2 (en) | 2018-06-13 | 2020-09-01 | Here Global B.V. | Spatiotemporal lane maneuver delay for road navigation |
CN110660254B (zh) | 2018-06-29 | 2022-04-08 | 北京市商汤科技开发有限公司 | 交通信号灯检测及智能驾驶方法和装置、车辆、电子设备 |
WO2020028116A1 (en) | 2018-07-30 | 2020-02-06 | Optimum Semiconductor Technologies Inc. | Object detection using multiple neural networks trained for different image fields |
US11704782B2 (en) | 2018-10-03 | 2023-07-18 | The Toronto-Dominion Bank | Computerized image analysis for automatically determining wait times for a queue area |
JP7119910B2 (ja) * | 2018-10-30 | 2022-08-17 | 富士通株式会社 | 検出方法、検出プログラムおよび検出装置 |
WO2020099936A2 (en) | 2018-11-15 | 2020-05-22 | Mobileye Vision Technologies Ltd. | Fast cnn classification of multi-frame semantic signals |
KR20200057414A (ko) | 2018-11-16 | 2020-05-26 | 삼성전자주식회사 | 주행 가이드 정보를 제공하는 전자 장치 및 그 방법 |
US11927668B2 (en) * | 2018-11-30 | 2024-03-12 | Qualcomm Incorporated | Radar deep learning |
US20220051413A1 (en) | 2019-03-13 | 2022-02-17 | Nec Corporation | Object tracking device, object tracking method, and recording medium |
JP7106477B2 (ja) | 2019-03-20 | 2022-07-26 | 本田技研工業株式会社 | 車両制御装置 |
DE102019206178A1 (de) | 2019-04-30 | 2020-11-05 | Ford Global Technologies, Llc | Verfahren und Vorrichtung zum Abschätzen einer Fahrspurwechselabsicht eines Fahrzeugs |
JP7253441B2 (ja) | 2019-05-09 | 2023-04-06 | 東芝テック株式会社 | 追跡装置及び情報処理プログラム |
CN112307833A (zh) | 2019-07-31 | 2021-02-02 | 浙江商汤科技开发有限公司 | 识别智能行驶设备的行驶状态的方法及装置、设备 |
US11003928B2 (en) | 2019-08-08 | 2021-05-11 | Argo AI, LLC | Using captured video data to identify active turn signals on a vehicle |
US11301754B2 (en) | 2019-12-10 | 2022-04-12 | Sony Corporation | Sharing of compressed training data for neural network training |
JP7115502B2 (ja) * | 2020-03-23 | 2022-08-09 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
JP7359735B2 (ja) | 2020-04-06 | 2023-10-11 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
JP7472832B2 (ja) | 2021-03-16 | 2024-04-23 | トヨタ自動車株式会社 | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム |
-
2020
- 2020-03-23 JP JP2020051751A patent/JP7115502B2/ja active Active
-
2021
- 2021-03-19 CN CN202110294980.0A patent/CN113435237B/zh active Active
- 2021-03-22 US US17/208,466 patent/US11776277B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018036870A (ja) | 2016-08-31 | 2018-03-08 | 富士ゼロックス株式会社 | 画像処理装置及びプログラム |
WO2019106789A1 (ja) | 2017-11-30 | 2019-06-06 | 三菱電機株式会社 | 処理装置及び処理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113435237A (zh) | 2021-09-24 |
JP2021149863A (ja) | 2021-09-27 |
CN113435237B (zh) | 2023-12-26 |
US20210295058A1 (en) | 2021-09-23 |
US11776277B2 (en) | 2023-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11093801B2 (en) | Object detection device and object detection method | |
JP7388971B2 (ja) | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム | |
US11308717B2 (en) | Object detection device and object detection method | |
JP7115502B2 (ja) | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 | |
JP7359735B2 (ja) | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 | |
JP7472832B2 (ja) | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム | |
JP7226368B2 (ja) | 物体状態識別装置 | |
US11900690B2 (en) | Apparatus, method, and computer program for identifying state of signal light, and controller | |
JP7003972B2 (ja) | 距離推定装置、距離推定方法及び距離推定用コンピュータプログラム | |
US20230177844A1 (en) | Apparatus, method, and computer program for identifying state of lighting | |
JP7348874B2 (ja) | 傾斜角検出装置及び制御装置 | |
JP2022146384A (ja) | 物体検出装置 | |
JP2023084575A (ja) | 点灯状態識別装置 | |
JP2022079954A (ja) | 物体検出装置 | |
JP2023092183A (ja) | 追跡装置、追跡方法及び追跡用コンピュータプログラム | |
JP2024030951A (ja) | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210713 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220711 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7115502 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |