JP6668435B2 - 自動車のブラインドスポットモニタリング方法及びこれを利用したブラインドスポットモニタ{method for monotoring blind spot of vehicle and blind spot monitor using the same} - Google Patents
自動車のブラインドスポットモニタリング方法及びこれを利用したブラインドスポットモニタ{method for monotoring blind spot of vehicle and blind spot monitor using the same} Download PDFInfo
- Publication number
- JP6668435B2 JP6668435B2 JP2018188344A JP2018188344A JP6668435B2 JP 6668435 B2 JP6668435 B2 JP 6668435B2 JP 2018188344 A JP2018188344 A JP 2018188344A JP 2018188344 A JP2018188344 A JP 2018188344A JP 6668435 B2 JP6668435 B2 JP 6668435B2
- Authority
- JP
- Japan
- Prior art keywords
- blind spot
- proposal
- vehicle
- boxes
- box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 58
- 238000012544 monitoring process Methods 0.000 title claims description 32
- 238000012360 testing method Methods 0.000 claims description 88
- 238000001514 detection method Methods 0.000 claims description 80
- 238000012549 training Methods 0.000 claims description 46
- 239000013598 vector Substances 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 14
- 238000011895 specific detection Methods 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/02—Rear-view mirror arrangements
- B60R1/025—Rear-view mirror arrangements comprising special mechanical means for correcting the field of view in relation to particular driving conditions, e.g. change of lane; scanning mirrors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/802—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
- B60Y2400/301—Sensors for position or displacement
- B60Y2400/3015—Optical cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Description
サイドミラーは自動車の両側面に設置されて側面及び後方視野を確保するように利用されているが、側面に近接して走行する自動車や物体は確認することができないブラインドスポットがある。
かかる問題点を防止するために、運転手らはブラインドスポットを観測することができるように表面が曲面で形成された凸面鏡をサイドミラーの片側部分に付着する場合もある。
一例として、客体のエッジ線分を検出し、分割された線の群を定義して1次的に自動車を構成され得る候補群を作り、対称性と影部分を利用して最終的に自動車に対する判定を下すアルゴリズム、映像ヒストグラムの対称性を利用して自動車の位置と外郭の大きさを定義するアルゴリズム、自動車のみが有する特性を抽出して群を定義し、定義された類型と類似する程度で自動車を判別するアルゴリズムなどが知られている。
本発明はブラインドスポットに位置する自動車を容易に検出できるようにすることを他の目的とする。
本発明は自動車の走行環境に関係なくブラインドスポットに位置する自動車を検出できるようにすることをまた他の目的とする。
本発明は背景の動きと映像ノイズの影響を受けずにブラインドスポットに位置する自動車をリアルタイムで検出できるようにすることをまた他の目的とする。
本発明の一実施例によれば、自動車のブラインドスポットをモニタリングする方法において、(a)(i)基準自動車のブラインドスポット(blind spot)で前記基準自動車から所定距離別に位置する参照自動車に対応される前記基準自動車で撮影されたサンプリング用後方映像イメージを獲得し、(ii)各々の前記サンプリング用後方映像イメージから前記参照自動車に対応する参照バウンディングボックス(bounding box)を生成し、(iii)前記参照バウンディングボックスを前記基準自動車のブラインドスポットに位置するようになる観察対象自動車を検出し得る確率を有する候補領域としてのm個のプロポーザルボックス(proposal box)に設定した状態で、前記基準自動車の運行中、前記基準自動車で撮影されたテスト用後方映像イメージが獲得されると、ブラインドスポットモニタが、前記テスト用後方映像イメージから少なくとも一つのテスト用特徴マップを獲得する段階;(b)前記ブラインドスポットモニタが、(i)前記テスト用特徴マップ上の前記m個のプロポーザルボックスに対応する領域各々に対してプーリング(pooling)して前記m個のプロポーザルボックス各々に対応するテスト用特徴ベクタ(feature vector)を獲得し、(ii)前記m個のプロポーザルボックス各々に対応する前記テスト用特徴ベクタを少なくとも一つのFC layerに各々入力して(iii)クラシフィケーションのための演算を通じて前記m個のプロポーザルボックス各々に対応するクラス別のテスト用クラシフィケーションスコアを獲得し、(iv)前記m個のプロポーザルボックス各々に対応する前記クラス別のテスト用リグレッション情報を獲得する段階;及び(c)前記ブラインドスポットモニタは、(i)前記クラス別のテスト用クラシフィケーションスコアを参照して前記m個のプロポーザルボックスのうちj個のプロポーザルボックスを選択し、(ii)前記j個のプロポーザルボックス各々に対応する前記テスト用リグレッション情報を利用して前記j個のプロポーザルボックス各々に対応する検出バウンディングボックスを獲得し、(iii)前記検出バウンディングボックス各々が前記j個のプロポーザルボックスのうち対応されるプロポーザルボックスと第1臨界値以上でマッチングされるかを各々確認し、(iv)前記j個のプロポーザルボックスのうち少なくとも一つのプロポーザルボックスに前記観察対象自動車が位置するか否かを判断することで前記基準自動車のブラインドスポットに前記観察対象自動車が位置するか否かを判断する段階;を含む自動車のブラインドスポットモニタリング方法が提供される。
また、前記一実施例によれば、前記ブラインドスポットモニタは、(i)前記t+1フレームからt+(k−1)フレームまで前記動的プロポーザルボックスに前記観察対象自動車が位置するか否かを判断し、(ii)t+kフレームで前記動的プロポーザルボックスに前記観察対象自動車が位置しないと判断された状態で、t+k+1フレームでm個のプロポーザルボックスに前記観察対象自動車が位置するか否かを判断することを特徴とする自動車のブラインドスポットモニタリング方法が提供される。
また、本発明は自動車の走行環境に関係なくブラインドスポットに位置する自動車を正確に検出できるようになる。
また、本発明は背景の動きと映像ノイズの影響を受けずにブラインドスポットに位置する自動車をリアルタイムで少ない演算を通じて検出できるようになる。
図2は本発明の一実施例によるブラインドスポットモニタリングシステムが含まれた自動車を概略的に示したものであり、
図3は本発明の一実施例によってブラインドスポットモニタリングを遂行するconvolutional neural networkのブロックダイアグラムを概略的に示したものであり、
図4は本発明の一実施例によってサンプル用後方映像イメージを用いてブラインドスポットモニタリングのためのプロポーザルボックスを設定する状態を概略的に示したものであり、
図5は本発明の一実施例によってブラインドスポットモニタリングを遂行する状態を概略的に示したものであり、
図6は本発明の一実施例によってブラインドスポットモニタリングのための動的プロポーザルボックスを追加する状態を概略的に示したものである。
まず、図1は本発明の一実施例によるブラインドスポットモニタリングシステムを概略的に示したブロックダイアグラムであり、図1を参照すれば、ブラインドスポットモニタリングシステムはブラインドスポットモニタ100と基準自動車200が含まれ得る。
まず、運転者などを含む使用者はブラインドスポットに位置するようになる観察対象自動車を検出するための候補領域としてのm個のプロポーザルボックスを設定する(S1)。ここで、候補領域は少なくとも一つの観察対象自動車を検出し得る確率を有する既設定された値以上であり得る。
まず、トレーニングイメージをコンボリューションしてトレーニング用特徴マップを獲得し、トレーニング用特徴マップをRPN(region proposal network)に入力してトレーニングイメージに位置するオブジェクトに対応されるプロポーザルボックスを獲得する。そして、プロポーザルボックスに対応されるトレーニングイメージ領域に対してプーリング(pooling)を遂行してプロポーザルボックス各々に対応されるトレーニング用特徴ベクタを獲得する。以後、プロポーザルボックス各々に対応するトレーニング用特徴ベクタをFC layerに各々入力してクラシフィケーションのための演算を通じてプロポーザルボックス各々に対応するクラス別のトレーニング用クラシフィケーションスコアを獲得し、ボックスリグレッションのための演算を通じてプロポーザルボックス各々に対応するクラス別のトレーニング用リグレッション情報を獲得する。そして、クラシフィケーションスコアと既設定されたクラシフィケーショングラウンドトゥルー(ground true)を比較分析してクラシフィケーションに対するロス値であるクラシフィケーションロス値を獲得し、リグレッション情報と既設定されたボックスリグレッショングラウンドトゥルーを比較分析してリグレッションに対するロス値であるリグレッションロス値を獲得し、獲得されたクラシフィケーションロス値とリグレッションロス値を各々バックプロパゲーション(backpropagation)してコンボリューションパラメータ、クラシフィケーションパラメータ、及びボックスリグレッションパラメータを学習する。
100:ブラインドスポットモニタ、
110:通信部、
120:プロセッサ、
200:自動車
BS:ブラインドスポット
P1、P2、P3:プロポーザルボックス、
DPB:動的プロポーザルボックス
Claims (22)
- 自動車のブラインドスポットをモニタリングする方法において、
(a)(i)基準自動車のブラインドスポット(blind spot)で前記基準自動車から所定距離別に位置する少なくとも一つの参照自動車に対応される前記基準自動車で撮影された複数のサンプリング用後方映像イメージを獲得し、(ii)各々の前記サンプリング用後方映像イメージから前記参照自動車に対応する複数の参照バウンディングボックス(bounding box)を生成し、(iii)前記参照バウンディングボックスを前記基準自動車のブラインドスポットに位置するようになる少なくとも一つの観察対象自動車を検出し得る確率を有する候補領域としてのm個のプロポーザルボックス(proposal box)に設定した状態で、前記基準自動車の運行中、前記基準自動車で撮影されたテスト用後方映像イメージが獲得されると、ブラインドスポットモニタが、前記テスト用後方映像イメージから少なくとも一つのテスト用特徴マップを獲得する段階;
(b)前記ブラインドスポットモニタが、(i)前記テスト用特徴マップ上の前記m個のプロポーザルボックスに対応する領域各々に対してプーリング(pooling)して前記m個のプロポーザルボックス各々に対応するテスト用特徴ベクタ(feature vector)を獲得し、(ii)前記m個のプロポーザルボックス各々に対応する前記テスト用特徴ベクタを少なくとも一つのFC layerに各々入力して(iii)クラシフィケーションのための演算を通じて前記m個のプロポーザルボックス各々に対応するクラス別のテスト用クラシフィケーションスコアを獲得し、(iv)前記m個のプロポーザルボックス各々に対応する前記クラス別のテスト用リグレッション情報を獲得する段階;及び
(c)前記ブラインドスポットモニタは、(i)前記クラス別のテスト用クラシフィケーションスコアを参照して前記m個のプロポーザルボックスのうちj個のプロポーザルボックスを選択し、(ii)前記j個のプロポーザルボックス各々に対応する前記テスト用リグレッション情報を利用して前記j個のプロポーザルボックス各々に対応する検出バウンディングボックスを獲得し、(iii)前記検出バウンディングボックス各々が前記j個のプロポーザルボックスのうち対応されるプロポーザルボックスと第1臨界値以上でマッチングされるかを各々確認し、(iv)前記j個のプロポーザルボックスのうち少なくとも一つのプロポーザルボックスに前記観察対象自動車が位置するか否かを判断することで前記基準自動車のブラインドスポットに前記観察対象自動車が位置するか否かを判断する段階;
を含むことを特徴とする方法。 - (d)前記j個のプロポーザルボックスのうちから選択された前記対応されるプロポーザルボックスと第2臨界値未満でマッチングされる少なくとも一つの特定検出バウンディングボックスがある場合、前記ブラインドスポットモニタは、前記特定検出バウンディングボックスを前記基準自動車のブラインドスポットに位置するようになる前記観察対象自動車を検出するための候補領域を含むグループの新しい構成要素として追加される少なくとも一つの動的プロポーザルボックスに設定し、更新されたグループを獲得する段階;
をさらに含むことを特徴とする請求項1に記載の自動車のブラインドスポットモニタリング方法。 - 前記(d)段階で、前記特定検出バウンディングボックスが獲得された前記テスト用後方映像イメージのフレームがtフレームの場合、前記ブラインドスポットモニタは、前記テスト用後方映像イメージのt+1フレームで、前記m個のプロポーザルボックスと前記動的プロポーザルボックスを前記更新されたグループに含まれたものに設定する請求項2に記載の自動車のブラインドスポットモニタリング方法。
- 前記ブラインドスポットモニタは、
(i)前記t+1フレームからt+(k−1)フレームまで前記動的プロポーザルボックスに前記観察対象自動車が位置するか否かを判断し、(ii)t+kフレームで前記動的プロポーザルボックスに前記観察対象自動車が位置しないと判断された状態で、t+k+1フレームでm個のプロポーザルボックスに前記観察対象自動車が位置するか否かを判断することを特徴とする請求項3に記載の自動車のブラインドスポットモニタリング方法。 - (e)前記基準自動車のブラインドスポットに前記観察対象自動車が位置したと判断される場合、前記ブラインドスポットモニタは、前記ブラインドスポットに前記観察対象自動車が位置した情報を前記自動車のコントロールユニットに伝送することで前記コントロールユニットをもって前記観察対象自動車が位置する前記ブラインドスポット方向に前記基準自動車が車線を変更することを防止するように支援する段階;
をさらに含むことを特徴とする請求項1に記載の自動車のブラインドスポットモニタリング方法。 - 前記(c)段階で、
前記ブラインドスポットモニタは、
(i)前記j個のプロポーザルボックス各々に対応される前記検出バウンディングボックス各々の面積と各々の前記検出バウンディングボックスに対応される前記プロポーザルボックスの面積が互いに重なる第1重複領域を計算し、(ii)前記第1重複領域のうち第3臨界値以上であると判断される特定第1重複領域に該当されるプロポーザルボックスに前記観察対象自動車が位置すると判断することを特徴とする請求項1に記載の自動車のブラインドスポットモニタリング方法。 - 前記(c)段階で、
前記ブラインドスポットモニタは、
(i)前記j個のプロポーザルボックス各々に対応される前記検出バウンディングボックスが互いに重なる第2重複領域を計算し、(ii)前記第2重複領域のうち第4臨界値以上であると確認される少なくとも一つの特定第2重複領域に該当する少なくとも一つの特殊検出バウンディングボックスが一つの同一の前記観察対象自動車に対応されると判断し、(iii)前記特殊検出バウンディングボックスのうち対応される前記プロポーザルボックスと面積が互いに重なる重複領域が最大の検出バウンディングボックスを前記観察対象自動車に対する検出バウンディングボックスと判断することを特徴とする請求項1に記載の自動車のブラインドスポットモニタリング方法。 - 前記(c)段階で、
前記ブラインドスポットモニタは、
(i)前記j個のプロポーザルボックス各々に対応される前記検出バウンディングボックスが互いに重なる第2重複領域を各々計算し、(ii)前記第2重複領域のうち第5臨界値未満であると確認される特定第2重複領域に該当する特別検出バウンディングボックスが互いに異なる前記観察対象自動車に対応されると判断し、(iii)前記特別検出バウンディングボックスを前記各々の観察対象自動車を含むと判断することを特徴とする請求項1に記載の自動車のブラインドスポットモニタリング方法。 - 前記(a)段階で、
前記ブラインドスポットモニタは、
コンボリューションを遂行する場合、パッドを0に設定した状態で既設定されたストライドでフィルタを移動させ、前記テスト用後方映像イメージをコンボリューションするか、以前にコンボリューションされたテスト用特徴マップをコンボリューションすることを特徴とする請求項1に記載の自動車のブラインドスポットモニタリング方法。 - 前記(a)段階で、
前記ブラインドスポットモニタは、
前記テスト用後方映像イメージで前記ブラインドスポットに対応されるイメージをコンボリューションして前記テスト用特徴マップを獲得することを特徴とする請求項1に記載の自動車のブラインドスポットモニタリング方法。 - 前記ブラインドスポットモニタは、学習装置によって学習されたコンボリューションパラメータ、クラシフィケーションパラメータ、及びリグレッションパラメータを利用して前記コンボリューション、前記クラシフィケーション、及び前記ボックスリグレッションを遂行することを特徴とするが、
前記学習装置は、
(i)トレーニングイメージをコンボリューションしてトレーニング用特徴マップを獲得し、前記トレーニング用特徴マップをRPN(region proposal network)に入力して前記トレーニングイメージに位置するオブジェクトに対応されるプロポーザルボックスを獲得し、(ii)前記プロポーザルボックスに対応される前記トレーニングイメージ領域に対してプーリング(pooling)を遂行して前記プロポーザルボックス各々に対応されるトレーニング用特徴ベクタを獲得し、前記プロポーザルボックス各々に対応する前記トレーニング用特徴ベクタを前記FC layerに各々入力して前記クラシフィケーションのための演算を通じて前記プロポーザルボックス各々に対応する前記クラス別のトレーニング用クラシフィケーションスコアを獲得し、前記ボックスリグレッションのための演算を通じて前記プロポーザルボックス各々に対応する前記クラス別のトレーニング用リグレッション情報を獲得し、(iii)前記クラシフィケーションスコアと既設定されたクラシフィケーショングラウンドトゥルース(ground truth)を比較分析してクラシフィケーションに対するロス値であるクラシフィケーションロス値を獲得し、前記リグレッション情報と既設定されたボックスリグレッショングラウンドトゥルースを比較分析してリグレッションに対するロス値であるリグレッションロス値を獲得し、前記獲得されたクラシフィケーションロス値と前記リグレッションロス値を各々バックプロパゲーション(backpropagation)して前記コンボリューションパラメータ、前記クラシフィケーションパラメータ、及び前記ボックスリグレッションパラメータを学習することを特徴とする請求項1に記載の自動車のブラインドスポットモニタリング方法。 - 自動車のブラインドスポットをモニタリングする装置において、
基準自動車のブラインドスポット(blind spot)で前記基準自動車から所定距離別に位置する少なくとも一つの参照自動車に対応される前記基準自動車で撮影された複数のサンプリング用後方映像イメージを獲得し、各々の前記サンプリング用後方映像イメージから前記参照自動車に対応する複数の参照バウンディングボックス(bounding box)を生成し、前記参照バウンディングボックスを前記基準自動車のブラインドスポットに位置するようになる少なくとも一つの観察対象自動車を検出し得る確率を有する候補領域としてのm個のプロポーザルボックス(proposal box)に設定した状態で、前記基準自動車の運行中、前記基準自動車で撮影された複数のテスト用後方映像イメージを獲得する通信部;及び
(i)前記テスト用後方映像イメージから少なくとも一つのテスト用特徴マップを獲得するプロセス;(ii)前記テスト用特徴マップ上の前記m個のプロポーザルボックスに対応する領域各々に対してプーリング(pooling)して前記m個のプロポーザルボックス各々に対応するテスト用特徴ベクタ(feature vector)を獲得し、前記m個のプロポーザルボックス各々に対応する前記テスト用特徴ベクタを少なくとも一つのFC layerに各々入力して(ii−1)クラシフィケーションのための演算を通じて前記m個のプロポーザルボックス各々に対応するクラス別のテスト用クラシフィケーションスコアを獲得し、(ii−2)前記m個のプロポーザルボックス各々に対応する前記クラス別のテスト用リグレッション情報を獲得するプロセス;及び(iii)前記クラス別のテスト用クラシフィケーションスコアを参照して前記m個のプロポーザルボックスのうちj個のプロポーザルボックスを選択し、前記j個のプロポーザルボックス各々に対応する前記テスト用リグレッション情報を利用して前記j個のプロポーザルボックス各々に対応する検出バウンディングボックスを獲得し、前記検出バウンディングボックス各々が前記j個のプロポーザルボックスのうち対応されるプロポーザルボックスと第1臨界値以上でマッチングされるかを各々確認し、前記j個のプロポーザルボックスのうち少なくとも一つのプロポーザルボックスに前記観察対象自動車が位置するか否かを判断することで前記基準自動車のブラインドスポットに前記観察対象自動車が位置するか否かを判断するプロセスを遂行するプロセッサ
を含む自動車のブラインドスポットモニタ。 - 前記プロセッサは、
(iv)前記j個のプロポーザルボックスのうちから選択された前記対応されるプロポーザルボックスと第2臨界値未満でマッチングされる少なくとも一つの特定検出バウンディングボックスがある場合、前記特定検出バウンディングボックスを前記基準自動車のブラインドスポットに位置するようになる前記観察対象自動車を検出するための候補領域を含むグループの新しい構成要素として追加される少なくとも一つの動的プロポーザルボックスに設定し、更新されたグループを獲得するプロセス;
をさらに遂行することを特徴とする請求項12に記載の自動車のブラインドスポットモニタ。 - 前記プロセッサは、
前記特定検出バウンディングボックスが獲得された前記テスト用後方映像イメージのフレームがtフレームの場合、前記テスト用後方映像イメージのt+1フレームで前記m個のプロポーザルボックスと前記動的プロポーザルボックスを前記更新されたグループに含まれたものに設定する請求項13に記載の自動車のブラインドスポットモニタ。 - 前記プロセッサは、
前記t+1フレームからt+(k−1)フレームまで前記動的プロポーザルボックスに前記観察対象自動車が位置するか否かを判断し、t+kフレームで前記動的プロポーザルボックスに前記観察対象自動車が位置しないと判断された状態で、t+k+1フレームで前記m個のプロポーザルボックスに前記観察対象自動車が位置するか否かを判断することを特徴とする請求項14に記載の自動車のブラインドスポットモニタ。 - 前記プロセッサは、
(v)前記基準自動車のブラインドスポットに前記観察対象自動車が位置したと判断される場合、前記ブラインドスポットに前記観察対象自動車が位置した情報を前記自動車のコントロールユニットに伝送することで前記コントロールユニットをもって前記観察対象自動車が位置する前記ブラインドスポット方向に前記基準自動車が車線を変更することを防止するように支援するプロセス;
をさらに遂行することを特徴とする請求項12に記載の自動車のブラインドスポットモニタ。 - 前記プロセッサは、
前記(iii)プロセスで、
前記j個のプロポーザルボックス各々に対応される前記検出バウンディングボックス各々の面積と各々の前記検出バウンディングボックスに対応される前記プロポーザルボックスの面積が互いに重なる第1重複領域を計算し、前記第1重複領域のうち第3臨界値以上であると判断される特定第1重複領域に該当されるプロポーザルボックスに前記観察対象自動車が位置すると判断することを特徴とする請求項12に記載の自動車のブラインドスポットモニタ。 - 前記プロセッサは、
前記(iii)プロセスで、
前記j個のプロポーザルボックス各々に対応される前記検出バウンディングボックスが互いに重なる第2重複領域を計算し、前記第2重複領域のうち第4臨界値以上であると確認される少なくとも一つの特定第2重複領域に該当する少なくとも一つの特殊検出バウンディングボックスが一つの同一の前記観察対象自動車に対応されると判断し、前記特殊検出バウンディングボックスのうち対応される前記プロポーザルボックスと面積が互いに重なる重複領域が最大の検出バウンディングボックスを前記観察対象自動車に対する検出バウンディングボックスと判断することを特徴とする請求項12に記載の自動車のブラインドスポットモニタ。 - 前記プロセッサは、
前記(iii)プロセスで、
前記j個のプロポーザルボックス各々に対応される前記検出バウンディングボックスが互いに重なる第2重複領域を各々計算し、前記第2重複領域のうち第5臨界値未満であると確認される特定第2重複領域に該当する特別検出バウンディングボックスが互いに異なる前記観察対象自動車に対応されると判断し、前記特別検出バウンディングボックスを互いに異なる前記観察対象自動車を含むと判断することを特徴とする請求項12に記載の自動車のブラインドスポットモニタ。 - 前記プロセッサは、
前記(i)プロセスで、
コンボリューションを遂行する場合、パッドを0に設定した状態で既設定されたストライドでフィルタを移動させ、前記テスト用後方映像イメージをコンボリューションするか、以前にコンボリューションされたテスト用特徴マップをコンボリューションすることを特徴とする請求項12に記載の自動車のブラインドスポットモニタ。 - 前記プロセッサは、
前記(i)プロセスで、
前記テスト用後方映像イメージで前記ブラインドスポットに対応されるイメージをコンボリューションして前記テスト用特徴マップを獲得することを特徴とする請求項12に記載の自動車のブラインドスポットモニタ。 - 前記プロセッサは、学習装置によって学習されたコンボリューションパラメータ、クラシフィケーションパラメータ、及びリグレッションパラメータを利用して前記コンボリューション、前記クラシフィケーション、及び前記ボックスリグレッションを遂行することを特徴とするが、
前記学習装置は、
(a)トレーニングイメージをコンボリューションしてトレーニング用特徴マップを獲得し、前記トレーニング用特徴マップをRPN(region proposal network)に入力して前記トレーニングイメージに位置するオブジェクトに対応されるプロポーザルボックスを獲得し、(b)前記プロポーザルボックスに対応される前記トレーニングイメージ領域に対してプーリング(pooling)を遂行して前記プロポーザルボックス各々に対応されるトレーニング用特徴ベクタを獲得し、前記プロポーザルボックス各々に対応する前記トレーニング用特徴ベクタを前記FC layerに各々入力して前記クラシフィケーションのための演算を通じて前記プロポーザルボックス各々に対応する前記クラス別のトレーニング用クラシフィケーションスコアを獲得し、前記ボックスリグレッションのための演算を通じて前記プロポーザルボックス各々に対応する前記クラス別のトレーニング用リグレッション情報を獲得し、(c)前記クラシフィケーションスコアと既設定されたクラシフィケーショングラウンドトゥルース(ground truth)を比較分析してクラシフィケーションに対するロス値であるクラシフィケーションロス値を獲得し、前記リグレッション情報と既設定されたボックスリグレッショングラウンドトゥルースを比較分析してリグレッションに対するロス値であるリグレッションロス値を獲得し、前記獲得されたクラシフィケーションロス値と前記リグレッションロス値を各々バックプロパゲーション(backpropagation)して前記コンボリューションパラメータ、前記クラシフィケーションパラメータ、及び前記ボックスリグレッションパラメータを学習することを特徴とする請求項12に記載の自動車のブラインドスポットモニタ。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/724,544 US9934440B1 (en) | 2017-10-04 | 2017-10-04 | Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same |
US15/724,544 | 2017-10-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019067405A JP2019067405A (ja) | 2019-04-25 |
JP6668435B2 true JP6668435B2 (ja) | 2020-03-18 |
Family
ID=61711642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018188344A Active JP6668435B2 (ja) | 2017-10-04 | 2018-10-03 | 自動車のブラインドスポットモニタリング方法及びこれを利用したブラインドスポットモニタ{method for monotoring blind spot of vehicle and blind spot monitor using the same} |
Country Status (5)
Country | Link |
---|---|
US (1) | US9934440B1 (ja) |
EP (1) | EP3466764B1 (ja) |
JP (1) | JP6668435B2 (ja) |
KR (1) | KR102098131B1 (ja) |
CN (1) | CN109606263B (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116968731A (zh) * | 2018-03-20 | 2023-10-31 | 御眼视觉技术有限公司 | 用于导航主车辆和制动主车辆的系统 |
CN108764292B (zh) * | 2018-04-27 | 2022-03-18 | 北京大学 | 基于弱监督信息的深度学习图像目标映射及定位方法 |
US11099579B2 (en) * | 2018-05-31 | 2021-08-24 | Nissan North America, Inc. | System for determining the number of remote vehicles following a host vehicle |
CN109166094B (zh) * | 2018-07-11 | 2022-03-25 | 华南理工大学 | 一种基于深度学习的绝缘子故障定位识别方法 |
EP3842304A3 (en) | 2018-08-14 | 2021-09-15 | Mobileye Vision Technologies Ltd. | Systems and methods for navigating with safe distances |
CN112534473A (zh) * | 2018-08-22 | 2021-03-19 | 日立汽车系统株式会社 | 图像处理装置以及图像处理方法 |
US10311338B1 (en) * | 2018-09-15 | 2019-06-04 | StradVision, Inc. | Learning method, learning device for detecting lanes on the basis of CNN and testing method, testing device using the same |
US10474930B1 (en) * | 2018-10-05 | 2019-11-12 | StradVision, Inc. | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same |
US10984262B2 (en) * | 2018-10-08 | 2021-04-20 | StradVision, Inc. | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same |
JP6928917B2 (ja) * | 2018-11-06 | 2021-09-01 | パナソニックIpマネジメント株式会社 | 移動体管理システム、移動体、管理装置、制御方法、及びプログラム |
US11010907B1 (en) | 2018-11-27 | 2021-05-18 | Zoox, Inc. | Bounding box selection |
US10936902B1 (en) * | 2018-11-27 | 2021-03-02 | Zoox, Inc. | Training bounding box selection |
US10509987B1 (en) * | 2019-01-22 | 2019-12-17 | StradVision, Inc. | Learning method and learning device for object detector based on reconfigurable network for optimizing customers' requirements such as key performance index using target object estimating network and target object merging network, and testing method and testing device using the same |
US10325179B1 (en) * | 2019-01-23 | 2019-06-18 | StradVision, Inc. | Learning method and learning device for pooling ROI by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same |
US11087175B2 (en) * | 2019-01-30 | 2021-08-10 | StradVision, Inc. | Learning method and learning device of recurrent neural network for autonomous driving safety check for changing driving mode between autonomous driving mode and manual driving mode, and testing method and testing device using them |
US10796206B2 (en) * | 2019-01-31 | 2020-10-06 | StradVision, Inc. | Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same |
US10698222B1 (en) * | 2019-01-31 | 2020-06-30 | StradVision, Inc. | Method for monitoring blind spot of cycle using smart helmet for cycle rider and blind spot monitoring device using them |
JP7085504B2 (ja) * | 2019-02-27 | 2022-06-16 | 本田技研工業株式会社 | 車両制御システム |
DE102019115092A1 (de) * | 2019-06-05 | 2020-12-10 | Bayerische Motoren Werke Aktiengesellschaft | Bestimmen einer Objekterkennungsrate eines künstlichen neuronalen Netzes zur Objekterkennung für ein automatisiertes Kraftfahrzeug |
CN111340092B (zh) * | 2020-02-21 | 2023-09-22 | 浙江大华技术股份有限公司 | 一种目标关联处理方法及装置 |
US11537819B1 (en) * | 2020-04-30 | 2022-12-27 | Zoox, Inc. | Learned state covariances |
US10970598B1 (en) * | 2020-05-13 | 2021-04-06 | StradVision, Inc. | Learning method and learning device for training an object detection network by using attention maps and testing method and testing device using the same |
CN112633258B (zh) * | 2021-03-05 | 2021-05-25 | 天津所托瑞安汽车科技有限公司 | 一种目标确定方法及装置、电子设备、计算机可读存储介质 |
US11113574B1 (en) * | 2021-03-26 | 2021-09-07 | StradVision, Inc. | Methods for performing self-supervised learning of deep-learning based detection network by using deep Q-network and devices using the same |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050146607A1 (en) * | 2004-01-06 | 2005-07-07 | Romeo Linn | Object Approaching Detection Anti Blind e-Mirrors System |
JP5347257B2 (ja) * | 2007-09-26 | 2013-11-20 | 日産自動車株式会社 | 車両用周辺監視装置および映像表示方法 |
TWI478832B (zh) * | 2010-03-31 | 2015-04-01 | Hon Hai Prec Ind Co Ltd | 行車視覺盲區偵測系統及方法 |
US9418556B2 (en) * | 2010-12-30 | 2016-08-16 | Wise Automotive Corporation | Apparatus and method for displaying a blind spot |
US9586525B2 (en) * | 2011-11-28 | 2017-03-07 | Robert Bosch Gmbh | Camera-assisted blind spot detection |
US9002060B2 (en) * | 2012-06-28 | 2015-04-07 | International Business Machines Corporation | Object retrieval in video data using complementary detectors |
US9242602B2 (en) * | 2012-08-27 | 2016-01-26 | Fotonation Limited | Rearview imaging systems for vehicle |
KR101611167B1 (ko) * | 2013-07-22 | 2016-04-11 | 진종욱 | 운전시야 지원장치 |
KR20150018037A (ko) * | 2013-08-08 | 2015-02-23 | 주식회사 케이티 | 관제 시스템 및 이를 이용한 관제 방법 |
KR102045088B1 (ko) * | 2013-08-13 | 2019-11-14 | 현대모비스 주식회사 | 영상 표시 방법 및 이를 위한 위한 장치 |
US20170124409A1 (en) * | 2015-11-04 | 2017-05-04 | Nec Laboratories America, Inc. | Cascaded neural network with scale dependent pooling for object detection |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
KR102592076B1 (ko) * | 2015-12-14 | 2023-10-19 | 삼성전자주식회사 | 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치 |
CN105564316A (zh) * | 2016-01-06 | 2016-05-11 | 北京京东尚科信息技术有限公司 | 车辆盲区监控系统及控制方法 |
KR20170086899A (ko) * | 2016-01-19 | 2017-07-27 | 연세대학교 산학협력단 | 다중 카메라를 이용한 이륜차 검출 방법 및 그 장치 |
CN107180220B (zh) * | 2016-03-11 | 2023-10-31 | 松下电器(美国)知识产权公司 | 危险预测方法 |
KR101949358B1 (ko) * | 2016-04-04 | 2019-02-18 | 엘지전자 주식회사 | 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량 |
US9947226B2 (en) * | 2016-04-12 | 2018-04-17 | Denso International America, Inc. | Methods and systems for blind spot monitoring with dynamic detection range |
-
2017
- 2017-10-04 US US15/724,544 patent/US9934440B1/en active Active
-
2018
- 2018-09-05 EP EP18192825.0A patent/EP3466764B1/en active Active
- 2018-10-02 KR KR1020180117319A patent/KR102098131B1/ko active IP Right Grant
- 2018-10-03 JP JP2018188344A patent/JP6668435B2/ja active Active
- 2018-10-08 CN CN201811167644.4A patent/CN109606263B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
KR20190039457A (ko) | 2019-04-12 |
EP3466764B1 (en) | 2021-09-22 |
US9934440B1 (en) | 2018-04-03 |
CN109606263A (zh) | 2019-04-12 |
JP2019067405A (ja) | 2019-04-25 |
KR102098131B1 (ko) | 2020-04-07 |
EP3466764A1 (en) | 2019-04-10 |
CN109606263B (zh) | 2022-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6668435B2 (ja) | 自動車のブラインドスポットモニタリング方法及びこれを利用したブラインドスポットモニタ{method for monotoring blind spot of vehicle and blind spot monitor using the same} | |
KR102098140B1 (ko) | 자동차의 블라인드 스팟 모니터링 방법 및 이를 이용한 블라인드 스팟 모니터 | |
US10300851B1 (en) | Method for warning vehicle of risk of lane change and alarm device using the same | |
US9626599B2 (en) | Reconfigurable clear path detection system | |
WO2015189847A1 (en) | Top-down refinement in lane marking navigation | |
US10474930B1 (en) | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same | |
KR20210148109A (ko) | 에고 부분 제외를 포함하는 충돌 검출 훈련 세트를 생성하기 위한 방법 | |
US10867192B1 (en) | Real-time robust surround view parking space detection and tracking | |
JP2022172444A (ja) | 原動機付き車両の走行動作を補助する方法及びアシスト装置並びに原動機付き車両 | |
JP7233572B2 (ja) | エクスプレイナブルセルフフォーカスされたアテンションを利用して行動予測を遂行する方法及び装置 | |
JP2023513385A (ja) | 画像分類器を評価するための方法及び装置 | |
JP6869561B2 (ja) | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 | |
JPH0778234A (ja) | 走行路検出装置 | |
Maaz et al. | Iot programming to develop self driving robotics car using opencv and other emerging technologies | |
CN115995142A (zh) | 基于可穿戴装置的驾驶训练提醒方法及可穿戴装置 | |
EP4052215A1 (en) | Method for detecting a moving state of a vehicle | |
US11417115B2 (en) | Obstacle recognition device | |
US20230351771A1 (en) | Method for ascertaining a dynamic foreign object-driving corridor association | |
Choi et al. | In and out vision-based driver-interactive assistance system | |
CN115485721A (zh) | 图像处理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190910 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6668435 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |