JP7485612B2 - 衝突前アラートを提供するためのマルチスペクトルシステム - Google Patents
衝突前アラートを提供するためのマルチスペクトルシステム Download PDFInfo
- Publication number
- JP7485612B2 JP7485612B2 JP2020557022A JP2020557022A JP7485612B2 JP 7485612 B2 JP7485612 B2 JP 7485612B2 JP 2020557022 A JP2020557022 A JP 2020557022A JP 2020557022 A JP2020557022 A JP 2020557022A JP 7485612 B2 JP7485612 B2 JP 7485612B2
- Authority
- JP
- Japan
- Prior art keywords
- module
- vehicle
- image
- sensors
- stereo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 claims description 39
- 238000001514 detection method Methods 0.000 claims description 27
- 238000000034 method Methods 0.000 claims description 16
- 230000001360 synchronised effect Effects 0.000 claims description 11
- 230000004438 eyesight Effects 0.000 claims description 10
- 238000005259 measurement Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 230000001413 cellular effect Effects 0.000 claims description 4
- 230000002159 abnormal effect Effects 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 claims description 2
- 238000012795 verification Methods 0.000 claims description 2
- 230000000052 comparative effect Effects 0.000 claims 3
- 238000007670 refining Methods 0.000 claims 1
- 230000002596 correlated effect Effects 0.000 description 4
- 230000007257 malfunction Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000035484 reaction time Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000007321 biological mechanism Effects 0.000 description 1
- 230000036992 cognitive tasks Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/008—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Vascular Medicine (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Transportation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
a. 2対の立体視用赤外線(IR)センサおよび可視光(VL)センサ(たとえば、CMOS可視光カメラなど)であって、これらのセンサのそれぞれは、相互視野からの獲得された画像ストリームを提供し、獲得された画像ストリームは、立体視を提供するために同期される、2対の立体視用赤外線(IR)および可視光(VL)センサと、
b. データ融合モジュールであって、
b.1) 視野内の物体を検出するために、データストリームを相互に処理し、
b.2) 検出される物体までの距離を計算する
ためのデータ融合モジュールと、
c. センサと車両の携帯電話/インフォテインメントシステムとの間の通信を可能にするためのセルラーベースの通信モジュールであって、このモジュールは、専用のアプリケーションを実行し、専用のアプリケーションは、
c.1) 同様のシステムを有する他の車両を検出するために、車両の付近を監視し、
c.2) 他の車両のそれぞれの速度および進行方位角を計算し、
c.3) 計算および車両の速度に基づいて、同様のシステムを有する他の車両が車両との衝突の経路の中にあるときにはいつでも、車両のドライバーにアラートを提供する
ように適合されているバックグラウンドアプリケーションである、セルラーベースの通信モジュールと
を備える、マルチスペクトル車両システムである。
a. IRおよびVLステレオ検出モジュールであって、IRおよびVLステレオ検出モジュールのそれぞれは、両方のセンサの光軸が平行である間に、視差計算およびエピポーラ幾何に基づいて、立体視の3D深度マップを再構築するための自動キャリブレーションモジュールから構成されている、IRおよびVLステレオ検出モジュールと、
b. 視差モジュールであって、視差モジュールは、2つの歪められていない(半径方向および接線方向)、修正された(適当なホモグラフィーによる変換後の)、および同期された画像を受け取り、稠密かつ精緻な視差マップを生成する、視差モジュールと、
c. 視差マップを受け取り、ピクセル毎の距離を提供するための距離測定モジュールと、
d. グランド推定器(GroundEstimator)モジュールであって、グランド推定器モジュールは、キャリブレートされ、同期された画像とともに、稠密かつ精緻な視差マップを受け取り、稠密なグランド平面セグメンテーションを提供する、グランド推定器モジュールと、
e. クラスタリングモジュールであって、クラスタリングモジュールは、稠密かつ精緻な視差マップ、V-視差マップ、およびグランド平面フィッティングを受け取り、画像ストリームから障害物を抽出する、クラスタリングモジュールと、
f. トラッキングモジュールであって、トラッキングモジュールは、稠密かつ精緻な視差マップ、障害物のリスト、ジャイロ座標、および車両速度を受け取り、すべてのトラッキングされる障害物を含有する構造体のアレイを提供する、トラッキングモジュールと、
g. 障害物検出モジュールであって、障害物検出モジュールは、障害物のリストおよび速度、ジャイロ座標、車速度、およびグランド平面フィッティングを受け取り、物体IDおよび特質、ならびに、衝突までの推定時間を提供し、障害物が重大な経路の中に見出されるときにはいつでも、および、相関される速度にしたがったブレーキ距離が障害物までの範囲よりも短い場合には、重大な障害物インディケーションを提供する、障害物検出モジュールと、
h. ステレオ融合モジュールであって、ステレオ融合モジュールは、方向指示器ステータス、IR画像BITステータス、VL画像BITステータス、前方の障害物に関する距離測定(IRセットによって計算される)、前方の障害物に関する距離測定(VLセットによって計算される)、障害物座標およびサイズ(IRおよびVLセットによって計算される)を受け取り、方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに、障害物までの距離のデータを、カメラモノモジュールのそれぞれに出力する、ステレオ融合モジュールと、
i. 聴覚的な/視覚的な/触覚的なインディケーションをユーザに提供するための決定モジュールと
を備える(以下、精緻を高密度ともいい、精緻を洗練ともいう)。
a. IRセンサからの距離、障害物分類、車線逸脱インディケーション、およびラインタイプを受け取ることによって、ならびに、カメラによって計算される距離を平均することによって、分類タスクの信頼性のレベル、および、車線逸脱インディケーションの信頼性のレベルを増加させるためのIRモノ比較モジュールと、
b. VLセンサからの距離、障害物分類、車線逸脱インディケーション、およびラインタイプを受け取ることによって、ならびに、カメラによって計算される距離を平均することによって、分類タスクの信頼性のレベルおよび車線逸脱インディケーションの信頼性のレベルを増加させるためのVLモノ比較モジュールと
をさらに備え得る。
a. 画像獲得(不合格/合格)
b. GLヒストグラム(画像ブライトネス/画像ダークネス)
c. 部分的な閉塞(フロントガラス上の染みを検出する)
d. カラーヒストグラム(異常なチャネルを検出する)
e. 同期を検証するためのタイムスタンプ検証
のテストを実施することができる。
- 速度、
- 車線逸脱を検出するための方向指示器状態
の入力うちの1つまたは複数を提供することが可能である。
提案されるシステムは、マルチスペクトルビジョン層を含み、マルチスペクトルビジョン層は、4つのカメラからデータストリームを受け取り、4つのカメラは、1対の立体視用(熱)赤外線(IR)カメラおよび1対の可視光(VL)カメラから構成されている。それぞれの対は、人工モジュールとして動作し、人工モジュールは、人間の奥行き知覚の生物学的なメカニズムを模倣および強化する。両方の対から受け取られたデータストリームは、データのシームレス融合を提供するように処理され、最大精度が取得されるようになっている。赤外線カメラおよび可視光カメラの両方の組み合わせは、システムがすべての天候条件および照明条件(たとえば、真っ暗闇、雨、ヘイズ、霧、およびグレアなど)の下で完全に動作的になることを可能にする。
また、提案されたシステムは、2対のセンサと携帯電話/インフォテインメントシステム(IoS/Android)との間のセルラーベースの通信を含む。システムは、専用のアプリケーションを実行し、専用のアプリケーションは、車の速度に関してそれぞれの車の付近を監視し、それぞれの車両の計算された速度および進行方位角にしたがって、他の車両が特定の衝突に向かう経路の中にあることが見出されるときにはいつでも、アラートを提供する。
IRステレオ検出モジュール7は、以下のサブモジュールを含む:
第1のサブモジュールは、自動キャリブレーションモジュール7aであり、自動キャリブレーションモジュール7aは、両方のカメラの光軸が平行である間に使用され得る視差計算およびエピポーラ幾何に基づいて、立体視の3D深度マップを再構築する。自動キャリブレーションは、車両の中のカメラモジュールの独立した設置を可能にする。
IRおよび可視範囲カメラは、異なるセンサを使用している(サイズ、ピッチ(ピクセルサイズ)、および、当然のことながら、スペクトル範囲の感度が異なる)。カメラの焦点距離は、両方のセンサに関して同じではなく、2つのチャネルのそれぞれが、基本的にそれ自身の視野(FOV)を有するようになっている。キャリブレーションプロセスは同じ向きを保証するが、FOVオーバーラップがさらなるシステム動作のために選択される。オーバーラップマッチングモジュールが、自動的な方式でこの特徴を実施する。
VLステレオ検出モジュール8は、IRステレオ検出モジュール8のものと同じサブモジュール8a~8gを含む。同じ処理が実施されるが、VL画像に対して実施される。
ステレオ融合モジュール9は、以下の入力:方向指示器ステータス9a、IR画像BITステータス9b、VL画像BITステータス9c、前方の障害物に関する距離測定(IRセットによって計算される)、前方の障害物に関する距離測定(VLセットによって計算される)、障害物座標およびサイズ(IRセットによって計算される)、障害物座標およびサイズ(VLセットによって計算される)を、データバス9dおよび9eを介して受け取る。処理の後に、融合モジュール9は、以下のデータ:方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに、障害物までの距離を、カメラモノモジュール11a、11b、10a、および10bのそれぞれに出力する。すべての4つのセンサ(カメラ)101a、101b、102a、102bが(画像BITユニット4aおよび4bにしたがって)利用可能である場合には、距離は、2つの立体セット間の平均として計算される。センサのうちの1つが故障している場合には、システムは、機能不良のカメラについてのインディケーションを提供することとなり、他のモノモジュールは、ワーキングセットにしたがって、距離を受け取る。
単一のカメラ機能不良に関して、以下の組み合わせが可能である:
1IRカメラ(モノ)+2VLカメラ(ステレオ)
2IRカメラ(モノ)+1VLカメラ(ステレオ)
2つのカメラ機能不良に関して、以下の組み合わせが可能である:
IRカメラ(動作していない)+2VLカメラ(ステレオ)
2IRカメラ(モノ)+0VLカメラ(動作していない)
1IRカメラ(モノ)+1VLカメラ(モノ)
3つのカメラ機能不良に関して、単一のカメラだけが動作しており、以下の組み合わせが可能である:
1つのIRカメラ(モノ)+VLカメラなし(動作していない)
IRカメラなし(動作していない)+1つのVLカメラ(モノ)
このケースでは、それぞれのカメラは、以下の動作を実施する「モノビジョン」カメラとして作用する:
a) 物体分類-ディープラーニング方法論による。モジュールは、センサによって獲得される完全な画像および障害物の境界ボックス(ステレオ層から入手可能であるケースにおいて)を受け取ることによって、たとえば、「車」/「歩行者」/「サイクリスト」を識別することが可能であり、処理の後に、(障害物が車/歩行者/サイクリストである場合には)物体分類を実施し、単一のカメラからのデータにしたがった物体距離推定に基づいて、障害物までの距離を計算する;
b) 車線逸脱警告(LDW)-センサによって獲得される完全な画像および方向指示器ステータスを受け取り、車線識別、ラインのタイプの識別、車線の中心からの偏差のパーセンテージを実施し、偏差のパーセンテージが定義された閾値よりも高いケースでは、アラートのためのインディケーションを提供する。これは、ハフ変換(画像処理検出直線の中で使用される数学的なツール)および適応的GL閾値(現実のラインとノイズとの間を区別するために、GL(グレーレベル)の上に閾値を設定することによる)に基づいて、車線検出のための従来の方法を使用することによって行われる;
c) 交通標識認識(TSR-可視光カメラの中でのみ利用可能である)-センサによって獲得される完全な画像を受け取り、交通標識識別を実施し、それに続いて、以下の場合のうちの1つにおいてアラートインディケーションを提供する:
・ 車速度が特定の許容速度よりも高くなっている
・ 車速度は、識別された「停止」標識の前でドライバーが停止することを可能にしないであろう
・ 「進入禁止」標識識別
物体認識は、ディープラーニング方法論を使用して行われ得る。
IRモノ比較モジュール12は、分類タスク(車/歩行者/サイクリスト/その他)の信頼性のレベル、および、車線逸脱インディケーションの信頼性のレベルを増加させる。また、このモジュールは、カメラによって計算される距離を平均する。IRモノ比較モジュール12は、IRセンサからの距離、障害物分類、車線逸脱インディケーション、およびラインタイプを受け取る。障害物分類の間に、両方のセンサが同じ分類について示す場合には、この分類が「モノ+ステレオ融合」モジュール14へ送られる。両方のセンサが車線逸脱について示す場合には、車線逸脱インディケーションが「モノ+ステレオ融合」モジュール14へ送られ、そうでなければ、警告インディケーションが「モノ+ステレオ融合」モジュール14へ送られる。両方のセンサが同じラインタイプについて示す場合には、このラインタイプが「モノ+ステレオ融合」モジュール14へ送られ、そうでなければ、「実線」インディケーションが「モノ+ステレオ融合」モジュール14へ送られる。
VLモノ比較モジュール13の機能性は、IRモノ比較モジュール12の機能性と同様であり、交通標識認識を使用した許容速度の追加を伴い、それは、標識の上の最大速度を検出する。両方のセンサが同じ交通標識を示す場合には、許容速度(検出される標識)が「モノ+ステレオ融合」モジュール14へ送られ、そうでなければ、それらの両方によって検出された最低速度が「モノ+ステレオ融合」モジュール14へ送られる。
モノ+ステレオ融合モジュール14は、ステレオ融合モジュール9ならびにモノ比較モジュール12および13からの結果を集計する論理ユニットである。モノ+ステレオ融合モジュール14は、ステレオ融合モジュール9から、方向指示器ステータス、障害物座標、ステレオセットにしたがったサイズおよび境界ボックス、障害物までの距離、(画像BITユニット4aおよび4bにしたがった)カメラ/画像ステータスを受け取る。モノ+ステレオ融合モジュール14は、モノ比較ユニット12および13から、距離、障害物分類、および車線逸脱入力を受け取り、受け取られたデータを処理した後に、すべてのインディケーションからの平均距離、車線逸脱決定、および障害物検出決定を出力する。
決定モジュール15は、ユーザへの出力であり、聴覚的な/視覚的な/触覚的なインディケーションであることが可能である。
4a、4b 画像ビルトインテスト(BIT)ユニット
5 ジャイロユニット
6 OBD
7 ステレオ検出IRモジュール
7a 自動キャリブレーションモジュール
7b 視差モジュール
7c 距離測定モジュール
7d グランド推定器モジュール
7e クラスタリングモジュール
7f トラッキングモジュール
7g 障害物検出モジュール
8 ステレオ検出VLモジュール
8a 自動キャリブレーションモジュール
8b 視差モジュール
8c 距離測定モジュール
8d グランド推定器モジュール
8e クラスタリングモジュール
8f トラッキングモジュール
8g 障害物検出モジュール
9 ステレオ融合モジュール
9a 方向指示器ステータス
9b IR画像BITステータス
9c VL画像BITステータス
9d、9e データバス
10a 左VLモジュール
10b 右VLモジュール
11a 左IRモノモジュール
11b 右IRモノモジュール
12 IRモノ比較モジュール
13 VLモノ比較モジュール
14 モノ+ステレオ融合モジュール
15 決定モジュール
100 システム
101a、101b IRセンサ
102a、102b VLセンサ
Claims (12)
- 衝突前アラートを提供するためのマルチスペクトル車両システムであって、
a. 立体視用赤外線(IR)センサの第1の対および可視光(VL)センサの第2の対であって、前記第1および第2の対のそれぞれのセンサは、相互視野から獲得された対応する画像ストリームを提供し、同期されて立体視を提供する、立体視用赤外線(IR)センサの第1の対および可視光(VL)センサの第2の対と、
b. ステレオデータ融合モジュールであって、
b.1) 前記相互視野内の物体を検出するために、2つの前記対のために前記同期された画像ストリームに関連するデータストリームを相互に処理し、
b.2) 前記相互に処理されたデータに基づいて、前記検出された物体までの推定距離を計算するためのデータ融合モジュールと、
c. 異なる位置から三次元シーンを見る前記第1の対及び前記第2の対によりキャプチャーされる重複エリア上のマッチングポイントのセットを計算し、前記計算されたマッチングポイントを用いて、第1の前記2つのセンサの投影画像空間を第2の前記2つのセンサの投影画像空間に変換するホモグラフィーを計算するように構成された自動キャリブレーションモジュールと、
d. 前記センサの2つの対と、前記システムが取り付けられた車両に設けられた携帯電話またはインフォテインメントシステムとの間の通信を可能にするためのセルラーベースの通信モジュールであって、前記携帯電話またはインフォテインメントシステムのプロセッサは専用のアプリケーションを実行し、前記専用のアプリケーションはバックグラウンドアプリケーションであり、前記通信モジュールは、
d.1) ステレオデータ融合システムおよび前記自動キャリブレーションモジュールと共に他の車両を検出するために、前記車両の付近を監視し、
d.2) 前記車両に対する前記他の車両のそれぞれの速度および進行方位角を計算し、
d.3) 前記車両の速度、および前記他の車両のそれぞれの前記計算された速度および進行方位角に基づいて、1以上の前記他の車両が前記車両との衝突の経路の中にあるときにはいつでも、前記車両のドライバーにアラートを提供するように構成されている、
マルチスペクトル車両システム。 - 前記自動キャリブレーションモジュールは、異なる位置から三次元シーンを見る両方のセンサの光軸が平行である間に、前記計算されたマッチングポイントに関連する視差計算およびエピポーラ幾何に基づいて、前記立体視の3D深度マップを再構築するように構成される、請求項1に記載のマルチスペクトル車両システム。
- 前記センサの各対に対して、前記センサの前記対から画像を受け取るように構成される、対応するビルトインテスト(BIT)ユニットであって、前記対応するビルトインテスト(BIT)ユニットは、前記受け取った画像の品質が既定の閾値未満であるかを決定し、前記既定の閾値未満の画像品質を有する前記センサのインジケータを前記ステレオデータ融合モジュールに転送する、対応するビルトインテスト(BIT)ユニットをさらに備える、請求項1に記載のマルチスペクトル車両システム。
- 前記センサのそれぞれに対して、モノ比較モジュールをさらに備えるマルチスペクトル車両システムであって、前記モノ比較モジュールは、
i. 前記ステレオデータ融合モジュールから出力された処理データと、対応する獲得した画像ストリームに関連するデータとを比較して、第1の比較データインジケータを生成するステップと、
ii. 同じ対のセンサの他のセンサに関連づけられた前記モノ比較モジュールにより生成された第1の比較データインジケータと、前記ステップiにおいて生成された第1の比較データインジケータとを比較して、第2の比較データインジケータを生成するステップと、を実行可能である、
請求項3に記載のマルチスペクトル車両システム。 - 前記ステレオデータ融合モジュールから出力された処理データを、モノ比較モジュールの各々により生成された前記第2の比較データインジケータと集計するように構成された追加データ融合モジュールをさらに備える請求項4に記載のマルチスペクトル車両システム。
- 前記検出された物体までの平均距離の出力を表す出力を前記追加データ融合モジュールから受け取り、1以上の前記他の車両が前記車両との衝突の経路の中にあるときにはいつでも、前記通信モジュールを介して応答してアラートを出力するように構成された決定モジュールをさらに備える請求項5に記載のマルチスペクトル車両システム。
- 歪められていない、適当なホモグラフィーによる変換の後に修正された、および同期された2つの画像を前記自動キャリブレーションモジュールから受け取り、視差マップを生成するように構成された視差モジュールをさらに備える請求項2に記載のマルチスペクトル車両システム。
- a. 前記視差マップを受け取り、ピクセル毎の距離を提供するための距離測定モジュールと、
b. グランド推定器モジュールであって、前記グランド推定器モジュールは、キャリブレートされ、同期された画像とともに、前記視差マップを受け取り、グランド平面セグメンテーションを提供する、グランド推定器モジュールと、
c. クラスタリングモジュールであって、前記クラスタリングモジュールは、前記視差マップおよびグランド平面フィッティングを受け取り、前記画像ストリームから障害物を抽出する、クラスタリングモジュールと、
d. トラッキングモジュールであって、前記トラッキングモジュールは、前記視差マップ、障害物のリスト、ジャイロから出力された値であるジャイロ座標、および車両速度を受け取り、すべてのトラッキングされる障害物のための構造体のアレイを提供する、トラッキングモジュールと、
をさらに備える、請求項7に記載のマルチスペクトル車両システム。 - 前記ステレオデータ融合モジュールは、方向指示器ステータス、IR画像BITステータス、VL画像BITステータス、前方の障害物に関する距離、ならびに障害物座標および大きさを受け取り、次の処理されたデータ、すなわち方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに前記障害物までの距離のデータを、前記モノ比較モジュールのそれぞれに出力する、請求項4に記載のマルチスペクトル車両システム。
- 前記BITユニットは、少なくとも以下のテスト:
a. 前記受け取った画像の質
b. GLヒストグラムを用いる前記受け取った画像のブライトネス
c. 前記車両のフロントガラス上の染みによる部分的な閉塞を識別
d. カラーヒストグラムを用いる異常なチャネルの検出
e. 同期を検証するためのタイムスタンプ検証
を実行可能である、請求項3に記載のマルチスペクトル車両システム。 - キャリブレーションが、
a) 指定されたターゲットに対して初期キャリブレーションを実施するステップであって、前記指定されたターゲットは、車両の前に設置されており、2つの独立した左及び右カメラが前記車両の上に据え付けられている、ステップと、
b) それぞれの前記カメラの光軸および向きに関してそれぞれの前記カメラの向きを計算するステップと、
c) 加速ロバスト特徴(SURF)アルゴリズムを使用して前記マッチングポイントを見出すステップと、
d) マッチングポイントのセットからの異常値、および初期基礎行列を精緻にするステップと、
e) 反復基礎行列推定を最小化によって実施するステップと、
f) エピポーラ幾何を使用して、左ホモグラフィーおよび右ホモグラフィーの初期計算を実施するステップと、
g) 前記カメラの内因性のパラメーター、中心ポイント修正、Wオフセットを使用することによって、最良のホモグラフィーを反復して計算するステップと、
h) フレームの完全なセット上で有効な、前記ホモグラフィーに対する最良にフィットした内因性のパラメーターを推定するステップと、
i) 前記左カメラおよび右カメラによってキャプチャーされる重複エリア上の前記マッチングポイントのセットを計算するステップと、
j) 重複した前記マッチングポイントを使用して、両方の前記カメラの画像空間を変換する前記ホモグラフィーを計算するステップと、
k) 前記車両が移動していないたびに、キャリブレーションプロセスを定期的に繰り返すステップと、
によって実施され、
前記Wオフセットは、それぞれの前記カメラにおける、それぞれのカメラのセンサの中心とそれぞれのカメラの光軸との間の距離偏差である、
請求項1に記載のマルチスペクトル車両システム。 - 前記視差モジュールは、
a) Census相関関係を使用して初期コスト関数を計算するステップと、
b) キャリブレーション結果に基づいて、低減された度数でセミグローバルブロックマッチング(SGBM)アルゴリズムを実施するステップと、
c) 前記画像を垂直方向のストライプにスプリットし、ストライプ毎に前記SGBMアルゴリズムを計算するステップと、
d) すべてのストライプからのグローバルフィットを実施して、グローバル視差マップを生成するステップと、
e) 平均化適応的メジアンフィルターを適用しながら、前記左ステレオ画像の上でステレオセグメンテーションを計算し、テクスチャーマップフィッティングを追加するステップと、
によって、視差マップを生成する、請求項7に記載のマルチスペクトル車両システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862614523P | 2018-01-08 | 2018-01-08 | |
US62/614,523 | 2018-01-08 | ||
PCT/IL2019/050034 WO2019135246A1 (en) | 2018-01-08 | 2019-01-07 | A multi-spectral system for providing pre-collision alerts |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021510227A JP2021510227A (ja) | 2021-04-15 |
JPWO2019135246A5 JPWO2019135246A5 (ja) | 2023-05-22 |
JP7485612B2 true JP7485612B2 (ja) | 2024-05-16 |
Family
ID=67144036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020557022A Active JP7485612B2 (ja) | 2018-01-08 | 2019-01-07 | 衝突前アラートを提供するためのマルチスペクトルシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11100806B2 (ja) |
EP (1) | EP3738072A4 (ja) |
JP (1) | JP7485612B2 (ja) |
CN (1) | CN111727437A (ja) |
WO (1) | WO2019135246A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10764561B1 (en) | 2016-04-04 | 2020-09-01 | Compound Eye Inc | Passive stereo depth sensing |
US11508079B2 (en) * | 2019-06-28 | 2022-11-22 | Intel Corporation | Parallelism in disparity map generation |
US11627299B1 (en) * | 2019-08-20 | 2023-04-11 | Opic, Inc. | Method and apparatus for a stereoscopic smart phone |
US11030478B1 (en) | 2019-11-27 | 2021-06-08 | Compound Eye, Inc. | System and method for correspondence map determination |
US11069071B1 (en) | 2020-01-21 | 2021-07-20 | Compound Eye, Inc. | System and method for egomotion estimation |
US11270467B2 (en) * | 2020-01-21 | 2022-03-08 | Compound Eye, Inc. | System and method for camera calibration |
US11178382B1 (en) * | 2020-10-27 | 2021-11-16 | Shoppertrak Rct Corporation | Auto-calibration of stereoscopic imaging device |
CN113838111A (zh) * | 2021-08-09 | 2021-12-24 | 北京中科慧眼科技有限公司 | 一种道路纹理特征检测方法、装置与自动驾驶系统 |
CN114650405B (zh) * | 2022-03-21 | 2023-01-24 | 嘉兴智瞳科技有限公司 | 一种立体视频最佳融像视差成像方法及装置 |
TWI816387B (zh) * | 2022-05-05 | 2023-09-21 | 勝薪科技股份有限公司 | 語意距離地圖的建構方法及其相關移動裝置 |
WO2023235093A1 (en) * | 2022-05-31 | 2023-12-07 | Douglas Robert Edwin | A method and apparatus for a stereoscopic smart phone |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004243787A (ja) | 2003-02-10 | 2004-09-02 | Nissan Motor Co Ltd | 車線逸脱防止装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7446798B2 (en) * | 2003-02-05 | 2008-11-04 | Siemens Corporate Research, Inc. | Real-time obstacle detection with a calibrated camera and known ego-motion |
WO2005098782A1 (en) | 2004-04-08 | 2005-10-20 | Mobileye Technologies Limited | Collision warning system |
EP2209091B1 (en) | 2009-01-16 | 2012-08-08 | Honda Research Institute Europe GmbH | System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system |
WO2010129907A2 (en) * | 2009-05-08 | 2010-11-11 | Scientific Systems Company Inc. | Method and system for visual collision detection and estimation |
CN102685516A (zh) * | 2011-03-07 | 2012-09-19 | 李慧盈 | 立体视觉主动安全辅助驾驶方法 |
US9191643B2 (en) * | 2013-04-15 | 2015-11-17 | Microsoft Technology Licensing, Llc | Mixing infrared and color component data point clouds |
TWI530409B (zh) * | 2014-11-07 | 2016-04-21 | 財團法人工業技術研究院 | 自動追蹤防撞警示系統及其方法 |
US9933264B2 (en) * | 2015-04-06 | 2018-04-03 | Hrl Laboratories, Llc | System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation |
WO2017115371A1 (en) * | 2015-12-30 | 2017-07-06 | Foresight Automotive Ltd. | Apparatus and method for avoiding vehicular accidents |
US20170277187A1 (en) * | 2016-02-29 | 2017-09-28 | Optecks, Llc | Aerial Three-Dimensional Scanner |
US9946264B2 (en) * | 2016-03-22 | 2018-04-17 | Sharp Laboratories Of America, Inc. | Autonomous navigation using visual odometry |
WO2018115958A2 (en) * | 2016-12-22 | 2018-06-28 | Orange | Method for operating a device having a switchable power saving mode for reducing its power consumption |
CN107301371A (zh) * | 2017-05-11 | 2017-10-27 | 江苏保千里视像科技集团股份有限公司 | 一种基于图像信息融合的非结构化道路检测方法及系统 |
US10657818B2 (en) * | 2017-11-06 | 2020-05-19 | Nio Usa, Inc. | External alert system for vehicle door opening |
-
2019
- 2019-01-07 EP EP19735766.8A patent/EP3738072A4/en active Pending
- 2019-01-07 US US16/960,452 patent/US11100806B2/en active Active
- 2019-01-07 CN CN201980013375.2A patent/CN111727437A/zh active Pending
- 2019-01-07 JP JP2020557022A patent/JP7485612B2/ja active Active
- 2019-01-07 WO PCT/IL2019/050034 patent/WO2019135246A1/en active Search and Examination
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004243787A (ja) | 2003-02-10 | 2004-09-02 | Nissan Motor Co Ltd | 車線逸脱防止装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2019135246A1 (en) | 2019-07-11 |
CN111727437A (zh) | 2020-09-29 |
US11100806B2 (en) | 2021-08-24 |
EP3738072A1 (en) | 2020-11-18 |
US20200349846A1 (en) | 2020-11-05 |
JP2021510227A (ja) | 2021-04-15 |
EP3738072A4 (en) | 2021-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7485612B2 (ja) | 衝突前アラートを提供するためのマルチスペクトルシステム | |
US9443154B2 (en) | Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications | |
CN106054191B (zh) | 车轮检测和其在物体跟踪以及传感器配准中的应用 | |
CN106054174B (zh) | 使用雷达和摄像机用于横越交通应用的融合方法 | |
EP3161507B1 (en) | Method for tracking a target vehicle approaching a motor vehicle by means of a camera system of the motor vehicle, camera system and motor vehicle | |
EP3007099B1 (en) | Image recognition system for a vehicle and corresponding method | |
KR101891460B1 (ko) | 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치 | |
CN109313813B (zh) | 用于机动车辆的视觉系统和方法 | |
EP2928178B1 (en) | On-board control device | |
Haloi et al. | A robust lane detection and departure warning system | |
EP3557527B1 (en) | Object detection device | |
US11662221B2 (en) | Change point detection device and map information distribution system | |
JP2008123462A (ja) | 物体検知装置 | |
US10832428B2 (en) | Method and apparatus for estimating a range of a moving object | |
CN110942038A (zh) | 基于视觉的交通场景识别方法、装置、介质及电子设备 | |
Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
US9524645B2 (en) | Filtering device and environment recognition system | |
JPWO2019135246A5 (ja) | ||
WO2014050285A1 (ja) | ステレオカメラ装置 | |
Labayrade et al. | Obstacle detection based on fusion between stereovision and 2d laser scanner | |
US20230085024A1 (en) | Apparatus for obstacle detection based on relative image motion | |
CN116416584A (zh) | 用于其他交通参与方的参考值生成方法及设备 | |
CN116416591A (zh) | 用于行车边界的参考值生成方法及设备 | |
Shadeed | Development of a light-based driver assistance system | |
KR20180040313A (ko) | 단안 카메라를 이용한 차로 경계면 검출장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20200904 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230309 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20230512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240305 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7485612 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |