JP7446445B2 - Image processing device, image processing method, and in-vehicle electronic control device - Google Patents
Image processing device, image processing method, and in-vehicle electronic control device Download PDFInfo
- Publication number
- JP7446445B2 JP7446445B2 JP2022545316A JP2022545316A JP7446445B2 JP 7446445 B2 JP7446445 B2 JP 7446445B2 JP 2022545316 A JP2022545316 A JP 2022545316A JP 2022545316 A JP2022545316 A JP 2022545316A JP 7446445 B2 JP7446445 B2 JP 7446445B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- image processing
- camera
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 48
- 238000003672 processing method Methods 0.000 title claims 12
- 230000005856 abnormality Effects 0.000 claims description 73
- 238000001514 detection method Methods 0.000 claims description 72
- 238000000034 method Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 23
- 230000002159 abnormal effect Effects 0.000 description 21
- 239000003086 colorant Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 239000003973 paint Substances 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Description
本出願は、令和2年(2020年)8月25日に出願された日本出願である特願2020-141436の優先権を主張し、その内容を参照することにより、本出願に取り込む。 This application claims priority to Japanese Patent Application No. 2020-141436, which was filed on August 25, 2020, and its contents are incorporated into this application by reference.
本発明は、画像処理装置に関し、特に、車載カメラの異常を容易に検出する方法に関する。 The present invention relates to an image processing device, and particularly to a method for easily detecting an abnormality in a vehicle-mounted camera.
高度運転支援や自動運転などの車両の電子制御技術の進歩に伴い、車室外にもイメージセンサが装着されるようになり、イメージセンサの前面部材(例えば、レンズ)が汚れる機会が増加している。イメージセンサの前面レンズに異物が付着すると、当該領域の映像が取り込めず、車外の物体の認識精度が低下する可能性がある。 With the advancement of electronic control technology for vehicles such as advanced driving assistance and autonomous driving, image sensors are now being installed outside the vehicle interior, and the chances of the front part of the image sensor (e.g. lens) becoming dirty is increasing. . If foreign matter adheres to the front lens of the image sensor, images of the relevant area cannot be captured, which may reduce the accuracy of recognizing objects outside the vehicle.
例えば、特許文献1(特開2007-318355号公報)には、差分画像生成部は、画像蓄積部から、カメラによって異なる時刻において撮像された複数の画像データを取得し、これらの画像データ間の差分画像データを生成する。差分画像更新部は、前回の差分画像と今回の差分画像とを各画素について比較し、差分の大きい方の画素で今回の差分画像を更新する。差分画像の更新回数が所定回数に達した場合、最新の差分画像が汚れ判断部へ出力される。汚れ判断部は、この最新の差分画像に基づいて、カメラにおけるレンズ汚れの有無を判断する撮像装置が記載されている。 For example, in Patent Document 1 (Japanese Unexamined Patent Publication No. 2007-318355), a differential image generation unit acquires a plurality of image data captured by a camera at different times from an image storage unit, and calculates the difference between these image data. Generate differential image data. The difference image updating unit compares the previous difference image and the current difference image for each pixel, and updates the current difference image with the pixel with the larger difference. When the number of updates of the difference image reaches a predetermined number of times, the latest difference image is output to the dirt determining section. The dirt determination section describes an imaging device that determines the presence or absence of lens dirt in the camera based on this latest difference image.
また、特許文献2(特開2012-166705号公報)には、車載カメラの撮影映像に基づいて、所定の車両周辺領域上に形成された長尺状の所定の検出対象物を検出する検出手段と、これの検出結果に基づいて、レンズへの異物の付着の有無を判定する判定手段とを備え、判定手段8は、検出された検出対象物の長さもしくは形成間隔についての所定の一定性の有無を判定基準とした判定を行う車載カメラレンズ用異物付着判定装置が記載されている。 Furthermore, Patent Document 2 (Japanese Unexamined Patent Publication No. 2012-166705) discloses a detection means for detecting a predetermined elongated detection object formed on a predetermined vehicle surrounding area based on an image taken by an on-vehicle camera. and a determining means for determining the presence or absence of foreign matter adhering to the lens based on the detection result thereof, and the determining means 8 determines a predetermined constancy in the length or formation interval of the detected object to be detected. A foreign matter adhesion determination device for a vehicle-mounted camera lens is described, which performs a determination based on the presence or absence of foreign matter as a determination criterion.
また、特許文献3(特開2019-29940号公報)には、動体に設置された撮像装置が撮影する撮影画像に映る付着物を検出する付着物検出装置であって、前記撮影画像から付着物の輪郭の領域を輪郭領域として抽出する輪郭抽出部と、前記撮影画像から付着物の輪郭の内側の領域を内側領域として抽出する内側抽出部と、前記輪郭領域と付着物の輪郭とを比較して、形状及び輝度のいずれかが適合するものを付着物輪郭領域として検出し、前記内側領域と付着物の輪郭の内側とを比較して、形状及び輝度のいずれかが適合するものを付着物内側領域として検出し、前記付着物輪郭領域及び前記付着物内側領域のいずれかから付着物の輪郭及び輪郭の内側のいずれかから成るレンズ付着物の領域を付着物検出領域として検出する付着物検出領域判定部と、を備える付着物検出装置が記載されている。 Furthermore, Patent Document 3 (Japanese Unexamined Patent Application Publication No. 2019-29940) discloses a deposit detection device that detects deposits that appear in a photographed image taken by an imaging device installed on a moving object, which detects deposits from the photographed image. a contour extraction section that extracts a contour region of the object as a contour region; an inner extraction section that extracts a region inside the contour of the deposit from the photographed image as an inner region; and a comparison between the contour region and the contour of the deposit. Then, the area that matches either the shape or the brightness is detected as the adhered object outline area, and the inner area and the inside of the outline of the adhered object are compared, and the area that matches either the shape or the brightness is detected as the adhered object outline area. Deposit detection that detects a lens deposit as an inside region, and detects a region of lens deposits consisting of either the outline of the deposit or the inside of the contour from either the deposit contour region or the deposit inner region as a deposit detection region. A deposit detection device is described that includes a region determination section.
カメラは、イメージセンサのハードウェア故障を検知する機能を有する。また、カメラの前面に設けられるレンズの付着物による障害を検知する方法は多く提案されているが、処理負荷が高く、処理負荷の低減が求められている。 The camera has a function of detecting hardware failure of the image sensor. Furthermore, many methods have been proposed for detecting problems caused by deposits on lenses provided on the front surface of a camera, but these methods require a high processing load, and there is a need to reduce the processing load.
そこで、本発明では、低い処理負荷でカメラの異常を検出することを目的とする。 Therefore, it is an object of the present invention to detect camera abnormalities with a low processing load.
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、車載カメラが撮影した画像を処理する画像処理装置であって、前記車載カメラより画像を取得する画像取得部と、自車両の周囲に存在すると推定される構造物の種類に基づいて、当該構造物の色情報を特定する構造物色特定部と、前記構造物の種類に基づいて、前記画像の中で前記構造物が存在すると推定される領域を特定する画像領域特定部と、前記車載カメラの異常を検知するカメラ異常検知部とを備え、前記カメラ異常検知部は、前記自車両の周囲に前記構造物が存在する場合、前記構造物色特定部から得られた色情報と、前記画像の中に前記構造物が存在すると推定される領域の色成分とを比較して、前記車載カメラの異常を検知することを特徴とする。 A typical example of the invention disclosed in this application is as follows. That is, an image processing device that processes images taken by an on-vehicle camera includes an image acquisition unit that acquires images from the on-vehicle camera, and an image processing device that processes images taken by an on-vehicle camera based on the types of structures estimated to exist around the own vehicle. a structure color identification unit that identifies color information of the structure; an image area identification unit that identifies an area in the image where the structure is estimated to exist based on the type of the structure; and the vehicle-mounted camera. and a camera abnormality detection unit that detects an abnormality in the image, and the camera abnormality detection unit detects the color information obtained from the structure color identification unit and the color information obtained from the structure color identification unit when the structure exists around the host vehicle. The method is characterized in that an abnormality in the vehicle-mounted camera is detected by comparing color components of an area in which the structure is estimated to exist.
本発明の一態様によれば、低い処理負荷でカメラの異常を検出できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。 According to one aspect of the present invention, camera abnormality can be detected with a low processing load. Problems, configurations, and effects other than those described above will be made clear by the description of the following examples.
<実施例1>
図1は、本発明の実施例の画像処理装置の構成を示すブロック図である。
<Example 1>
FIG. 1 is a block diagram showing the configuration of an image processing apparatus according to an embodiment of the present invention.
画像処理装置1は、車載電子制御装置(ECU)や車載カメラ装置に実装され、メモリ10、演算装置(CPU)30、ネットワークインターフェース(CAN)40、インターフェース(I/F)50、及びネットワークインターフェース(Eth)60を有する。
The
演算装置30は、メモリ10に格納されたプログラムを実行する。演算装置30がプログラムを実行して行う処理の一部を、他の演算装置(例えば、FPGA(Field Programable Gate Array)やASIC(Application Specific Integrated Circuit)などのハードウェア)で実行してもよい。
メモリ10は、不揮発性の記憶素子であるROM及びRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子、及びSRAM(Static Random Access Memory)のような不揮発性の記憶素子(非一時的記憶媒体)であり、演算装置30が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。
The
具体的には、メモリ10は、画像取得部11、自車情報取得部12、地図情報取得部13、画像領域特定部14、構造物色特定部16、カメラ異常検知部18、異常領域通知済判定部19、及び異常通知部21などの各機能ブロックを実現するためのプログラムを格納する。また、メモリ10は、構造物位置テーブル15、構造物色成分テーブル17、及び異常領域既通知テーブル20などの、プログラム実行時に参照されるデータを格納する。
Specifically, the
ネットワークインターフェース(CAN)40は、車両に搭載された他の装置とのCAN(Control Area Network)を経由した通信を制御する。インターフェース(I/F)50は、シリアル又はパラレルの入出力インターフェースであり、車載カメラ51が接続される。ネットワークインターフェース(Eth)60は、車両に搭載された他の装置とのイーサネット(登録商標、以下同じ)を経由した通信を制御する。
A network interface (CAN) 40 controls communication with other devices mounted on the vehicle via a CAN (Control Area Network). The interface (I/F) 50 is a serial or parallel input/output interface, and an in-
画像取得部11は、インターフェース50を介して、車載カメラ51が撮影した画像を取得する。自車情報取得部12、ネットワークインターフェース(CAN)40を介して、車両の挙動(例えば、速度、加速度、舵角、乗員のブレーキやアクセルの操作量など)を含む自車情報41を取得する。地図情報取得部13は、ネットワークインターフェース(Eth)60を介して地図情報61を取得する。取得する地図情報は、自動運転用の詳細な地図情報でも、ナビゲーション用の地図情報でもよい。
The
画像領域特定部14は、構造物位置テーブル15を参照して、画像中で構造物が存在すると推定される構造物検出領域を特定する。構造物位置テーブル15は、地図情報から推定される構造物が画像中に存在する可能性がある領域の情報が記録されたテーブルであり、その詳細は図2を参照して説明する。
The image
構造物色特定部16は、構造物色成分テーブル17を参照して、判定すべき構造物の色を特定する。構造物色成分テーブル17は、構造物の種類毎の色彩の情報が記録されたテーブルであり、その詳細は図3、図4、図5を参照して説明する。
The structure
カメラ異常検知部18は、車載カメラ51が撮影した画像中に存在する構造物の色情報に基づいて、カメラ前面(例えばレンズ)の付着物を検知する。
The camera
異常領域通知済判定部19は、異常領域既通知テーブル20を参照して、カメラ異常検知部18が検知した異常が通知済みであるかを判定する。異常領域既通知テーブル20は、異常通知部21が通知した異常が記録されるテーブルである。異常通知部21は、異常領域通知済判定部19が未通知であると判定した異常を、乗員や他のECUに通知する。
The abnormal area
図2は、本発明の実施例の構造物位置テーブル15の構成例を示す図である。 FIG. 2 is a diagram showing an example of the structure of the structure position table 15 according to the embodiment of the present invention.
構造物位置テーブル15は、画像領域特定部14が構造物が存在すると推定される構造物検出領域(すなわち、構造物の色を判定する領域)を特定するために参照され、構造物の種類毎の画像における座標データを保持する。
The structure position table 15 is referred to by the image
例えば、図2に示す構造物位置テーブル15には、色彩を判定する構造物として、信号機、道路標識、横断歩道が画像中に存在すると推定される構造物検出領域の位置が記録されている。図2に示す構造物位置テーブル15に記録される構造物検出領域は三角形の頂点の三つの座標で定義される。構造物位置テーブル15に記録される構造物検出領域の形状は、三角形ではなく、四角形(台形、正方形、長方形)でもよい。車載カメラ51が撮影する画像は遠方で小さく写るので、構造物検出領域を三角形や台形で定義すると構造物が存在する領域を的確に表して、構造物検出領域を小さくできる。
For example, the structure position table 15 shown in FIG. 2 records the positions of structure detection areas in which traffic lights, road signs, and crosswalks are estimated to exist in an image as structures whose colors are to be determined. The structure detection area recorded in the structure position table 15 shown in FIG. 2 is defined by the three coordinates of the vertices of the triangle. The shape of the structure detection area recorded in the structure position table 15 may be a quadrilateral (trapezoid, square, rectangle) instead of a triangle. Since the image taken by the vehicle-mounted
また、同種の構造物について複数の構造物検出領域が記録されてもよい。例えば、信号機は、道路の左側(左側通行における自車線の上)や右側(左側通行における対向車線の上)に設けられることから、信号機の設置パターンに応じて複数の構造物検出領域を定義するとよい。 Further, a plurality of structure detection areas may be recorded for the same type of structure. For example, since traffic lights are installed on the left side of the road (above the own lane when driving on the left) or on the right side (above the oncoming lane when driving on the left), multiple structure detection areas can be defined depending on the traffic light installation pattern. good.
交差点からの距離によって構造物が画像中で見える位置が変わるので、構造物位置テーブル15から取得する構造物検出領域を変えてもよい。また、一つの構造物検出領域のデータを変数として交差点からの距離によって構造物検出領域を演算して、交差点からの距離によって構造物検出領域を変えてもよい。このように位置や距離によって構造物検出領域を切り替えると、色検出のためにスキャンする範囲を小さくでき、処理負荷を低減できる。 Since the visible position of the structure in the image changes depending on the distance from the intersection, the structure detection area obtained from the structure position table 15 may be changed. Alternatively, the structure detection area may be calculated based on the distance from the intersection using the data of one structure detection area as a variable, and the structure detection area may be changed depending on the distance from the intersection. By switching the structure detection area according to the position or distance in this way, the range to be scanned for color detection can be reduced, and the processing load can be reduced.
本実施例では、同種の構造物では色が類似していること、設置場所のパターンが一定であることから信号機、道路標識、横断歩道の構造物検出領域が記録されているが、他の構造物(例えば、道路標示(路面ペイント)、踏切)の構造物検出領域を定義してもよい。 In this example, the structure detection areas of traffic lights, road signs, and crosswalks are recorded because structures of the same type have similar colors and the pattern of installation locations is constant. A structure detection area for objects (eg, road markings (road surface paint), railroad crossings) may be defined.
図3、図4、図5は、本発明の実施例の構造物色成分テーブル17の構成例を示す図であり、環境と構造物との組み合わせに応じて複数の色彩が定められている。図示する構造物色成分テーブル17では、環境として天候と昼夜によって分けられた複数のテーブルで構成され、図3が晴天の昼間、図4が晴天の夜間、図5が雨天の昼間の構造物の色彩を表す。環境と構造物との組み合わせに応じて色彩を定められれば、他の形式で色彩を定義してもよい。 3, 4, and 5 are diagrams showing configuration examples of the structure color component table 17 according to the embodiment of the present invention, in which a plurality of colors are determined depending on the combination of the environment and the structure. The structure color component table 17 shown in the figure is composed of a plurality of tables divided by weather and day/night as environments, and FIG. 3 shows the color of structures during the daytime on a clear day, FIG. 4 shows the color of structures during the daytime on a clear day, and FIG. represents. Colors may be defined in other formats as long as colors can be determined according to the combination of environment and structures.
構造物の色彩は、RGB色空間で赤色、緑色、青色の色度によって表しているが、他の色空間(例えばCMYK)を用いてもよい。 The color of the structure is expressed by the chromaticity of red, green, and blue in the RGB color space, but other color spaces (for example, CMYK) may be used.
各環境において、構造物に含まれる代表的な色彩が定義される。例えば、一時停止の標識の多くは交差点に設置され、その色は赤地に白文字である。このため、地色の赤色を定義しておく。また、指定方向外進行禁止の標識の地色の青色を定義したり、交差点の形状を示す標識の地色の黄色を定義してもよい。 In each environment, representative colors included in structures are defined. For example, most stop signs are placed at intersections and are red with white letters. For this reason, the background color red is defined. Furthermore, the background color of a sign prohibiting traveling in a designated direction may be defined as blue, or the background color of a sign indicating the shape of an intersection may be defined as yellow.
信号機では、青色点灯時の色、赤色点灯時の色の一方又は両方を定義するとよい。なお、点灯時間が短いが黄色点灯を定義してもよい。また、消灯中の信号の色(青、黄、赤)を定義してもよい。 For traffic lights, it is preferable to define one or both of the colors when the light is blue and the color when the light is red. Note that yellow lighting may be defined, although the lighting time is short. Furthermore, the color of the signal when the light is off (blue, yellow, red) may be defined.
横断歩道では、ペイントの白色を定義するとよい。RGB空間では、RGBの各色の色度が等しければ、明度によって白から灰色、黒のいずれかとなる。 At crosswalks, it is a good idea to define the white color of the paint. In the RGB space, if the chromaticity of each RGB color is equal, the color ranges from white to gray or black depending on the lightness.
図6、図7、図8は、カメラ異常検知処理のフローチャートである。 6, 7, and 8 are flowcharts of camera abnormality detection processing.
まず、演算装置30は、カメラ異常検知手法選択処理を実行する。具体的には、画像処理装置1が地図情報が取得可能であるかを判定する(S601)。例えば、車両に自動運転機能が搭載されていれば詳細地図情報を取得できる。また、車両にナビゲーションシステムが搭載されていればナビゲーション用地図情報を取得できる。また、地図ECUからCAN経由で地図情報が提供されていれば、画像処理装置1はCAN経由で地図情報を取得できる。
First, the
地図情報が取得できれば、地図情報からのカメラ異常検知処理(図7)へ進む。一方、地図情報が取得できなければ、自車情報からのカメラ異常検知処理(図8)へ進む。 If the map information can be acquired, the process proceeds to camera abnormality detection processing based on the map information (FIG. 7). On the other hand, if map information cannot be acquired, the process proceeds to camera abnormality detection processing (FIG. 8) based on own vehicle information.
地図情報からのカメラ異常検知処理では、まず、画像取得部11は、車載カメラ51が撮影した画像データを取得する(S701)。画像取得部11は、毎フレーム(例えば30fps)に画像を取得してもよいが、数フレームに一つの(例えば0.5秒ごとに)画像を取得してもよい。単位時間あたりに取得する画像数を走行速度によって変えてもよい。例えば、走行速度が遅い場合に画像を取得する時間間隔を長くし、走行速度が速い場合に画像を取得する時間間隔を短くする。速度によって画像取得間隔を変えることによって、速度によらず構造物を複数の静止画像で捕らえられ、構造物の色を確実に判定できる。
In the camera abnormality detection process from map information, first, the
そして、画像取得部11は、画像補正処理を実行する(S702)。具体的には、画像の形状を整形する。車載カメラ51が取得した画像は歪んでいる場合があり、線形変換や射影変換によって画像を成形する。また、色彩の検知を容易にするため露出調整によって画像の明るさを調整する。
Then, the
その後、地図情報取得部13は地図情報を取得する。地図情報取得部13が取得する地図情報は、少なくとも交差点の位置を含む。そして、地図情報取得部13は、取得した地図情報に含まれている信号機、道路標識、横断歩道、道路標示(ペイント)の情報を抽出する(S703)。詳細地図情報を取得した場合、信号機、道路標識、横断歩道、道路標示(ペイント)などの構造物の位置が分かる。一方、ナビゲーション用地図情報には構造物の位置が含まれていないので、信号機、道路標識、横断歩道、道路標示などの交差点近傍における構造物が存在する領域が分かる。
After that, the map
その後、地図情報取得部13は、取得した地図情報から自車近傍に標識などの有無を判定する(S704)。詳細地図情報を取得した場合、詳細地図情報から構造物の情報が抽出できたかによって、構造物の有無を判定できる。一方、ナビゲーション用地図情報を取得した場合、交差点までの距離が所定の閾値より近ければ、交差点へ接近しており、一般的に交差点の近くの信号機、道路標識、横断歩道、道路標示などの構造物が自車近傍に有ると判定できる。
After that, the map
本実施例では、画像取得部11による処理、地図情報取得部13による処理の順で処理を実行するが、どちらを先に実行しても並行して実行してもよい。
In this embodiment, the processing by the
そして、ステップS704で自車近傍に構造物が無いと判定された場合(S705でNo)、ステップS701に戻り、次の画像データを取得する。 If it is determined in step S704 that there is no structure near the host vehicle (No in S705), the process returns to step S701 and the next image data is acquired.
一方、ステップS704で自車近傍に構造物が有ると判定された場合(S705でYes)、構造物色特定部16は、構造物色成分テーブル17の現在の環境に対応するデータを参照して、自車近傍にあると判定された構造物の色を特定する(S706)。なお、信号機においては、点灯色が分からないので、構造物色成分テーブル17から全ての点灯時の色を(登録されていれば消灯時の色も)特定する。また、設置されている標識の種類が特定できず、認識すべき標識の色が特定できない場合、可能性がある全ての色を構造物色成分テーブル17から特定するとよい。
On the other hand, if it is determined in step S704 that there is a structure near the own vehicle (Yes in S705), the structure
その後、画像領域特定部14は、構造物位置テーブル15を参照して、自車近傍にあると判定された構造物が画像中で存在すると推定される構造物検出領域を特定する(S707)。
Thereafter, the image
本実施例では、構造物色特定部16による構造物色特定処理、画像領域特定部14による画像領域特定処理の順で処理を実行するが、どちらを先に実行しても並行して実行してもよい。
In this embodiment, the structure color identification process by the structure
その後、カメラ異常検知部18は、自車近傍に有ると判定された構造物の色成分の画素が構造物検出領域内に存在するかを判定する(S708)。具体的には、特定された構造物検出領域内の画素をスキャンし、ステップS706で特定された構造物の色の条件を満たす画素が所定の数だけ連続して存在するかを判定する。
After that, the camera
複数の構造物の色成分が存在するかを判定する場合、色認識が容易な順に判定するとよい。例えば、発光している信号機は色の認識が容易であるため、先に色を認識するとよい。その次に、路上の白色ペイント(例えば、横断歩道)、標識の順に認識するとよい。 When determining whether color components of a plurality of structures exist, it is preferable to determine the color components in order of ease of color recognition. For example, it is easy to recognize the color of a light-emitting traffic light, so it is better to recognize the color first. Next, it is best to recognize white paint on the road (for example, crosswalks), and then signs.
そして、構造物検出領域に当該構造物の色が検出されると、連続カウンタを0に初期化し、異常領域既通知テーブル20をクリアして(S709)、ステップS701に戻り、次の画像データを取得する。一方、構造物検出領域に当該構造物の色が検出されなければと、連続カウンタを1加算して(S710)、連続カウンタが所定の数以上であるかを判定する(S711)。その結果、連続カウンタが所定の閾値を超えていなければ、異常ありと判定せずに、ステップS701に戻り、次の画像データを取得する。 When the color of the structure is detected in the structure detection area, the continuous counter is initialized to 0, the abnormal area notification table 20 is cleared (S709), the process returns to step S701, and the next image data is get. On the other hand, if the color of the structure is not detected in the structure detection area, the continuous counter is incremented by 1 (S710), and it is determined whether the continuous counter is equal to or greater than a predetermined number (S711). As a result, if the continuous counter does not exceed the predetermined threshold value, the process returns to step S701 and acquires the next image data without determining that there is an abnormality.
一方、連続カウンタが所定の閾値を超えていれば、カメラ異常検知部18は、存在すべき構造物が画像に写っていないのでカメラ異常と判定する。そして、異常領域通知済判定部19は、異常領域既通知テーブル20を参照して、判定された異常が通知済かを判定する(S712)。
On the other hand, if the continuous counter exceeds the predetermined threshold, the camera
その結果、判定された異常が異常領域既通知テーブル20に登録されていれば、当該カメラの汚れ異常は通知済みなので(S713でYes)、さらに異常を通知することなく、ステップS701に戻り、次の画像データを取得する。 As a result, if the determined abnormality is registered in the abnormal area notification table 20, the dirt abnormality of the camera has already been notified (Yes in S713), and the process returns to step S701 without further notification of the abnormality. Obtain the image data of.
一方、判定された異常が異常領域既通知テーブル20に登録されていなければ、当該車載カメラ51の汚れ異常は通知されていないので(S713でNo)、新たにカメラ汚れ異常が検出されたと判定して、異常通知部21が当該カメラ汚れ異常を乗員や他のECUに通知する(S714)。乗員は、インスツルメントパネルに表示されたカメラ汚れ異常警告を見て、カメラ前面(例えばレンズ)の汚れを除去する。また、ECUは、カメラ汚れ異常通知を受信すると、当該車載カメラ51の映像の信頼性が低いと判定し、当該汚れが除去されるまで、当該車載カメラ51の映像を使用せずに車両制御処理を実行する。例えば、ECUは、当該車載カメラ51の映像を使用した自動運転(AD)の制御を停止して、乗員に自動運転の停止を通知するとよい。また、ECUは、カメラ汚れ異常の検出に伴って、汚れが検出された車載カメラ51を含む系を停止して、冗長度の低下によって自動運転の制御を停止して、高度運転支援(ADAS)に切り替えてもよい。
On the other hand, if the determined abnormality is not registered in the abnormal area notification table 20, the dirt abnormality of the vehicle-mounted
以上の説明では画像を一つの領域として構造物の色成分が存在するかを判定しているが、画像を複数(例えば、縦4×横4の16個)の領域に分けて、各領域において構造物の色成分が存在するかを判定してもよい。この場合、連続カウンタと異常領域既通知テーブル20を領域毎に設けて、ステップS708において、分割された領域毎に構造物の色成分の画素が構造物検出領域内に存在するかを判定し、ステップS709、S710において、領域毎に連続カウンタと異常領域既通知テーブル20を更新する。このように分割された画像の領域毎に構造物の色成分が存在するかの判定によって、車載カメラ51の前面に異物が付着しているだけでなく、異物が付着している領域を特定できる。
In the above explanation, it is determined whether the color component of the structure exists with the image as one area, but the image is divided into multiple areas (for example, 16 areas (4 vertically x 4 horizontally)) and each area is It may also be determined whether a color component of the structure exists. In this case, a continuous counter and an abnormal area notification table 20 are provided for each area, and in step S708, it is determined for each divided area whether pixels of the color component of the structure exist within the structure detection area, In steps S709 and S710, the continuous counter and abnormal area notification table 20 are updated for each area. By determining whether the color component of the structure is present in each region of the image divided in this way, it is possible to identify not only the presence of foreign matter on the front surface of the in-
次に、地図情報が取得できない場合に実行される自車情報からのカメラ異常検知処理について説明する。自車情報からのカメラ異常検知処理(図8)では、前述した地図情報からのカメラ異常検知処理(図7)と同じ処理ステップには同じ符号を付し、それらのステップの詳細な説明は省略する。 Next, camera abnormality detection processing based on own vehicle information that is executed when map information cannot be acquired will be described. In the camera abnormality detection process from own vehicle information (Fig. 8), the same processing steps as the above-mentioned camera abnormality detection process from map information (Fig. 7) are given the same reference numerals, and detailed explanations of these steps are omitted. do.
自車情報からのカメラ異常検知処理では、まず、画像取得部11は、車載カメラ51が撮影した画像データを取得し(S701)、画像補正処理を実行する(S702)。
In the camera abnormality detection process based on own vehicle information, the
その後、自車情報取得部12は、自車情報41を取得する(S803)。自車情報取得部12が取得する自車情報41は、車両の挙動の情報として、速度、加速度、舵角、乗員の操作量(ブレーキ操作量、アクセル操作量)などである。
After that, the own vehicle
そして、自車情報取得部12は、取得した自車情報41に基づいて、自車の前方を走行する前走車があるか、自車の近傍に信号があるかを推定する(S804)。具体的には、低速走行と停止を繰り返す場合には、渋滞しており、前走車がいると推定できる。また、定速走行から減速して停止した場合、信号がある交差点に近づいていると推定できる。
Then, based on the acquired
その後、構造物色特定部16は、構造物色成分テーブル17の現在の環境に対応するデータを参照して、自車近傍にあると判定された構造物の色を特定する(S706)。その後、画像領域特定部14は、構造物位置テーブル15を参照して、自車近傍にあると判定された構造物が画像中で存在すると推定される構造物検出領域を特定する(S707)。例えば、前走車があると推定された場合、前走車の領域を構造物検出領域として、当該構造物検出領域内のテールランプの赤色を検出する。また、交差点に近づいていると推定された場合、前述と同様に、信号機、道路標識、横断歩道の構造物検出領域内で各構造物の色彩を検出する。
Thereafter, the structure
その後、カメラ異常検知部18は、自車近傍に有ると判定された構造物の色成分の画素が構造物検出領域内に存在するかを判定する(S708)。構造物検出領域に当該構造物の色が検出されると、連続カウンタを0に初期化し、異常領域既通知テーブル20をクリアして(S709)、ステップS701に戻り、次の画像データを取得する。一方、構造物検出領域に当該構造物の色が検出されなければと、連続カウンタを1加算して(S710)、連続カウンタが所定の数以上であるかを判定する(S711)。その結果、連続カウンタが所定の閾値を超えていなければ、異常ありと判定せずに、ステップS701に戻り、次の画像データを取得する。
Thereafter, the camera
一方、連続カウンタが所定の閾値を超えていれば、所定の色成分が連続して検出できないので、異常領域通知済判定部19は、異常領域既通知テーブル20を参照して、判定された異常が通知済かを判定する(S712)。
On the other hand, if the continuous counter exceeds the predetermined threshold value, the predetermined color component cannot be detected continuously, so the abnormal area
その結果、検出された色成分が異常領域既通知テーブル20に登録されていれば、当該カメラの汚れ異常は通知済みなので(S713でYes)、さらに異常を通知することなく、ステップS701に戻り、次の画像データを取得する。 As a result, if the detected color component is registered in the abnormal area notification table 20, the dirt abnormality of the camera has been notified (Yes in S713), and the process returns to step S701 without further notification of the abnormality. Get the next image data.
一方、検出された色成分が異常領域既通知テーブル20に登録されていなければ、当該カメラの汚れ異常は通知されていないので(S713でNo)、異常領域通知済判定部19が新たにカメラ汚れ異常が検出されたと判定して、異常通知部21が、当該カメラ汚れ異常を乗員や他のECUに通知する(S714)。
On the other hand, if the detected color component is not registered in the abnormal area notification table 20, it means that the dirt abnormality of the camera has not been notified (No in S713), and the abnormal area
前述のように、画像を複数(例えば、縦4×横4の16個)の領域に分けて、各領域において構造物の色成分が存在するかを判定してもよい。 As described above, the image may be divided into a plurality of regions (for example, 16 regions of 4 in the vertical direction and 4 in the horizontal direction), and it may be determined whether the color component of the structure exists in each region.
以上に説明したように、本発明の実施例の画像処理装置1は、車載カメラ51より画像を取得する画像取得部11と、自車両の周囲に存在すると推定される構造物の種類に基づいて、当該構造物の色情報を特定する構造物色特定部16と、構造物の種類に基づいて、画像の中で構造物が存在すると推定される領域を特定する画像領域特定部14と、車載カメラ51の異常を検知するカメラ異常検知部18とを備え、カメラ異常検知部18は、自車両の周囲に構造物が存在する場合、構造物色特定部16から得られた色情報と、画像の中に構造物が存在すると推定される領域の色成分とを比較して、車載カメラ51の異常を検知するので、低い処理負荷で車載カメラ51の異常を検出できる。すなわち、構造物の色成分の有無を判定するので、判定に使用する情報量を少なくすることによって処理負荷を軽減し、検知を容易にできる。また、高度な処理性能が不要なシステムにも、性能低下を招くカメラ前面(レンズ)への付着物の検出を容易に実装可能である。また、信号機や標識などの色が共通している物を構造物として用いることによって、構造物の種類に基づいて当該構造物の色彩の条件の設定が容易となる。
As described above, the
また、画像領域特定部14は、自車両の周囲に存在すると推定される構造物の情報を地図情報から取得するので、詳細地図に含まれる信号機、道路標識、横断歩道の情報に基づいて、画像の中で構造物が存在すると推定される領域を正確に特定できる。また、ナビゲーション用地図に含まれる交差点の位置に基づいて、信号機、道路標識、横断歩道などの構造物が画像の中で存在すると推定される領域を正確に特定できる。このため、画像に写るべき構造物の色彩が存在するかを容易に判定できる。
In addition, since the image
また、自車情報取得部12は、自車両の周囲に存在すると推定される構造物の情報を自車両の状態から推定するので、構造物として前走車を利用して、低い処理負荷で車載カメラ51の異常を検出できる。また、地図情報が取得できない場合でも、交差点への接近が検出できる。
In addition, since the own vehicle
また、自車情報取得部12は、車両の状態を車速から推定するので、地図情報が取得できない場合でも、前走車の有無や交差点への接近を検出できる。
Further, since the own vehicle
また、構造物位置テーブル15が、構造物の種類に対応して、構造物が存在すると推定される領域を保持するので、画像領域特定部14が、種類に応じた構造物が存在すると推定される領域を容易に取得できる。
Furthermore, since the structure position table 15 holds areas where structures are estimated to exist in accordance with the types of structures, the image
また、構造物色特定部16は、所定の回数連続して、構造物色特定部16から得られた色情報が、画像の中に構造物が存在すると推定される領域に検出できない場合に、車載カメラ51の異常を検知する。すなわち、所定の色彩が連続して検出できない領域のレンズに外界の撮影を阻害する汚れがあると判定するので、一時的な不検出を排除して、車載カメラ51の異常を確実に検知できる。
In addition, the structure
また、異常領域通知済判定部19は、カメラ異常検知部18が検知したカメラ異常が見通知である場合に、乗員及び/又は他のECUに通知するので、乗員にカメラ前面(レンズ)の汚れの除去を促すことができる。ECUは、当該カメラの映像を使用せずに車両制御処理を実行して、安全性を担保できる。
In addition, the abnormal area
また、複数の構造物が存在する場合は、各構造物とその構造物検出領域に関連付けられた連続カウンタを複数保有することによって、同時により多くの領域の異常検知を判定することができる。 Further, when a plurality of structures exist, by having a plurality of continuous counters associated with each structure and its structure detection area, abnormality detection can be determined in more areas at the same time.
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。 Note that the present invention is not limited to the embodiments described above, and includes various modifications and equivalent configurations within the scope of the appended claims. For example, the embodiments described above have been described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Further, a part of the configuration of one embodiment may be replaced with the configuration of another embodiment. Further, the configuration of one embodiment may be added to the configuration of another embodiment. Further, other configurations may be added, deleted, or replaced with a part of the configuration of each embodiment.
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be realized in part or in whole by hardware, for example by designing an integrated circuit, and a processor realizes each function. It may also be realized by software by interpreting and executing a program.
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。 Information such as programs, tables, files, etc. that realize each function can be stored in a storage device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。 Furthermore, the control lines and information lines shown are those considered necessary for explanation, and do not necessarily show all the control lines and information lines necessary for implementation. In reality, almost all configurations can be considered interconnected.
Claims (11)
前記車載カメラより画像を取得する画像取得部と、
自車両の周囲に存在すると推定される構造物の種類に基づいて、当該構造物の色情報を特定する構造物色特定部と、
前記構造物の種類に基づいて、前記画像の中で前記構造物が存在すると推定される領域を特定する画像領域特定部と、
前記車載カメラの異常を検知するカメラ異常検知部とを備え、
前記カメラ異常検知部は、前記自車両の周囲に前記構造物が存在する場合、前記構造物色特定部から得られた色情報と、前記画像の中に前記構造物が存在すると推定される領域の色成分とを比較して、前記車載カメラの異常を検知することを特徴とする画像処理装置。 An image processing device that processes images taken by an in-vehicle camera,
an image acquisition unit that acquires an image from the in-vehicle camera;
a structure color identification unit that identifies color information of the structure based on the type of structure estimated to exist around the host vehicle;
an image area identifying unit that identifies an area in the image where the structure is estimated to exist, based on the type of the structure;
and a camera abnormality detection unit that detects an abnormality in the vehicle-mounted camera,
When the structure exists around the own vehicle, the camera abnormality detection unit uses the color information obtained from the structure color identification unit and the area in the image where the structure is estimated to exist. An image processing device that detects an abnormality in the vehicle-mounted camera by comparing color components.
前記画像領域特定部は、自車両の周囲に存在すると推定される構造物の情報を地図情報から取得することを特徴とする画像処理装置。 The image processing device according to claim 1,
The image processing device is characterized in that the image area specifying unit acquires information on structures estimated to exist around the own vehicle from map information.
自車両の周囲に存在すると推定される構造物の情報を自車両の状態から推定する自車情報取得部を有することを特徴とする画像処理装置。 The image processing device according to claim 1,
An image processing device comprising a vehicle information acquisition unit that estimates information on structures estimated to exist around the vehicle based on the state of the vehicle.
前記自車情報取得部は、車両の状態を車速から推定することを特徴とする画像処理装置。 The image processing device according to claim 3,
The image processing device is characterized in that the own vehicle information acquisition unit estimates the state of the vehicle from the vehicle speed.
前記構造物の種類に対応して、構造物が存在すると推定される領域を示す構造物位置情報を保持し、
前記画像領域特定部は、前記構造物位置情報を参照して、前記画像の中で前記構造物が存在すると推定される領域を特定することを特徴とする画像処理装置。 The image processing device according to claim 1,
holding structure position information indicating an area where the structure is estimated to exist, corresponding to the type of structure;
The image processing device is characterized in that the image area specifying unit refers to the structure position information and specifies an area in the image where the structure is estimated to exist.
前記電子制御装置は、所定の演算処理を実行する演算装置と、前記演算処理に必要なデータを格納する記憶装置とを有し、
前記画像処理方法は、
前記演算装置が、前記車載カメラより画像を取得する画像取得手順と、
前記演算装置が、自車両の周囲に存在すると推定される構造物の種類に基づいて、当該構造物の色情報を特定する構造物色特定手順と、
前記演算装置が、前記構造物の種類に基づいて、前記画像の中で前記構造物が存在すると推定される領域を特定する画像領域特定手順と、
前記演算装置が、前記車載カメラの異常を検知するカメラ異常検知手順とを含み、
前記カメラ異常検知手順では、前記演算装置が、前記自車両の周囲に前記構造物が存在する場合、前記構造物色特定手順で得られた色情報と、前記画像の中に前記構造物が存在すると推定される領域の色成分とを比較して、前記車載カメラの異常を検知することを特徴とする画像処理方法。 An image processing method in which an electronic control device processes images taken by an on-vehicle camera,
The electronic control device includes a calculation device that executes predetermined calculation processing, and a storage device that stores data necessary for the calculation processing,
The image processing method includes:
an image acquisition procedure in which the arithmetic unit acquires an image from the in-vehicle camera;
a structure color identification procedure in which the calculation device identifies color information of the structure based on the type of structure estimated to exist around the own vehicle;
an image region specifying step in which the arithmetic device specifies a region in the image where the structure is estimated to exist based on the type of the structure;
The computing device includes a camera abnormality detection procedure for detecting an abnormality in the vehicle-mounted camera,
In the camera abnormality detection procedure, the calculation device uses the color information obtained in the structure color identification procedure when the structure is present around the own vehicle, and the color information obtained in the structure color identification procedure when the structure is present in the image. An image processing method characterized in that an abnormality in the vehicle-mounted camera is detected by comparing color components of an estimated region.
前記画像領域特定手順では、前記演算装置が、自車両の周囲に存在すると推定される構造物の情報を地図情報から取得することを特徴とする画像処理方法。 The image processing method according to claim 6,
The image processing method is characterized in that, in the image region specifying step, the arithmetic unit acquires information on structures estimated to exist around the host vehicle from map information.
前記演算装置が、自車両の周囲に存在すると推定される構造物の情報を自車両の状態から推定する自車情報取得手順を含むことを特徴とする画像処理方法。 The image processing method according to claim 6,
An image processing method characterized in that the arithmetic unit includes a vehicle information acquisition procedure for estimating information on structures estimated to exist around the vehicle from the state of the vehicle.
前記自車情報取得手順では、前記演算装置が、車両の状態を車速から推定することを特徴とする画像処理方法。 The image processing method according to claim 8,
The image processing method is characterized in that, in the self-vehicle information acquisition procedure, the arithmetic unit estimates the state of the vehicle from the vehicle speed.
前記記憶装置は、前記構造物の種類に対応して、構造物が存在すると推定される領域を示す構造物位置情報を保持し、
前記画像領域特定手順では、前記演算装置が、前記構造物位置情報を参照して、前記画像の中で前記構造物が存在すると推定される領域を特定することを特徴とする画像処理方法。 The image processing method according to claim 6,
The storage device stores structure position information indicating an area where a structure is estimated to exist, corresponding to the type of structure,
The image processing method is characterized in that, in the image region specifying step, the arithmetic device refers to the structure position information and specifies a region in the image where the structure is estimated to exist.
所定の演算処理を実行する演算装置と、
前記演算処理に必要なデータを格納する記憶装置とを備え、
前記演算装置が、車載カメラより画像を取得する画像取得部と、
前記演算装置が、自車両の周囲に存在すると推定される構造物の種類に基づいて、当該構造物の色情報を特定する構造物色特定部と、
前記演算装置が、前記構造物の種類に基づいて、前記画像の中で前記構造物が存在すると推定される領域を特定する画像領域特定部と、
前記演算装置が、前記車載カメラの異常を検知するカメラ異常検知部とを有し、
前記カメラ異常検知部は、前記自車両の周囲に前記構造物が存在する場合、前記構造物色特定部から得られた色情報と、前記画像の中に前記構造物が存在すると推定される領域の色成分とを比較して、前記車載カメラの異常を検知することを特徴とする車載電子制御装置。 An in-vehicle electronic control device,
an arithmetic device that performs predetermined arithmetic processing;
and a storage device for storing data necessary for the arithmetic processing,
an image acquisition unit in which the arithmetic unit acquires an image from an in-vehicle camera ;
a structure color identification unit in which the arithmetic unit identifies color information of the structure based on the type of structure estimated to exist around the host vehicle;
an image area specifying unit in which the arithmetic unit specifies an area in the image where the structure is estimated to exist based on the type of the structure;
The arithmetic device has a camera abnormality detection unit that detects an abnormality in the vehicle-mounted camera,
When the structure exists around the own vehicle, the camera abnormality detection unit uses the color information obtained from the structure color identification unit and the area in the image where the structure is estimated to exist. An on-vehicle electronic control device that detects an abnormality in the on-vehicle camera by comparing color components.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020141436 | 2020-08-25 | ||
JP2020141436 | 2020-08-25 | ||
PCT/JP2021/019374 WO2022044453A1 (en) | 2020-08-25 | 2021-05-21 | Image processing device, image processing method, and vehicle onboard electronic control device |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022044453A1 JPWO2022044453A1 (en) | 2022-03-03 |
JPWO2022044453A5 JPWO2022044453A5 (en) | 2023-02-01 |
JP7446445B2 true JP7446445B2 (en) | 2024-03-08 |
Family
ID=80353065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022545316A Active JP7446445B2 (en) | 2020-08-25 | 2021-05-21 | Image processing device, image processing method, and in-vehicle electronic control device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7446445B2 (en) |
WO (1) | WO2022044453A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001103496A (en) | 1999-09-30 | 2001-04-13 | Mitsubishi Electric Corp | Image processor |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5666538B2 (en) * | 2012-11-09 | 2015-02-12 | 富士重工業株式会社 | Outside environment recognition device |
-
2021
- 2021-05-21 WO PCT/JP2021/019374 patent/WO2022044453A1/en active Application Filing
- 2021-05-21 JP JP2022545316A patent/JP7446445B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001103496A (en) | 1999-09-30 | 2001-04-13 | Mitsubishi Electric Corp | Image processor |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022044453A1 (en) | 2022-03-03 |
WO2022044453A1 (en) | 2022-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111212772B (en) | Method and device for determining a driving strategy of a vehicle | |
CN110178167B (en) | Intersection violation video identification method based on cooperative relay of cameras | |
US9773177B2 (en) | Surrounding environment recognition device | |
US8670592B2 (en) | Clear path detection using segmentation-based method | |
US10552706B2 (en) | Attachable matter detection apparatus and attachable matter detection method | |
US9360332B2 (en) | Method for determining a course of a traffic lane for a vehicle | |
JP7040374B2 (en) | Object detection device, vehicle control system, object detection method and computer program for object detection | |
CN111382768A (en) | Multi-sensor data fusion method and device | |
CN113160594B (en) | Change point detection device and map information distribution system | |
JP2019530924A (en) | Object detection from camera images | |
JP2020086545A (en) | Object detection device, object detection method and computer program for object detection | |
KR101134857B1 (en) | Apparatus and method for detecting a navigation vehicle in day and night according to luminous state | |
KR101998584B1 (en) | Lane detection apparatus and lane detection method | |
US20200118280A1 (en) | Image Processing Device | |
KR100355993B1 (en) | An apparatus for warning lane deviation and a method for warning the same | |
JP7226368B2 (en) | Object state identification device | |
JP7446445B2 (en) | Image processing device, image processing method, and in-vehicle electronic control device | |
JP7229032B2 (en) | External object detection device | |
US11749002B2 (en) | Lane line recognition apparatus | |
JP2023546062A (en) | Image processing method | |
US11679769B2 (en) | Traffic signal recognition method and traffic signal recognition device | |
JP2018073049A (en) | Image recognition device, image recognition system, and image recognition method | |
EP3865815A1 (en) | Vehicle-mounted system | |
WO2023112127A1 (en) | Image recognition device and image recognition method | |
WO2019013253A1 (en) | Detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221102 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7446445 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |