JP7446445B2 - Image processing device, image processing method, and in-vehicle electronic control device - Google Patents

Image processing device, image processing method, and in-vehicle electronic control device Download PDF

Info

Publication number
JP7446445B2
JP7446445B2 JP2022545316A JP2022545316A JP7446445B2 JP 7446445 B2 JP7446445 B2 JP 7446445B2 JP 2022545316 A JP2022545316 A JP 2022545316A JP 2022545316 A JP2022545316 A JP 2022545316A JP 7446445 B2 JP7446445 B2 JP 7446445B2
Authority
JP
Japan
Prior art keywords
vehicle
image
image processing
camera
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022545316A
Other languages
Japanese (ja)
Other versions
JPWO2022044453A1 (en
JPWO2022044453A5 (en
Inventor
剛 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2022044453A1 publication Critical patent/JPWO2022044453A1/ja
Publication of JPWO2022044453A5 publication Critical patent/JPWO2022044453A5/ja
Application granted granted Critical
Publication of JP7446445B2 publication Critical patent/JP7446445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

参照による取り込みIngest by reference

本出願は、令和2年(2020年)8月25日に出願された日本出願である特願2020-141436の優先権を主張し、その内容を参照することにより、本出願に取り込む。 This application claims priority to Japanese Patent Application No. 2020-141436, which was filed on August 25, 2020, and its contents are incorporated into this application by reference.

本発明は、画像処理装置に関し、特に、車載カメラの異常を容易に検出する方法に関する。 The present invention relates to an image processing device, and particularly to a method for easily detecting an abnormality in a vehicle-mounted camera.

高度運転支援や自動運転などの車両の電子制御技術の進歩に伴い、車室外にもイメージセンサが装着されるようになり、イメージセンサの前面部材(例えば、レンズ)が汚れる機会が増加している。イメージセンサの前面レンズに異物が付着すると、当該領域の映像が取り込めず、車外の物体の認識精度が低下する可能性がある。 With the advancement of electronic control technology for vehicles such as advanced driving assistance and autonomous driving, image sensors are now being installed outside the vehicle interior, and the chances of the front part of the image sensor (e.g. lens) becoming dirty is increasing. . If foreign matter adheres to the front lens of the image sensor, images of the relevant area cannot be captured, which may reduce the accuracy of recognizing objects outside the vehicle.

例えば、特許文献1(特開2007-318355号公報)には、差分画像生成部は、画像蓄積部から、カメラによって異なる時刻において撮像された複数の画像データを取得し、これらの画像データ間の差分画像データを生成する。差分画像更新部は、前回の差分画像と今回の差分画像とを各画素について比較し、差分の大きい方の画素で今回の差分画像を更新する。差分画像の更新回数が所定回数に達した場合、最新の差分画像が汚れ判断部へ出力される。汚れ判断部は、この最新の差分画像に基づいて、カメラにおけるレンズ汚れの有無を判断する撮像装置が記載されている。 For example, in Patent Document 1 (Japanese Unexamined Patent Publication No. 2007-318355), a differential image generation unit acquires a plurality of image data captured by a camera at different times from an image storage unit, and calculates the difference between these image data. Generate differential image data. The difference image updating unit compares the previous difference image and the current difference image for each pixel, and updates the current difference image with the pixel with the larger difference. When the number of updates of the difference image reaches a predetermined number of times, the latest difference image is output to the dirt determining section. The dirt determination section describes an imaging device that determines the presence or absence of lens dirt in the camera based on this latest difference image.

また、特許文献2(特開2012-166705号公報)には、車載カメラの撮影映像に基づいて、所定の車両周辺領域上に形成された長尺状の所定の検出対象物を検出する検出手段と、これの検出結果に基づいて、レンズへの異物の付着の有無を判定する判定手段とを備え、判定手段8は、検出された検出対象物の長さもしくは形成間隔についての所定の一定性の有無を判定基準とした判定を行う車載カメラレンズ用異物付着判定装置が記載されている。 Furthermore, Patent Document 2 (Japanese Unexamined Patent Publication No. 2012-166705) discloses a detection means for detecting a predetermined elongated detection object formed on a predetermined vehicle surrounding area based on an image taken by an on-vehicle camera. and a determining means for determining the presence or absence of foreign matter adhering to the lens based on the detection result thereof, and the determining means 8 determines a predetermined constancy in the length or formation interval of the detected object to be detected. A foreign matter adhesion determination device for a vehicle-mounted camera lens is described, which performs a determination based on the presence or absence of foreign matter as a determination criterion.

また、特許文献3(特開2019-29940号公報)には、動体に設置された撮像装置が撮影する撮影画像に映る付着物を検出する付着物検出装置であって、前記撮影画像から付着物の輪郭の領域を輪郭領域として抽出する輪郭抽出部と、前記撮影画像から付着物の輪郭の内側の領域を内側領域として抽出する内側抽出部と、前記輪郭領域と付着物の輪郭とを比較して、形状及び輝度のいずれかが適合するものを付着物輪郭領域として検出し、前記内側領域と付着物の輪郭の内側とを比較して、形状及び輝度のいずれかが適合するものを付着物内側領域として検出し、前記付着物輪郭領域及び前記付着物内側領域のいずれかから付着物の輪郭及び輪郭の内側のいずれかから成るレンズ付着物の領域を付着物検出領域として検出する付着物検出領域判定部と、を備える付着物検出装置が記載されている。 Furthermore, Patent Document 3 (Japanese Unexamined Patent Application Publication No. 2019-29940) discloses a deposit detection device that detects deposits that appear in a photographed image taken by an imaging device installed on a moving object, which detects deposits from the photographed image. a contour extraction section that extracts a contour region of the object as a contour region; an inner extraction section that extracts a region inside the contour of the deposit from the photographed image as an inner region; and a comparison between the contour region and the contour of the deposit. Then, the area that matches either the shape or the brightness is detected as the adhered object outline area, and the inner area and the inside of the outline of the adhered object are compared, and the area that matches either the shape or the brightness is detected as the adhered object outline area. Deposit detection that detects a lens deposit as an inside region, and detects a region of lens deposits consisting of either the outline of the deposit or the inside of the contour from either the deposit contour region or the deposit inner region as a deposit detection region. A deposit detection device is described that includes a region determination section.

カメラは、イメージセンサのハードウェア故障を検知する機能を有する。また、カメラの前面に設けられるレンズの付着物による障害を検知する方法は多く提案されているが、処理負荷が高く、処理負荷の低減が求められている。 The camera has a function of detecting hardware failure of the image sensor. Furthermore, many methods have been proposed for detecting problems caused by deposits on lenses provided on the front surface of a camera, but these methods require a high processing load, and there is a need to reduce the processing load.

そこで、本発明では、低い処理負荷でカメラの異常を検出することを目的とする。 Therefore, it is an object of the present invention to detect camera abnormalities with a low processing load.

本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、車載カメラが撮影した画像を処理する画像処理装置であって、前記車載カメラより画像を取得する画像取得部と、自車両の周囲に存在すると推定される構造物の種類に基づいて、当該構造物の色情報を特定する構造物色特定部と、前記構造物の種類に基づいて、前記画像の中で前記構造物が存在すると推定される領域を特定する画像領域特定部と、前記車載カメラの異常を検知するカメラ異常検知部とを備え、前記カメラ異常検知部は、前記自車両の周囲に前記構造物が存在する場合、前記構造物色特定部から得られた色情報と、前記画像の中に前記構造物が存在すると推定される領域の色成分とを比較して、前記車載カメラの異常を検知することを特徴とする。 A typical example of the invention disclosed in this application is as follows. That is, an image processing device that processes images taken by an on-vehicle camera includes an image acquisition unit that acquires images from the on-vehicle camera, and an image processing device that processes images taken by an on-vehicle camera based on the types of structures estimated to exist around the own vehicle. a structure color identification unit that identifies color information of the structure; an image area identification unit that identifies an area in the image where the structure is estimated to exist based on the type of the structure; and the vehicle-mounted camera. and a camera abnormality detection unit that detects an abnormality in the image, and the camera abnormality detection unit detects the color information obtained from the structure color identification unit and the color information obtained from the structure color identification unit when the structure exists around the host vehicle. The method is characterized in that an abnormality in the vehicle-mounted camera is detected by comparing color components of an area in which the structure is estimated to exist.

本発明の一態様によれば、低い処理負荷でカメラの異常を検出できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。 According to one aspect of the present invention, camera abnormality can be detected with a low processing load. Problems, configurations, and effects other than those described above will be made clear by the description of the following examples.

本発明の実施例の画像処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an image processing device according to an embodiment of the present invention. 本発明の実施例の構造物位置テーブルの構成例を示す図である。It is a figure showing the example of composition of the structure position table of the example of the present invention. 本発明の実施例の構造物色成分テーブルの構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a structure color component table according to an embodiment of the present invention. 本発明の実施例の構造物色成分テーブルの構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a structure color component table according to an embodiment of the present invention. 本発明の実施例の構造物色成分テーブルの構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a structure color component table according to an embodiment of the present invention. 本発明の実施例のカメラ異常検知処理のフローチャートである。It is a flowchart of the camera abnormality detection process of the Example of this invention. 本発明の実施例のカメラ異常検知処理のフローチャートである。It is a flowchart of the camera abnormality detection process of the Example of this invention. 本発明の実施例のカメラ異常検知処理のフローチャートである。It is a flowchart of the camera abnormality detection process of the Example of this invention.

<実施例1>
図1は、本発明の実施例の画像処理装置の構成を示すブロック図である。
<Example 1>
FIG. 1 is a block diagram showing the configuration of an image processing apparatus according to an embodiment of the present invention.

画像処理装置1は、車載電子制御装置(ECU)や車載カメラ装置に実装され、メモリ10、演算装置(CPU)30、ネットワークインターフェース(CAN)40、インターフェース(I/F)50、及びネットワークインターフェース(Eth)60を有する。 The image processing device 1 is installed in an in-vehicle electronic control unit (ECU) or an in-vehicle camera device, and includes a memory 10, a computing unit (CPU) 30, a network interface (CAN) 40, an interface (I/F) 50, and a network interface ( Eth) 60.

演算装置30は、メモリ10に格納されたプログラムを実行する。演算装置30がプログラムを実行して行う処理の一部を、他の演算装置(例えば、FPGA(Field Programable Gate Array)やASIC(Application Specific Integrated Circuit)などのハードウェア)で実行してもよい。 Arithmetic device 30 executes a program stored in memory 10. A part of the processing performed by the arithmetic device 30 by executing a program may be executed by another arithmetic device (for example, hardware such as an FPGA (Field Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit)).

メモリ10は、不揮発性の記憶素子であるROM及びRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子、及びSRAM(Static Random Access Memory)のような不揮発性の記憶素子(非一時的記憶媒体)であり、演算装置30が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。 The memory 10 includes ROM and RAM, which are nonvolatile storage elements. The ROM stores unchangeable programs (eg, BIOS) and the like. RAM is a high-speed and volatile storage element such as DRAM (Dynamic Random Access Memory) and a non-volatile storage element (non-temporary storage medium) such as SRAM (Static Random Access Memory). Stores programs executed by the program and data used during program execution.

具体的には、メモリ10は、画像取得部11、自車情報取得部12、地図情報取得部13、画像領域特定部14、構造物色特定部16、カメラ異常検知部18、異常領域通知済判定部19、及び異常通知部21などの各機能ブロックを実現するためのプログラムを格納する。また、メモリ10は、構造物位置テーブル15、構造物色成分テーブル17、及び異常領域既通知テーブル20などの、プログラム実行時に参照されるデータを格納する。 Specifically, the memory 10 includes an image acquisition unit 11, an own vehicle information acquisition unit 12, a map information acquisition unit 13, an image area identification unit 14, a structure color identification unit 16, a camera abnormality detection unit 18, and an abnormal area notification determination unit. Stores programs for realizing each functional block such as the section 19 and the abnormality notification section 21. The memory 10 also stores data referenced during program execution, such as a structure position table 15, a structure color component table 17, and an abnormal area notification table 20.

ネットワークインターフェース(CAN)40は、車両に搭載された他の装置とのCAN(Control Area Network)を経由した通信を制御する。インターフェース(I/F)50は、シリアル又はパラレルの入出力インターフェースであり、車載カメラ51が接続される。ネットワークインターフェース(Eth)60は、車両に搭載された他の装置とのイーサネット(登録商標、以下同じ)を経由した通信を制御する。 A network interface (CAN) 40 controls communication with other devices mounted on the vehicle via a CAN (Control Area Network). The interface (I/F) 50 is a serial or parallel input/output interface, and an in-vehicle camera 51 is connected thereto. A network interface (Eth) 60 controls communication via Ethernet (registered trademark, hereinafter the same) with other devices mounted on the vehicle.

画像取得部11は、インターフェース50を介して、車載カメラ51が撮影した画像を取得する。自車情報取得部12、ネットワークインターフェース(CAN)40を介して、車両の挙動(例えば、速度、加速度、舵角、乗員のブレーキやアクセルの操作量など)を含む自車情報41を取得する。地図情報取得部13は、ネットワークインターフェース(Eth)60を介して地図情報61を取得する。取得する地図情報は、自動運転用の詳細な地図情報でも、ナビゲーション用の地図情報でもよい。 The image acquisition unit 11 acquires an image taken by the in-vehicle camera 51 via the interface 50. The own vehicle information 41 including vehicle behavior (for example, speed, acceleration, steering angle, amount of brake and accelerator operation by the occupant, etc.) is acquired via the own vehicle information acquisition unit 12 and the network interface (CAN) 40 . The map information acquisition unit 13 acquires map information 61 via a network interface (Eth) 60. The acquired map information may be detailed map information for automatic driving or map information for navigation.

画像領域特定部14は、構造物位置テーブル15を参照して、画像中で構造物が存在すると推定される構造物検出領域を特定する。構造物位置テーブル15は、地図情報から推定される構造物が画像中に存在する可能性がある領域の情報が記録されたテーブルであり、その詳細は図2を参照して説明する。 The image area specifying unit 14 refers to the structure position table 15 and specifies a structure detection area in the image where a structure is estimated to exist. The structure position table 15 is a table in which information on areas in which structures estimated from map information may exist in an image is recorded, and the details thereof will be explained with reference to FIG. 2.

構造物色特定部16は、構造物色成分テーブル17を参照して、判定すべき構造物の色を特定する。構造物色成分テーブル17は、構造物の種類毎の色彩の情報が記録されたテーブルであり、その詳細は図3、図4、図5を参照して説明する。 The structure color specifying unit 16 refers to the structure color component table 17 and specifies the color of the structure to be determined. The structure color component table 17 is a table in which color information for each type of structure is recorded, and its details will be explained with reference to FIGS. 3, 4, and 5.

カメラ異常検知部18は、車載カメラ51が撮影した画像中に存在する構造物の色情報に基づいて、カメラ前面(例えばレンズ)の付着物を検知する。 The camera abnormality detection unit 18 detects a deposit on the front surface of the camera (for example, the lens) based on color information of structures present in the image taken by the vehicle-mounted camera 51.

異常領域通知済判定部19は、異常領域既通知テーブル20を参照して、カメラ異常検知部18が検知した異常が通知済みであるかを判定する。異常領域既通知テーブル20は、異常通知部21が通知した異常が記録されるテーブルである。異常通知部21は、異常領域通知済判定部19が未通知であると判定した異常を、乗員や他のECUに通知する。 The abnormal area notification determination unit 19 refers to the abnormal area notification table 20 and determines whether the abnormality detected by the camera abnormality detection unit 18 has been notified. The abnormal area notification table 20 is a table in which abnormalities notified by the abnormality notification unit 21 are recorded. The abnormality notification unit 21 notifies the occupant and other ECUs of the abnormality that the abnormal area notification determination unit 19 has determined has not been reported.

図2は、本発明の実施例の構造物位置テーブル15の構成例を示す図である。 FIG. 2 is a diagram showing an example of the structure of the structure position table 15 according to the embodiment of the present invention.

構造物位置テーブル15は、画像領域特定部14が構造物が存在すると推定される構造物検出領域(すなわち、構造物の色を判定する領域)を特定するために参照され、構造物の種類毎の画像における座標データを保持する。 The structure position table 15 is referred to by the image area specifying unit 14 in order to specify a structure detection area where a structure is estimated to exist (i.e., an area for determining the color of a structure), and is used for each type of structure. Holds the coordinate data in the image.

例えば、図2に示す構造物位置テーブル15には、色彩を判定する構造物として、信号機、道路標識、横断歩道が画像中に存在すると推定される構造物検出領域の位置が記録されている。図2に示す構造物位置テーブル15に記録される構造物検出領域は三角形の頂点の三つの座標で定義される。構造物位置テーブル15に記録される構造物検出領域の形状は、三角形ではなく、四角形(台形、正方形、長方形)でもよい。車載カメラ51が撮影する画像は遠方で小さく写るので、構造物検出領域を三角形や台形で定義すると構造物が存在する領域を的確に表して、構造物検出領域を小さくできる。 For example, the structure position table 15 shown in FIG. 2 records the positions of structure detection areas in which traffic lights, road signs, and crosswalks are estimated to exist in an image as structures whose colors are to be determined. The structure detection area recorded in the structure position table 15 shown in FIG. 2 is defined by the three coordinates of the vertices of the triangle. The shape of the structure detection area recorded in the structure position table 15 may be a quadrilateral (trapezoid, square, rectangle) instead of a triangle. Since the image taken by the vehicle-mounted camera 51 appears small from a distance, defining the structure detection area as a triangle or trapezoid accurately represents the area where the structure is present, and the structure detection area can be made small.

また、同種の構造物について複数の構造物検出領域が記録されてもよい。例えば、信号機は、道路の左側(左側通行における自車線の上)や右側(左側通行における対向車線の上)に設けられることから、信号機の設置パターンに応じて複数の構造物検出領域を定義するとよい。 Further, a plurality of structure detection areas may be recorded for the same type of structure. For example, since traffic lights are installed on the left side of the road (above the own lane when driving on the left) or on the right side (above the oncoming lane when driving on the left), multiple structure detection areas can be defined depending on the traffic light installation pattern. good.

交差点からの距離によって構造物が画像中で見える位置が変わるので、構造物位置テーブル15から取得する構造物検出領域を変えてもよい。また、一つの構造物検出領域のデータを変数として交差点からの距離によって構造物検出領域を演算して、交差点からの距離によって構造物検出領域を変えてもよい。このように位置や距離によって構造物検出領域を切り替えると、色検出のためにスキャンする範囲を小さくでき、処理負荷を低減できる。 Since the visible position of the structure in the image changes depending on the distance from the intersection, the structure detection area obtained from the structure position table 15 may be changed. Alternatively, the structure detection area may be calculated based on the distance from the intersection using the data of one structure detection area as a variable, and the structure detection area may be changed depending on the distance from the intersection. By switching the structure detection area according to the position or distance in this way, the range to be scanned for color detection can be reduced, and the processing load can be reduced.

本実施例では、同種の構造物では色が類似していること、設置場所のパターンが一定であることから信号機、道路標識、横断歩道の構造物検出領域が記録されているが、他の構造物(例えば、道路標示(路面ペイント)、踏切)の構造物検出領域を定義してもよい。 In this example, the structure detection areas of traffic lights, road signs, and crosswalks are recorded because structures of the same type have similar colors and the pattern of installation locations is constant. A structure detection area for objects (eg, road markings (road surface paint), railroad crossings) may be defined.

図3、図4、図5は、本発明の実施例の構造物色成分テーブル17の構成例を示す図であり、環境と構造物との組み合わせに応じて複数の色彩が定められている。図示する構造物色成分テーブル17では、環境として天候と昼夜によって分けられた複数のテーブルで構成され、図3が晴天の昼間、図4が晴天の夜間、図5が雨天の昼間の構造物の色彩を表す。環境と構造物との組み合わせに応じて色彩を定められれば、他の形式で色彩を定義してもよい。 3, 4, and 5 are diagrams showing configuration examples of the structure color component table 17 according to the embodiment of the present invention, in which a plurality of colors are determined depending on the combination of the environment and the structure. The structure color component table 17 shown in the figure is composed of a plurality of tables divided by weather and day/night as environments, and FIG. 3 shows the color of structures during the daytime on a clear day, FIG. 4 shows the color of structures during the daytime on a clear day, and FIG. represents. Colors may be defined in other formats as long as colors can be determined according to the combination of environment and structures.

構造物の色彩は、RGB色空間で赤色、緑色、青色の色度によって表しているが、他の色空間(例えばCMYK)を用いてもよい。 The color of the structure is expressed by the chromaticity of red, green, and blue in the RGB color space, but other color spaces (for example, CMYK) may be used.

各環境において、構造物に含まれる代表的な色彩が定義される。例えば、一時停止の標識の多くは交差点に設置され、その色は赤地に白文字である。このため、地色の赤色を定義しておく。また、指定方向外進行禁止の標識の地色の青色を定義したり、交差点の形状を示す標識の地色の黄色を定義してもよい。 In each environment, representative colors included in structures are defined. For example, most stop signs are placed at intersections and are red with white letters. For this reason, the background color red is defined. Furthermore, the background color of a sign prohibiting traveling in a designated direction may be defined as blue, or the background color of a sign indicating the shape of an intersection may be defined as yellow.

信号機では、青色点灯時の色、赤色点灯時の色の一方又は両方を定義するとよい。なお、点灯時間が短いが黄色点灯を定義してもよい。また、消灯中の信号の色(青、黄、赤)を定義してもよい。 For traffic lights, it is preferable to define one or both of the colors when the light is blue and the color when the light is red. Note that yellow lighting may be defined, although the lighting time is short. Furthermore, the color of the signal when the light is off (blue, yellow, red) may be defined.

横断歩道では、ペイントの白色を定義するとよい。RGB空間では、RGBの各色の色度が等しければ、明度によって白から灰色、黒のいずれかとなる。 At crosswalks, it is a good idea to define the white color of the paint. In the RGB space, if the chromaticity of each RGB color is equal, the color ranges from white to gray or black depending on the lightness.

図6、図7、図8は、カメラ異常検知処理のフローチャートである。 6, 7, and 8 are flowcharts of camera abnormality detection processing.

まず、演算装置30は、カメラ異常検知手法選択処理を実行する。具体的には、画像処理装置1が地図情報が取得可能であるかを判定する(S601)。例えば、車両に自動運転機能が搭載されていれば詳細地図情報を取得できる。また、車両にナビゲーションシステムが搭載されていればナビゲーション用地図情報を取得できる。また、地図ECUからCAN経由で地図情報が提供されていれば、画像処理装置1はCAN経由で地図情報を取得できる。 First, the calculation device 30 executes a camera abnormality detection method selection process. Specifically, the image processing device 1 determines whether map information can be acquired (S601). For example, if the vehicle is equipped with an automatic driving function, detailed map information can be obtained. Additionally, if the vehicle is equipped with a navigation system, navigation map information can be acquired. Furthermore, if map information is provided from the map ECU via CAN, the image processing device 1 can acquire the map information via CAN.

地図情報が取得できれば、地図情報からのカメラ異常検知処理(図7)へ進む。一方、地図情報が取得できなければ、自車情報からのカメラ異常検知処理(図8)へ進む。 If the map information can be acquired, the process proceeds to camera abnormality detection processing based on the map information (FIG. 7). On the other hand, if map information cannot be acquired, the process proceeds to camera abnormality detection processing (FIG. 8) based on own vehicle information.

地図情報からのカメラ異常検知処理では、まず、画像取得部11は、車載カメラ51が撮影した画像データを取得する(S701)。画像取得部11は、毎フレーム(例えば30fps)に画像を取得してもよいが、数フレームに一つの(例えば0.5秒ごとに)画像を取得してもよい。単位時間あたりに取得する画像数を走行速度によって変えてもよい。例えば、走行速度が遅い場合に画像を取得する時間間隔を長くし、走行速度が速い場合に画像を取得する時間間隔を短くする。速度によって画像取得間隔を変えることによって、速度によらず構造物を複数の静止画像で捕らえられ、構造物の色を確実に判定できる。 In the camera abnormality detection process from map information, first, the image acquisition unit 11 acquires image data captured by the vehicle-mounted camera 51 (S701). The image acquisition unit 11 may acquire an image every frame (for example, 30 fps), or may acquire one image every several frames (for example, every 0.5 seconds). The number of images acquired per unit time may be changed depending on the traveling speed. For example, the time interval at which images are acquired is lengthened when the vehicle is traveling at a low speed, and the time interval at which images are acquired is shortened when the vehicle is traveling at a high speed. By changing the image acquisition interval depending on the speed, the structure can be captured in multiple still images regardless of the speed, and the color of the structure can be determined reliably.

そして、画像取得部11は、画像補正処理を実行する(S702)。具体的には、画像の形状を整形する。車載カメラ51が取得した画像は歪んでいる場合があり、線形変換や射影変換によって画像を成形する。また、色彩の検知を容易にするため露出調整によって画像の明るさを調整する。 Then, the image acquisition unit 11 executes image correction processing (S702). Specifically, the shape of the image is shaped. The image acquired by the on-vehicle camera 51 may be distorted, and the image is shaped by linear transformation or projective transformation. In addition, the brightness of the image is adjusted by exposure adjustment to facilitate color detection.

その後、地図情報取得部13は地図情報を取得する。地図情報取得部13が取得する地図情報は、少なくとも交差点の位置を含む。そして、地図情報取得部13は、取得した地図情報に含まれている信号機、道路標識、横断歩道、道路標示(ペイント)の情報を抽出する(S703)。詳細地図情報を取得した場合、信号機、道路標識、横断歩道、道路標示(ペイント)などの構造物の位置が分かる。一方、ナビゲーション用地図情報には構造物の位置が含まれていないので、信号機、道路標識、横断歩道、道路標示などの交差点近傍における構造物が存在する領域が分かる。 After that, the map information acquisition unit 13 acquires map information. The map information acquired by the map information acquisition unit 13 includes at least the position of the intersection. Then, the map information acquisition unit 13 extracts information on traffic lights, road signs, crosswalks, and road markings (paint) included in the acquired map information (S703). When detailed map information is obtained, the locations of structures such as traffic lights, road signs, crosswalks, and road markings (paints) can be found. On the other hand, since navigation map information does not include the positions of structures, it is possible to know areas where structures such as traffic lights, road signs, crosswalks, and road markings are present near intersections.

その後、地図情報取得部13は、取得した地図情報から自車近傍に標識などの有無を判定する(S704)。詳細地図情報を取得した場合、詳細地図情報から構造物の情報が抽出できたかによって、構造物の有無を判定できる。一方、ナビゲーション用地図情報を取得した場合、交差点までの距離が所定の閾値より近ければ、交差点へ接近しており、一般的に交差点の近くの信号機、道路標識、横断歩道、道路標示などの構造物が自車近傍に有ると判定できる。 After that, the map information acquisition unit 13 determines whether there is a sign or the like near the own vehicle from the acquired map information (S704). When detailed map information is acquired, the presence or absence of a structure can be determined depending on whether information on the structure can be extracted from the detailed map information. On the other hand, when navigation map information is acquired, if the distance to the intersection is closer than a predetermined threshold, it means that the intersection is approaching, and generally there are structures such as traffic lights, road signs, crosswalks, road markings, etc. near the intersection. It can be determined that an object is near the vehicle.

本実施例では、画像取得部11による処理、地図情報取得部13による処理の順で処理を実行するが、どちらを先に実行しても並行して実行してもよい。 In this embodiment, the processing by the image acquisition unit 11 and the processing by the map information acquisition unit 13 are executed in this order, but either one may be executed first or they may be executed in parallel.

そして、ステップS704で自車近傍に構造物が無いと判定された場合(S705でNo)、ステップS701に戻り、次の画像データを取得する。 If it is determined in step S704 that there is no structure near the host vehicle (No in S705), the process returns to step S701 and the next image data is acquired.

一方、ステップS704で自車近傍に構造物が有ると判定された場合(S705でYes)、構造物色特定部16は、構造物色成分テーブル17の現在の環境に対応するデータを参照して、自車近傍にあると判定された構造物の色を特定する(S706)。なお、信号機においては、点灯色が分からないので、構造物色成分テーブル17から全ての点灯時の色を(登録されていれば消灯時の色も)特定する。また、設置されている標識の種類が特定できず、認識すべき標識の色が特定できない場合、可能性がある全ての色を構造物色成分テーブル17から特定するとよい。 On the other hand, if it is determined in step S704 that there is a structure near the own vehicle (Yes in S705), the structure color identification unit 16 refers to the data corresponding to the current environment in the structure color component table 17, and The color of the structure determined to be near the vehicle is specified (S706). Note that for traffic lights, since the lighting color is not known, all the colors when the lights are on (and the colors when the lights are off, if registered) are specified from the structure color component table 17. Further, if the type of installed sign cannot be specified and the color of the sign to be recognized cannot be specified, all possible colors may be specified from the structure color component table 17.

その後、画像領域特定部14は、構造物位置テーブル15を参照して、自車近傍にあると判定された構造物が画像中で存在すると推定される構造物検出領域を特定する(S707)。 Thereafter, the image area specifying unit 14 refers to the structure position table 15 and specifies a structure detection area in the image where the structure determined to be near the host vehicle is estimated to exist (S707).

本実施例では、構造物色特定部16による構造物色特定処理、画像領域特定部14による画像領域特定処理の順で処理を実行するが、どちらを先に実行しても並行して実行してもよい。 In this embodiment, the structure color identification process by the structure color identification unit 16 and the image area identification process by the image area identification unit 14 are executed in this order. good.

その後、カメラ異常検知部18は、自車近傍に有ると判定された構造物の色成分の画素が構造物検出領域内に存在するかを判定する(S708)。具体的には、特定された構造物検出領域内の画素をスキャンし、ステップS706で特定された構造物の色の条件を満たす画素が所定の数だけ連続して存在するかを判定する。 After that, the camera abnormality detection unit 18 determines whether pixels of the color component of the structure determined to be near the own vehicle exist within the structure detection area (S708). Specifically, the pixels within the specified structure detection area are scanned, and it is determined whether a predetermined number of consecutive pixels that satisfy the color condition of the structure specified in step S706 exist.

複数の構造物の色成分が存在するかを判定する場合、色認識が容易な順に判定するとよい。例えば、発光している信号機は色の認識が容易であるため、先に色を認識するとよい。その次に、路上の白色ペイント(例えば、横断歩道)、標識の順に認識するとよい。 When determining whether color components of a plurality of structures exist, it is preferable to determine the color components in order of ease of color recognition. For example, it is easy to recognize the color of a light-emitting traffic light, so it is better to recognize the color first. Next, it is best to recognize white paint on the road (for example, crosswalks), and then signs.

そして、構造物検出領域に当該構造物の色が検出されると、連続カウンタを0に初期化し、異常領域既通知テーブル20をクリアして(S709)、ステップS701に戻り、次の画像データを取得する。一方、構造物検出領域に当該構造物の色が検出されなければと、連続カウンタを1加算して(S710)、連続カウンタが所定の数以上であるかを判定する(S711)。その結果、連続カウンタが所定の閾値を超えていなければ、異常ありと判定せずに、ステップS701に戻り、次の画像データを取得する。 When the color of the structure is detected in the structure detection area, the continuous counter is initialized to 0, the abnormal area notification table 20 is cleared (S709), the process returns to step S701, and the next image data is get. On the other hand, if the color of the structure is not detected in the structure detection area, the continuous counter is incremented by 1 (S710), and it is determined whether the continuous counter is equal to or greater than a predetermined number (S711). As a result, if the continuous counter does not exceed the predetermined threshold value, the process returns to step S701 and acquires the next image data without determining that there is an abnormality.

一方、連続カウンタが所定の閾値を超えていれば、カメラ異常検知部18は、存在すべき構造物が画像に写っていないのでカメラ異常と判定する。そして、異常領域通知済判定部19は、異常領域既通知テーブル20を参照して、判定された異常が通知済かを判定する(S712)。 On the other hand, if the continuous counter exceeds the predetermined threshold, the camera abnormality detection unit 18 determines that the camera is abnormal because the structure that should exist is not shown in the image. Then, the abnormal area notification determination unit 19 refers to the abnormal area notification table 20 and determines whether the determined abnormality has been notified (S712).

その結果、判定された異常が異常領域既通知テーブル20に登録されていれば、当該カメラの汚れ異常は通知済みなので(S713でYes)、さらに異常を通知することなく、ステップS701に戻り、次の画像データを取得する。 As a result, if the determined abnormality is registered in the abnormal area notification table 20, the dirt abnormality of the camera has already been notified (Yes in S713), and the process returns to step S701 without further notification of the abnormality. Obtain the image data of.

一方、判定された異常が異常領域既通知テーブル20に登録されていなければ、当該車載カメラ51の汚れ異常は通知されていないので(S713でNo)、新たにカメラ汚れ異常が検出されたと判定して、異常通知部21が当該カメラ汚れ異常を乗員や他のECUに通知する(S714)。乗員は、インスツルメントパネルに表示されたカメラ汚れ異常警告を見て、カメラ前面(例えばレンズ)の汚れを除去する。また、ECUは、カメラ汚れ異常通知を受信すると、当該車載カメラ51の映像の信頼性が低いと判定し、当該汚れが除去されるまで、当該車載カメラ51の映像を使用せずに車両制御処理を実行する。例えば、ECUは、当該車載カメラ51の映像を使用した自動運転(AD)の制御を停止して、乗員に自動運転の停止を通知するとよい。また、ECUは、カメラ汚れ異常の検出に伴って、汚れが検出された車載カメラ51を含む系を停止して、冗長度の低下によって自動運転の制御を停止して、高度運転支援(ADAS)に切り替えてもよい。 On the other hand, if the determined abnormality is not registered in the abnormal area notification table 20, the dirt abnormality of the vehicle-mounted camera 51 has not been notified (No in S713), and it is determined that a new camera dirt abnormality has been detected. Then, the abnormality notification unit 21 notifies the occupant and other ECUs of the camera dirt abnormality (S714). The passenger sees the camera dirt abnormality warning displayed on the instrument panel and removes dirt from the front of the camera (for example, the lens). Furthermore, upon receiving the camera dirt abnormality notification, the ECU determines that the reliability of the video from the vehicle-mounted camera 51 is low, and performs vehicle control processing without using the video from the vehicle-mounted camera 51 until the dirt is removed. Execute. For example, the ECU may stop automatic driving (AD) control using the video of the vehicle-mounted camera 51 and notify the occupant of the automatic driving stop. In addition, upon detection of camera dirt abnormality, the ECU stops the system including the vehicle-mounted camera 51 where dirt has been detected, stops automatic driving control due to the reduction in redundancy, and activates advanced driving assistance (ADAS). You may switch to

以上の説明では画像を一つの領域として構造物の色成分が存在するかを判定しているが、画像を複数(例えば、縦4×横4の16個)の領域に分けて、各領域において構造物の色成分が存在するかを判定してもよい。この場合、連続カウンタと異常領域既通知テーブル20を領域毎に設けて、ステップS708において、分割された領域毎に構造物の色成分の画素が構造物検出領域内に存在するかを判定し、ステップS709、S710において、領域毎に連続カウンタと異常領域既通知テーブル20を更新する。このように分割された画像の領域毎に構造物の色成分が存在するかの判定によって、車載カメラ51の前面に異物が付着しているだけでなく、異物が付着している領域を特定できる。 In the above explanation, it is determined whether the color component of the structure exists with the image as one area, but the image is divided into multiple areas (for example, 16 areas (4 vertically x 4 horizontally)) and each area is It may also be determined whether a color component of the structure exists. In this case, a continuous counter and an abnormal area notification table 20 are provided for each area, and in step S708, it is determined for each divided area whether pixels of the color component of the structure exist within the structure detection area, In steps S709 and S710, the continuous counter and abnormal area notification table 20 are updated for each area. By determining whether the color component of the structure is present in each region of the image divided in this way, it is possible to identify not only the presence of foreign matter on the front surface of the in-vehicle camera 51 but also the region to which the foreign matter is attached. .

次に、地図情報が取得できない場合に実行される自車情報からのカメラ異常検知処理について説明する。自車情報からのカメラ異常検知処理(図8)では、前述した地図情報からのカメラ異常検知処理(図7)と同じ処理ステップには同じ符号を付し、それらのステップの詳細な説明は省略する。 Next, camera abnormality detection processing based on own vehicle information that is executed when map information cannot be acquired will be described. In the camera abnormality detection process from own vehicle information (Fig. 8), the same processing steps as the above-mentioned camera abnormality detection process from map information (Fig. 7) are given the same reference numerals, and detailed explanations of these steps are omitted. do.

自車情報からのカメラ異常検知処理では、まず、画像取得部11は、車載カメラ51が撮影した画像データを取得し(S701)、画像補正処理を実行する(S702)。 In the camera abnormality detection process based on own vehicle information, the image acquisition unit 11 first acquires image data captured by the vehicle-mounted camera 51 (S701), and executes image correction processing (S702).

その後、自車情報取得部12は、自車情報41を取得する(S803)。自車情報取得部12が取得する自車情報41は、車両の挙動の情報として、速度、加速度、舵角、乗員の操作量(ブレーキ操作量、アクセル操作量)などである。 After that, the own vehicle information acquisition unit 12 acquires the own vehicle information 41 (S803). The own vehicle information 41 acquired by the own vehicle information acquisition unit 12 includes information on the behavior of the vehicle, such as speed, acceleration, steering angle, and operation amount of the occupant (brake operation amount, accelerator operation amount).

そして、自車情報取得部12は、取得した自車情報41に基づいて、自車の前方を走行する前走車があるか、自車の近傍に信号があるかを推定する(S804)。具体的には、低速走行と停止を繰り返す場合には、渋滞しており、前走車がいると推定できる。また、定速走行から減速して停止した場合、信号がある交差点に近づいていると推定できる。 Then, based on the acquired own vehicle information 41, the own vehicle information acquisition unit 12 estimates whether there is a vehicle running ahead of the own vehicle or whether there is a traffic light near the own vehicle (S804). Specifically, if the vehicle repeatedly runs at low speed and stops, it can be assumed that there is a traffic jam and there is a vehicle in front. Additionally, if the vehicle decelerates from a constant speed to a stop, it can be assumed that the vehicle is approaching an intersection with a traffic light.

その後、構造物色特定部16は、構造物色成分テーブル17の現在の環境に対応するデータを参照して、自車近傍にあると判定された構造物の色を特定する(S706)。その後、画像領域特定部14は、構造物位置テーブル15を参照して、自車近傍にあると判定された構造物が画像中で存在すると推定される構造物検出領域を特定する(S707)。例えば、前走車があると推定された場合、前走車の領域を構造物検出領域として、当該構造物検出領域内のテールランプの赤色を検出する。また、交差点に近づいていると推定された場合、前述と同様に、信号機、道路標識、横断歩道の構造物検出領域内で各構造物の色彩を検出する。 Thereafter, the structure color specifying unit 16 refers to the data corresponding to the current environment in the structure color component table 17 and specifies the color of the structure determined to be near the own vehicle (S706). Thereafter, the image area specifying unit 14 refers to the structure position table 15 and specifies a structure detection area in the image where the structure determined to be near the host vehicle is estimated to exist (S707). For example, when it is estimated that there is a vehicle in front, the area of the vehicle in front is set as a structure detection area, and the red color of the tail lamp within the structure detection area is detected. Furthermore, when it is estimated that the vehicle is approaching an intersection, the color of each structure is detected within the structure detection area of a traffic light, road sign, or crosswalk, as described above.

その後、カメラ異常検知部18は、自車近傍に有ると判定された構造物の色成分の画素が構造物検出領域内に存在するかを判定する(S708)。構造物検出領域に当該構造物の色が検出されると、連続カウンタを0に初期化し、異常領域既通知テーブル20をクリアして(S709)、ステップS701に戻り、次の画像データを取得する。一方、構造物検出領域に当該構造物の色が検出されなければと、連続カウンタを1加算して(S710)、連続カウンタが所定の数以上であるかを判定する(S711)。その結果、連続カウンタが所定の閾値を超えていなければ、異常ありと判定せずに、ステップS701に戻り、次の画像データを取得する。 Thereafter, the camera abnormality detection unit 18 determines whether pixels of the color component of the structure determined to be near the own vehicle exist within the structure detection area (S708). When the color of the structure is detected in the structure detection area, the continuous counter is initialized to 0, the abnormal area notification table 20 is cleared (S709), and the process returns to step S701 to obtain the next image data. . On the other hand, if the color of the structure is not detected in the structure detection area, the continuous counter is incremented by 1 (S710), and it is determined whether the continuous counter is equal to or greater than a predetermined number (S711). As a result, if the continuous counter does not exceed the predetermined threshold value, the process returns to step S701 and acquires the next image data without determining that there is an abnormality.

一方、連続カウンタが所定の閾値を超えていれば、所定の色成分が連続して検出できないので、異常領域通知済判定部19は、異常領域既通知テーブル20を参照して、判定された異常が通知済かを判定する(S712)。 On the other hand, if the continuous counter exceeds the predetermined threshold value, the predetermined color component cannot be detected continuously, so the abnormal area notification determination unit 19 refers to the abnormal area notification table 20 and determines the determined abnormality. It is determined whether the notification has been completed (S712).

その結果、検出された色成分が異常領域既通知テーブル20に登録されていれば、当該カメラの汚れ異常は通知済みなので(S713でYes)、さらに異常を通知することなく、ステップS701に戻り、次の画像データを取得する。 As a result, if the detected color component is registered in the abnormal area notification table 20, the dirt abnormality of the camera has been notified (Yes in S713), and the process returns to step S701 without further notification of the abnormality. Get the next image data.

一方、検出された色成分が異常領域既通知テーブル20に登録されていなければ、当該カメラの汚れ異常は通知されていないので(S713でNo)、異常領域通知済判定部19が新たにカメラ汚れ異常が検出されたと判定して、異常通知部21が、当該カメラ汚れ異常を乗員や他のECUに通知する(S714)。 On the other hand, if the detected color component is not registered in the abnormal area notification table 20, it means that the dirt abnormality of the camera has not been notified (No in S713), and the abnormal area notification determination unit 19 newly detects the camera dirt. It is determined that an abnormality has been detected, and the abnormality notification unit 21 notifies the occupant and other ECUs of the camera dirt abnormality (S714).

前述のように、画像を複数(例えば、縦4×横4の16個)の領域に分けて、各領域において構造物の色成分が存在するかを判定してもよい。 As described above, the image may be divided into a plurality of regions (for example, 16 regions of 4 in the vertical direction and 4 in the horizontal direction), and it may be determined whether the color component of the structure exists in each region.

以上に説明したように、本発明の実施例の画像処理装置1は、車載カメラ51より画像を取得する画像取得部11と、自車両の周囲に存在すると推定される構造物の種類に基づいて、当該構造物の色情報を特定する構造物色特定部16と、構造物の種類に基づいて、画像の中で構造物が存在すると推定される領域を特定する画像領域特定部14と、車載カメラ51の異常を検知するカメラ異常検知部18とを備え、カメラ異常検知部18は、自車両の周囲に構造物が存在する場合、構造物色特定部16から得られた色情報と、画像の中に構造物が存在すると推定される領域の色成分とを比較して、車載カメラ51の異常を検知するので、低い処理負荷で車載カメラ51の異常を検出できる。すなわち、構造物の色成分の有無を判定するので、判定に使用する情報量を少なくすることによって処理負荷を軽減し、検知を容易にできる。また、高度な処理性能が不要なシステムにも、性能低下を招くカメラ前面(レンズ)への付着物の検出を容易に実装可能である。また、信号機や標識などの色が共通している物を構造物として用いることによって、構造物の種類に基づいて当該構造物の色彩の条件の設定が容易となる。 As described above, the image processing device 1 according to the embodiment of the present invention includes the image acquisition unit 11 that acquires images from the vehicle-mounted camera 51, and the image processing device 1 that acquires images from the vehicle-mounted camera 51. , a structure color specifying unit 16 that specifies color information of the structure; an image area specifying unit 14 that specifies a region in an image where a structure is estimated to exist based on the type of structure; and a vehicle-mounted camera. If there is a structure around the host vehicle, the camera abnormality detection unit 18 uses the color information obtained from the structure color identification unit 16 and the color information in the image. Since an abnormality in the vehicle-mounted camera 51 is detected by comparing the color components of an area in which a structure is estimated to be present, an abnormality in the vehicle-mounted camera 51 can be detected with a low processing load. That is, since the presence or absence of a color component of a structure is determined, the processing load can be reduced by reducing the amount of information used for determination, and detection can be facilitated. Additionally, detection of deposits on the front surface of the camera (lens), which can degrade performance, can be easily implemented in systems that do not require advanced processing performance. Further, by using objects having a common color, such as traffic lights and signs, as structures, it becomes easy to set the color conditions of the structures based on the types of structures.

また、画像領域特定部14は、自車両の周囲に存在すると推定される構造物の情報を地図情報から取得するので、詳細地図に含まれる信号機、道路標識、横断歩道の情報に基づいて、画像の中で構造物が存在すると推定される領域を正確に特定できる。また、ナビゲーション用地図に含まれる交差点の位置に基づいて、信号機、道路標識、横断歩道などの構造物が画像の中で存在すると推定される領域を正確に特定できる。このため、画像に写るべき構造物の色彩が存在するかを容易に判定できる。 In addition, since the image area specifying unit 14 acquires information on structures estimated to exist around the own vehicle from the map information, the image area specifying unit 14 acquires information on structures estimated to exist around the own vehicle from the map information. It is possible to accurately identify the area in which a structure is estimated to exist. Furthermore, based on the positions of intersections included in the navigation map, it is possible to accurately identify areas in the image where structures such as traffic lights, road signs, and crosswalks are estimated to exist. For this reason, it can be easily determined whether the color of the structure to be captured in the image exists.

また、自車情報取得部12は、自車両の周囲に存在すると推定される構造物の情報を自車両の状態から推定するので、構造物として前走車を利用して、低い処理負荷で車載カメラ51の異常を検出できる。また、地図情報が取得できない場合でも、交差点への接近が検出できる。 In addition, since the own vehicle information acquisition unit 12 estimates information on structures that are estimated to exist around the own vehicle from the state of the own vehicle, the vehicle information acquisition unit 12 uses the vehicle in front as the structure and can be installed in the vehicle with a low processing load. Abnormalities in the camera 51 can be detected. Furthermore, even if map information cannot be obtained, approaching an intersection can be detected.

また、自車情報取得部12は、車両の状態を車速から推定するので、地図情報が取得できない場合でも、前走車の有無や交差点への接近を検出できる。 Further, since the own vehicle information acquisition unit 12 estimates the state of the vehicle from the vehicle speed, it is possible to detect the presence or absence of a vehicle in front and the approach to an intersection even if map information cannot be acquired.

また、構造物位置テーブル15が、構造物の種類に対応して、構造物が存在すると推定される領域を保持するので、画像領域特定部14が、種類に応じた構造物が存在すると推定される領域を容易に取得できる。 Furthermore, since the structure position table 15 holds areas where structures are estimated to exist in accordance with the types of structures, the image area specifying unit 14 stores areas where structures are estimated to exist according to the types. You can easily obtain the area that you want to use.

また、構造物色特定部16は、所定の回数連続して、構造物色特定部16から得られた色情報が、画像の中に構造物が存在すると推定される領域に検出できない場合に、車載カメラ51の異常を検知する。すなわち、所定の色彩が連続して検出できない領域のレンズに外界の撮影を阻害する汚れがあると判定するので、一時的な不検出を排除して、車載カメラ51の異常を確実に検知できる。 In addition, the structure color identification unit 16 detects the color information obtained from the structure color identification unit 16 consecutively a predetermined number of times when the in-vehicle camera 51 abnormalities are detected. That is, since it is determined that there is dirt on the lens in the area where a predetermined color cannot be detected continuously, which obstructs the photographing of the outside world, temporary non-detection can be eliminated and an abnormality in the vehicle-mounted camera 51 can be reliably detected.

また、異常領域通知済判定部19は、カメラ異常検知部18が検知したカメラ異常が見通知である場合に、乗員及び/又は他のECUに通知するので、乗員にカメラ前面(レンズ)の汚れの除去を促すことができる。ECUは、当該カメラの映像を使用せずに車両制御処理を実行して、安全性を担保できる。 In addition, the abnormal area notification determination unit 19 notifies the passenger and/or other ECUs when the camera abnormality detected by the camera abnormality detection unit 18 is a visual notification. can encourage the removal of The ECU can perform vehicle control processing without using the video from the camera to ensure safety.

また、複数の構造物が存在する場合は、各構造物とその構造物検出領域に関連付けられた連続カウンタを複数保有することによって、同時により多くの領域の異常検知を判定することができる。 Further, when a plurality of structures exist, by having a plurality of continuous counters associated with each structure and its structure detection area, abnormality detection can be determined in more areas at the same time.

なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。 Note that the present invention is not limited to the embodiments described above, and includes various modifications and equivalent configurations within the scope of the appended claims. For example, the embodiments described above have been described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Further, a part of the configuration of one embodiment may be replaced with the configuration of another embodiment. Further, the configuration of one embodiment may be added to the configuration of another embodiment. Further, other configurations may be added, deleted, or replaced with a part of the configuration of each embodiment.

また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be realized in part or in whole by hardware, for example by designing an integrated circuit, and a processor realizes each function. It may also be realized by software by interpreting and executing a program.

各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。 Information such as programs, tables, files, etc. that realize each function can be stored in a storage device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。 Furthermore, the control lines and information lines shown are those considered necessary for explanation, and do not necessarily show all the control lines and information lines necessary for implementation. In reality, almost all configurations can be considered interconnected.

Claims (11)

車載カメラが撮影した画像を処理する画像処理装置であって、
前記車載カメラより画像を取得する画像取得部と、
自車両の周囲に存在すると推定される構造物の種類に基づいて、当該構造物の色情報を特定する構造物色特定部と、
前記構造物の種類に基づいて、前記画像の中で前記構造物が存在すると推定される領域を特定する画像領域特定部と、
前記車載カメラの異常を検知するカメラ異常検知部とを備え、
前記カメラ異常検知部は、前記自車両の周囲に前記構造物が存在する場合、前記構造物色特定部から得られた色情報と、前記画像の中に前記構造物が存在すると推定される領域の色成分とを比較して、前記車載カメラの異常を検知することを特徴とする画像処理装置。
An image processing device that processes images taken by an in-vehicle camera,
an image acquisition unit that acquires an image from the in-vehicle camera;
a structure color identification unit that identifies color information of the structure based on the type of structure estimated to exist around the host vehicle;
an image area identifying unit that identifies an area in the image where the structure is estimated to exist, based on the type of the structure;
and a camera abnormality detection unit that detects an abnormality in the vehicle-mounted camera,
When the structure exists around the own vehicle, the camera abnormality detection unit uses the color information obtained from the structure color identification unit and the area in the image where the structure is estimated to exist. An image processing device that detects an abnormality in the vehicle-mounted camera by comparing color components.
請求項1に記載の画像処理装置であって、
前記画像領域特定部は、自車両の周囲に存在すると推定される構造物の情報を地図情報から取得することを特徴とする画像処理装置。
The image processing device according to claim 1,
The image processing device is characterized in that the image area specifying unit acquires information on structures estimated to exist around the own vehicle from map information.
請求項1に記載の画像処理装置であって、
自車両の周囲に存在すると推定される構造物の情報を自車両の状態から推定する自車情報取得部を有することを特徴とする画像処理装置。
The image processing device according to claim 1,
An image processing device comprising a vehicle information acquisition unit that estimates information on structures estimated to exist around the vehicle based on the state of the vehicle.
請求項3に記載の画像処理装置であって、
前記自車情報取得部は、車両の状態を車速から推定することを特徴とする画像処理装置。
The image processing device according to claim 3,
The image processing device is characterized in that the own vehicle information acquisition unit estimates the state of the vehicle from the vehicle speed.
請求項1に記載の画像処理装置であって、
前記構造物の種類に対応して、構造物が存在すると推定される領域を示す構造物位置情報を保持し、
前記画像領域特定部は、前記構造物位置情報を参照して、前記画像の中で前記構造物が存在すると推定される領域を特定することを特徴とする画像処理装置。
The image processing device according to claim 1,
holding structure position information indicating an area where the structure is estimated to exist, corresponding to the type of structure;
The image processing device is characterized in that the image area specifying unit refers to the structure position information and specifies an area in the image where the structure is estimated to exist.
車載カメラが撮影した画像を、電子制御装置が処理する画像処理方法であって、
前記電子制御装置は、所定の演算処理を実行する演算装置と、前記演算処理に必要なデータを格納する記憶装置とを有し、
前記画像処理方法は、
前記演算装置が、前記車載カメラより画像を取得する画像取得手順と、
前記演算装置が、自車両の周囲に存在すると推定される構造物の種類に基づいて、当該構造物の色情報を特定する構造物色特定手順と、
前記演算装置が、前記構造物の種類に基づいて、前記画像の中で前記構造物が存在すると推定される領域を特定する画像領域特定手順と、
前記演算装置が、前記車載カメラの異常を検知するカメラ異常検知手順とを含み、
前記カメラ異常検知手順では、前記演算装置が、前記自車両の周囲に前記構造物が存在する場合、前記構造物色特定手順で得られた色情報と、前記画像の中に前記構造物が存在すると推定される領域の色成分とを比較して、前記車載カメラの異常を検知することを特徴とする画像処理方法。
An image processing method in which an electronic control device processes images taken by an on-vehicle camera,
The electronic control device includes a calculation device that executes predetermined calculation processing, and a storage device that stores data necessary for the calculation processing,
The image processing method includes:
an image acquisition procedure in which the arithmetic unit acquires an image from the in-vehicle camera;
a structure color identification procedure in which the calculation device identifies color information of the structure based on the type of structure estimated to exist around the own vehicle;
an image region specifying step in which the arithmetic device specifies a region in the image where the structure is estimated to exist based on the type of the structure;
The computing device includes a camera abnormality detection procedure for detecting an abnormality in the vehicle-mounted camera,
In the camera abnormality detection procedure, the calculation device uses the color information obtained in the structure color identification procedure when the structure is present around the own vehicle, and the color information obtained in the structure color identification procedure when the structure is present in the image. An image processing method characterized in that an abnormality in the vehicle-mounted camera is detected by comparing color components of an estimated region.
請求項6に記載の画像処理方法であって、
前記画像領域特定手順では、前記演算装置が、自車両の周囲に存在すると推定される構造物の情報を地図情報から取得することを特徴とする画像処理方法。
The image processing method according to claim 6,
The image processing method is characterized in that, in the image region specifying step, the arithmetic unit acquires information on structures estimated to exist around the host vehicle from map information.
請求項6に記載の画像処理方法であって、
前記演算装置が、自車両の周囲に存在すると推定される構造物の情報を自車両の状態から推定する自車情報取得手順を含むことを特徴とする画像処理方法。
The image processing method according to claim 6,
An image processing method characterized in that the arithmetic unit includes a vehicle information acquisition procedure for estimating information on structures estimated to exist around the vehicle from the state of the vehicle.
請求項8に記載の画像処理方法であって、
前記自車情報取得手順では、前記演算装置が、車両の状態を車速から推定することを特徴とする画像処理方法。
The image processing method according to claim 8,
The image processing method is characterized in that, in the self-vehicle information acquisition procedure, the arithmetic unit estimates the state of the vehicle from the vehicle speed.
請求項6に記載の画像処理方法であって、
前記記憶装置は、前記構造物の種類に対応して、構造物が存在すると推定される領域を示す構造物位置情報を保持し、
前記画像領域特定手順では、前記演算装置が、前記構造物位置情報を参照して、前記画像の中で前記構造物が存在すると推定される領域を特定することを特徴とする画像処理方法。
The image processing method according to claim 6,
The storage device stores structure position information indicating an area where a structure is estimated to exist, corresponding to the type of structure,
The image processing method is characterized in that, in the image region specifying step, the arithmetic device refers to the structure position information and specifies a region in the image where the structure is estimated to exist.
車載電子制御装置であって、
所定の演算処理を実行する演算装置と、
前記演算処理に必要なデータを格納する記憶装置とを備え、
前記演算装置が、車載カメラより画像を取得する画像取得部と、
前記演算装置が、自車両の周囲に存在すると推定される構造物の種類に基づいて、当該構造物の色情報を特定する構造物色特定部と、
前記演算装置が、前記構造物の種類に基づいて、前記画像の中で前記構造物が存在すると推定される領域を特定する画像領域特定部と、
前記演算装置が、前記車載カメラの異常を検知するカメラ異常検知部とを有し、
前記カメラ異常検知部は、前記自車両の周囲に前記構造物が存在する場合、前記構造物色特定部から得られた色情報と、前記画像の中に前記構造物が存在すると推定される領域の色成分とを比較して、前記車載カメラの異常を検知することを特徴とする車載電子制御装置。
An in-vehicle electronic control device,
an arithmetic device that performs predetermined arithmetic processing;
and a storage device for storing data necessary for the arithmetic processing,
an image acquisition unit in which the arithmetic unit acquires an image from an in-vehicle camera ;
a structure color identification unit in which the arithmetic unit identifies color information of the structure based on the type of structure estimated to exist around the host vehicle;
an image area specifying unit in which the arithmetic unit specifies an area in the image where the structure is estimated to exist based on the type of the structure;
The arithmetic device has a camera abnormality detection unit that detects an abnormality in the vehicle-mounted camera,
When the structure exists around the own vehicle, the camera abnormality detection unit uses the color information obtained from the structure color identification unit and the area in the image where the structure is estimated to exist. An on-vehicle electronic control device that detects an abnormality in the on-vehicle camera by comparing color components.
JP2022545316A 2020-08-25 2021-05-21 Image processing device, image processing method, and in-vehicle electronic control device Active JP7446445B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020141436 2020-08-25
JP2020141436 2020-08-25
PCT/JP2021/019374 WO2022044453A1 (en) 2020-08-25 2021-05-21 Image processing device, image processing method, and vehicle onboard electronic control device

Publications (3)

Publication Number Publication Date
JPWO2022044453A1 JPWO2022044453A1 (en) 2022-03-03
JPWO2022044453A5 JPWO2022044453A5 (en) 2023-02-01
JP7446445B2 true JP7446445B2 (en) 2024-03-08

Family

ID=80353065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022545316A Active JP7446445B2 (en) 2020-08-25 2021-05-21 Image processing device, image processing method, and in-vehicle electronic control device

Country Status (2)

Country Link
JP (1) JP7446445B2 (en)
WO (1) WO2022044453A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001103496A (en) 1999-09-30 2001-04-13 Mitsubishi Electric Corp Image processor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5666538B2 (en) * 2012-11-09 2015-02-12 富士重工業株式会社 Outside environment recognition device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001103496A (en) 1999-09-30 2001-04-13 Mitsubishi Electric Corp Image processor

Also Published As

Publication number Publication date
JPWO2022044453A1 (en) 2022-03-03
WO2022044453A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
CN111212772B (en) Method and device for determining a driving strategy of a vehicle
CN110178167B (en) Intersection violation video identification method based on cooperative relay of cameras
US9773177B2 (en) Surrounding environment recognition device
US8670592B2 (en) Clear path detection using segmentation-based method
US10552706B2 (en) Attachable matter detection apparatus and attachable matter detection method
US9360332B2 (en) Method for determining a course of a traffic lane for a vehicle
JP7040374B2 (en) Object detection device, vehicle control system, object detection method and computer program for object detection
CN111382768A (en) Multi-sensor data fusion method and device
CN113160594B (en) Change point detection device and map information distribution system
JP2019530924A (en) Object detection from camera images
JP2020086545A (en) Object detection device, object detection method and computer program for object detection
KR101134857B1 (en) Apparatus and method for detecting a navigation vehicle in day and night according to luminous state
KR101998584B1 (en) Lane detection apparatus and lane detection method
US20200118280A1 (en) Image Processing Device
KR100355993B1 (en) An apparatus for warning lane deviation and a method for warning the same
JP7226368B2 (en) Object state identification device
JP7446445B2 (en) Image processing device, image processing method, and in-vehicle electronic control device
JP7229032B2 (en) External object detection device
US11749002B2 (en) Lane line recognition apparatus
JP2023546062A (en) Image processing method
US11679769B2 (en) Traffic signal recognition method and traffic signal recognition device
JP2018073049A (en) Image recognition device, image recognition system, and image recognition method
EP3865815A1 (en) Vehicle-mounted system
WO2023112127A1 (en) Image recognition device and image recognition method
WO2019013253A1 (en) Detection device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240227

R150 Certificate of patent or registration of utility model

Ref document number: 7446445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150