JP2021180441A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2021180441A
JP2021180441A JP2020085783A JP2020085783A JP2021180441A JP 2021180441 A JP2021180441 A JP 2021180441A JP 2020085783 A JP2020085783 A JP 2020085783A JP 2020085783 A JP2020085783 A JP 2020085783A JP 2021180441 A JP2021180441 A JP 2021180441A
Authority
JP
Japan
Prior art keywords
image
camera
abnormality
overcorrection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020085783A
Other languages
Japanese (ja)
Other versions
JP6934981B1 (en
Inventor
知也 河越
Tomoya Kawagoe
徹也 大庭
Tetsuya Oba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020085783A priority Critical patent/JP6934981B1/en
Application granted granted Critical
Publication of JP6934981B1 publication Critical patent/JP6934981B1/en
Publication of JP2021180441A publication Critical patent/JP2021180441A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To provide an image processing device that can detect an abnormality in an in-vehicle camera even when the change in the edge amount of image data of the camera is small at the time of performing failure diagnosis of the camera in real time while driving.SOLUTION: An image processing device includes an image detection unit that detects and identifies a target to be detected from image input data of an in-vehicle camera which is a detection target, an image restoration unit that restores an image from the image input data, an overcorrection detection unit that detects an overcorrected portion on the basis of the restoration result, and an abnormality determination unit that makes an abnormality determination from the detection result of the target and the detection result of the overcorrected portion, and detects an abnormality in the camera while driving by detecting an overcorrected area.SELECTED DRAWING: Figure 1

Description

本願は、特に車両に搭載され、カメラの故障診断を走行中にリアルタイムに行う画像処理装置に関するものである。 The present application relates to an image processing device which is mounted on a vehicle and performs a failure diagnosis of a camera in real time while driving.

近年車両に搭載されたカメラで撮影された画像から、道路上の他の車両、歩行者、自転車、二輪車他の障害物の物標を画像処理装置によって検知し、所定距離に物標が存在すると判断した場合には警告を発生させること、およびブレーキあるいはハンドルを自動で操作することによって事故を未然に防止することが行われている。ここで、「物標」とは、レーダ方式あるいは交通制御システムの分野において使用されている用語で、ターゲットに相当する用語である。車両に搭載された画像処理装置において、カメラが故障した場合には、制御が不安定な状態になる可能性が高い。そのため、極めて信頼性の高い装置が必要とされている。 When an image processing device detects the target of another vehicle, pedestrian, bicycle, two-wheeled vehicle or other obstacle on the road from the image taken by the camera mounted on the vehicle in recent years, the target exists at a predetermined distance. When it is judged, a warning is issued, and an accident is prevented by automatically operating the brake or the handle. Here, the "target" is a term used in the field of radar system or traffic control system, and is a term corresponding to a target. In the image processing device mounted on the vehicle, if the camera breaks down, there is a high possibility that the control becomes unstable. Therefore, an extremely reliable device is required.

そこで、撮像手段であるカメラと、この撮像手段で撮像された画像のエッジを検出し、検出されたエッジの量と基準値とを比較することにより、カメラの異常を検出することが提案されている (例えば、特許文献1参照。)。 Therefore, it has been proposed to detect an abnormality in the camera by detecting an edge of an image captured by the camera as an imaging means and comparing the amount of the detected edge with a reference value. (See, for example, Patent Document 1).

特開平9−113221号公報Japanese Unexamined Patent Publication No. 9-11321

「ウェーブレット変換を用いたスペースバリアントな劣化画像の復元」https://search.ieice.org/bin/pdf_link.php?category=D2&lang=J&year=1995&fname=j78-d2_12_1821&abst="Restoration of Space Variant Degraded Images Using Wavelet Transform" https://search.ieice.org/bin/pdf_link.php?category=D2&lang=J&year=1995&fname=j78-d2_12_1821&abst=

しかしながら、特許文献1による従来の画像処理装置では、エッジの量によりカメラの異常を検出しているため、カメラの異常によるエッジ量の変化は、撮像された画像のエッジの量の変化に比べ、小さいので、カメラの異常の検出が難しく、画像処理に深刻な影響を与えるカメラの焦点ボケの異常の検出が遅れる場合があるという問題があり、このための対策を講じる必要があるという課題があった。 However, in the conventional image processing apparatus according to Patent Document 1, since the abnormality of the camera is detected by the amount of edges, the change in the amount of edges due to the abnormality of the camera is compared with the change in the amount of edges in the captured image. Since it is small, it is difficult to detect abnormalities in the camera, and there is a problem that detection of abnormalities in focus blur of the camera, which has a serious effect on image processing, may be delayed, and there is a problem that measures must be taken for this. rice field.

本願は、上記の課題を解決するためになされたものであり、車載カメラの故障診断を走行中にリアルタイムに行う際に、カメラの画像データのエッジ量の変化が小さくてもカメラの異常を検出することができる画像処理装置を提供することを目的としている。 The present application has been made to solve the above-mentioned problems, and when a failure diagnosis of an in-vehicle camera is performed in real time while driving, an abnormality of the camera is detected even if the change in the edge amount of the image data of the camera is small. It is an object of the present invention to provide an image processing apparatus capable of performing.

本願に開示される画像処理装置は、カメラの画像データから検知対象の物標を検知し、検知結果を出力する画像検知部と、前記画像データから復元した復元画像を出力する画像復元部と、前記復元画像中から過大補正領域を検出する過大補正検出部と、前記過大補正領域によって前記カメラの異常の有無を判定する異常判定部と、を備えていることを特徴とするものである。 The image processing apparatus disclosed in the present application includes an image detection unit that detects a target to be detected from image data of a camera and outputs a detection result, an image restoration unit that outputs a restored image restored from the image data, and an image restoration unit. It is characterized by including an overcorrection detection unit that detects an overcorrection region from the restored image, and an abnormality determination unit that determines the presence or absence of an abnormality in the camera by the overcorrection region.

本願に開示される画像処理装置によれば、カメラの異常を復元画像の過大補正の領域によって判定することで、カメラの画像データのエッジ量が変化してもカメラの異常を検出することができるという効果がある。 According to the image processing apparatus disclosed in the present application, by determining the abnormality of the camera by the area of the overcorrection of the restored image, the abnormality of the camera can be detected even if the edge amount of the image data of the camera changes. There is an effect.

実施の形態1に係る画像処理装置を含む画像処理システムの全体の構成を示す機能ブロック図である。It is a functional block diagram which shows the whole structure of the image processing system including the image processing apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る画像処理装置の概略構成図である。It is a schematic block diagram of the image processing apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る画像処理装置による異常判定手順を示すフロー図である。It is a flow figure which shows the abnormality determination procedure by the image processing apparatus which concerns on Embodiment 1. FIG. 実施の形態1における過大補正の領域を示す図である。It is a figure which shows the region of the overcorrection in Embodiment 1. FIG. 実施の形態1における検知対象の物標の領域を示す図である。It is a figure which shows the area of the target object to be detected in Embodiment 1. FIG. 実施の形態1における異常検出しない物標の領域を示す図である。It is a figure which shows the area of the target which does not detect anomaly in Embodiment 1. FIG. 実施の形態1における製品検査工程を示す図である。It is a figure which shows the product inspection process in Embodiment 1. FIG.

実施の形態1.
図1は、実施の形態1に係る画像処理装置を含む画像処理システムの全体の構成を示す機能ブロック図である。図2は、実施の形態1に係る画像処理装置の概略構成図である。図3は、実施の形態1に係る画像処理装置による異常判定手順を示すフロー図である。
Embodiment 1.
FIG. 1 is a functional block diagram showing an overall configuration of an image processing system including the image processing apparatus according to the first embodiment. FIG. 2 is a schematic configuration diagram of the image processing apparatus according to the first embodiment. FIG. 3 is a flow chart showing an abnormality determination procedure by the image processing apparatus according to the first embodiment.

次に、図1を用いて、実施の形態1に係る画像処理装置を含む画像処理システムの全体の構成について説明する。画像処理装置1は、検知対象であるカメラ10の画像入力データから歩行者を始め、他の車両、白線を含む検知対象である物標を検知、識別する画像検知部11と、画像検知部11による物標の検知結果を出力する検知結果出力部12と、カメラの画像入力データから画像を復元処理する第一の画像復元部13a及び第二の画像復元部13bと、第一の画像復元部13a及び第二の画像復元部13bによる復元結果に基づいてそれぞれ過大補正されている部分を検出する第一の過大補正検出部14a及び第二の過大補正検出部14bと、画像検知部11による物標の検知結果及び第一の過大補正検出部14a及び第二の過大補正検出部14bによる過大補正部分の検出結果から異常判定を行う異常判定部15と、異常判定部15の判定結果を出力する判定結果出力部16と、で構成されている。 Next, with reference to FIG. 1, the entire configuration of the image processing system including the image processing apparatus according to the first embodiment will be described. The image processing device 1 has an image detection unit 11 and an image detection unit 11 that detect and identify a pedestrian, another vehicle, and a target target including a white line from the image input data of the camera 10 to be detected. The detection result output unit 12 that outputs the detection result of the target, the first image restoration unit 13a and the second image restoration unit 13b that restore the image from the image input data of the camera, and the first image restoration unit. An object by the first overcorrection detection unit 14a, the second overcorrection detection unit 14b, and the image detection unit 11 that detect the overcorrected portion based on the restoration results by the 13a and the second image restoration unit 13b, respectively. The abnormality determination unit 15 that determines an abnormality from the detection result of the mark and the detection result of the overcorrection portion by the first overcorrection detection unit 14a and the second overcorrection detection unit 14b, and the determination result of the abnormality determination unit 15 are output. It is composed of a determination result output unit 16.

図2に示すように、画像処理装置1が備える各機能部11から16は、処理装置80、記憶装置81、入力装置82、出力装置83、及び表示装置84により実現される。 As shown in FIG. 2, each functional unit 11 to 16 included in the image processing device 1 is realized by a processing device 80, a storage device 81, an input device 82, an output device 83, and a display device 84.

ここで、処理装置80は、専用のハードウェアであっても、記憶装置81に格納されるプログラムを実行するCPU(Central Processing Unit、中央演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSPともいう)であってもよい。 Here, the processing unit 80 is a CPU (also referred to as a Central Processing Unit, a central processing unit, a microprocessor, a microcomputer, a processor, or a DSP) that executes a program stored in the storage device 81 even if it is dedicated hardware. It may be.

処理装置80が専用のハードウェアである場合、処理装置80は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらを組み合わせたものが該当する。画像検知部11、検知結果出力部12、第一の画像復元部13a、第二の画像復元部13b、第一の過大補正検出部14a、第二の過大補正検出部14b及び判定結果出力部16の各部の機能それぞれを処理装置80で実現してもよいし、各部の機能をまとめて処理装置80で実現してもよい。 When the processing device 80 is dedicated hardware, the processing device 80 corresponds to, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof. .. Image detection unit 11, detection result output unit 12, first image restoration unit 13a, second image restoration unit 13b, first overcorrection detection unit 14a, second overcorrection detection unit 14b, and determination result output unit 16. The functions of each part may be realized by the processing device 80, or the functions of each part may be collectively realized by the processing device 80.

処理装置80がCPUの場合、画像検知部11、検知結果出力部12、第一の画像復元部13a、第二の画像復元部13b、第一の過大補正検出部14a、第二の過大補正検出部14b及び判定結果出力部16の各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア及びファームウェアは処理プログラムとして記述され、記憶装置81に格納される。処理装置80は、記憶装置81に記憶された処理プログラムを読み出して実行することにより、各部の機能を実現する。すなわち、画像処理装置1は、処理装置80により実行されるときに、カメラ10からカメラ画像データを取り込むための処理工程、取得されたカメラ画像データにより画像検知を検出する処理工程、カメラ画像データから画像復元する処理工程、画像復元による過大補正を検出する処理工程、異常の有無の判定を行う処理工程及び外部装置にデータ処理結果を出力する処理工程が結果的に実行されることになる処理プログラムを格納するための記憶装置81を備える。また、これらの処理プログラムは、画像検知部11、検知結果出力部12、第一の画像復元部13a、第二の画像復元部13b、第一の過大補正検出部14a、第二の過大補正検出部14b及び判定結果出力部16の手順あるいは方法をコンピュータに実行させるものであるともいえる。ここで、記憶装置81とは、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROM等の不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等が該当する。 When the processing device 80 is a CPU, the image detection unit 11, the detection result output unit 12, the first image restoration unit 13a, the second image restoration unit 13b, the first overcorrection detection unit 14a, and the second overcorrection detection. The functions of each part of the unit 14b and the determination result output unit 16 are realized by software, firmware, or a combination of software and firmware. The software and firmware are described as a processing program and stored in the storage device 81. The processing device 80 realizes the functions of each unit by reading and executing the processing program stored in the storage device 81. That is, from the processing step for capturing camera image data from the camera 10, the processing step for detecting image detection from the acquired camera image data, and the camera image data when the image processing device 1 is executed by the processing device 80. A processing program that results in execution of a processing process for image restoration, a processing process for detecting excessive correction due to image restoration, a processing process for determining the presence or absence of an abnormality, and a processing process for outputting data processing results to an external device. A storage device 81 for storing the data is provided. Further, these processing programs include an image detection unit 11, a detection result output unit 12, a first image restoration unit 13a, a second image restoration unit 13b, a first overcorrection detection unit 14a, and a second overcorrection detection. It can also be said that the procedure or method of the unit 14b and the determination result output unit 16 is executed by the computer. Here, the storage device 81 corresponds to, for example, a non-volatile or volatile semiconductor memory such as RAM, ROM, flash memory, EPROM, EEPROM, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD, or the like. do.

なお、画像検知部11、第一の画像復元部13a、第二の画像復元部13b、第一の過大補正検出部14a、第二の過大補正検出部14bの機能については、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、第一の画像復元部13a、第二の画像復元部13bについては専用のハードウェアとしての処理装置80でその機能を実現し、第一の過大補正検出部14a、第二の過大補正検出部14bについては処理装置80が記憶装置81に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。 Some of the functions of the image detection unit 11, the first image restoration unit 13a, the second image restoration unit 13b, the first overcorrection detection unit 14a, and the second overcorrection detection unit 14b are dedicated. It may be realized by hardware, and partly by software or firmware. For example, the functions of the first image restoration unit 13a and the second image restoration unit 13b are realized by the processing device 80 as dedicated hardware, and the first overcorrection detection unit 14a and the second overcorrection detection are realized. The function of the unit 14b can be realized by the processing device 80 reading and executing the program stored in the storage device 81.

このように、処理装置80は、ハードウェア、ソフトウェア、ファームウェア、または、これらの組み合わせによって、上述の各機能を実現することができる。 As described above, the processing device 80 can realize each of the above-mentioned functions by hardware, software, firmware, or a combination thereof.

記憶装置81は、上述の処理工程を実行するプログラムを格納するほか、カメラ10から取得したカメラ画像データ、異常判定部15において処理されたデータを用いて、基準値と比較することで異常判定されたカメラの異常判定結果を格納する。 In addition to storing the program that executes the above-mentioned processing step, the storage device 81 uses the camera image data acquired from the camera 10 and the data processed by the abnormality determination unit 15 to compare with the reference value to determine the abnormality. Stores the error judgment result of the camera.

また、入力装置82は、画像検知部11、第一の画像復元部13a、第二の画像復元部13bはカメラ10から出力されたカメラの画像データを予め決められた時刻に定期的に取得する。出力装置83は、検知結果出力部12及び判定結果出力部16に相当し、外部装置に処理結果を出力する。表示装置84は、処理装置80において実行される状況等を適宜表示する。 Further, the input device 82 periodically acquires the image data of the camera output from the camera 10 at a predetermined time by the image detection unit 11, the first image restoration unit 13a, and the second image restoration unit 13b. .. The output device 83 corresponds to the detection result output unit 12 and the determination result output unit 16, and outputs the processing result to the external device. The display device 84 appropriately displays the status and the like executed by the processing device 80.

図1において、カメラ10は、車両上に取り付けられ、車両の前方、側方、または後方を撮影した画像のカメラ画像データを画像処理装置1に向けて出力する。
画像検知部11は、カメラ10が出力したカメラの画像データから、歩行者、他の車両、白線の検知対象の物標を検知し、検知された物標の画像上の領域(位置、大きさを含む情報)を検知結果として検知結果出力部12に出力する。検知結果出力部12は、物標検知結果として外部装置に出力する。また、画像検知部11は、「空(そら)」の異常検出しない物標の画像上の領域の情報を検知結果として異常判定部15に提供する。異常判定部15は、画像検知部11、第一の過大補正検出部14a、第二の過大補正検出部14b及び外部装置からの車両状態情報にて、カメラの異常の有無を検知する。異常検知された検知対象の物標の画面上の位置及び大きさを示すカメラの異常検知結果が、判定結果出力部16を通じて外部装置に出力される。
In FIG. 1, the camera 10 is mounted on a vehicle and outputs camera image data of images taken from the front, side, or rear of the vehicle toward the image processing device 1.
The image detection unit 11 detects a pedestrian, another vehicle, and a target to be detected by the white line from the image data of the camera output by the camera 10, and the area (position, size) on the image of the detected target. Information including) is output to the detection result output unit 12 as a detection result. The detection result output unit 12 outputs the target detection result to the external device. Further, the image detection unit 11 provides the abnormality determination unit 15 with the information of the region on the image of the target that does not detect the abnormality of the “sky” as the detection result. The abnormality determination unit 15 detects the presence or absence of an abnormality in the camera based on the image detection unit 11, the first overcorrection detection unit 14a, the second overcorrection detection unit 14b, and the vehicle state information from the external device. The abnormality detection result of the camera indicating the position and size of the object to be detected that has been detected as an abnormality on the screen is output to the external device through the determination result output unit 16.

次に、図1を参照して、車両上に取り付けられたカメラにより撮像された画像データから検知対象である物標の画像を復元する画像復元部、復元画像データの中の過大に補正が行われた領域を検出する過大補正検出部、及び検知した物標の位置および時刻から画面上の指定の領域の異常の有無を判定する異常判定部の各部の処理内容について説明する。 Next, with reference to FIG. 1, the image restoration unit that restores the image of the target to be detected from the image data captured by the camera mounted on the vehicle, and the restored image data are overcorrected. The processing contents of each part of the overcorrection detection unit that detects the damaged area and the abnormality determination unit that determines the presence or absence of an abnormality in the specified area on the screen from the position and time of the detected target will be described.

まず、第一の画像復元部13a及び第二の画像復元部13bは、それぞれ劣化パラメータσが、第1の劣化パラメータσ、第2の劣化パラメータσにおいて、劣化したカメラの画像データの画像を復元する。なお、画像復元に関しては、非特許文献1の手法を参考としている。 First, in the first image restoration unit 13a and the second image restoration unit 13b, the deterioration parameter σ is the image of the image data of the deteriorated camera in the first deterioration parameter σ 1 and the second deterioration parameter σ 2, respectively. To restore. Regarding image restoration, the method of Non-Patent Document 1 is referred to.

劣化パラメータσとして、点光源に対する(劣化の)系のインパルス応答であるPSF(Point Spread Function:点広がり関数)h(x,y)を、式(1)のガウス関数によりモデル化したときの半値幅σを用いることとする。

Figure 2021180441

ここで、x,yは画素の座標を、σは分散を、σ(∝r)は半値幅をそれぞれ示す。 As the deterioration parameter σ, the PSF (Point Spread Function) h (x, y), which is the impulse response of the (degraded) system to the point light source, is half of the model when the Gaussian function of Eq. (1) is used. The price range σ will be used.
Figure 2021180441

Here, x and y indicate the coordinates of the pixel, σ 2 indicates the variance, and σ (∝r) indicates the half width.

第一の画像復元部13a及び第二の画像復元部13bは、カメラの画像データg(x,y)により、h(x,y)により劣化する前の画像データf(x,y)を復元する。g(x,y)は、式(2)で表される。

Figure 2021180441
The first image restoration unit 13a and the second image restoration unit 13b restore the image data f (x, y) before being deteriorated by h (x, y) by the image data g (x, y) of the camera. do. g (x, y) is represented by the equation (2).
Figure 2021180441

ここで、n(x,y)は、ノイズ成分であるが、以下、簡単にするため省略する。
第一の画像復元部13a及び第二の画像復元部13bは、ウェーブレット変換を用いて画像復元を行うこととする。画像復元部は、始めにカメラの画像データg(x,y)及びPSF h(x,y)をそれぞれG(a,b),H(a,b)(b=(x,y))にウェーブレット変換する。G(a,b),H(a,b)と、劣化する前の画像データf(x,y)のウェーブレット変換F(a,b)とは、式(3)の関係にある。

Figure 2021180441
Here, n (x, y) is a noise component, but will be omitted below for the sake of simplicity.
The first image restoration unit 13a and the second image restoration unit 13b perform image restoration using the wavelet transform. The image restoration unit first converts the camera image data g (x, y) and PSF h (x, y) into G (a, b), H (a, b) (b = (x, y)), respectively. Wavelet transform. G (a, b), H (a, b) and the wavelet transform F (a, b) of the image data f (x, y) before deterioration are in the relationship of the equation (3).
Figure 2021180441

式(3)よりF(a,b)を求めて(式(4))、ウェーブレット逆変換することで劣化する前の画像データf(x,y)を復元する。

Figure 2021180441
F (a, b) is obtained from the equation (3) (formula (4)), and the image data f (x, y) before deterioration is restored by the wavelet inverse transformation.
Figure 2021180441

第一の過大補正検出部14a及び第二の過大補正検出部14bは、それぞれ第一の画像復元部13a及び第二の画像復元部13bから出力された復元画像データの中の過大に補正が行われた領域(画素の画面上の位置)を検出し、出力する。
例えば、劣化パラメータσのPSFの画像データのウェーブレット変換をH(a,b)とし、式(4)においてG(a,b)=H(a,b)としたとき、これを劣化パラメータσのPSFにより劣化した画像データとして画像復元すると、F(a,b)は、σとσの大小関係により以下の式(5)から式(7)となる。ここでH|σ―σF|(a,b)は、劣化パラメータ|σ―σ|のPSFのウェーブレット変換である。

Figure 2021180441
Figure 2021180441
Figure 2021180441
式(7)のσ>σのとき、F(a,b)は、式(6)のF(a,b)=1のウェーブレット逆変換 f(x,y)=(点光源の画像)を越える補正が行われ、過大な補正が行われる(図4を参照。)。 The first overcorrection detection unit 14a and the second overcorrection detection unit 14b make excessive corrections in the restored image data output from the first image restoration unit 13a and the second image restoration unit 13b, respectively. Detects the damaged area (position of pixels on the screen) and outputs it.
For example, the wavelet transform of image data of the PSF of the degradation parameter σ F H F (a, b ) and, when the G (a, b) = H F (a, b) in equation (4), the deterioration of this When the image is restored as image data deteriorated by the PSF of the parameter σ, F (a, b) becomes the following equations (5) to (7) depending on the magnitude relationship between σ and σ F. Here, H | σ-σF | (a, b) is the wavelet transform of the PSF of the deterioration parameter | σ-σ F |.
Figure 2021180441
Figure 2021180441
Figure 2021180441
When σ> σ F in the equation (7), F (a, b) is a wavelet inverse transform of F (a, b) = 1 in the equation (6) f (x, y) = (image of a point light source). A correction exceeding the above is performed, and an excessive correction is performed (see FIG. 4).

カメラ画像データに劣化パラメータσ以上の焦点ボケの異常が発生しているとき、劣化パラメータσにより画像を復元しても、式(7)の過大な補正は行われない。
過大な補正が行われた画面上の領域においては、異常が発生していないことがわかる(図6を参照。)。
第一の過大補正検出部14a及び第二の過大補正検出部14bは、過大な補正の行われている画像上の領域を、F(a,b)を逆ウェーブレット変換して復元した画像上のリンギングにより発生した本来画像中に存在しない負の画素値により検出する。
When the camera image data has an abnormality of defocusing of the deterioration parameter σ or more, even if the image is restored by the deterioration parameter σ, the excessive correction of the equation (7) is not performed.
It can be seen that no abnormality has occurred in the area on the screen where the excessive correction has been performed (see FIG. 6).
The first overcorrection detection unit 14a and the second overcorrection detection unit 14b are on the image in which the region on the image on which the overcorrection is performed is restored by reverse wavelet transforming F (a, b). It is detected by the negative pixel value generated by ringing that does not originally exist in the image.

異常判定部15は、第一の過大補正検出部14a及び第二の過大補正検出部14bが検出した過大な補正が行われた画面上の領域、すなわち焦点ボケの異常が発生していない領域、及びそれが検出された時刻、及び画像検知部11の検知した物標の位置および時刻から画面上の指定の領域の異常の有無を判定する。 The abnormality determination unit 15 is a region on the screen where the excessive correction detected by the first overcorrection detection unit 14a and the second overcorrection detection unit 14b has been performed, that is, a region where an abnormality in defocusing has not occurred. From the time when it is detected and the position and time of the target detected by the image detection unit 11, it is determined whether or not there is an abnormality in the designated area on the screen.

本実施の形態における上記の画面上の指定の領域を、図4に示す領域Pi(i=0から8)とする。異常判定部15は、領域Pi毎、第一の過大補正検出部14a及び第二の過大補正検出部14b毎にカウント値c[n][i](n=1,2、ここで、n=1は第一の過大補正検出部14aを、n=2は第二の過大補正検出部14bをそれぞれ表す。)にカウンタを設け、一定時間毎(カメラ画像データの入力毎に)にカウント値c[n][i]を、それぞれ、減算値Δc[n][i]ずつ減算(カウントダウン)する。また、異常判定部15は、第一の過大補正検出部14a及び第二の過大補正検出部14bの出力である過大な補正が行われた領域が、領域Piに含まれるとき、カウント値c[n][i]を、それぞれ初期値s[n][i](n=1,2)にセットする。また、システムの起動時も、カウント値c[n][i]をs[n][i]にセットする。
また、異常判定部15は、カウント値c[1][i]またはc[2][i]が‘0’以下になったときに、異常ありの判定結果を判定結果出力部16に出力する。
The designated area on the screen in the present embodiment is defined as the area Pi (i = 0 to 8) shown in FIG. The abnormality determination unit 15 counts the count values c [n] [i] (n = 1,2, where n =) for each region Pi, for each of the first overcorrection detection unit 14a and the second overcorrection detection unit 14b. 1 represents the first overcorrection detection unit 14a, and n = 2 represents the second overcorrection detection unit 14b.) A counter is provided, and the count value c is provided every fixed time (every time the camera image data is input). [n] [i] are subtracted (counted down) by the subtraction value Δc [n] [i], respectively. Further, the abnormality determination unit 15 counts the count value c [when the area Pi includes the area where the excessive correction, which is the output of the first overcorrection detection unit 14a and the second overcorrection detection unit 14b, is performed. Set n] [i] to the initial values s [n] [i] (n = 1,2), respectively. Also, when the system starts up, the count value c [n] [i] is set to s [n] [i].
Further, the abnormality determination unit 15 outputs the determination result of abnormality to the determination result output unit 16 when the count value c [1] [i] or c [2] [i] becomes '0' or less. ..

また、異常判定部15は、減算値Δc[n][i]を式(8)とする。

Figure 2021180441
式(8)において、|Pi|は領域Piの面積(画素数)、|Sitarget|は検知された検知対象の物標の領域のうちの領域Piに含まれる領域の面積(画素数)である(図5を参照。)。|Simask|は、検知された異常検出しない物標の領域のうちの領域Piに含まれる領域の面積(画素数)である(図6を参照。)。dtarget[n][i]は、検知対象の物標が検知されたときの最大の減算値である。dmask[n][i]は、異常検出しない物標が検知されないときの最大の減算値である。d0[n][i]は、最小の減算値である。減算値Δc[n][i]は、d0[n][i]を最小として、検知された検知対象の物標と異常検出しない物標の領域が領域Piに含まれる割合で決める。 Further, the abnormality determination unit 15 uses the subtraction value Δc [n] [i] as the equation (8).
Figure 2021180441
In the equation (8), | Pi | is the area of the region Pi (number of pixels), and | Si target | is the area of the region included in the region Pi of the detected target target regions (number of pixels). Yes (see Figure 5). | Si mask | is the area (number of pixels) of the area (number of pixels) included in the area Pi in the area of the target that is detected and the abnormality is not detected (see FIG. 6). d target [n] [i] is the maximum subtraction value when the target to be detected is detected. d mask [n] [i] is the maximum subtraction value when a target that does not detect anomalies is not detected. d 0 [n] [i] is the smallest subtraction value. The subtraction value Δc [n] [i] is determined by the ratio that the area of the detected target target and the area of the target not detected abnormally are included in the area Pi with d 0 [n] [i] as the minimum.

カウンタの初期値s[n][i]、dtarget[n][i]、dmask[n][i]、d0[n][i]は、画面上の位置、および劣化パラメータσ(n=1,2)に応じて選ぶ。例えば、画面の中央の領域は、遠方の小さな検知対象の物標を検知するので、カメラの異常による検知性能の低下が深刻な事態を引き起こす懸念があり、早期に劣化を検出する必要があるため、劣化パラメータσ(<σ)のカウンタの初期値s[1][i]を小さくし、dtarget[1][i]、dmask[1][i]、d0[1][i]を大きくすればよい。一方、画面の上部の領域は、検知対象の物標を検知することがないため、dtarget[1][i]=0、dmask[1][i]=0、d0[1][i]=0とし、劣化パラメータσで異常検出することができる。 The initial values of the counter s [n] [i], d target [n] [i], d mask [n] [i], d 0 [n] [i] are the position on the screen and the deterioration parameter σ n. Select according to (n = 1,2). For example, since the central area of the screen detects a small target to be detected in the distance, there is a concern that deterioration of detection performance due to camera abnormality may cause a serious situation, and it is necessary to detect deterioration at an early stage. , Decrease the initial value s [1] [i] of the counter of the deterioration parameter σ 1 (<σ 2 ), d target [1] [i], d mask [1] [i], d 0 [1] [ i] should be increased. On the other hand, the area at the top of the screen does not detect the target to be detected, so d target [1] [i] = 0, d mask [1] [i] = 0, d 0 [1] [ It is possible to detect an abnormality with the deterioration parameter σ 2 by setting i] = 0.

判定結果出力部16は、異常判定部15における異常の有無を示す判定結果を出力する。 The determination result output unit 16 outputs a determination result indicating the presence or absence of an abnormality in the abnormality determination unit 15.

次に、実施の形態1における異常検出の処理方法について図3から図6を用いて説明する。
システムの起動時(t=0)(ステップS101)、各領域Piのカウント値c[n][i]にs[n][i]をセットする(ステップS102)。
Next, the processing method of abnormality detection in the first embodiment will be described with reference to FIGS. 3 to 6.
At system startup (t = 0) (step S101), s [n] [i] is set in the count values c [n] [i] of each region Pi (step S102).

画像検知部11は、カメラ10から出力された画像データを入力する(ステップS103)。画像データから検知対象の物標を検知する(ステップS104)。また、画像検知部11は、カメラ画像データから異常検出しない物標を検知する(ステップS105)。 The image detection unit 11 inputs the image data output from the camera 10 (step S103). The target to be detected is detected from the image data (step S104). Further, the image detection unit 11 detects a target that does not detect an abnormality from the camera image data (step S105).

第一の画像復元部13a及び第二の画像復元部13bは、それぞれ指定の劣化パラメータσ,σにおいてカメラ画像データを画像復元する(ステップS106)。 The first image restoration unit 13a and the second image restoration unit 13b restore the camera image data with the designated deterioration parameters σ 1 and σ 2, respectively (step S106).

第一の過大補正検出部14a及び第二の過大補正検出部14bは、復元された画像上のリンギングにより発生した本来画像中に存在しない負の画素値がある領域を、過大な補正が行われた領域として検出する(ステップS107)。 The first overcorrection detection unit 14a and the second overcorrection detection unit 14b perform excessive correction on a region having a negative pixel value that does not originally exist in the image, which is generated by ringing on the restored image. It is detected as a region (step S107).

異常判定部15は、第一の過大補正検出部14a及び第二の過大補正検出部14bで検出された過大な補正が行われた領域、及び画像検出部が検知した検知対象の物標の領域、異常検出しない領域から、異常の有無を判定する(ステップS108)。
異常判定部15の式(8)の減算値Δc[n][i]が、dtarget[n][i]=0、dmask[n][i]=0の場合、すなわち、Δc[n][i]=d0[n][i]の場合における異常判定部15の処理について、図4を参照して説明する。
The abnormality determination unit 15 is a region where the excessive correction detected by the first overcorrection detection unit 14a and the second overcorrection detection unit 14b has been performed, and a region of the target to be detected detected by the image detection unit. , It is determined whether or not there is an abnormality from the area where the abnormality is not detected (step S108).
When the subtraction value Δc [n] [i] in the equation (8) of the abnormality determination unit 15 is d target [n] [i] = 0 and d mask [n] [i] = 0, that is, Δc [n ] [I] = d 0 [n] [i], the processing of the abnormality determination unit 15 will be described with reference to FIG.

カメラ10に異常がない場合、図4の時刻t1に第一の過大補正検出部14aあるいは第二の過大補正検出部14bが出力した過大補正された領域が領域Piに含まれる場合、領域Piのカウント値c[n][i]に初期値s[n][i]がセットされる(ステップS109)。さらに、ステップS103に戻る。
カメラ10に異常がある場合、過大補正の領域の出力がなく、カウント値c[n][i]の減算値Δc[n][i]=d0[n][i]による減算が続き(ステップS110、ステップS111)、時刻t2にカウント値c[n][i]が‘0’以下となり、カメラ10の異常を検出する(ステップS112)。その後、異常検出結果を出力する(ステップS113)。
If there is no abnormality in the camera 10, and the area Pi includes the overcorrected area output by the first overcorrection detection unit 14a or the second overcorrection detection unit 14b at time t1 in FIG. 4, the area Pi The initial value s [n] [i] is set in the count value c [n] [i] (step S109). Further, the process returns to step S103.
If there is an abnormality in the camera 10, there is no output in the overcorrection area, and the subtraction value Δc [n] [i] = d 0 [n] [i] of the count value c [n] [i] continues ( Step S110, step S111), the count value c [n] [i] becomes '0' or less at time t2, and the abnormality of the camera 10 is detected (step S112). After that, the abnormality detection result is output (step S113).

異常判定部15における式(8)の減算値Δc[n][i]が、d0[n][i]=0、dmask[n][i]=0である場合、すなわち、式(9)の場合における異常判定部15の処理について、図5を参照して説明する。

Figure 2021180441
検知対象の物標が検知されるまでは、|Sitarget|=0で、Δc[n][i]=0であるので、c[n][i]は、一定値となる。
時刻t0において、領域Pi内に検知対象の物標が検知されると、カウント値c[n][i]が、式(9)の減算値Δc[n][i]ずつ減算される(ステップS110、ステップS111)。 When the subtraction value Δc [n] [i] of the equation (8) in the abnormality determination unit 15 is d 0 [n] [i] = 0 and d mask [n] [i] = 0, that is, the equation ( The processing of the abnormality determination unit 15 in the case of 9) will be described with reference to FIG.
Figure 2021180441
Until the target to be detected is detected, | Si target | = 0 and Δc [n] [i] = 0, so c [n] [i] is a constant value.
When the target to be detected is detected in the area Pi at time t0, the count value c [n] [i] is subtracted by the subtraction value Δc [n] [i] of the equation (9) (step). S110, step S111).

カメラ10に異常がなく、時刻t1に第一の過大補正検出部14aあるいは第二の過大補正検出部14bの出力した過大な補正の行われた領域が領域Piに含まれる場合、領域Piのカウント値c[n][i]に初期値s[n][i]がセットされる(ステップS109)。その後、カメラの画像データ入力に戻る(ステップS103)。
カメラ10に異常がある場合、過大補正の領域の出力がなく、式(9)の減算値Δc[n][i]によるカウント値c[n][i]の減算が続き、時刻t2にカウント値c[n][i]が‘0’以下となり、カメラ10の異常を検出する(ステップS112)。その後、異常検出結果を出力する(ステップS113)。
When there is no abnormality in the camera 10 and the area Pi includes the area where the excessive correction is performed, which is output by the first overcorrection detection unit 14a or the second overcorrection detection unit 14b at time t1, the area Pi is counted. The initial value s [n] [i] is set in the value c [n] [i] (step S109). After that, the process returns to the image data input of the camera (step S103).
If there is an abnormality in the camera 10, there is no output in the overcorrection area, the subtraction value Δc [n] [i] in Eq. (9) continues to subtract the count values c [n] [i], and the count is counted at time t2. When the values c [n] [i] become '0' or less, the abnormality of the camera 10 is detected (step S112). After that, the abnormality detection result is output (step S113).

したがって、カメラ10に異常がないとき、検知対象の物標の領域には常に過大補正の領域が含まれ、カウント値が初期化されるので、カウント値が‘0’以下になることがなく、異常検出を出力することはない。カメラ10に異常がある場合、検知対象の物標の領域に過大補正の領域が含まれないので、早期にカウント値が‘0’以下になり、短時間に異常を検出することができる。 Therefore, when there is no abnormality in the camera 10, the area of the target to be detected always includes the area of overcorrection and the count value is initialized, so that the count value does not become '0' or less. No anomaly detection is output. When there is an abnormality in the camera 10, since the area of the target to be detected does not include the area of overcorrection, the count value becomes ‘0’ or less at an early stage, and the abnormality can be detected in a short time.

異常判定部15における式(8)の減算値Δc[n][i]が、dtarget[n][i]=0、d0[n][i]=0である場合、すなわち、減算値Δc[n][i]が、式(10)の場合における異常判定部15の処理について図6を参照して説明する。

Figure 2021180441
領域Piに異常検出されない物標が含まれない場合、カウント値c[n][i]は、減算値Δc[n][i]=dmask[n][i]で減算され、時刻t2において異常検出を出力する(ステップS110、ステップS111)。
時刻t0から、領域Piに異常検出しない物標が含まれる場合、領域Piの面積|Pi|と領域Piに含まれる異常検出しない物標の面積|Simask|の割合に応じて減算値Δc[n][i]が減少し、カウント値c[n][i]が‘0’となる時刻が先送りされる。そのため、領域Piが「空(そら)」の部分で過大補正が起きにくい場合に、異常と判定されることを防止する(ステップS112)。 When the subtraction value Δc [n] [i] of the equation (8) in the abnormality determination unit 15 is d target [n] [i] = 0, d 0 [n] [i] = 0, that is, the subtraction value. The processing of the abnormality determination unit 15 in the case where Δc [n] [i] is the equation (10) will be described with reference to FIG.
Figure 2021180441
If the region Pi does not contain a target that is not detected abnormally, the count value c [n] [i] is subtracted by the subtraction value Δc [n] [i] = d mask [n] [i], and at time t2. Output the abnormality detection (step S110, step S111).
From time t0, if it contains target object not abnormality detection in the region Pi, the area of the region Pi | Pi | and area target area which do not abnormality detection contained in the Pi | Si mask | subtraction value in proportion to the .DELTA.c [ The time when n] [i] decreases and the count value c [n] [i] becomes '0' is postponed. Therefore, when the region Pi is “empty” and it is difficult for excessive correction to occur, it is prevented from being determined as abnormal (step S112).

判定結果出力部16は、異常判定部15により判定された異常の有無の判定の結果、異常がある場合には、異常検出結果を出力し(ステップS113)、正常である場合には、正常検知結果を出力し(ステップS114)、カメラの画像データ入力に戻る(ステップS103)。 The determination result output unit 16 outputs an abnormality detection result if there is an abnormality as a result of determination of the presence or absence of the abnormality determined by the abnormality determination unit 15 (step S113), and if it is normal, normal detection is performed. The result is output (step S114), and the process returns to the camera image data input (step S103).

上記説明では、画像復元部及び過大補正検出部が複数組ある場合について、述べたがそれぞれ単体であってもよい。 In the above description, the case where there are a plurality of sets of the image restoration unit and the overcorrection detection unit has been described, but each may be a single unit.

このように、実施の形態1では、カメラの異常を復元画像の過大補正の領域によって判定しているので、カメラ画像データのエッジ量が変化してもカメラの異常を検出することができる。 As described above, in the first embodiment, since the abnormality of the camera is determined by the area of the overcorrection of the restored image, the abnormality of the camera can be detected even if the edge amount of the camera image data changes.

なお、領域Piは1つの領域であってもよい。また、第一の画像復元部13a及び第二の画像復元部13bは、ウィーナフィルタなど他の画像復元の方式を用いたものでもよい。また、第一の画像復元部13aと第二の画像復元部13bとは異なる画像復元の方式であってもよい。また、それらに合わせて、第一の過大補正検出部14aと第二の過大補正検出部14bとが異なるものであってもよい。 The region Pi may be one region. Further, the first image restoration unit 13a and the second image restoration unit 13b may use other image restoration methods such as a Wiener filter. Further, the first image restoration unit 13a and the second image restoration unit 13b may have different image restoration methods. Further, the first overcorrection detection unit 14a and the second overcorrection detection unit 14b may be different in accordance with them.

また、実施の形態1においては、過大補正が行われた領域の検出をリンギングにより復元画像中に発生した負の画素値により行っているが、式(4)のG(a,b)/H(a,b)(の関数)の特性により検出してもよい。例えば、過大補正が行われた領域b=(x,y)では、G(a,b)/H(a,b)が高周波(aが小)になるほど大きな値となる。 Further, in the first embodiment, the overcorrected region is detected by the negative pixel value generated in the restored image by ringing, but G (a, b) / H in the equation (4). (A, b) It may be detected by the characteristic of (function). For example, in the region b = (x, y) where the overcorrection is performed, the higher the frequency (a is smaller) of G (a, b) / H (a, b), the larger the value.

また、図1においては、異常判定部は、車両状態(速度)の情報から車両の走行中にのみ異常判定を行うようにして、停車中での過大補正が起きにくい状態が続いた場合に、異常と判定されるのを防止するようにしている。また、カメラの異常が突発的に発生しない場合、起動後の一定期間のみ異常検出を行うことにより、消費電力を減らすことができる。 Further, in FIG. 1, the abnormality determination unit makes an abnormality determination only while the vehicle is running based on the vehicle state (speed) information, and when the state in which overcorrection is unlikely to occur while the vehicle is stopped continues. I try to prevent it from being judged as abnormal. Further, when the abnormality of the camera does not occur suddenly, the power consumption can be reduced by detecting the abnormality only for a certain period after the start-up.

また、図7に示す製品検査工程において、図7(a)に示すように、例えば、図7(b)に示すパターンの検査チャート20をカメラ10で撮影し、異常判定部が領域Piのそれぞれの異常判定の結果を出力するようにして、製品の良否の判定に使用することも可能である。 Further, in the product inspection process shown in FIG. 7, as shown in FIG. 7A, for example, the inspection chart 20 of the pattern shown in FIG. 7B is photographed by the camera 10, and the abnormality determination unit is in each of the regions Pi. It is also possible to output the result of the abnormality determination of the product and use it to determine the quality of the product.

また、本願は、例示的な実施の形態が記載されているが、実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合が含まれるものとする。
Also, although the present application describes exemplary embodiments, the various features, embodiments, and functions described in the embodiments are not limited to the application of a particular embodiment, but alone. , Or in various combinations can be applied to embodiments.
Therefore, innumerable variations not exemplified are envisioned within the scope of the techniques disclosed herein. For example, it is assumed that at least one component is modified, added or omitted.

また、図において、同一符号は、同一または相当部分を示す。 Further, in the figure, the same reference numerals indicate the same or corresponding parts.

1 画像処理装置、10 カメラ、11 画像検知部、12 検知結果出力部、13a 第一の画像復元部、13b 第二の画像復元部、14a 第一の過大補正検出部、14b 第二の過大補正検出部、15 異常判定部、16 判定結果出力部、20 検査チャート、80 処理装置、81 記憶装置、82 入力装置、83 出力装置、84 表示装置 1 image processing device, 10 cameras, 11 image detection unit, 12 detection result output unit, 13a first image restoration unit, 13b second image restoration unit, 14a first overcorrection detection unit, 14b second overcorrection Detection unit, 15 Abnormality determination unit, 16 Judgment result output unit, 20 Inspection chart, 80 Processing device, 81 Storage device, 82 Input device, 83 Output device, 84 Display device

Claims (7)

カメラの画像データから検知対象の物標を検知し、検知結果を出力する画像検知部と、
前記画像データから復元した復元画像を出力する画像復元部と、
前記復元画像から過大補正領域を検出する過大補正検出部と、
前記過大補正領域によって前記カメラの異常の有無を判定する異常判定部と、を備えていることを特徴とする画像処理装置。
An image detection unit that detects the target to be detected from the image data of the camera and outputs the detection result,
An image restoration unit that outputs the restored image restored from the image data, and
An overcorrection detection unit that detects an overcorrection area from the restored image,
An image processing device including an abnormality determination unit for determining the presence or absence of an abnormality in the camera by the overcorrection region.
前記画像復元部及び前記過大補正検出部を複数組備え、複数の前記復元画像により検出された複数の前記過大補正領域によって前記カメラの異常の有無を判定することを特徴とする請求項1に記載の画像処理装置。 The first aspect of claim 1, wherein a plurality of sets of the image restoration unit and the overcorrection detection unit are provided, and the presence or absence of an abnormality in the camera is determined by the plurality of the overcorrection regions detected by the plurality of restored images. Image processing equipment. 前記復元画像の復元には、指定の劣化パラメータを用いることを特徴とする請求項1あるいは請求項2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein a designated deterioration parameter is used for the restoration of the restored image. 前記画像データに設定された複数の領域に、前記過大補正領域が含まれているか否かによって前記カメラの異常の有無を判定することを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。 Any one of claims 1 to 3, wherein the presence or absence of an abnormality in the camera is determined based on whether or not the overcorrection region is included in the plurality of regions set in the image data. The image processing apparatus according to. 指定の一定期間内に前記過大補正領域が検出されるか否かにより、前記カメラが異常の有無を判定することを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。 The image processing according to any one of claims 1 to 4, wherein the camera determines the presence or absence of an abnormality depending on whether or not the overcorrection region is detected within a specified fixed period. Device. 前記画像データの前記物標の領域の面積により、前記指定の一定期間を変更することを特徴とする請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the designated fixed period is changed depending on the area of the target area of the image data. 前記画像データの空の領域の面積により、前記指定の一定期間を変更することを特徴とする請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the designated fixed period is changed depending on the area of an empty area of the image data.
JP2020085783A 2020-05-15 2020-05-15 Image processing device Active JP6934981B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020085783A JP6934981B1 (en) 2020-05-15 2020-05-15 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020085783A JP6934981B1 (en) 2020-05-15 2020-05-15 Image processing device

Publications (2)

Publication Number Publication Date
JP6934981B1 JP6934981B1 (en) 2021-09-15
JP2021180441A true JP2021180441A (en) 2021-11-18

Family

ID=77657867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020085783A Active JP6934981B1 (en) 2020-05-15 2020-05-15 Image processing device

Country Status (1)

Country Link
JP (1) JP6934981B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028746A (en) * 1999-07-14 2001-01-30 Fuji Heavy Ind Ltd External monitoring device having fail/safe function
JP2014179702A (en) * 2013-03-13 2014-09-25 Railway Technical Research Institute Camera device and image display system, and normality detection method
WO2017110628A1 (en) * 2015-12-22 2017-06-29 京セラ株式会社 Imaging device, imaging system, vehicle, and method for determining foreign matter

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028746A (en) * 1999-07-14 2001-01-30 Fuji Heavy Ind Ltd External monitoring device having fail/safe function
JP2014179702A (en) * 2013-03-13 2014-09-25 Railway Technical Research Institute Camera device and image display system, and normality detection method
WO2017110628A1 (en) * 2015-12-22 2017-06-29 京セラ株式会社 Imaging device, imaging system, vehicle, and method for determining foreign matter

Also Published As

Publication number Publication date
JP6934981B1 (en) 2021-09-15

Similar Documents

Publication Publication Date Title
US8150154B2 (en) Method and apparatus for correcting chromatic aberration of image
US8682068B2 (en) Image processing apparatus, image processing method, and program
JP5198192B2 (en) Video restoration apparatus and method
US20110242352A1 (en) Image processing method, computer-readable storage medium, image processing apparatus, and imaging apparatus
JPWO2005101854A1 (en) Image processing apparatus having color misregistration correction function, image processing program, and electronic camera
JPWO2007105359A1 (en) Image processing apparatus, image processing program, electronic camera, and image processing method for image analysis of lateral chromatic aberration
CN107710279B (en) Static smudge detection and correction
US9582868B2 (en) Image processing apparatus that appropriately performs tone correction in low-illuminance environment, image processing method therefor, and storage medium
US10839479B2 (en) Imaging apparatus, image processing apparatus, image processing method, and medium
JP5455611B2 (en) Image processing apparatus, image processing method, and program
JP5610106B1 (en) Foreign matter information detection device and foreign matter information detection method for imaging apparatus
JP7251425B2 (en) Attached matter detection device and attached matter detection method
JP6934981B1 (en) Image processing device
JP6426323B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
US20150222826A1 (en) Image processing apparatus, image processing method, and storage medium
JP2013207788A (en) Video processing apparatus
US10728440B2 (en) Apparatus for generating and displaying a focus assist image indicating a degree of focus for a plurality of blocks obtained by dividing a frame of image signal
JP5633733B2 (en) Dark region noise correction device
JP2021051382A (en) Attached matter detection device and attached matter detection method
US10339637B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for correcting deterioration of image
JP2010093623A (en) Image processor
JP7039215B2 (en) Image processing equipment, image processing methods, and programs
JP7163767B2 (en) Image processing device and image processing method
JP2020108130A (en) Deposit detector, and deposit detection method
JP7151479B2 (en) Attached matter detection device and attached matter detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210824

R151 Written notification of patent or utility model registration

Ref document number: 6934981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151