JP2019102929A - Video processing system, video processing apparatus, and video processing method - Google Patents

Video processing system, video processing apparatus, and video processing method Download PDF

Info

Publication number
JP2019102929A
JP2019102929A JP2017230632A JP2017230632A JP2019102929A JP 2019102929 A JP2019102929 A JP 2019102929A JP 2017230632 A JP2017230632 A JP 2017230632A JP 2017230632 A JP2017230632 A JP 2017230632A JP 2019102929 A JP2019102929 A JP 2019102929A
Authority
JP
Japan
Prior art keywords
video
unit
imaging unit
image
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017230632A
Other languages
Japanese (ja)
Inventor
洋志 湯本
Hiroshi Yumoto
洋志 湯本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017230632A priority Critical patent/JP2019102929A/en
Publication of JP2019102929A publication Critical patent/JP2019102929A/en
Pending legal-status Critical Current

Links

Images

Abstract

To accurately detect a malfunction generated in a captured video even when the malfunction is difficult to detect.SOLUTION: A video processing system comprises: a plurality of capturing units 1, 2 provided on a mobile body; a first feature amount detection unit 12 for detecting a feature amount from video in a first capturing range in video captured by the first capturing unit 1 of the plurality of capturing units 1, 2; a second feature amount detection unit 14 for detecting a feature amount from video in the first capturing range in video captured by the second capturing unit 2 other than the first capturing unit 1; and feature amount comparison detection units 15, 16 that compare the feature amount in the first capturing range detected by the first feature amount detection unit 12 with the feature amount in the first capturing range detected by the second feature amount detection unit 14 to detect at least any one of a malfunction region included in the video captured by the first capturing unit 1 and a malfunction region included in the video captured by the second capturing unit 2 other than the first capturing unit 1.SELECTED DRAWING: Figure 1

Description

本発明は、移動体に搭載される映像処理システム及び映像処理装置並びに移動体に搭載される映像処理システムおいて用いられる映像処理方法に関するものである。   The present invention relates to a video processing system and a video processing apparatus mounted on a moving body, and a video processing method used in a video processing system mounted on a moving body.

近年、自車両の周囲の状況を速やかに確認するために、後方又は側方を撮像するカメラを搭載する車両が増加している。カメラが車外に配置される場合、カメラのレンズに泥などの汚れが付着し、撮像される映像に汚れが写り込むことがある。また、カメラが車内に配置される場合も、カメラのレンズを覆うガラス面(例えば、リアウィンドウ。)に汚れが付着したり、傷がついたりして、撮像された映像に汚れや傷が写り込むことがある。   2. Description of the Related Art In recent years, vehicles equipped with cameras for capturing images of the rear or the side have been increasing in order to quickly confirm the situation around the host vehicle. When the camera is disposed outside the vehicle, dirt such as mud may be attached to the lens of the camera, and the dirt may be reflected in the image to be captured. In addition, even when the camera is placed in a car, the glass surface (for example, the rear window) covering the lens of the camera may be stained or scratched, and the dirt or scratches may appear in the captured image. I can get stuck.

これに対し、車両の後方又は側方を撮像する車載カメラ装置において、カメラのレンズ又はカメラレンズを覆うガラス面に泥などの異物が付着した場合に、この異物を自動検知する技術が知られている(例えば、特許文献1参照)。   On the other hand, in an on-vehicle camera device for imaging the rear or side of a vehicle, there is known a technique for automatically detecting foreign matter such as mud when adhering to the lens of the camera or the glass surface covering the camera lens. (See, for example, Patent Document 1).

特許文献1に開示された車載カメラ装置では、カメラが撮像した撮像映像における、表示態様が変化しない領域を検出することによって、カメラのレンズ表面に付着した異物を検出している。   In the on-vehicle camera device disclosed in Patent Document 1, a foreign matter attached to the lens surface of the camera is detected by detecting a region where the display mode does not change in the captured image captured by the camera.

特開2007−38773号公報JP 2007-38773 A

ところで、特許文献1に開示された技術において、異物の検出精度を高くしようとすると、撮像映像中における表示態様が変化しない領域を精度良く検知する必要がある。しかしながら、表示態様が変化しない領域を精度よく検知しようとすると、継続的に映像に写り込んだ道路上の白線なども、表示態様が変化しない領域として検知してしまい、異物の検出精度が低下する恐れがあった。   By the way, in the technique disclosed in Patent Document 1, in order to increase the detection accuracy of foreign matter, it is necessary to accurately detect an area where the display mode in the captured image does not change. However, if an area in which the display mode does not change is to be detected accurately, white lines on the road continuously reflected in the image are also detected as an area in which the display mode does not change, and the detection accuracy of foreign matter decreases. There was a fear.

このようなことから、微少な異物や透過性の高い汚れがカメラのレンズに付着した場合など、検出が困難な不具合が撮像映像に発生した場合であっても、高精度に該不具合を検知する映像処理システムが求められる。   As such, even when a defect that is difficult to detect occurs in a captured image, such as when a minute foreign substance or highly permeable dirt adheres to the lens of the camera, the defect is detected with high accuracy. A video processing system is required.

本発明は、検出が困難な不具合が撮像映像に発生した場合であっても、高精度に該不具合を検知することが可能な映像処理システム、映像処理装置及び映像処理方法を提供することを目的とする。   An object of the present invention is to provide an image processing system, an image processing apparatus, and an image processing method capable of detecting a defect with high accuracy even if a defect that is difficult to detect occurs in a captured video. I assume.

上記目的を達成するために、本発明の映像処理システムは、移動体に設置される複数の撮像部と、複数の撮像部のうちの第1の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第1の特徴量検出部と、複数の撮像部のうちの第1の撮像部以外の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第2の特徴量検出部と、第1の特徴量検出部で検出された第1の撮像範囲の特徴量と第2の特徴量検出部で検出された第1の撮像範囲の特徴量とを比較して、第1の撮像部で撮像された映像に含まれる不具合領域及び第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出部と、を備える。   In order to achieve the above object, a video processing system according to the present invention comprises a plurality of imaging units installed on a moving object, and at least a first imaging in an image captured by a first imaging unit of the plurality of imaging units. A first feature amount detection unit that detects a feature amount from a video of a range, and a feature amount from a video of at least a first imaging range in a video captured by an imaging unit other than the first imaging unit among the plurality of imaging units Of the first imaging range detected by the first feature amount detection unit, and the features of the first imaging range detected by the second feature amount detection unit At least one of the defect area included in the image captured by the first imaging unit and the defect area included in the image captured by the imaging unit other than the first And a feature amount comparison detection unit to detect.

また、上記目的を達成するために、本発明の映像処理装置は、移動体に設置される複数の撮像部のうちの第1の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第1の特徴量検出部と、複数の撮像部のうちの第1の撮像部以外の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第2の特徴量検出部と、第1の特徴量検出部で検出された第1の撮像範囲の特徴量と第2の特徴量検出部で検出された第1の撮像範囲の特徴量とを比較して、第1の撮像部で撮像された映像に含まれる不具合領域及び第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出部と、を備える。   Further, in order to achieve the above object, according to the video processing device of the present invention, a video of at least a first imaging range in a video captured by a first imaging unit among a plurality of imaging units installed on a moving object A first feature amount detection unit for detecting a feature amount, and a feature amount is detected from an image of at least a first imaging range in an image captured by an imaging unit other than the first imaging unit among the plurality of imaging units Comparison of the feature quantities of the first imaging range detected by the first feature quantity detection unit with the feature quantities of the first imaging range detected by the second feature quantity detection unit And a feature amount for detecting at least one of the defect area included in the image captured by the first imaging unit and the defect area included in the image captured by the imaging unit other than the first imaging unit And a comparison detection unit.

また、上記目的を達成するために、本発明の映像処理方法は、移動体に設置される複数の撮像部のうちの第1の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第1の特徴量検出ステップと、複数の撮像部のうちの第1の撮像部以外の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第2の特徴量検出ステップと、第1の特徴量検出ステップで検出された第1の撮像範囲の特徴量と第2の特徴量検出ステップで検出された第1の撮像範囲の特徴量とを比較して、第1の撮像部で撮像された映像に含まれる不具合領域及び第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出ステップと、を備える。   Further, in order to achieve the above object, according to the image processing method of the present invention, an image of at least a first imaging range in an image imaged by a first imaging unit of a plurality of imaging units installed on a moving object A first feature amount detection step of detecting a feature amount, and detecting a feature amount from an image of at least a first imaging range in an image captured by an imaging unit other than the first imaging unit among the plurality of imaging units; Comparison of the feature amounts of the first imaging range detected in the first feature amount detection step with the second feature amount detection step and the feature amounts of the first imaging range detected in the second feature amount detection step And a feature amount for detecting at least one of the defect area included in the image captured by the first imaging unit and the defect area included in the image captured by the imaging unit other than the first imaging unit And comparing and detecting.

本発明によれば、検出が困難な不具合が撮像映像に発生した場合であっても、高精度に該不具合を検知することが可能である。   According to the present invention, even when a defect that is difficult to detect occurs in a captured image, it is possible to detect the defect with high accuracy.

本発明の実施の形態1に係る各部の機能の一例を示すブロック図Block diagram showing an example of the function of each part according to Embodiment 1 of the present invention 本発明の実施の形態に係る第1の撮像部、第2の撮像部及び表示部の設置位置の一例を示す図The figure which shows an example of the installation position of the 1st imaging part which concerns on embodiment of this invention, a 2nd imaging part, and a display part. 本発明の実施の形態に係る第1の映像合成部が行う合成処理のイメージを示す図The figure which shows the image of the synthetic | combination processing which the 1st video synthetic | combination part which concerns on embodiment of this invention performs 本発明の実施の形態1に係る異物検出処理の一例を示すフローチャートA flowchart showing an example of the foreign matter detection process according to the first embodiment of the present invention 本発明の実施の形態1に係る異物検出処理によって異物が検出された場合に表示部に出力される合成映像のイメージの一例を示す図The figure which shows an example of the image of the synthetic | combination image output to a display part when a foreign material is detected by the foreign material detection process which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る異物検出処理によって異物が検出された場合に表示部に出力される合成映像のイメージの別の例を示す図The figure which shows another example of the image of the synthetic | combination image output to a display part when a foreign material is detected by the foreign material detection process which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る各部の機能の一例を示すブロック図Block diagram showing an example of the function of each part according to Embodiment 2 of the present invention 本発明の実施の形態2に係る異物検出処理によって異物が検出された場合に表示部に出力される合成映像のイメージを示す図The figure which shows the image of the synthetic | combination image output to a display part when a foreign material is detected by the foreign material detection process which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る各部の機能の一例を示すブロック図Block diagram showing an example of the function of each part according to Embodiment 3 of the present invention 本発明の実施の形態3に係る異物検出処理の一例を示すフローチャートFlowchart showing an example of the foreign matter detection process according to the third embodiment of the present invention

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、同じ構成要素には同じ符号を付している。また、図面は、理解しやすくするためにそれぞれの構成要素を模式的に示している。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the same component. Also, the drawings schematically show the respective components in order to facilitate understanding.

(実施の形態1)
図1は、本発明の実施の形態1に係る各部の機能の一例を示すブロック図である。本発明の実施の形態1に係る映像処理システムは、第1の撮像部1と、第2の撮像部2と、映像処理装置10と、表示部4と、を備える。
Embodiment 1
FIG. 1 is a block diagram showing an example of the function of each unit according to Embodiment 1 of the present invention. The video processing system according to Embodiment 1 of the present invention includes a first imaging unit 1, a second imaging unit 2, a video processing apparatus 10, and a display unit 4.

第1の撮像部1は、例えば、車両に設置されるCCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像装置である。   The first imaging unit 1 is an imaging device such as, for example, a charge coupled device (CCD) camera or a complementary metal oxide semiconductor (CMOS) camera installed in a vehicle.

第1の撮像部1は、有線または無線により、映像処理装置10と通信可能に接続される。第1の撮像部1は、撮像した映像の映像データをリアルタイムで映像処理装置10に送信する。   The first imaging unit 1 is communicably connected to the video processing apparatus 10 by wire or wirelessly. The first imaging unit 1 transmits video data of a captured video to the video processing apparatus 10 in real time.

第2の撮像部2は、例えば、車両に設置されるCCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像装置である。   The second imaging unit 2 is an imaging device such as, for example, a charge coupled device (CCD) camera or a complementary metal oxide semiconductor (CMOS) camera installed in a vehicle.

第2の撮像部2は、有線または無線により、映像処理装置10と通信可能に接続される。第2の撮像部2は、撮像した映像の映像データをリアルタイムで映像処理装置10に送信する。   The second imaging unit 2 is communicably connected to the video processing apparatus 10 by wire or wirelessly. The second imaging unit 2 transmits video data of the captured video to the video processing apparatus 10 in real time.

表示部4は、例えば、車室の天井の前部に設置される電子ミラーなどの表示装置である。表示部4は、有線または無線により、映像処理装置10と通信可能に接続される。   The display unit 4 is, for example, a display device such as an electronic mirror installed at the front of a ceiling of a vehicle compartment. The display unit 4 is communicably connected to the video processing apparatus 10 by wire or wirelessly.

図2に、本発明の実施の形態に係る第1の撮像部1、第2の撮像部2及び表示部4の設置位置の一例を示す。   FIG. 2 shows an example of installation positions of the first imaging unit 1, the second imaging unit 2 and the display unit 4 according to the embodiment of the present invention.

第1の撮像部1は、例えば、車両のリアウィンドウの内側部分に設置されるリアカメラ5であり、車両後方を撮像する。ただし、これに限られず、第1の撮像部1は、右側前扉の外側の窓付近に設置される右サイドカメラ6、左側前扉の外側の窓付近に設置される左サイドカメラ7、車外の後方に配置されるバックカメラ8であってもよい。   The first imaging unit 1 is, for example, a rear camera 5 installed in an inner portion of a rear window of the vehicle, and images the rear of the vehicle. However, the present invention is not limited to this. The first imaging unit 1 includes the right side camera 6 installed near the outside window of the right front door, the left side camera 7 installed near the outside window of the left front door, and the outside of the vehicle It may be a back camera 8 disposed behind the.

第2の撮像部2は、リアカメラ5、右サイドカメラ6、左サイドカメラ7またはバックカメラ8のうちのいずれかであって、且つ、第1の撮像部1とは異なるものである。   The second imaging unit 2 is any one of the rear camera 5, the right side camera 6, the left side camera 7, and the back camera 8, and is different from the first imaging unit 1.

表示部4は、上述したように、例えば、車室の天井の前部に設置される電子ミラーであり、車両のルームミラーの代わりに設けられる。また、表示部4は、車両のインストルメントパネルに設置されてもよい。   As described above, the display unit 4 is, for example, an electronic mirror installed at the front of the ceiling of the cabin, and is provided instead of the rearview mirror of the vehicle. Moreover, the display part 4 may be installed in the instrument panel of a vehicle.

図1の説明に戻る。映像処理装置10は、異物消去部10aと、第3の映像抽出部17と、第4の映像抽出部18と、第1の映像合成部19と、を備える。   It returns to the explanation of FIG. The video processing apparatus 10 includes a foreign object erasing unit 10 a, a third video extracting unit 17, a fourth video extracting unit 18, and a first video combining unit 19.

異物消去部10aは、第1の映像抽出部11と、第2の映像抽出部13と、第1の特徴量検出部12と、第2の特徴量検出部14と、特徴量比較部15と、異物検出部16と、を備える。   The foreign material elimination unit 10 a includes a first video extraction unit 11, a second video extraction unit 13, a first feature amount detection unit 12, a second feature amount detection unit 14, and a feature amount comparison unit 15. And a foreign matter detection unit 16.

異物消去部10aは、第1の撮像部1及び第2の撮像部2によって撮像された映像の映像データを受信する。異物消去部10aは、受信した映像データに基づいて、第1の撮像部1又は第2の撮像部2によって撮像された映像に不具合があるか否か、また、映像に不具合がある場合は、映像のどの位置に不具合があるかを検出する。   The foreign matter erasing unit 10 a receives video data of a video imaged by the first imaging unit 1 and the second imaging unit 2. The foreign matter erasing unit 10a determines whether or not there is a defect in the image captured by the first imaging unit 1 or the second imaging unit 2 based on the received image data, and if there is a defect in the image, Detect where in the image there is a defect.

第1の撮像部1又は第2の撮像部2によって撮像された映像に不具合がある場合とは、第1の撮像部1又は第2の撮像部2のカメラレンズに汚れが付着して、撮像映像に汚れが写り込む場合である。あるいは、第1の撮像部1又は第2の撮像部2のカメラの撮像素子に埃などの異物が付着して、撮像映像に異物が写り込む場合である。あるいは車両のリアウィンドウの内側にカメラを設置する場合に、リアウィンドウの外側に異物が付着する場合である。ただし、第1の撮像部1又は第2の撮像部2が撮像した映像に不具合がある場合とは、これらに限られず、撮像映像に乱れが生じる場合など、あらゆる映像の不具合が含まれる。   In the case where there is a defect in the image captured by the first imaging unit 1 or the second imaging unit 2, dirt adheres to the camera lens of the first imaging unit 1 or the second imaging unit 2 and imaging is performed. This is the case when dirt appears on the image. Alternatively, the foreign matter such as dust adheres to the imaging element of the camera of the first imaging unit 1 or the second imaging unit 2, and the foreign matter is captured in the captured image. Or when installing a camera inside the rear window of vehicles, it is a case where a foreign material adheres to the outer side of a rear window. However, the case where there is a defect in the image captured by the first imaging unit 1 or the second imaging unit 2 is not limited thereto, but includes any defect in the image such as a case where a disturbance occurs in the captured image.

第1の映像抽出部11は、第1の撮像部1によって撮像された映像から特徴量を検出するために、所望の映像を抽出する映像抽出部である。第1の映像抽出部11は、映像切り出し部11a、解像度変更部11b及び画質変更部11cにおいて映像の抽出を行う。   The first video extraction unit 11 is a video extraction unit that extracts a desired video in order to detect a feature amount from the video captured by the first imaging unit 1. The first video extraction unit 11 performs video extraction in the video cutout unit 11a, the resolution change unit 11b, and the image quality change unit 11c.

映像切り出し部11aは、第1の撮像部1で撮像された映像から所定の撮像範囲の映像を切り出す切り出し部である。映像切り出し部11aは、後述する映像切り出し部13aによって切り出される所定の撮像範囲の映像と撮像範囲が一致するように、第1の撮像部1で撮像された映像から所定の範囲の映像を切り出す。なお、映像切り出し部11aが切り出す映像の範囲は、予め定められている。   The video cutout unit 11 a is a cutout unit that cuts out a video of a predetermined imaging range from the video captured by the first imaging unit 1. The video cutout unit 11a cuts out a video of a predetermined range from the video captured by the first imaging unit 1 so that the video of the predetermined imaging range which is clipped by the video cutout unit 13a described later matches the video capturing range. The range of the video clipped by the video clipper 11a is predetermined.

解像度変更部11bは、映像切り出し部11aが切り出した映像の解像度を所定の解像度に変更する映像処理部である。解像度変更部11bは、後述する解像度変更部13bによって変更された映像の解像度と一致するように、映像切り出し部11aが切り出した映像の解像度を変更する。   The resolution changing unit 11 b is a video processing unit that changes the resolution of the video clipped by the video clipping unit 11 a to a predetermined resolution. The resolution changing unit 11 b changes the resolution of the video clipped by the video clipping unit 11 a so as to match the resolution of the video changed by the resolution changing unit 13 b described later.

画質変更部11cは、解像度変更部11bにおいて解像度が変更された映像の画質を変更する映像処理部である。ここで、画質とは、例えば、映像の色調をいう。画質変更部11cは、例えば、トーンカーブ補正を行い映像の色調を変更する。画質変更部11cは、後述する画質変更部13cによって画質が変更された映像の画質と一致するように、解像度変更部11bにおいて解像度が変更された映像の画質を変更する。   The image quality change unit 11 c is a video processing unit that changes the image quality of the video whose resolution has been changed by the resolution change unit 11 b. Here, the image quality refers to, for example, the color tone of an image. The image quality change unit 11 c performs, for example, tone curve correction to change the color tone of the image. The image quality change unit 11 c changes the image quality of the image whose resolution has been changed by the resolution change unit 11 b so as to match the image quality of the image whose image quality has been changed by the image quality change unit 13 c described later.

第1の特徴量検出部12は、第1の映像抽出部11において抽出された映像のエッジ検出を行い、検出されたエッジの累積エッジ量を検出する検出部である。   The first feature amount detection unit 12 is a detection unit that performs edge detection of the image extracted by the first image extraction unit 11 and detects an accumulated edge amount of the detected edge.

第1の特徴量検出部12は、まず、入力された映像をグレイスケールに変換する。第1の特徴量検出部12は、例えば、Cannyフィルタを用いて、グレイスケールに変換された映像のエッジ検出を行う。   First, the first feature quantity detection unit 12 converts the input image into gray scale. The first feature quantity detection unit 12 performs edge detection of the image converted to gray scale using, for example, a Canny filter.

また、第1の特徴量検出部12は、映像から検出されたエッジの累積処理を行う。エッジの累積処理とは、映像のエッジ検出が行われるごとに、新たにエッジ検出が行われた映像と過去にエッジ検出が行われた映像との論理積をとることをいう。これにより、新たにエッジ検出が行われた映像と過去にエッジ検出が行われた映像とのエッジの重複部分のみが新たなエッジとして検出されることになる。   Further, the first feature quantity detection unit 12 performs an accumulation process of the edge detected from the video. The edge accumulation processing refers to taking the logical product of a video for which edge detection has been newly performed and a video for which edge detection has been performed in the past each time an edge of the video is detected. As a result, only the overlapping portion of the edge between the image newly subjected to edge detection and the image previously subjected to edge detection is detected as a new edge.

このようなエッジの累積処理を行うことにより、第1の特徴量検出部12は、第1の撮像部1によって撮像された映像の累積エッジ量を検出する。移動中に撮像された映像に対して上記処理を行なうと、不具合の無い領域のエッジは変化するため累積エッジ量は小さくなり、累積時間が大きくなるとともに累積エッジ量は0に近づく。一方で、不具合が存在するエリアは、エッジが変化しないため、累積エッジ量は一定値を示す。   By performing such edge accumulation processing, the first feature amount detection unit 12 detects the accumulated edge amount of the image captured by the first imaging unit 1. When the above processing is performed on the image captured during movement, the edge of the non-problem area changes, so the accumulated edge amount decreases, and the accumulated time increases and the accumulated edge amount approaches zero. On the other hand, since the edge does not change in the area where there is a defect, the accumulated edge amount shows a constant value.

第2の映像抽出部13は、第2の撮像部2によって撮像された映像から特徴量を検出するために、所望の映像を抽出する映像抽出部である。第2の映像抽出部13は、映像切り出し部13a、解像度変更部13b及び画質変更部13cにおいて映像の抽出を行う。   The second video extraction unit 13 is a video extraction unit that extracts a desired video in order to detect the feature amount from the video captured by the second imaging unit 2. The second video extraction unit 13 extracts a video in the video cutout unit 13a, the resolution change unit 13b, and the image quality change unit 13c.

映像切り出し部13aは、第2の撮像部2で撮像された映像から所定の撮像範囲の映像を切り出す映像切り出し部である。映像切り出し部13aは、上述した映像切り出し部11aによって切り出される所定の撮像範囲の映像と撮像範囲が一致するように、第2の撮像部2で撮像された映像から所定の範囲の映像を切り出す。なお、映像切り出し部13aが切り出す映像の範囲は、予め定められている。   The video cutout unit 13 a is a video cutout unit that cuts out a video in a predetermined imaging range from the video captured by the second imaging unit 2. The video cutout unit 13a cuts out a video of a predetermined range from the video captured by the second imaging unit 2 so that the video of the predetermined video capturing range which is clipped by the video clipping unit 11a described above matches the video capturing range. The range of the video clipped by the video clipper 13a is predetermined.

解像度変更部13bは、映像切り出し部13aが切り出した映像の解像度を所定の解像度に変更する映像処理部である。解像度変更部13bは、上述した解像度変更部11bによって変更された映像の解像度と一致するように、映像切り出し部13aが切り出した映像の解像度を変更する。   The resolution changing unit 13 b is a video processing unit that changes the resolution of the video clipped by the video clipping unit 13 a to a predetermined resolution. The resolution changing unit 13 b changes the resolution of the video clipped by the video clipping unit 13 a so as to match the resolution of the video changed by the resolution changing unit 11 b described above.

画質変更部13cは、解像度変更部13bによって解像度が変更された映像の画質を変更する映像処理部である。画質変更部13cは、例えば、トーンカーブ補正を行い映像の色調を変更する。画質変更部13cは、上述した画質変更部11cによって画質が変更された映像の画質と一致するように、解像度変更部13bによって解像度が変更された映像の画質を変更する。   The image quality change unit 13c is a video processing unit that changes the image quality of the video whose resolution has been changed by the resolution change unit 13b. The image quality change unit 13 c performs, for example, tone curve correction to change the color tone of the image. The image quality change unit 13c changes the image quality of the image whose resolution has been changed by the resolution change unit 13b so as to match the image quality of the image whose image quality has been changed by the image quality change unit 11c.

第2の特徴量検出部14は、第2の映像抽出部13によって抽出された映像のエッジ検出を行い、検出されたエッジの累積エッジ量を検出する検出部である。   The second feature amount detection unit 14 detects an edge of the image extracted by the second image extraction unit 13 and detects an accumulated edge amount of the detected edge.

第2の特徴量検出部14は、まず、入力された映像をグレイスケールに変換する。第2の特徴量検出部14は、例えば、Cannyフィルタを用いて、グレイスケールに変換された映像のエッジ検出を行う。   First, the second feature quantity detection unit 14 converts the input image into gray scale. The second feature quantity detection unit 14 performs edge detection of the image converted into gray scale using, for example, a Canny filter.

また、第2の特徴量検出部14は、映像から検出されたエッジの累積処理を行う。エッジの累積処理を行うことにより、第2の特徴量検出部14は、第2の撮像部2によって撮像された映像の累積エッジ量を検出する。   Further, the second feature quantity detection unit 14 performs an accumulation process of the edge detected from the video. By performing the edge accumulation process, the second feature amount detection unit 14 detects the accumulated edge amount of the image captured by the second imaging unit 2.

特徴量比較部15は、第1の特徴量検出部12で検出された累積エッジ量と第2の特徴量検出部14で検出された累積エッジ量との比較を行う比較部である。   The feature amount comparison unit 15 is a comparison unit that compares the accumulated edge amount detected by the first feature amount detection unit 12 with the accumulated edge amount detected by the second feature amount detection unit 14.

特徴量比較部15は、第1の特徴量検出部12から入力される映像を複数のエリアに分割し、分割したエリアごとに累積エッジ量を算出する。また、特徴量比較部15は、第2の特徴量検出部14から入力される映像を複数のエリアに分割し、分割したエリアごとに累積エッジ量を算出する。   The feature amount comparison unit 15 divides the video input from the first feature amount detection unit 12 into a plurality of areas, and calculates an accumulated edge amount for each of the divided areas. Also, the feature amount comparison unit 15 divides the video input from the second feature amount detection unit 14 into a plurality of areas, and calculates an accumulated edge amount for each of the divided areas.

第1の特徴量検出部12及び第2の特徴量検出部14から特徴量比較部15に入力された映像は、例えば、12のエリアにそれぞれ同じように分割される。ただし、映像の分割数は、これに限られず、映像処理装置10の処理能力などに応じて適宜設定すればよい。   An image input from the first feature amount detection unit 12 and the second feature amount detection unit 14 to the feature amount comparison unit 15 is divided into, for example, 12 areas in the same manner. However, the number of divisions of the video is not limited to this, and may be appropriately set according to the processing capacity of the video processing apparatus 10 or the like.

また、第1の特徴量検出部12及び第2の特徴量検出部14から特徴量比較部15に入力された映像の同じ位置にあるエリアには、それぞれ同じエリアナンバーが付される。そして、第1の特徴量検出部12から入力された映像と第2の特徴量検出部14から入力された映像において同じエリアナンバーが付されたエリアの間で、累積エッジ量が比較される。   The same area number is given to the areas at the same positions of the images input from the first feature amount detection unit 12 and the second feature amount detection unit 14 to the feature amount comparison unit 15. Then, the accumulated edge amounts are compared between areas to which the same area number is assigned in the video input from the first feature detection unit 12 and the video input from the second feature detection unit 14.

特徴量比較部15は、第1の特徴量検出部12から入力された映像における分割されたエリアのうち、あるエリアナンバーのエリアの累積エッジ量が所定の閾値以上となった場合、該エリアを第1の異物付着候補に設定する。また、特徴量比較部15は、第2の特徴量検出部14から入力された映像における分割されたエリアのうち、あるエリアナンバーのエリアの累積エッジ量が所定の閾値以上となった場合、該エリアを第2の異物付着候補に設定する。   When the cumulative edge amount of the area of a certain area number out of the divided areas in the video input from the first feature amount detection unit 12 becomes equal to or more than a predetermined threshold, the feature amount comparison unit 15 detects the area Set as the first foreign matter adhesion candidate. In addition, when the cumulative edge amount of the area of an area number among the divided areas in the video input from the second feature amount detection unit 14 becomes equal to or more than a predetermined threshold, the feature amount comparison unit 15 The area is set as a second foreign matter adhesion candidate.

特徴量比較部15は、第1の異物付着候補に設定されたエリアの累積エッジ量と、第2の特徴量検出部14から入力された映像において該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。また、特徴量比較部15は、第2の異物付着候補に設定されたエリアの累積エッジ量と、第1の特徴量検出部12から入力された映像において該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。   The feature amount comparison unit 15 calculates the cumulative edge amount of the area set as the first foreign matter adhesion candidate and the area having the same area number as the area in the video input from the second feature amount detection unit 14 Compare with the accumulated edge amount. Also, the feature amount comparison unit 15 adds the same area number as the area in the cumulative edge amount of the area set as the second foreign matter adhesion candidate and the image input from the first feature amount detection unit 12 Compare with the cumulative edge amount of the area.

特徴量比較部15は、比較したエリアの累積エッジ量の差分が所定の閾値以上となった場合、当該第1の異物付着候補又は第2の異物付着候補に設定されたエリアを最終異物付着候補に設定する。特徴量比較部15は、最終異物付着候補が何れのエリアに設定されたか又は何れのエリアにも設定されていないことを示す情報を異物検出部16に出力する。   When the difference between the accumulated edge amounts of the compared areas becomes equal to or greater than a predetermined threshold value, the feature amount comparison unit 15 sets the area set as the first foreign matter adhesion candidate or the second foreign matter adhesion candidate as the final foreign matter adhesion candidate Set to The feature amount comparison unit 15 outputs, to the foreign matter detection unit 16, information indicating that the final foreign matter adhesion candidate is set in any area or not set in any area.

異物検出部16は、特徴量比較部15から出力される情報に基づいて、最終異物付着候補に設定されたエリアのうちどのエリアに異物が付着しているかを検出する検出部である。   The foreign matter detection unit 16 is a detection unit that detects, based on the information output from the feature amount comparison unit 15, to which area of the areas set as the final foreign matter adhesion candidate the foreign matter adheres.

異物検出部16は、分割されたエリアごとに、連続して最終異物付着候補に設定されている間その設定回数をカウントする最終異物付着候補カウンタを備える。なお、あるエリアが最終異物付着候補に設定される事象の連続性が途切れた場合、該エリアの最終異物付着候補カウンタのカウンタ値はリセットされる。   The foreign substance detection unit 16 is provided with a final foreign substance adhesion candidate counter that counts the set number of times while being set as the final foreign substance adhesion candidate for each divided area. When the continuity of the event in which an area is set as the final foreign matter adhesion candidate is interrupted, the counter value of the final foreign matter adhesion candidate counter of the area is reset.

異物検出部16は、あるエリアの最終異物付着候補カウンタのカウント値が所定の回数Nに達した場合、該エリアを異物付着エリアに設定する。また、異物検出部16は、異物付着エリアに設定されたエリアナンバーを第1の映像合成部19に出力する。   When the count value of the final foreign matter adhesion candidate counter in a certain area reaches a predetermined number N, the foreign matter detection unit 16 sets the area as the foreign matter adhesion area. Further, the foreign matter detection unit 16 outputs the area number set in the foreign matter adhesion area to the first video combining unit 19.

なお、ここでは、異物付着エリアに設定されたエリアを示す情報をエリアナンバーとして説明したが、これに限られない。例えば、エリアを示す情報は、異物付着エリアの位置を示す座標値であってもよい。   In addition, although the information which shows the area set to the foreign material adhesion area was demonstrated as an area number here, it is not restricted to this. For example, the information indicating the area may be coordinate values indicating the position of the foreign matter adhesion area.

第3の映像抽出部17は、第1の撮像部1によって撮像された映像と第2の撮像部2によって撮像された映像とを合成するために、第1の撮像部1によって撮像された映像から所望の映像を抽出する映像抽出部である。   The third video extracting unit 17 is a video captured by the first imaging unit 1 in order to combine the video captured by the first imaging unit 1 with the video captured by the second imaging unit 2. To extract a desired image from the image.

第3の映像抽出部17は、第1の撮像部1によって撮像された映像から所定の撮像範囲を映し出す映像を切り出す。また、第3の映像抽出部17は、切り出した映像の解像度の変更、画質の変更を行う。   The third video extraction unit 17 cuts out a video showing a predetermined imaging range from the video captured by the first imaging unit 1. In addition, the third video extracting unit 17 changes the resolution of the clipped video and the image quality.

第4の映像抽出部18は、第2の撮像部2によって撮像された映像と第1の撮像部1によって撮像された映像とを合成するために、第2の撮像部2によって撮像された映像から所望の映像を抽出する映像抽出部である。   The fourth video extraction unit 18 is a video captured by the second imaging unit 2 in order to combine the video captured by the second imaging unit 2 with the video captured by the first imaging unit 1. To extract a desired image from the image.

第4の映像抽出部18は、第2の撮像部2によって撮像された映像から所定の撮像範囲の映像を切り出す。また、第4の映像抽出部18は、切り出された映像の解像度の変更、画質の変更を行う。   The fourth video extraction unit 18 cuts out a video of a predetermined imaging range from the video captured by the second imaging unit 2. In addition, the fourth video extracting unit 18 changes the resolution of the clipped video and the image quality.

第1の映像合成部19は、第3の映像抽出部17で抽出された映像と第4の映像抽出部18で抽出された映像とを合成した合成映像を生成する合成処理部である。   The first video combining unit 19 is a combining processing unit that generates a combined video obtained by combining the video extracted by the third video extracting unit 17 and the video extracted by the fourth video extracting unit 18.

第1の映像合成部19は、異物消去部10aにおいて異物付着エリアが検出された場合、検出された異物付着エリアの情報(エリアナンバー)に基づいて、第3の映像抽出部17で抽出された映像と第4の映像抽出部18で抽出された映像との合成状態を変更する。   When the foreign matter adhesion area is detected in the foreign matter elimination unit 10a, the first video synthesis unit 19 is extracted by the third video extraction unit 17 based on the detected information (area number) of the foreign matter adhesion area. The composite state of the video and the video extracted by the fourth video extraction unit 18 is changed.

ここで、合成状態を変更するとは、第1の撮像部1で撮像された映像と第2の撮像部2で撮像された映像との合成映像が表示部4に出力されている状態において、第1の撮像部1で撮像された映像と第2の撮像部2で撮像された映像との表示面積割合、あるいは2つの映像を係数(α値)によって合成する際のα値を変更することである。また、合成状態を変更することには、第1の撮像部1で撮像された映像のみが表示部4に出力されている状態において、第1の撮像部1で撮像された映像に第2の撮像部2で撮像された映像を合成して出力することが含まれる。   Here, changing the composite state means that the composite video of the video captured by the first imaging unit 1 and the video captured by the second imaging unit 2 is output to the display unit 4. By changing the display area ratio of the video captured by the first imaging unit 1 to the video captured by the second imaging unit 2 or by changing the α value at the time of combining the two videos by the coefficient (α value) is there. In addition, in order to change the composition state, in a state where only the video captured by the first imaging unit 1 is output to the display unit 4, the second imaging may be performed on the video captured by the first imaging unit 1. The process of combining and outputting the images captured by the imaging unit 2 is included.

図3は、本発明の実施の形態に係る第1の映像合成部19が行う合成処理のイメージを示す図である。   FIG. 3 is a view showing an image of the combining process performed by the first video combining unit 19 according to the embodiment of the present invention.

第1の映像合成部19は、第1の撮像部1(リアカメラ5)によって撮像された映像101と第2の撮像部2(右サイドカメラ6)によって撮像された映像102とを、例えば、左右に並べて合成する。   The first video synthesis unit 19 may, for example, compare the video 101 captured by the first imaging unit 1 (rear camera 5) and the video 102 captured by the second imaging unit 2 (right side camera 6). Arrange on the left and right.

第1の映像合成部19は、これらの映像の境界部付近において、アルファブレンドを行って映像の合成を行う。その際、図3に示すように、第1の映像合成部19は、第1の撮像部1によって撮像された映像101のα値を、第2の撮像部2によって撮像された映像102に向かうにしたがって減少させる。一方、第2の撮像部2によって撮像された映像102のα値を、第1の撮像部1によって撮像された映像101に向かうにしたがって増加させる。   The first video combining unit 19 performs alpha blending in the vicinity of the border of these videos to perform video combining. At that time, as shown in FIG. 3, the first video synthesis unit 19 directs the α value of the video 101 captured by the first imaging unit 1 to the video 102 captured by the second imaging unit 2. Decrease according to On the other hand, the α value of the image 102 captured by the second imaging unit 2 is increased toward the image 101 captured by the first imaging unit 1.

すなわち、第1の映像合成部19は、第1の撮像部1によって撮像された映像101と第2の撮像部2によって撮像された映像102とを合成処理する際、これらの映像の境界部分からの距離に応じて映像の透過率を変化させている。   That is, when the first video combining unit 19 combines the video 101 captured by the first imaging unit 1 and the video 102 captured by the second imaging unit 2, the first video combining unit 19 starts from the boundary portion of these videos. The transmittance of the image is changed according to the distance of

これにより、第1の映像合成部19は、第1の撮像部1で撮像された映像101と第2の撮像部2で撮像された映像102との境界部分が目立たないように映像の合成を行うことができる。   Thereby, the first video combining unit 19 combines the video so that the boundary between the video 101 captured by the first imaging unit 1 and the video 102 captured by the second imaging unit 2 is not noticeable. It can be carried out.

第1の撮像部1(リアカメラ5)によって撮像された映像101と第2の撮像部2(左サイドカメラ7)によって撮像された映像103との合成処理ついても同様に、これらの映像の境界部付近においてアルファブレンドを行うことにより、境界部分が目立たないように映像の合成を行うことができる。   Similarly, in the process of combining the image 101 captured by the first imaging unit 1 (rear camera 5) and the image 103 captured by the second imaging unit 2 (left side camera 7), By performing alpha blending in the vicinity of a part, it is possible to combine images so that the border part is not noticeable.

なお、第1の映像合成部19は、第1の映像抽出部11及び第2の映像抽出部13で抽出された映像を合成処理する際、合成映像の歪みなどを小さくするために、これらの映像の一部を回転、拡大、縮小するなどしてもよい。   The first video combining unit 19 combines the video extracted by the first video extracting unit 11 and the second video extracting unit 13 in order to reduce distortion of the combined video and the like. A part of the image may be rotated, enlarged, or reduced.

また、図3の中段に示した合成映像が表示部4に表示される際、第1の映像合成部19は、該合成映像の左右を反転させた映像データを表示部4に出力する。   When the composite video shown in the middle part of FIG. 3 is displayed on the display unit 4, the first video combining unit 19 outputs video data obtained by inverting the right and left sides of the composite video to the display 4.

次に、異物消去部10aが行う異物検出処理について説明する。図4は、本発明の実施の形態1に係る異物検出処理の一例を示すフローチャートである。なお、図4では、ステップS10〜ステップS30までは、第1の映像抽出部11と第1の特徴量検出部12における処理を示しているが、第2の映像抽出部13と第2の特徴量検出部14においても同様の処理を行っているものとする。   Next, the foreign matter detection processing performed by the foreign matter eraser 10a will be described. FIG. 4 is a flowchart showing an example of the foreign matter detection process according to the first embodiment of the present invention. In FIG. 4, steps S10 to S30 show the processing in the first video extraction unit 11 and the first feature amount detection unit 12, but the second video extraction unit 13 and the second feature It is assumed that the same processing is performed in the amount detection unit 14 as well.

まず、第1の映像抽出部11は、映像抽出処理(ステップS10)を実行する。第1の映像抽出部11における映像切り出し部11aは、映像抽出処理において、第1の撮像部1で撮像された映像から所定の撮像範囲の映像を切り出す。   First, the first video extraction unit 11 executes a video extraction process (step S10). The video cutout unit 11 a in the first video extraction unit 11 cuts out a video of a predetermined imaging range from the video captured by the first imaging unit 1 in the video extraction processing.

また、第1の映像抽出部11における解像度変更部11bは、映像抽出処理において、切り出した映像の解像度を変更する。   Further, the resolution changing unit 11b in the first video extracting unit 11 changes the resolution of the clipped video in the video extracting process.

また、第1の映像抽出部11における画質変更部11cは、映像抽出処理において、解像度を変更した映像の色調を変更する。   Further, the image quality changing unit 11c in the first video extracting unit 11 changes the color tone of the video whose resolution has been changed in the video extracting process.

次に、第1の特徴量検出部12は、特徴量検出処理(ステップS20)を実行する。第1の特徴量検出部12は、特徴量検出処理において、第1の映像抽出部11で抽出された映像のエッジ検出を行い、検出されたエッジの累積エッジ量を検出する。   Next, the first feature quantity detection unit 12 executes a feature quantity detection process (step S20). In the feature amount detection process, the first feature amount detection unit 12 detects an edge of the image extracted by the first image extraction unit 11, and detects an accumulated edge amount of the detected edge.

第1の特徴量検出部12は、特徴量検出処理において、まず、第1の映像抽出部11で抽出された映像をグレイスケールに変換する。次に、第1の特徴量検出部12は、Cannyフィルタを用いて、グレイスケールに変換された映像のエッジ検出を行う。また、第1の特徴量検出部12は、エッジ検出によって検出したエッジの累積処理を実行する。   In the feature amount detection process, the first feature amount detection unit 12 first converts the video extracted by the first video extraction unit 11 into gray scale. Next, the first feature quantity detection unit 12 performs edge detection of the image converted into gray scale using a Canny filter. In addition, the first feature quantity detection unit 12 executes accumulation processing of the edge detected by the edge detection.

次に、第1の特徴量検出部12は、特徴量検出処理(ステップS20)がM回実行されたか否かを判定する(ステップS30)。特徴量検出処理が未だM回実行されていないと判定された場合(ステップS30においてNoの場合)、第1の映像抽出部11は、再び、映像抽出処理(ステップS10)を実行する。   Next, the first feature quantity detection unit 12 determines whether the feature quantity detection process (step S20) has been performed M times (step S30). If it is determined that the feature amount detection process has not been performed M times (No in step S30), the first video extraction unit 11 performs the video extraction process (step S10) again.

特徴量検出処理がM回実行されたと判定された場合(ステップS30においてYesの場合)、特徴量比較部15は、異物付着候補判定処理(ステップS40)を実行する。このとき、特徴量検出処理の実行回数はリセットされる。   When it is determined that the feature amount detection process has been performed M times (in the case of Yes in step S30), the feature amount comparison unit 15 executes the foreign substance adhesion candidate determination process (step S40). At this time, the number of times of execution of the feature amount detection process is reset.

特徴量比較部15は、異物付着候補判定処理において、第1の特徴量検出部12及び第2の特徴量検出部14から入力される映像を複数のエリアに分割する。特徴量比較部15は、分割したエリアごとに、累積された累積エッジ量を算出する。算出された累積エッジ量が所定の閾値以上である場合、特徴量比較部15は、該エリアを異物付着候補に設定する。   The feature amount comparison unit 15 divides the video input from the first feature amount detection unit 12 and the second feature amount detection unit 14 into a plurality of areas in the foreign substance adhesion candidate determination process. The feature amount comparison unit 15 calculates the accumulated edge amount accumulated for each of the divided areas. If the calculated accumulated edge amount is equal to or larger than a predetermined threshold value, the feature amount comparison unit 15 sets the area as a foreign matter adhesion candidate.

次に、特徴量比較部15は、分割されたエリアのうち、異物付着候補が設定されたエリアが存在するか否かを判定する(ステップS50)。   Next, the feature amount comparison unit 15 determines whether or not there is an area to which a foreign matter adhesion candidate is set among the divided areas (step S50).

異物付着候補判定処理において何れのエリアも異物付着候補に設定されていない場合(ステップS50においてNoの場合)、第1の映像抽出部11は、再び、映像抽出処理(ステップS10)を実行する。   If no area is set as a foreign substance adhesion candidate in the foreign substance adhesion candidate determination processing (No in step S50), the first video extraction unit 11 executes the video extraction processing (step S10) again.

異物付着候補判定処理(ステップS40)において何れかのエリアが異物付着候補に設定されている場合(ステップS50においてYesの場合)、特徴量比較部15は、最終異物付着候補判定処理(ステップS60)を実行する。   If any area is set as a foreign substance adhesion candidate in the foreign substance adhesion candidate judgment processing (step S40) (if Yes in step S50), the feature amount comparison unit 15 performs final foreign substance adhesion candidate judgment processing (step S60). Run.

特徴量比較部15は、最終異物付着候補判定処理を実行する際、第1の特徴量検出部12から入力された映像における異物付着候補に設定されたエリアの累積エッジ量と、第2の特徴量検出部14から入力された映像における該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。また、特徴量比較部15は、第2の特徴量検出部14から入力された映像における異物付着候補に設定されたエリアの累積エッジ量と、第1の特徴量検出部12から入力された映像における該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。   When the feature amount comparison unit 15 executes the final foreign matter adhesion candidate determination processing, the cumulative edge amount of the area set as the foreign matter adhesion candidate in the image input from the first feature amount detection unit 12 and the second feature The cumulative edge amount of the area to which the same area number as the area in the image input from the amount detection unit 14 is added is compared. Also, the feature amount comparison unit 15 calculates the cumulative edge amount of the area set as the foreign matter adhesion candidate in the image input from the second feature amount detection unit 14 and the image input from the first feature amount detection unit 12 And the accumulated edge amount of the area to which the same area number is attached.

特徴量比較部15は、比較したエリアにおける累積エッジ量の差分が所定の閾値以上であった場合、当該異物付着候補に設定されていたエリアを最終異物付着候補に設定する。   If the difference between the accumulated edge amounts in the compared areas is equal to or greater than a predetermined threshold value, the feature amount comparison unit 15 sets the area set as the foreign matter adhesion candidate as the final foreign matter adhesion candidate.

次に、特徴量比較部15は、分割されたエリアのうち、最終異物付着候補が設定されたエリアが存在するか否かを判定する(ステップS70)。   Next, the feature amount comparison unit 15 determines whether or not there is an area to which the final foreign matter adhesion candidate is set among the divided areas (step S70).

最終異物付着候補判定処理において何れのエリアも最終異物付着候補に設定されていない場合(ステップS70においてNoの場合)、第1の映像抽出部11は、再び、映像抽出処理(ステップS10)を実行する。このとき、最終異物付着候補カウンタのカウンタ値はリセットされる。   In the final foreign matter adhesion candidate determination process, when any area is not set as the final foreign matter adhesion candidate (No in step S70), the first video extraction unit 11 executes the video extraction process (step S10) again. Do. At this time, the counter value of the final foreign matter adhesion candidate counter is reset.

最終異物付着候補判定処理において何れかのエリアが最終異物付着候補に設定されている場合(ステップS70においてYesの場合)、異物検出部16は、当該エリアの最終異物付着候補カウンタのカウンタ値が所定の回数Nに達したか否かを判定する(ステップS80)。   If any area is set as the final foreign matter adhesion candidate in the final foreign matter adhesion candidate determination processing (in the case of Yes in step S70), the foreign matter detection unit 16 determines that the counter value of the final foreign matter adhesion candidate counter of the area is predetermined. It is determined whether the number of times N has been reached (step S80).

最終異物付着候補カウンタのカウンタ値がNに達したエリアが存在しない場合(ステップS80においてNoの場合)、第1の映像抽出部11は、再び、映像抽出処理(ステップS10)を実行する。   If there is no area in which the counter value of the final foreign matter adhesion candidate counter reaches N (in the case of No in step S80), the first video extracting unit 11 executes the video extracting process (step S10) again.

一方、最終異物付着候補カウンタのカウンタ値がNに達したエリアが存在する場合(ステップS80においてYesの場合)、異物検出部16は、当該エリアを異物付着エリアに設定し(ステップS90)、異物検出処理を終了する。   On the other hand, if there is an area where the final foreign matter adhesion candidate counter value reaches N (if Yes at step S80), the foreign matter detection unit 16 sets the area as the foreign matter adhesion area (step S90). End the detection process.

なお、上述したとおり、あるエリアが最終異物付着候補に設定される事象の連続性が途切れた場合、該エリアの最終異物付着候補カウンタのカウンタ値はリセットされる。   As described above, when the continuity of the event that an area is set as the final foreign matter adhesion candidate is interrupted, the counter value of the final foreign matter adhesion candidate counter of the area is reset.

また、異物検出処理は、異物消去部10aに入力される映像の全てのフレームについて実行する必要はなく、映像処理装置10の処理能力に応じて、適当なフレーム間隔で実行すればよい。定数M及び定数Nの値も、求められる異物の検出精度に応じて、適宜設定すればよい。   Further, the foreign matter detection processing need not be performed for all the frames of the video input to the foreign matter elimination unit 10a, and may be performed at an appropriate frame interval according to the processing capability of the video processing device 10. The values of the constant M and the constant N may be appropriately set according to the detection accuracy of the foreign object to be obtained.

次に、異物検出処理によって異物付着エリアが設定された場合に、第1の映像合成部19において実行される映像の合成処理について説明する。図5は、本発明の実施の形態1に係る異物検出処理によって異物が検出された場合に表示部4に出力される合成映像のイメージの一例を示す図である。   Next, when the foreign matter adhesion area is set by the foreign matter detection process, the video combining process performed in the first video combining unit 19 will be described. FIG. 5 is a view showing an example of a composite video image output to the display unit 4 when a foreign matter is detected by the foreign matter detection processing according to the first embodiment of the present invention.

図5の上段左側の図は、第1の撮像部1(リアカメラ5)によって撮像された映像101が表示部4に表示されているときに、第1の撮像部1によって撮像された映像101の左下部分に異物110が写り込んだ様子を示す表示映像の図である。   In the upper left of FIG. 5, the image 101 captured by the first imaging unit 1 when the image 101 captured by the first imaging unit 1 (rear camera 5) is displayed on the display unit 4. Is a diagram of a display image showing the foreign object 110 captured in the lower left portion of the image.

図5の上段右側の図は、第1の撮像部によって撮像された映像101における左下部分が、第2の撮像部2(左サイドカメラ7)によって撮像された映像103に置き換えられた様子を示す表示映像の図である。   The drawing on the upper right of FIG. 5 shows that the lower left portion of the image 101 captured by the first imaging unit is replaced with the image 103 captured by the second imaging unit 2 (left side camera 7). It is a figure of a display image.

図5の下段左側の図は、第1の撮像部1(リアカメラ5)によって撮像された映像101が表示部4に表示されているときに、第1の撮像部1によって撮像された映像101の右下部分に異物110が写り込んだ様子を示す表示映像の図である。   In the lower left of FIG. 5, the image 101 captured by the first imaging unit 1 when the image 101 captured by the first imaging unit 1 (the rear camera 5) is displayed on the display unit 4. Is a diagram of a display image showing the foreign object 110 captured in the lower right portion of the image.

図5の下段右側の図は、第1の撮像部1によって撮像された映像101における右下部分が、第2の撮像部2(右サイドカメラ6)によって撮像された映像102に置き換えられた様子を示す表示映像の図である。   In the lower right part of FIG. 5, the lower right portion of the image 101 captured by the first imaging unit 1 is replaced with the image 102 captured by the second imaging unit 2 (right side camera 6). It is a figure of the display image which shows.

第1の撮像部1(リアカメラ5)によって撮像された映像101の左下部分が異物消去部10aにおいて異物付着エリアに設定された場合、第1の映像合成部19は、当該エリアの映像を第2の撮像部2(左サイドカメラ7)によって撮像された映像103に置き換える。   When the lower left portion of the image 101 captured by the first imaging unit 1 (rear camera 5) is set as the foreign matter adhesion area in the foreign matter elimination unit 10a, the first video combining unit 19 selects the image of the area The image 103 is replaced with the image 103 captured by the second imaging unit 2 (left side camera 7).

また、第1の撮像部1(リアカメラ5)によって撮像された映像101の右下部分が異物消去部10aにおいて異物付着エリアに設定された場合、第1の映像合成部19は、当該エリアの映像を第2の撮像部2(右サイドカメラ6)によって撮像された映像102に置き換える。   When the lower right portion of the image 101 captured by the first imaging unit 1 (rear camera 5) is set to the foreign matter adhesion area in the foreign matter elimination unit 10a, the first video combining unit 19 determines The video is replaced with the video 102 captured by the second imaging unit 2 (right side camera 6).

これにより、第1の撮像部1に付着した異物110によって視界が遮断されていた領域の映像を第2の撮像部2によって撮像された映像102,103に置き換えて表示部4に表示させることができる。   Thereby, the image of the area in which the field of view is blocked by the foreign matter 110 attached to the first imaging unit 1 is replaced with the images 102 and 103 imaged by the second imaging unit 2 and displayed on the display unit 4 it can.

図6は、本発明の実施の形態1に係る異物検出処理によって異物が検出された場合に表示部4に出力される合成映像のイメージの別の例を示す図である。   FIG. 6 is a view showing another example of the image of the composite image output to the display unit 4 when the foreign matter is detected by the foreign matter detection processing according to the first embodiment of the present invention.

図6の上段左側の図は、第1の撮像部1(リアカメラ5)によって撮像された映像101と第2の撮像部2(右サイドカメラ6)によって撮像された映像102の合成映像を表示部4に表示させているときに、第2の撮像部2(右サイドカメラ6)によって撮像された映像102の左下部分に異物110が写り込んだ様子を示す表示映像の図である。   In the upper left of FIG. 6, a composite image of the image 101 captured by the first imaging unit 1 (rear camera 5) and the image 102 captured by the second imaging unit 2 (right side camera 6) is displayed. It is a figure of a display picture showing signs that a foreign material 110 is reflected in the lower left part of picture 102 picturized by the 2nd image pick-up part 2 (right side camera 6), when displaying on part 4.

図6の上段右側の図は、第2の撮像部2(右サイドカメラ6)によって撮像された映像102の左側部分が、第1の撮像部1(リアカメラ5)によって撮像された映像101に置き換えられた様子を示す表示映像の図である。   The left side of the image 102 captured by the second imaging unit 2 (right side camera 6) is the image 101 captured by the first imaging unit 1 (rear camera 5). It is a figure of the display image which shows a mode that it was substituted.

図6の下段左側の図は、第1の撮像部1(リアカメラ5)によって撮像された映像101と第2の撮像部2(左サイドカメラ7)によって撮像された映像103の合成映像を表示部4に表示させているときに、第2の撮像部2によって撮像された映像103の右下部分に異物110が写り込んだ様子を示す表示映像の図である。   The lower left side of FIG. 6 displays a composite image of the image 101 captured by the first imaging unit 1 (rear camera 5) and the image 103 captured by the second imaging unit 2 (left side camera 7). FIG. 10 is a view of a display image showing a state in which a foreign object 110 is reflected in the lower right portion of the image 103 captured by the second imaging unit 2 when displayed on the unit 4;

図6の下段右側の図は、第2の撮像部2(左サイドカメラ7)によって撮像された映像103の右側部分が、第1の撮像部1(リアカメラ5)によって撮像された映像101に置き換えられた様子を示す表示映像の図である。   In the lower right part of FIG. 6, the right part of the image 103 captured by the second imaging unit 2 (left side camera 7) is the image 101 captured by the first imaging unit 1 (rear camera 5). It is a figure of the display image which shows a mode that it was substituted.

第2の撮像部2(右サイドカメラ6)によって撮像された映像102の左下部分が異物付着エリアに設定された場合、第1の映像合成部19は、合成映像の面積割合を変える(境界部分を移動させる)ことにより、当該エリアの映像を第1の撮像部1(リアカメラ5)によって撮像された映像101に置き換える。   When the lower left portion of the image 102 captured by the second imaging unit 2 (right side camera 6) is set as the foreign matter adhesion area, the first image combining unit 19 changes the area ratio of the combined image (boundary portion To move the video of the area to the video 101 captured by the first imaging unit 1 (rear camera 5).

また、第2の撮像部2(左サイドカメラ7)によって撮像された映像103の右下部分が異物付着エリアに設定された場合、第1の映像合成部19は、合成映像の面積割合を変えることにより、当該エリアの映像を第1の撮像部1(リアカメラ5)によって撮像された映像101に置き換える。   In addition, when the lower right portion of the image 103 captured by the second imaging unit 2 (left side camera 7) is set as the foreign matter adhesion area, the first image combining unit 19 changes the area ratio of the combined image Thus, the video of the area is replaced with the video 101 captured by the first imaging unit 1 (rear camera 5).

これにより、第2の撮像部2に付着した異物によって視界が遮断されていた領域の映像を第1の撮像部1によって撮像された映像101に置き換えて表示部4に表示させることができる。   As a result, it is possible to replace the image of the area in which the field of view is blocked by the foreign matter attached to the second imaging unit 2 with the image 101 imaged by the first imaging unit 1 and to display the image on the display unit 4.

なお、本発明の実施の形態1では、特徴量比較部15と異物検出部16とを別々に設けたが、これらを一つの比較検出部として、特徴量比較部15及び異物検出部16と同様の機能を持たせてもよい。   In the first embodiment of the present invention, the feature amount comparison unit 15 and the foreign matter detection unit 16 are separately provided, but these are the same as the feature amount comparison unit 15 and the foreign matter detection unit 16 as one comparison detection unit. May have the function of

(実施の形態2)
次に、本発明の実施の形態2について説明する。図7は、本発明の実施の形態2に係る各部の機能の一例を示すブロック図である。
Second Embodiment
Next, a second embodiment of the present invention will be described. FIG. 7 is a block diagram showing an example of the function of each unit according to Embodiment 2 of the present invention.

本発明の実施の形態2に係る映像処理システムは、第1の撮像部1と、第2の撮像部2と、第3の撮像部21と、第4の撮像部22と、映像処理装置20と、表示部4と、を備える。   The video processing system according to Embodiment 2 of the present invention includes a first imaging unit 1, a second imaging unit 2, a third imaging unit 21, a fourth imaging unit 22, and an image processing apparatus 20. And the display unit 4.

映像処理装置20は、異物消去部20aと、第3の映像抽出部17と、第4の映像抽出部18と、第7の映像抽出部33と、第8の映像抽出部34と、第1の映像合成部19と、を備える。第7の映像抽出部33と第8の映像抽出部34は、第3の映像抽出部17と第4の映像抽出部18と同様の機能をもつ映像抽出部である。   The video processing device 20 includes a foreign object erasing unit 20a, a third video extracting unit 17, a fourth video extracting unit 18, a seventh video extracting unit 33, an eighth video extracting unit 34, and a first. And a video synthesis unit 19 of The seventh video extraction unit 33 and the eighth video extraction unit 34 are video extraction units having the same functions as the third video extraction unit 17 and the fourth video extraction unit 18.

異物消去部20aは、第1の映像抽出部11と、第2の映像抽出部13と、第5の映像抽出部25と、第6の映像抽出部27と、を備える。また、異物消去部20aは、第1の特徴量検出部12と、第2の特徴量検出部14と、第3の特徴量検出部26と、第4の特徴量検出部28と、特徴量比較部15と、異物検出部16と、を備える。   The foreign matter removing unit 20 a includes a first video extracting unit 11, a second video extracting unit 13, a fifth video extracting unit 25, and a sixth video extracting unit 27. Also, the foreign matter elimination unit 20a includes the first feature amount detection unit 12, the second feature amount detection unit 14, the third feature amount detection unit 26, the fourth feature amount detection unit 28, and the feature amounts. A comparison unit 15 and a foreign matter detection unit 16 are provided.

第5の映像抽出部25と第6の映像抽出部27は、第1の映像抽出部11と第2の映像抽出部13と同じ機能をもつ映像抽出部である。また、第3の特徴量検出部26と第4の特徴量検出部28は、第1の特徴量検出部12と第2の特徴量検出部14と同じ機能をもつ特徴量検出部である。   The fifth video extraction unit 25 and the sixth video extraction unit 27 are video extraction units having the same functions as the first video extraction unit 11 and the second video extraction unit 13. The third feature amount detection unit 26 and the fourth feature amount detection unit 28 are feature amount detection units having the same functions as the first feature amount detection unit 12 and the second feature amount detection unit 14.

すなわち、本発明の実施の形態2に係る映像処理システムは、実施の形態1に係る映像処理システムの構成に、第3の撮像部21及び第4の撮像部22と、これらに対応する映像抽出部25,27及び特徴量検出部26,28とを付加したものである。   That is, in the video processing system according to the second embodiment of the present invention, in addition to the configuration of the video processing system according to the first embodiment, the third imaging unit 21 and the fourth imaging unit 22 and the corresponding video extraction The units 25 and 27 and the feature amount detection units 26 and 28 are added.

ここで、第1の撮像部1は、例えば、リアカメラ5である。第2の撮像部2は、例えば、右サイドカメラ6である。第3の撮像部21は、例えば、左サイドカメラ7である。第4の撮像部22は、例えば、バックカメラ8である。   Here, the first imaging unit 1 is, for example, the rear camera 5. The second imaging unit 2 is, for example, the right side camera 6. The third imaging unit 21 is, for example, the left side camera 7. The fourth imaging unit 22 is, for example, a back camera 8.

本発明の実施の形態2では、本発明の実施の形態1と同様に、図4に示した異物検出処理によって異物付着エリアを検出する。ただし、最終異物付着候補判定処理(ステップS60)における累積エッジ量は、異物付着候補に設定されたエリアと複数の他の特徴量検出部から入力された映像における該エリアと同じエリアナンバーが付されたエリア(対応エリア)との間で比較される。   In the second embodiment of the present invention, as in the first embodiment of the present invention, the foreign matter adhesion area is detected by the foreign matter detection processing shown in FIG. However, the cumulative edge amount in the final foreign matter adhesion candidate determination process (step S60) is the same as the area number in the area set as the foreign matter adhesion candidate and the image input from the plurality of other feature quantity detection units Are compared with other areas (corresponding areas).

そして、異物付着候補に設定されたエリアの累積エッジ量と複数の他の特徴量検出部から入力された映像における対応エリアの量累積エッジ量との差分が所定の閾値以上であった場合、当該異物付着候補に設定されていたエリアを最終異物付着候補に設定する。   Then, when the difference between the accumulated edge amount of the area set as the foreign matter adhesion candidate and the amount accumulated edge amount of the corresponding area in the video input from the plurality of other feature amount detection units is equal to or more than a predetermined threshold, The area set as the foreign matter adhesion candidate is set as the final foreign matter adhesion candidate.

そして、異物付着エリア設定処理(ステップS90)において異物付着エリアが設定された場合、第1の映像合成部19は、検出された異物付着エリアの情報に基づいて、第3の映像抽出部17、第4の映像抽出部18、第7の映像抽出部33及び第8の映像抽出部34において抽出された映像の合成処理を行う。   Then, when the foreign matter adhesion area is set in the foreign matter adhesion area setting processing (step S90), the first video combining unit 19 selects the third video extraction unit 17 based on the information of the detected foreign matter adhesion area, The combining processing of the video extracted by the fourth video extracting unit 18, the seventh video extracting unit 33, and the eighth video extracting unit 34 is performed.

次に、本発明の実施の形態2に係る第1の映像合成部19が行う合成処理によって出力される映像について説明する。図8は、本発明の実施の形態2に係る異物検出処理によって異物が検出された場合に表示部4に出力される合成映像のイメージを示す図である。   Next, an image output by the combining process performed by the first image combining unit 19 according to the second embodiment of the present invention will be described. FIG. 8 is a view showing an image of a composite image output to the display unit 4 when foreign matter is detected by the foreign matter detection processing according to the second embodiment of the present invention.

図8では、特徴量比較部15において、入力された映像を3行4列からなる12のエリアに分割した様子を示す。   FIG. 8 illustrates the feature amount comparison unit 15 dividing the input video into 12 areas of 3 rows and 4 columns.

図8の左側の図は、第1の撮像部1(リアカメラ5)によって撮像された映像101が表示部4に表示されているときに、該映像101における第1行第1列〜第3列、第2行第1列並びに第3行第3列及び第4列に位置するエリアに異物110が写り込んだ様子を示す表示映像の図である。   On the left side of FIG. 8, when the image 101 captured by the first imaging unit 1 (rear camera 5) is displayed on the display unit 4, the first row, the first column to the third row in the image 101 are displayed. It is a figure of the display image which shows a mode that the foreign material 110 was reflected in the area located in a row | line | column, 2nd row 1st column and 3rd row 3rd column and 4th column.

図8の右側の図は、第1の撮像部1によって撮像された映像101における第1行第1列及び第2列並びに第2行第1列のエリアが、第3の撮像部21(左サイドカメラ7)によって撮像された映像103に置き換えられた様子を示す表示映像の図である。また、図8の右側の図は、第1の撮像部によって撮像された映像101における第1行第3列並びに第3行第3列及び第4列のエリアが、第2の撮像部2(右サイドカメラ6)によって撮像された映像102に置き換えられた様子を示す表示映像の図である。   The right side of FIG. 8 shows that the area of the first row and the first column and the second column and the second row and the first column in the image 101 captured by the first imaging unit 1 is the third imaging unit 21 (left It is a figure of a display picture showing signs that it was replaced by picture 103 picturized by side camera 7). In the right side of FIG. 8, the area of the first row and the third column and the third row, the third column, and the fourth column in the image 101 captured by the first imaging unit is the second imaging unit 2 ( It is a figure of a display picture showing signs that it was replaced by picture 102 picturized by right side camera 6).

第1の映像合成部19は、第1の撮像部によって撮像された映像101における第1行第1列及び第2列並びに第2行第1列に位置するエリアを、第3の撮像部21(左サイドカメラ7)によって撮像された映像103に置き換える。また、第1の映像合成部19は、第1の撮像部によって撮像された映像101における第1行目第3列並びに第3行目第3列及び第4列に位置するエリアを、第2の撮像部2(右サイドカメラ6)によって撮像された映像102に置き換える。   The first image combining unit 19 is configured to use the third imaging unit 21 as an area located in the first row, the first column, the second column, and the second row, the first column in the image 101 captured by the first imaging unit. It is replaced with the image 103 captured by (left side camera 7). In addition, the first video combining unit 19 is configured to set the area located in the first row, the third column and the third row, the third column, and the fourth column in the image 101 captured by the first imaging unit The image 102 is replaced with the image 102 captured by the imaging unit 2 (right side camera 6) of

これにより、第1の撮像部1に付着した異物によって視界が遮断されていた領域を第2の撮像部2及び第3の撮像部21によって撮像された映像102,103に置き換えて表示部4に表示させることができる。   As a result, the area where the field of view is blocked by the foreign matter attached to the first imaging unit 1 is replaced with the images 102 and 103 imaged by the second imaging unit 2 and the third imaging unit 21 and displayed on the display unit 4. It can be displayed.

なお、ここでは、第1の撮像部1によって撮像された映像を第4の撮像部22によって撮像された映像に置き換えていないが、第1の撮像部1によって撮像された映像101を第4の撮像部22によって撮像された映像に置き換えてもよい。   Although the video captured by the first imaging unit 1 is not replaced with the video captured by the fourth imaging unit 22 here, the video 101 captured by the first imaging unit 1 is converted to the fourth You may replace with the image | video imaged by the imaging part 22. FIG.

(実施の形態3)
次に、本発明の実施の形態3について説明する。図9は、本発明の実施の形態3に係る各部の機能の一例を示すブロック図である。
Third Embodiment
Next, a third embodiment of the present invention will be described. FIG. 9 is a block diagram showing an example of the function of each unit according to Embodiment 3 of the present invention.

本発明の実施の形態3は、実施の形態2における第2の特徴量検出部14及び第3の特徴量検出部26に代えて、第2の映像合成部45と第5の特徴量検出部46とを備えている。ただし、実施の形態3に係る説明を理解しやすくするため、図9では、第4の撮像部22、第6の映像抽出部27、第8の映像抽出部34及び第4の特徴量検出部28の図示を省略し、これらについての説明を省略する。   In the third embodiment of the present invention, a second video combining unit 45 and a fifth feature detection unit are substituted for the second feature detection unit 14 and the third feature detection unit 26 in the second embodiment. It has 46 and. However, in order to make it easier to understand the description according to the third embodiment, in FIG. 9, the fourth imaging unit 22, the sixth video extraction unit 27, the eighth video extraction unit 34, and the fourth feature detection unit Illustration of 28 is omitted and the explanation about these is omitted.

本発明の実施の形態3に係る映像システムは、第1の撮像部1と、第2の撮像部2と、第3の撮像部21と、映像処理装置40と、表示部4と、を備える。   The video system according to Embodiment 3 of the present invention includes a first imaging unit 1, a second imaging unit 2, a third imaging unit 21, an image processing device 40, and a display unit 4. .

第1の撮像部1は、リアカメラ5であり、第2の撮像部2は、右サイドカメラ6であり、第3の撮像部21は、左サイドカメラ7である。   The first imaging unit 1 is a rear camera 5, the second imaging unit 2 is a right side camera 6, and the third imaging unit 21 is a left side camera 7.

映像処理装置40は、異物消去部40aと、第3の映像抽出部17と、第4の映像抽出部18と、第7の映像抽出部33と、第1の映像合成部19と、を備える。   The video processing device 40 includes a foreign matter erasing unit 40a, a third video extracting unit 17, a fourth video extracting unit 18, a seventh video extracting unit 33, and a first video combining unit 19. .

異物消去部40aは、第1の映像抽出部11と、第2の映像抽出部13と、第5の映像抽出部25と、第1の特徴量検出部12と、第2の映像合成部45と、第5の特徴量検出部46と、特徴量比較部15と、異物検出部16と、を備える。   The foreign matter eraser 40 a includes a first video extractor 11, a second video extractor 13, a fifth video extractor 25, a first feature detector 12, and a second video synthesizer 45. And a fifth feature amount detection unit 46, a feature amount comparison unit 15, and a foreign matter detection unit 16.

ここで、実施の形態3に係る映像システムの特徴部分である第2の映像合成部45と第5の特徴量検出部46について説明する。   Here, the second video combining unit 45 and the fifth feature detection unit 46, which are characteristic parts of the video system according to the third embodiment, will be described.

第2の映像合成部45は、第2の映像抽出部13において抽出された映像及び第5の映像抽出部25において抽出された映像を合成処理する合成処理部である。第2の映像合成部45は、第1の映像合成部19において行われる合成処理と同様、合成映像の境界部付近において映像のアルファブレンドを行うことにより、二つの映像の境界部分が目立たないように映像の合成処理を行う。   The second video combining unit 45 is a combining processing unit that combines the video extracted by the second video extracting unit 13 and the video extracted by the fifth video extracting unit 25. The second video combining unit 45 performs alpha blending of the video in the vicinity of the border of the composite video as in the combining processing performed in the first video combining unit 19 so that the border between the two videos is not noticeable. Perform video composition processing.

また、第2の映像合成部45は、第2の映像抽出部13及び第5の映像抽出部25で抽出された映像を合成処理する際、合成映像の歪みなどを小さくするために、これらの映像の一部について回転、拡大、縮小などの処理を行う。   In addition, when the second video combining unit 45 performs combining processing on the video extracted by the second video extracting unit 13 and the fifth video extracting unit 25, the second video combining unit 45 reduces the distortion of the combined video, etc. Performs processing such as rotation, enlargement, and reduction on a part of the image.

第5の特徴量検出部46は、第1の特徴量検出部12と同様の処理により、第2の映像合成部45において合成された合成映像のエッジ検出を行い、検出されたエッジの累積エッジ量を検出する。   The fifth feature detection unit 46 performs edge detection of the composite image synthesized by the second video synthesis unit 45 by the same processing as the first feature detection unit 12, and detects the accumulated edge of the detected edge. Detect the quantity.

次に、本発明の実施の形態3に係る映像処理システムが実行する異物検出処理について説明する。   Next, foreign object detection processing executed by the video processing system according to the third embodiment of the present invention will be described.

図10は、本発明の実施の形態3に係る異物検出処理の一例を示すフローチャートである。図10では、第1の映像抽出部11と第1の特徴量検出部12が実行する処理について省略しているが、これらは、実施の形態1で説明した処理を行っているものとする。また、図10では、第5の映像抽出部25が実行する処理について省略しているが、第5の映像抽出部25は、第2の映像抽出部13と同様の処理を行っているものとする。   FIG. 10 is a flowchart showing an example of the foreign matter detection process according to the third embodiment of the present invention. Although the process performed by the first video extracting unit 11 and the first feature amount detecting unit 12 is omitted in FIG. 10, it is assumed that the process described in the first embodiment is performed. Further, although the process performed by the fifth video extracting unit 25 is omitted in FIG. 10, the fifth video extracting unit 25 performs the same process as the second video extracting unit 13. Do.

まず、第2の映像抽出部13は、映像抽出処理(ステップS10)を実行する。第2の映像抽出部13における映像切り出し部13aは、映像抽出処理において、第2の撮像部2で撮像された撮像映像から所定の撮像範囲の映像を切り出す。   First, the second video extraction unit 13 executes a video extraction process (step S10). The video cutout unit 13a in the second video extraction unit 13 cuts out a video of a predetermined imaging range from the captured video captured by the second imaging unit 2 in video extraction processing.

また、第2の映像抽出部13における解像度変更部13bは、映像抽出処理において、切り出した映像の解像度を変更する。   Further, the resolution changing unit 13b in the second video extracting unit 13 changes the resolution of the clipped video in the video extracting process.

また、第2の映像抽出部13における画質変更部13cは、映像抽出処理において、解像度を変更した映像の色調を変更する。   Further, the image quality changing unit 13c in the second video extracting unit 13 changes the color tone of the video whose resolution has been changed in the video extracting process.

次に、第2の映像合成部45は、第2の映像抽出部13において抽出された映像と第5の映像抽出部25において抽出された映像を合成処理する(ステップS15)。   Next, the second video combining unit 45 combines the video extracted by the second video extracting unit 13 and the video extracted by the fifth video extracting unit 25 (step S15).

次に、第5の特徴量検出部46は、特徴量検出処理(ステップS20)を実行する。特徴量検出処理(ステップS20)では、第2の映像合成部45で合成処理された映像のエッジ検出を行い、検出されたエッジの累積エッジ量を検出する。   Next, the fifth feature quantity detection unit 46 executes a feature quantity detection process (step S20). In the feature amount detection process (step S20), the edge detection of the video synthesized by the second video synthesis unit 45 is performed, and the accumulated edge amount of the detected edge is detected.

次に、第5の特徴量検出部46は、特徴量検出処理(ステップS20)がM回実行されたか否かを判定する(ステップS30)。特徴量検出処理が未だM回実行されていないと判定された場合(ステップS30においてNoの場合)、第2の映像抽出部13は、再び、映像抽出処理(ステップS10)を実行する。   Next, the fifth feature quantity detection unit 46 determines whether the feature quantity detection process (step S20) has been performed M times (step S30). If it is determined that the feature amount detection process has not been executed M times (No in step S30), the second video extraction unit 13 executes the video extraction process (step S10) again.

特徴量検出処理がM回実行されたと判定された場合(ステップS30においてYesの場合)、特徴量比較部15は、異物付着候補判定処理(ステップS40)を実行する。このとき、特徴量検出処理の実行回数のカウント数はリセットされる。   When it is determined that the feature amount detection process has been performed M times (in the case of Yes in step S30), the feature amount comparison unit 15 executes the foreign substance adhesion candidate determination process (step S40). At this time, the count number of execution times of the feature amount detection process is reset.

特徴量比較部15は、異物付着候補判定処理において、第1の特徴量検出部12及び第5の特徴量検出部46から入力される映像を複数のエリアに分割する。特徴量比較部15は、分割したエリアごとに、累積された累積エッジ量を算出する。算出された累積エッジ量が所定の閾値以上である場合、特徴量比較部15は、該エリアを異物付着候補に設定する。   The feature amount comparison unit 15 divides the video input from the first feature amount detection unit 12 and the fifth feature amount detection unit 46 into a plurality of areas in the foreign substance adhesion candidate determination process. The feature amount comparison unit 15 calculates the accumulated edge amount accumulated for each of the divided areas. If the calculated accumulated edge amount is equal to or larger than a predetermined threshold value, the feature amount comparison unit 15 sets the area as a foreign matter adhesion candidate.

次に、特徴量比較部15は、分割されたエリアのうち、異物付着候補が設定されたエリアが存在するか否かを判定する(ステップS50)   Next, the feature amount comparison unit 15 determines whether or not there is an area to which a foreign matter adhesion candidate is set among the divided areas (step S50).

異物付着候補判定処理において何れのエリアも異物付着候補に設定されていない場合(ステップS50においてNoの場合)、第2の映像抽出部13は、再び、映像抽出処理(ステップS10)を実行する。   If any area is not set as a foreign matter adhesion candidate in the foreign matter adhesion candidate determination process (No in step S50), the second video extraction unit 13 executes the video extraction process (step S10) again.

異物付着候補判定処理(ステップS40)において何れかのエリアが異物付着候補に設定されている場合(ステップS50においてYesの場合)、特徴量比較部15は、最終異物付着候補判定処理(ステップS60)を実行する。   If any area is set as a foreign substance adhesion candidate in the foreign substance adhesion candidate judgment processing (step S40) (if Yes in step S50), the feature amount comparison unit 15 performs final foreign substance adhesion candidate judgment processing (step S60). Run.

特徴量比較部15は、最終異物付着候補判定処理において、第1の特徴量検出部12から入力された映像における異物付着候補に設定されたエリアの累積エッジ量と、第5の特徴量検出部46から入力された映像における該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。また、特徴量比較部15は、第5の特徴量検出部46から入力された映像における異物付着候補に設定されたエリアの累積エッジ量と、第1の特徴量検出部12から入力された映像における該エリアと同じエリアナンバーが付されたエリアの累積エッジ量とを比較する。   The feature amount comparison unit 15 determines, in the final foreign matter adhesion candidate determination process, the cumulative edge amount of the area set as the foreign matter adhesion candidate in the video input from the first feature amount detection unit 12 and the fifth feature amount detection unit The cumulative edge amount of the area with the same area number as the area in the video input from 46 is compared. Also, the feature amount comparison unit 15 calculates the cumulative edge amount of the area set as the foreign matter adhesion candidate in the image input from the fifth feature amount detection unit 46 and the image input from the first feature amount detection unit 12 And the accumulated edge amount of the area to which the same area number is attached.

特徴量比較部15は、比較したエリアにおける累積エッジ量の差分が所定の閾値以上であった場合、当該異物付着候補に設定されていたエリアを最終異物付着候補に設定する。   If the difference between the accumulated edge amounts in the compared areas is equal to or greater than a predetermined threshold value, the feature amount comparison unit 15 sets the area set as the foreign matter adhesion candidate as the final foreign matter adhesion candidate.

次に、特徴量比較部15は、分割されたエリアのうち、最終異物付着候補が設定されたエリアが存在するか否かを判定する(ステップS70)。   Next, the feature amount comparison unit 15 determines whether or not there is an area to which the final foreign matter adhesion candidate is set among the divided areas (step S70).

最終異物付着候補判定処理において何れのエリアも最終異物付着候補に設定されていない場合(ステップS70においてNoの場合)、第2の映像抽出部13は、再び、映像抽出処理(ステップS10)を実行する。このとき、最終異物付着候補カウンタのカウンタ値はリセットされる。   If any area is not set as the final foreign matter adhesion candidate in the final foreign matter adhesion candidate determination process (No in step S70), the second video extraction unit 13 executes the video extraction process (step S10) again. Do. At this time, the counter value of the final foreign matter adhesion candidate counter is reset.

最終異物付着候補判定処理において何れかのエリアが最終異物付着候補に設定されている場合(ステップS70においてYesの場合)、異物検出部16は、当該エリアの最終異物付着候補カウンタのカウンタ値が所定の回数Nに達したか否かを判定する(ステップS80)。   If any area is set as the final foreign matter adhesion candidate in the final foreign matter adhesion candidate determination processing (in the case of Yes in step S70), the foreign matter detection unit 16 determines that the counter value of the final foreign matter adhesion candidate counter of the area is predetermined. It is determined whether the number of times N has been reached (step S80).

最終異物付着候補カウンタのカウンタ値がNに達したエリアが存在しない場合(ステップS80においてNoの場合)、第1の映像抽出部11は、再び、映像抽出処理(ステップS10)を実行する。   If there is no area in which the counter value of the final foreign matter adhesion candidate counter reaches N (in the case of No in step S80), the first video extracting unit 11 executes the video extracting process (step S10) again.

一方、最終異物付着候補カウンタの値がNに達したエリアが存在する場合(ステップS80においてYesの場合)、異物検出部16は、当該エリアを異物付着エリアに設定し、異物検出処理を終了する。   On the other hand, when there is an area in which the value of the final foreign matter adhesion candidate counter reaches N (in the case of Yes in step S80), the foreign matter detection unit 16 sets the area as the foreign matter adhesion area and ends the foreign matter detection processing. .

なお、あるエリアが最終異物付着候補に設定される事象の連続性が途切れた場合、該エリアの最終異物付着候補カウンタのカウンタ値はリセットされる。   When the continuity of the event in which an area is set as the final foreign matter adhesion candidate is interrupted, the counter value of the final foreign matter adhesion candidate counter of the area is reset.

また、異物検出処理は、異物消去部40aに入力される映像の全てのフレームについて実行する必要はなく、映像処理装置40の処理能力に応じて、適当なフレーム間隔で実行すればよい。定数M及び定数Nの値も、求められる異物の検出精度に応じて、適宜設定すればよい。   Further, the foreign matter detection processing need not be performed for all the frames of the video input to the foreign matter elimination unit 40a, and may be performed at an appropriate frame interval according to the processing capability of the video processing device 40. The values of the constant M and the constant N may be appropriately set according to the detection accuracy of the foreign object to be obtained.

本発明の実施の形態3では、特徴量比較部15において異物付着候補判定処理及び最終異物付着候補判定処理を実行する前に、第2の映像合成部45において映像の合成処理を行っている。   In the third embodiment of the present invention, the second video combining unit 45 performs video combining processing before the feature amount comparison unit 15 executes foreign object deposition candidate determination processing and final foreign particle deposition candidate determination processing.

すなわち、右サイドカメラ6から入力された映像と左サイドカメラ7から入力された映像の合成処理を行った合成映像と、リアカメラ5から入力された映像との比較を行っている。この場合、特徴量比較部15において、リアカメラ5から入力された映像と右サイドカメラ6から入力された映像及びリアカメラ5から入力された映像と左サイドカメラ7から入力された映像とを別々に比較するよりも、映像処理装置40の処理負荷を低減することができる。   That is, a comparison is made between the composite image obtained by subjecting the video input from the right side camera 6 and the video input from the left side camera 7 to the video input from the rear camera 5. In this case, the feature amount comparing unit 15 separates the image input from the rear camera 5, the image input from the right side camera 6, the image input from the rear camera 5, and the image input from the left side camera 7 separately. The processing load of the video processing device 40 can be reduced compared to the case of FIG.

なお、本発明の実施の形態では、撮像部を二つ、三つ又は四つ設けた形態を示したが、撮像部の数はこれに限られず、さらに別の撮像部を設けてもよい。   Although the embodiment in which two, three, or four imaging units are provided is shown in the embodiment of the present invention, the number of imaging units is not limited to this, and another imaging unit may be provided.

また、本発明の実施の形態では、撮像部によって撮像された映像に不具合がある場合として、撮像部のカメラのレンズに汚れが付着した場合を例示したが、これに限られるものではない。例えば、映像の周波数の乱れによって映像が不鮮明になった場合なども含まれる。   Further, in the embodiment of the present invention, as the case where there is a defect in the image captured by the imaging unit, the case where the dirt adheres to the lens of the camera of the imaging unit is exemplified, but the present invention is not limited thereto. For example, the case where the image becomes unclear due to the disturbance of the frequency of the image is included.

また、撮像部によって撮像された映像に不具合がある場合、そのことをユーザに報知するようにしてもよい。例えば、リアカメラ5のレンズに汚れが付着し、汚れが付着した部分が映し出す映像を右サイドカメラ6によって撮像された映像に置き換えた場合、そのことを表示部4に表示させてもよい。   In addition, when there is a defect in the image captured by the imaging unit, the user may be notified of that. For example, when an image on which dirt is attached to the lens of the rear camera 5 and a portion where the dirt is attached is displayed is replaced with an image captured by the right side camera 6, this may be displayed on the display unit 4.

また、異物検出処理によって検出した異物を、エアやウォッシャー液などを用いて自動で洗浄するようにしてもよい。   Further, foreign matter detected by the foreign matter detection processing may be automatically cleaned using air, washer fluid or the like.

本発明は、移動体に搭載される撮像部によって撮像された映像の映像処理に広く利用可能である。   INDUSTRIAL APPLICABILITY The present invention is widely applicable to video processing of video captured by an imaging unit mounted on a mobile object.

1 第1の撮像部
2 第2の撮像部
4 表示部
5 リアカメラ
6 右サイドカメラ
7 左サイドカメラ
8 バックカメラ
10 映像処理装置
10a 異物消去部
11 第1の映像抽出部
11a 映像切り出し部
11b 解像度変更部
11c 画質変更部
12 第1の特徴量検出部
13 第2の映像抽出部
13a 映像切り出し部
13b 解像度変更部
13c 画質変更部
14 第2の特徴量検出部
15 特徴量比較部
16 異物検出部
17 第3の映像抽出部
18 第4の映像抽出部
19 第1の映像合成部
20 映像処理装置
20a 異物消去部
21 第3の撮像部
22 第4の撮像部
25 第5の映像抽出部
25a 映像切り出し部
25b 解像度変更部
25c 画質変更部
26 第3の特徴量検出部
27 第6の映像抽出部
28 第4の特徴量検出部
33 第7の映像抽出部
34 第8の映像抽出部
40 映像処理装置
40a 異物消去部
45 第2の映像合成部
46 第5の特徴量検出部
101 第1の撮像部によって撮像された映像
102 第2の撮像部によって撮像された映像
103 第2の撮像部によって撮像された映像
DESCRIPTION OF SYMBOLS 1 first imaging unit 2 second imaging unit 4 display unit 5 rear camera 6 right side camera 7 left side camera 8 back camera 10 video processing device 10 a foreign object erasing unit 11 first video extracting unit 11 a video extracting unit 11 b resolution Change unit 11c Image quality change unit 12 First feature amount detection unit 13 Second image extraction unit 13a Video clipping unit 13b Resolution change unit 13c Image quality change unit 14 Second feature amount detection unit 15 Feature amount comparison unit 16 Foreign matter detection unit 17 Third Video Extraction Unit 18 Fourth Video Extraction Unit 19 First Video Synthesis Unit 20 Video Processing Device 20a Foreign Material Elimination Unit 21 Third Imaging Unit 22 Fourth Imaging Unit 25 Fifth Video Extraction Unit 25a Video Cropping unit 25b Resolution changing unit 25c Image quality changing unit 26 Third feature amount detection unit 27 Sixth video extraction unit 28 Fourth feature amount detection unit 33 Seventh Image extraction unit 34 Eighth image extraction unit 40 Image processing device 40a Foreign material elimination unit 45 Second image combining unit 46 Fifth feature amount detection unit 101 Image captured by first imaging unit 102 Second imaging unit 103 Images captured by the second imaging unit

Claims (14)

移動体に設置される複数の撮像部と、
前記複数の撮像部のうちの第1の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第1の特徴量検出部と、
前記複数の撮像部のうちの前記第1の撮像部以外の撮像部が撮像した映像における少なくとも前記第1の撮像範囲の映像から前記特徴量を検出する第2の特徴量検出部と、
前記第1の特徴量検出部で検出された前記第1の撮像範囲の特徴量と前記第2の特徴量検出部で検出された前記第1の撮像範囲の特徴量とを比較して、前記第1の撮像部で撮像された映像に含まれる不具合領域及び前記第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出部と、
を備えたことを特徴とする映像処理システム。
A plurality of imaging units installed on the mobile object;
A first feature amount detection unit that detects a feature amount from an image of at least a first imaging range in an image captured by a first imaging unit of the plurality of imaging units;
A second feature amount detection unit that detects the feature amount from an image of at least the first imaging range in an image captured by an imaging unit other than the first imaging unit among the plurality of imaging units;
The feature amount of the first imaging range detected by the first feature amount detection unit is compared with the feature amount of the first imaging range detected by the second feature amount detection unit, Feature amount comparison detection for detecting at least one of a defect area included in a video captured by a first imaging unit and a defect area included in a video captured by an imaging unit other than the first imaging unit Department,
A video processing system comprising:
前記第1の撮像部以外の撮像部は、第2の撮像部であることを特徴とする特徴とする請求項1に記載の映像処理システム。   The image processing system according to claim 1, wherein the imaging unit other than the first imaging unit is a second imaging unit. 前記第1の撮像部が撮像した映像から第1の映像を抽出する第1の映像抽出部と、
前記第2の撮像部が撮像した映像から第2の映像を抽出する第2の映像抽出部と、を備え、
前記第1の映像抽出部と前記第2の映像抽出部は、前記第1の映像と前記第2の映像の画質又は前記特徴量を検出する範囲が一致するように前記第1の映像と前記第2の映像を抽出することを特徴とする請求項2に記載の映像処理システム。
A first video extraction unit that extracts a first video from the video captured by the first imaging unit;
And a second video extraction unit that extracts a second video from the video captured by the second imaging unit.
The first video extraction unit and the second video extraction unit may be configured to match the image quality of the first video and the second video or the detection range of the feature amount. The image processing system according to claim 2, wherein the second image is extracted.
前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像とを合成する第1の映像合成部とを備え、
前記第1の映像合成部は、前記特徴量比較検出部によって前記第1の撮像部で撮像された映像に前記不具合領域が検出された場合、前記第1の撮像部で撮像された映像に含まれる前記不具合領域を前記第2の撮像部で撮像された映像に置き換えるように、または、前記第2の撮像部で撮像された映像に含まれる前記不具合領域を前記第1の撮像部で撮像された映像に置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像との合成状態を変更することを特徴とする請求項2又は3に記載の映像処理システム。
And a first video combining unit that combines the video captured by the first imaging unit and the video captured by the second imaging unit.
The first image combining unit is included in the image captured by the first imaging unit when the defect area is detected in the image captured by the first imaging unit by the feature amount comparison detection unit. The first imaging unit to capture the defective area included in the image captured by the second imaging unit so as to replace the defective area to be replaced with the image captured by the second imaging unit 4. The method according to claim 2, wherein a combination state of the video captured by the first imaging unit and the video captured by the second imaging unit is changed so as to replace the video with the selected video. Video processing system.
前記特徴量比較検出部は、前記第1の撮像部が撮像した映像に含まれる前記不具合領域の座標値を示す情報を出力し、
前記第1の映像合成部は、前記座標値を示す情報を用いて前記第1の撮像部が撮像した映像に含まれる前記不具合領域を前記第2の撮像部が撮像した映像に置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像とを合成した合成映像を生成することを特徴とする請求項2〜4の何れか1項に記載の映像処理システム。
The feature amount comparison and detection unit outputs information indicating coordinate values of the defect area included in the image captured by the first imaging unit,
The first video synthesis unit may replace the defect area included in the video captured by the first imaging unit with the video captured by the second imaging unit using the information indicating the coordinate value. 5. The composite image according to any one of claims 2 to 4, wherein the composite video is generated by combining the video captured by the first imaging unit and the video captured by the second imaging unit. Video processing system.
前記特徴量比較検出部は、前記第1の撮像部が撮像した映像に含まれる前記不具合領域の座標値を示す情報又は前記第2の撮像部が撮像した映像に含まれる前記不具合領域の前記座標値を示す情報を出力し、
前記第1の映像合成部は、前記座標値を示す情報用いて、前記不具合領域を置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像との表示面積割合を変化させることを特徴とする請求項2〜4の何れか1項に記載の映像処理システム。
The feature amount comparison and detection unit may include information indicating coordinate values of the defect area included in the image captured by the first imaging unit or the coordinates of the defect area included in the image captured by the second imaging unit. Output information indicating the value,
The first video synthesis unit uses the information indicating the coordinate value to replace the defective area, the video captured by the first imaging unit and the video captured by the second imaging unit The image processing system according to any one of claims 2 to 4, wherein the display area ratio of is changed.
前記第1の映像合成部は、前記不具合領域を置き換えるように第1の撮像部で撮像された映像と第2の撮像部で撮像された映像を合成する合成映像を生成する場合、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像とを複数のエリアに分割し、該分割されたエリアごとに、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像とを合成することを特徴とする請求項4〜6の何れか1項に記載の映像処理システム。   The first video combining unit is configured to combine the video captured by the first imaging unit with the video captured by the second imaging unit so as to replace the defect area. The video captured by the imaging unit and the video captured by the second imaging unit are divided into a plurality of areas, and the video captured by the first imaging unit and the image are divided for each of the divided areas. The video processing system according to any one of claims 4 to 6, wherein the video is combined with the video captured by the second imaging unit. 前記第1の映像合成部は、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像とを合成する合成映像を生成する場合、第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像との境界部分からの距離に応じて、第1の撮像部で撮像された映像及び前記第2の撮像部で撮像された映像の透過率を変化させることを特徴とする請求項4〜7のいずれか1項に記載の映像処理システム。   The first image combining unit captures an image by the first imaging unit when generating a composite image that combines the image captured by the first imaging unit and the image captured by the second imaging unit. Of the image captured by the first imaging unit and the image captured by the second imaging unit according to the distance from the boundary between the captured image and the image captured by the second imaging unit The image processing system according to any one of claims 4 to 7, wherein the rate is changed. 前記第1の撮像部以外の撮像部は、第2の撮像部及び第3の撮像部であり、
前記第1の撮像部で撮像された映像、前記第2の撮像部で撮像された映像及び前記第3の撮像部で撮像された映像を合成する第1の映像合成部とを備え、
前記第1の映像合成部は、
前記特徴量比較検出部によって前記第1の撮像部で撮像された映像に前記不具合領域が検出された場合、前記第1の撮像部で撮像された映像に含まれる前記不具合領域を前記第2の撮像部又は第3の撮像部で撮像された映像に置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像と前記第3の撮像部で撮像された映像との合成状態を変更し、
前記特徴量比較検出部によって前記第2の撮像部で撮像された映像に前記不具合領域が検出された場合、前記第2の撮像部で撮像された映像に含まれる前記不具合領域を前記第1の撮像部又は第3の撮像部で撮像された映像に置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像と前記第3の撮像部で撮像された映像との合成状態を変更し、
前記特徴量比較検出部によって前記第3の撮像部で撮像された映像に前記不具合領域が検出された場合、前記第3の撮像部で撮像された映像に含まれる前記不具合領域を前記第1の撮像部又は第2の撮像部で撮像された映像に置き換えるように、前記第1の撮像部で撮像された映像と前記第2の撮像部で撮像された映像と前記第3の撮像部で撮像された映像との合成状態を変更することを特徴とする請求項1に記載の映像処理システム。
The imaging units other than the first imaging unit are a second imaging unit and a third imaging unit,
And a first video combining unit that combines the video captured by the first imaging unit, the video captured by the second imaging unit, and the video captured by the third imaging unit.
The first video synthesis unit
When the defect area is detected in the image captured by the first imaging unit by the feature amount comparison detection unit, the defect area included in the image captured by the first imaging unit is the second defect area The image captured by the first imaging unit, the image captured by the second imaging unit, and the image captured by the third imaging unit so as to replace the image captured by the imaging unit or the third imaging unit Change the composite state with the selected video,
When the defect area is detected in the image captured by the second imaging unit by the feature amount comparison detection unit, the defect area included in the image captured by the second imaging unit is the first defect area The image captured by the first imaging unit, the image captured by the second imaging unit, and the image captured by the third imaging unit so as to replace the image captured by the imaging unit or the third imaging unit Change the composite state with the selected video,
When the defect area is detected in the image captured by the third imaging unit by the feature amount comparison detection unit, the defect area included in the image captured by the third imaging unit is the first defect area The image captured by the first imaging unit, the image captured by the second imaging unit, and the image captured by the third imaging unit so as to replace the image captured by the imaging unit or the second imaging unit The image processing system according to claim 1, wherein the combination state with the selected image is changed.
前記第1の撮像部はリアカメラであり、前記第2の撮像部は右サイドカメラであり、前記第3の撮像部は左サイドカメラであることを特徴とする請求項9に記載の映像処理システム。   10. The image processing according to claim 9, wherein the first imaging unit is a rear camera, the second imaging unit is a right side camera, and the third imaging unit is a left side camera. system. 前記第2の特徴量検出部は、前記複数の撮像部のうちの前記第1の撮像部以外の第2の撮像部および第3の撮像部がそれぞれ撮像した映像が合成された映像における少なくとも前記第1の撮像範囲の映像から前記特徴量を検出し、
前記特徴量比較検出部は、前記第1の撮像部で撮像された映像に含まれる前記不具合領域及び前記合成された映像に含まれる前記不具合領域のうち、少なくとも何れか一方を検出することを特徴とする請求項1に記載の映像処理システム。
The second feature amount detection unit is configured to generate at least the image obtained by combining the images captured by the second and third imaging units other than the first imaging unit among the plurality of imaging units. Detecting the feature amount from the image of the first imaging range;
The feature amount comparison and detection unit detects at least one of the defect area included in the image captured by the first imaging unit and the defect area included in the combined image. The image processing system according to claim 1.
前記第1の撮像部はリアカメラであり、前記第2の撮像部は右サイドカメラであり、前記第3の撮像部は左サイドカメラであることを特徴とする請求項11に記載の映像処理システム。   The image processing according to claim 11, wherein the first imaging unit is a rear camera, the second imaging unit is a right side camera, and the third imaging unit is a left side camera. system. 移動体に設置される複数の撮像部のうちの第1の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第1の特徴量検出部と、
前記複数の撮像部のうちの前記第1の撮像部以外の撮像部が撮像した映像における少なくとも前記第1の撮像範囲の映像から前記特徴量を検出する第2の特徴量検出部と、
前記第1の特徴量検出部で検出された前記第1の撮像範囲の特徴量と前記第2の特徴量検出部で検出された前記第1の撮像範囲の特徴量とを比較して、前記第1の撮像部で撮像された映像に含まれる不具合領域及び前記第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出部と、
を備えたことを特徴とする映像処理装置。
A first feature amount detection unit that detects a feature amount from an image of at least a first imaging range in an image captured by a first imaging unit of the plurality of imaging units installed on the mobile object;
A second feature amount detection unit that detects the feature amount from an image of at least the first imaging range in an image captured by an imaging unit other than the first imaging unit among the plurality of imaging units;
The feature amount of the first imaging range detected by the first feature amount detection unit is compared with the feature amount of the first imaging range detected by the second feature amount detection unit, Feature amount comparison detection for detecting at least one of a defect area included in a video captured by a first imaging unit and a defect area included in a video captured by an imaging unit other than the first imaging unit Department,
An image processing apparatus comprising:
移動体に設置される複数の撮像部のうちの第1の撮像部が撮像した映像における少なくとも第1の撮像範囲の映像から特徴量を検出する第1の特徴量検出ステップと、
前記複数の撮像部のうちの前記第1の撮像部以外の撮像部が撮像した映像における少なくとも前記第1の撮像範囲の映像から前記特徴量を検出する第2の特徴量検出ステップと、
前記第1の特徴量検出ステップで検出された前記第1の撮像範囲の特徴量と前記第2の特徴量検出ステップで検出された前記第1の撮像範囲の特徴量とを比較して、前記第1の撮像部で撮像された映像に含まれる不具合領域及び前記第1の撮像部以外の撮像部で撮像された映像に含まれる不具合領域のうち、少なくとも何れか一方を検出する特徴量比較検出ステップと、
を備えたことを特徴とする映像処理方法。
A first feature amount detection step of detecting a feature amount from an image of at least a first imaging range in an image captured by a first imaging unit of the plurality of imaging units installed on the mobile object;
A second feature amount detection step of detecting the feature amount from an image of at least the first imaging range in an image captured by an imaging unit other than the first imaging unit among the plurality of imaging units;
The feature amount of the first imaging range detected in the first feature amount detection step is compared with the feature amount of the first imaging range detected in the second feature amount detection step, Feature amount comparison detection for detecting at least one of a defect area included in a video captured by a first imaging unit and a defect area included in a video captured by an imaging unit other than the first imaging unit Step and
A video processing method comprising:
JP2017230632A 2017-11-30 2017-11-30 Video processing system, video processing apparatus, and video processing method Pending JP2019102929A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017230632A JP2019102929A (en) 2017-11-30 2017-11-30 Video processing system, video processing apparatus, and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017230632A JP2019102929A (en) 2017-11-30 2017-11-30 Video processing system, video processing apparatus, and video processing method

Publications (1)

Publication Number Publication Date
JP2019102929A true JP2019102929A (en) 2019-06-24

Family

ID=66977282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017230632A Pending JP2019102929A (en) 2017-11-30 2017-11-30 Video processing system, video processing apparatus, and video processing method

Country Status (1)

Country Link
JP (1) JP2019102929A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112298036A (en) * 2019-07-26 2021-02-02 丰田自动车株式会社 Electronic mirror system for vehicle
JP2021051381A (en) * 2019-09-20 2021-04-01 株式会社デンソーテン Attached matter detection device and attached matter detection method
WO2021193102A1 (en) * 2020-03-24 2021-09-30 株式会社日立国際電気 Imaging device, video processing device, and video processing method
WO2021192373A1 (en) * 2020-03-27 2021-09-30 株式会社Jvcケンウッド Display control device, display control method, and program
CN113844363A (en) * 2020-06-26 2021-12-28 丰田自动车株式会社 Vehicle periphery monitoring device, monitoring method, and non-transitory storage medium

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112298036A (en) * 2019-07-26 2021-02-02 丰田自动车株式会社 Electronic mirror system for vehicle
JP2021022833A (en) * 2019-07-26 2021-02-18 トヨタ自動車株式会社 Vehicle electronic mirror system
JP7279566B2 (en) 2019-07-26 2023-05-23 トヨタ自動車株式会社 Vehicle electronic mirror system
CN112298036B (en) * 2019-07-26 2023-08-11 丰田自动车株式会社 Electronic mirror system for vehicle
JP2021051381A (en) * 2019-09-20 2021-04-01 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7200893B2 (en) 2019-09-20 2023-01-10 株式会社デンソーテン Attached matter detection device and attached matter detection method
WO2021193102A1 (en) * 2020-03-24 2021-09-30 株式会社日立国際電気 Imaging device, video processing device, and video processing method
JP7441304B2 (en) 2020-03-24 2024-02-29 株式会社日立国際電気 Imaging device, video processing device, and video processing method
WO2021192373A1 (en) * 2020-03-27 2021-09-30 株式会社Jvcケンウッド Display control device, display control method, and program
CN113844363A (en) * 2020-06-26 2021-12-28 丰田自动车株式会社 Vehicle periphery monitoring device, monitoring method, and non-transitory storage medium
US11390218B2 (en) 2020-06-26 2022-07-19 Toyota Jidosha Kabushiki Kaisha Vehicle periphery monitoring device, vehicle periphery monitoring method and non-transitory storage medium
CN113844363B (en) * 2020-06-26 2023-08-08 丰田自动车株式会社 Vehicle periphery monitoring device, monitoring method, and non-transitory storage medium

Similar Documents

Publication Publication Date Title
JP2019102929A (en) Video processing system, video processing apparatus, and video processing method
EP2351351B1 (en) A method and a system for detecting the presence of an impediment on a lens of an image capture device to light passing through the lens of an image capture device
US7570286B2 (en) System and method for creating composite images
JP4353127B2 (en) Rain sensor
US10297014B2 (en) Image processing device, monitoring system provided with same, and image processing method
US9669761B2 (en) Around view monitoring apparatus and method thereof
CN103914810B (en) Image super-resolution for dynamic rearview mirror
JP2005331929A5 (en)
JPWO2015037273A1 (en) Operation input device and method, program, and recording medium
EP3113107B1 (en) Static soiling detection and correction
JP2018071994A (en) Attached matter detection apparatus and attached matter detection method
JP2011250376A (en) Vehicle periphery image display device
EP3107063A1 (en) Method for processing camera images
US10242460B2 (en) Imaging apparatus, car, and variation detection method
WO2018034304A1 (en) Image processing system
EP3306522A1 (en) Device for determining a region of interest on and/or within a vehicle windscreen
JP2018074191A (en) On-vehicle video display system, on-vehicle video display method, and program
CN113276772A (en) Automobile electronic exterior rearview mirror system and control method
EP3282420A1 (en) Method and apparatus for soiling detection, image processing system and advanced driver assistance system
JP4599136B2 (en) Image state determination apparatus, image state determination method, and image state determination program
US20240015269A1 (en) Camera system, method for controlling the same, storage medium, and information processing apparatus
KR101728670B1 (en) AVM system having a function of identifying foreign material on camera and method thereof
Huang et al. Dust and reflection removal from videos captured in moving car
JP7219710B2 (en) Method and apparatus for improving camera capture for driver assistance systems
JP2006107314A (en) Image processor and image processing method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191018