JP2016045716A - Image processor, and failure diagnosis method for the same - Google Patents

Image processor, and failure diagnosis method for the same Download PDF

Info

Publication number
JP2016045716A
JP2016045716A JP2014169555A JP2014169555A JP2016045716A JP 2016045716 A JP2016045716 A JP 2016045716A JP 2014169555 A JP2014169555 A JP 2014169555A JP 2014169555 A JP2014169555 A JP 2014169555A JP 2016045716 A JP2016045716 A JP 2016045716A
Authority
JP
Japan
Prior art keywords
image
correction unit
camera
corrected
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014169555A
Other languages
Japanese (ja)
Other versions
JP6350113B2 (en
Inventor
後藤 宏明
Hiroaki Goto
宏明 後藤
丙辰 王
Heishin O
丙辰 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014169555A priority Critical patent/JP6350113B2/en
Priority to PCT/JP2015/003554 priority patent/WO2016027408A1/en
Publication of JP2016045716A publication Critical patent/JP2016045716A/en
Application granted granted Critical
Publication of JP6350113B2 publication Critical patent/JP6350113B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/097Supervising of traffic control systems, e.g. by giving an alarm if two crossing streets have green light simultaneously
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of diagnosing that an image processor has failed.SOLUTION: An image processor (1) includes an image correction part (21) for correcting the distortion of a camera image photographed by a camera (3), and outputting a corrected image being an image obtained by correcting the distortion and having at least one vanishing point, and a failure diagnosis part (25) for determining whether the image correction part has failed on the basis of whether the vanishing point in the corrected image outputted from the image correction part (21) has an abnormality.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、及び画像処理装置の故障診断方法に関する。   The present invention relates to an image processing apparatus and a failure diagnosis method for an image processing apparatus.

車載カメラで車両の周辺を撮影した際に、撮影されたカメラ画像の輝度分布に基づいて、カメラへの異物付着等の異常を検出する手法が知られている(例えば、特許文献1参照。)。   A technique for detecting an abnormality such as adhesion of a foreign object to the camera based on the luminance distribution of the photographed camera image when the periphery of the vehicle is photographed by the in-vehicle camera is known (for example, see Patent Document 1). .

特開2003−312408号公報JP 2003-312408 A

しかし、上述のような輝度分布による異常診断では、カメラ画像の異常が、外的な環境要因(例えば、カメラへの異物付着。)による異常なのか、機器の故障(例えば、ハードウェアやソフトウェアの故障)による異常なのかを区別することは難しい。   However, in the abnormality diagnosis based on the luminance distribution as described above, whether the abnormality of the camera image is abnormal due to an external environmental factor (for example, foreign matter adhering to the camera) or a malfunction of the device (for example, hardware or software) It is difficult to distinguish whether it is abnormal due to a failure.

例えば、カメラにより撮影されたカメラ画像の歪みを補正する画像処理装置が故障した場合、そのような画像処理装置でカメラ画像を補正すると、その補正後の画像にも異常な輝度分布が生じる可能性がある。しかし、そのような異常が生じた場合、上記従来技術では、画像処理装置が故障していると判断することは困難である。   For example, when an image processing apparatus that corrects distortion of a camera image taken by a camera fails, correcting the camera image with such an image processing apparatus may cause an abnormal luminance distribution in the corrected image. There is. However, when such an abnormality occurs, it is difficult to determine that the image processing apparatus is out of order using the conventional technology.

以上のような事情から、画像処理装置が故障していることを診断可能な技術を提供することが望ましい。   In view of the above circumstances, it is desirable to provide a technique capable of diagnosing that the image processing apparatus is out of order.

本明細書で説明する画像処理装置は、画像補正部と故障診断部とを有する。画像補正部は、カメラにより撮影されたカメラ画像の歪みを補正し、当該歪みが補正された画像であって少なくとも一つの消失点を有する画像である補正画像を出力する。故障診断部は、画像補正部から出力される補正画像中の消失点に異常があるか否かに基づいて、画像補正部が故障しているか否かを判定する。   The image processing apparatus described in this specification includes an image correction unit and a failure diagnosis unit. The image correction unit corrects distortion of the camera image taken by the camera, and outputs a corrected image that is an image in which the distortion is corrected and has at least one vanishing point. The failure diagnosis unit determines whether or not the image correction unit has failed based on whether or not the vanishing point in the corrected image output from the image correction unit is abnormal.

このように構成された画像処理装置によれば、画像補正部が故障して、歪補正が正しくできない状態に陥っている場合に、そのような画像補正部で補正された補正画像からは消失点が正しく求められないことを利用して、画像補正部が故障していると判定する。   According to the image processing apparatus configured as described above, when the image correction unit is out of order and the distortion correction cannot be performed correctly, the vanishing point is corrected from the corrected image corrected by the image correction unit. It is determined that the image correction unit is malfunctioning by utilizing the fact that is not obtained correctly.

したがって、補正画像から消失点が正しく求められるか否かには着目していない技術とは異なり、画像補正部において補正画像を生成する段階で、何らかの障害が発生していることを特定できる。よって、例えば、そのような補正画像を生成する画像補正部に異常があることを利用者に対して報知することができる。あるいは、例えば、そのような異常な補正画像に基づく制御を中止するなどの対処をすることができる。   Therefore, unlike a technique that does not focus on whether or not the vanishing point is correctly obtained from the corrected image, it is possible to specify that some kind of failure has occurred at the stage of generating the corrected image in the image correction unit. Therefore, for example, it is possible to notify the user that there is an abnormality in the image correction unit that generates such a corrected image. Alternatively, for example, it is possible to take measures such as stopping the control based on such an abnormal corrected image.

また、本明細書で説明する画像処理装置の故障診断方法は、カメラにより撮影されたカメラ画像の歪みを補正し、当該歪みが補正された画像であって少なくとも一つの消失点を有する画像である補正画像を出力する画像補正部を有する画像処理装置を対象にして、画像補正部の故障を判定する方法である。この画像処理装置の故障診断方法は、画像補正部から出力される補正画像中の消失点に異常があるか否かに基づいて、画像補正部が故障しているか否かを判定する手順を含む。   Further, the failure diagnosis method for an image processing apparatus described in the present specification is an image in which distortion of a camera image taken by a camera is corrected, and the distortion is corrected and has at least one vanishing point. This is a method of determining a failure of an image correction unit for an image processing apparatus having an image correction unit that outputs a corrected image. The failure diagnosis method for the image processing apparatus includes a procedure for determining whether or not the image correction unit is defective based on whether or not the vanishing point in the corrected image output from the image correction unit is abnormal. .

したがって、このような故障診断方法によれば、上述の画像処理装置について述べた通りの作用、効果を奏し、画像補正部において補正画像を生成する段階で、何らかの障害が発生していることを特定できる。   Therefore, according to such a failure diagnosis method, the operation and effect as described for the above-described image processing apparatus are achieved, and it is determined that some kind of failure has occurred at the stage of generating a corrected image in the image correction unit. it can.

なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   In addition, the code | symbol in the parenthesis described in the claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is limited is not.

図1は車載画像処理システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an in-vehicle image processing system. 図2リアルタイム故障検出処理のフローチャートである。2 is a flowchart of real-time failure detection processing. 図3は画像異常判定処理(その1)のフローチャートである。FIG. 3 is a flowchart of the image abnormality determination process (part 1). 図4は画像異常判定処理(その2)のフローチャートである。FIG. 4 is a flowchart of the image abnormality determination process (part 2). 図5は始動時故障検出処理のフローチャートである。FIG. 5 is a flowchart of start-up failure detection processing. 図6は補正画像を複数のセグメントに分割した例を示す説明図である。FIG. 6 is an explanatory diagram showing an example in which the corrected image is divided into a plurality of segments.

次に、上述の画像処理装置、及び画像処理装置の故障診断方法について、例示的な実施形態を挙げて説明する。
[画像処理装置の構成]
以下に説明する車載画像処理システムは、図1に示すように、上述の画像処理装置として機能する電子制御装置1(Electronic Control Unit;以下、ECU1と略称する。)を中心に構成される。ECU1の他には、カメラ3、外的要因判定部5、表示部7、ダイアグ処理部9、車速センサ11、舵角センサ13、及び姿勢センサ15などを備える。
Next, the image processing apparatus and the failure diagnosis method for the image processing apparatus will be described with reference to exemplary embodiments.
[Configuration of image processing apparatus]
As shown in FIG. 1, an in-vehicle image processing system described below is mainly configured by an electronic control unit 1 (Electronic Control Unit; hereinafter abbreviated as ECU 1) that functions as the above-described image processing device. In addition to the ECU 1, the camera 3, the external factor determination unit 5, the display unit 7, the diagnosis processing unit 9, the vehicle speed sensor 11, the steering angle sensor 13, and the attitude sensor 15 are provided.

カメラ3は、車両上に取り付けられ、車両の前方、後方、あるいは側方などを撮影可能に構成されている。カメラ3は、広角レンズを備える。そのため、カメラ3によって撮影された(以下、カメラ画像とも称する。)は、撮影範囲の中心部に比べ、周辺部ほど被写体の縮小度合いが大きくなるような歪みを有する。   The camera 3 is mounted on the vehicle and configured to be able to photograph the front, rear, or side of the vehicle. The camera 3 includes a wide angle lens. For this reason, the image captured by the camera 3 (hereinafter also referred to as a camera image) has a distortion that causes the degree of reduction of the subject to increase in the peripheral portion compared to the central portion of the imaging range.

外的要因判定部5は、カメラ3から画像や画像以外の情報を入出力可能なハードウェア及びソフトウェアによって構成される。外的要因判定部5は、カメラ3がハードウェアとして正常に機能しているか否かを判定可能に構成され、カメラ3が正常に機能している場合に、カメラ3から入力したカメラ画像をECU1へと出力する。   The external factor determination unit 5 is configured by hardware and software that can input and output images and information other than images from the camera 3. The external factor determination unit 5 is configured to be able to determine whether or not the camera 3 is functioning normally as hardware. When the camera 3 functions normally, the external image determination unit 5 determines the camera image input from the camera 3 as the ECU 1. To output.

表示部7は、例えば液晶ディスプレイ装置などにより、車両の運転者等に対して各種情報を表示可能に構成されている。ダイアグ処理部9、車速センサ11、舵角センサ13、及び姿勢センサ15は、CAN(Controller Area Network)17を介してECU1を含む各種機器と通信可能に構成されている。   The display unit 7 is configured to be able to display various types of information to a vehicle driver or the like, for example, using a liquid crystal display device or the like. The diagnosis processing unit 9, the vehicle speed sensor 11, the steering angle sensor 13, and the attitude sensor 15 are configured to be able to communicate with various devices including the ECU 1 via a CAN (Controller Area Network) 17.

ECU1を含む各種機器からダイアグ処理部9に対しては各種診断情報が伝送される。ダイアグ処理部9では、それらの情報をダイアグ情報として蓄積する処理が実行される。また、ダイアグ処理部9では、必要に応じて警告灯を点灯させるなど、車両の運転者等に対して注意喚起を行うための処理が実行される。   Various diagnostic information is transmitted from the various devices including the ECU 1 to the diagnosis processing unit 9. In the diagnosis processing unit 9, processing for storing such information as diagnosis information is executed. Further, the diagnosis processing unit 9 executes processing for alerting the vehicle driver or the like such as turning on a warning light as necessary.

車速センサ11は、車両の速度を検出し、検出した速度をCAN17経由でECU1へ伝送する。舵角センサ13は、ステアリングの操舵角を検出し、検出した操舵角をCAN17経由でECU1へ伝送する。姿勢センサ15は、ジャイロや、ヨーレートセンサ、勾配センサなどから構成され、車両の姿勢情報(例えば、車両の走行面に垂直な方向を軸とする回転角(ヨー)、車両の進行方向を軸とする回転角(ロール)、車両の車幅方向を軸とする回転角(ピッチ)など。)を検出し、検出した姿勢情報をCAN17経由でECU1へ伝送する。   The vehicle speed sensor 11 detects the speed of the vehicle and transmits the detected speed to the ECU 1 via the CAN 17. The steering angle sensor 13 detects the steering angle of the steering, and transmits the detected steering angle to the ECU 1 via the CAN 17. The attitude sensor 15 includes a gyro, a yaw rate sensor, a gradient sensor, and the like. The attitude sensor 15 includes vehicle attitude information (for example, a rotation angle (yaw) with a direction perpendicular to the traveling surface of the vehicle as an axis, and a traveling direction of the vehicle as an axis. Rotation angle (roll), rotation angle (pitch) about the vehicle width direction of the vehicle, etc.) is detected, and the detected attitude information is transmitted to the ECU 1 via the CAN 17.

ECU1は、画像補正部21、認識部23、及び故障診断部25などを備える。カメラ3から外的要因判定部5経由でECU1へ入力されるカメラ画像は、画像補正部21において歪補正処理が施される。なお、以下の説明では、画像補正部21において歪補正処理が施された画像のことを補正画像とも称する。画像補正部21から出力される補正画像は、認識部23及び故障診断部25それぞれに入力される。   The ECU 1 includes an image correction unit 21, a recognition unit 23, a failure diagnosis unit 25, and the like. The camera image input from the camera 3 to the ECU 1 via the external factor determination unit 5 is subjected to distortion correction processing in the image correction unit 21. In the following description, an image subjected to the distortion correction processing in the image correction unit 21 is also referred to as a corrected image. The corrected image output from the image correction unit 21 is input to each of the recognition unit 23 and the failure diagnosis unit 25.

認識部23では、画像補正部21から入力される補正画像に基づき、各種物標を認識する処理が実行される。例えば、車両の前方が撮影された補正画像に基づいて、道路上の区画線を認識する白線認識処理や、道路に設置された標識を認識する標識認識処理などが実行される。あるいは、例えば、車両の後方が撮影された補正画像に基づいて、車両の後方に存在する物標を認識する後方認識処理や、車両の側方が撮影された補正画像に基づいて、車両の側方に存在する物標を認識する側方認識処理などが実行される。そして、これらの処理により、例えば車線逸脱や障害物との接触などの発生が予測される場合には、その旨の警告情報を表示部7へと出力することにより、車両の運転者等に対して注意喚起を行う。   In the recognition unit 23, processing for recognizing various targets is executed based on the corrected image input from the image correction unit 21. For example, a white line recognition process for recognizing a marking line on a road, a sign recognition process for recognizing a sign installed on the road, and the like are executed based on a corrected image obtained by photographing the front of the vehicle. Alternatively, for example, based on a corrected image in which the rear of the vehicle is captured, a rear recognition process for recognizing a target existing behind the vehicle, or on the vehicle side based on a corrected image in which the side of the vehicle is captured. Side recognition processing for recognizing a target existing on the side is executed. And when these processes predict the occurrence of a lane departure or contact with an obstacle, for example, the warning information to that effect is output to the display unit 7 to the vehicle driver or the like. Call attention.

故障診断部25では、画像補正部21から入力される補正画像に基づき、画像補正部21に対する故障診断処理が実行される。この故障診断処理の詳細については後述する。また、外的要因判定部5において、カメラ3が正常に機能していないと判定された場合には、その旨の情報が外的要因判定部5から故障診断部25へと伝達される。   In the failure diagnosis unit 25, failure diagnosis processing for the image correction unit 21 is executed based on the corrected image input from the image correction unit 21. Details of this failure diagnosis processing will be described later. When the external factor determination unit 5 determines that the camera 3 is not functioning normally, information to that effect is transmitted from the external factor determination unit 5 to the failure diagnosis unit 25.

故障診断部25は、外的要因判定部5から伝達される情報、及び故障診断部25で実施した故障診断処理の結果に基づき、少なくとも一方において何らかの故障が検出されている場合、その旨の情報をCAN17経由でダイアグ処理部9へ伝送する。   The failure diagnosis unit 25, when any failure is detected in at least one of the information transmitted from the external factor determination unit 5 and the result of the failure diagnosis process performed by the failure diagnosis unit 25, information to that effect Is transmitted to the diagnosis processing unit 9 via the CAN 17.

[故障診断処理]
次に、上述のシステムによって実行される故障診断処理について、図2−図5に示すフローチャートに基づいて説明する。以下に説明する故障診断処理には、図2−図4に示すリアルタイム故障検出処理と、図5に示す始動時故障検出処理が含まれ得る。リアルタイム故障検出処理は、車両の走行中にリアルタイムで画像補正部21の故障を検出するための処理である。始動時故障検出処理は、車両の始動時あるいは工場出荷時などに画像補正部21の故障を検出するための処理である。
[Failure diagnosis processing]
Next, failure diagnosis processing executed by the above-described system will be described based on the flowcharts shown in FIGS. The failure diagnosis process described below may include a real-time failure detection process shown in FIGS. 2 to 4 and a start-up failure detection process shown in FIG. The real-time failure detection process is a process for detecting a failure of the image correction unit 21 in real time while the vehicle is traveling. The start-up failure detection process is a process for detecting a failure in the image correction unit 21 at the time of vehicle start-up or factory shipment.

まず、リアルタイム故障検出処理について説明する。リアルタイム故障検出処理は、車両の始動に伴って開始され、以降は車両が停止するまで繰り返し実行される処理である。リアルタイム故障検出処理を開始すると、まず、カメラ3によって上述のカメラ画像として静止画又は動画を入力する(S10)。S10では、後述する故障判定手法に応じて、所定のフレームレートで動画を入力してもよいし、定期的又は不定期に静止画を入力してもよい。ただし、本実施形態では、所定のフレームレートで動画を入力し、必要時には動画を構成する複数の画像それぞれを静止画としても利用するものとして説明を続ける。   First, the real-time failure detection process will be described. The real-time failure detection process is a process that starts with the start of the vehicle and is repeatedly executed thereafter until the vehicle stops. When the real-time failure detection process is started, first, a still image or a moving image is input as the above-described camera image by the camera 3 (S10). In S10, a moving image may be input at a predetermined frame rate or a still image may be input regularly or irregularly according to a failure determination method described later. However, in the present embodiment, the description is continued on the assumption that a moving image is input at a predetermined frame rate and each of a plurality of images constituting the moving image is also used as a still image when necessary.

S10において静止画又は動画を入力したら、引き続いて、外的要因判定部5において、外的要因判定を実行する(S20)。S20では、カメラ3自体の異常状態が判定される。例えば、電源ショートや信号異常など、カメラ3が正常に機能していない場合には、そのような異常があることを、外的要因判定部5において判定する。これにより、画像補正部21で異常が発生しているのか、画像補正部21よりも前段階にあるカメラ3で異常が発生しているのかを、切り分けて判定することができる。   When a still image or a moving image is input in S10, the external factor determination unit 5 subsequently performs external factor determination (S20). In S20, the abnormal state of the camera 3 itself is determined. For example, when the camera 3 is not functioning normally, such as a power supply short-circuit or a signal abnormality, the external factor determination unit 5 determines that such an abnormality exists. This makes it possible to determine whether an abnormality has occurred in the image correction unit 21 or whether an abnormality has occurred in the camera 3 in the previous stage of the image correction unit 21.

S20において、カメラ3が正常に機能している場合には、画像補正部21において画像補正が実行される(S30)。S30において、画像補正部21は、上述した広角レンズに起因する歪みを補正する。画像補正部21が正常に機能している場合、画像補正部21によって補正された画像は、少なくとも一つの消失点を有する画像となる。   If the camera 3 is functioning normally in S20, the image correction unit 21 performs image correction (S30). In S30, the image correction unit 21 corrects distortion caused by the above-described wide-angle lens. When the image correction unit 21 functions normally, the image corrected by the image correction unit 21 is an image having at least one vanishing point.

そのため、自車両に向かって接近する撮影対象物(例えば、車両前方の路肩にある物標。)が存在する場合、その撮影対象物は、補正画像中において消失点から画像周辺部に向かって経時的に移動する画素群(以下、この画素群を移動要素とも称する。)として表れる。また、自車両から遠ざかる撮影対象物(例えば、車両後方の路肩にある物標。)が存在する場合、その撮影対象物は、補正画像中において画像周辺部から消失点に向かって経時的に移動する画素群(以下、この画素群を移動要素とも称する。)として表れる。   For this reason, when there is a photographing object approaching toward the own vehicle (for example, a target on the road shoulder in front of the vehicle), the photographing object is time-lapsed from the vanishing point to the periphery of the image in the corrected image. Appear as a pixel group that moves in a moving manner (hereinafter, this pixel group is also referred to as a moving element). In addition, when there is a subject to be photographed away from the host vehicle (for example, a target on the shoulder of the back of the vehicle), the subject to be photographed moves with time from the periphery of the image toward the vanishing point in the corrected image. The pixel group (hereinafter, this pixel group is also referred to as a moving element).

さらに、カメラによる撮影領域の奥行き方向に向かって線状に延びている撮影対象物(例えば、自車両の進行方向に向かって直線的に延びる路面上の白線や路肩にあるガードレール等。)が存在する場合、その撮影対象物のエッジを画像処理によって抽出すると、抽出されたエッジは、補正画像中において消失点に向かって線状に延びる画素群(以下、この画素群を線状要素とも称する。)として表れる。   Furthermore, there is a subject to be photographed that extends linearly in the depth direction of the photographing region of the camera (for example, a white line on the road surface that extends linearly in the traveling direction of the host vehicle, a guard rail on the shoulder, etc.). In this case, when the edge of the photographing object is extracted by image processing, the extracted edge is a pixel group extending linearly toward the vanishing point in the corrected image (hereinafter, this pixel group is also referred to as a linear element). ).

そこで、故障診断部25では、画像補正部21から入力される補正画像に基づき、画像異常判定処理を実行する(S40)。S40において、故障診断部25では、上述のような移動要素や線状要素を抽出し、消失点が正しく求められるかどうかを判定する。   Therefore, the failure diagnosis unit 25 executes an image abnormality determination process based on the corrected image input from the image correction unit 21 (S40). In S40, the failure diagnosis unit 25 extracts the moving elements and the linear elements as described above, and determines whether or not the vanishing point is correctly obtained.

例えば、S40では、上述のような移動要素を対象として、図3に例示するような画像異常判定処理を実行する。この画像異常判定処理では、まず、動画を構成する複数の画像のうち、前後のフレームを対比して、移動している対象物の画像と推定される特徴点を算出する(S110)。S110において算出される特徴点は、ECU1の演算性能に応じた数であれば、いくつであってもよいが、信頼性を高めるためには数点以上あることが好ましい。続いて、S110で算出した特徴点を対象に、前フレームからの移動方向を算出し(S120)、特徴点の移動ベクトルの収束点を消失点として算出する(S130)。   For example, in S40, the image abnormality determination process illustrated in FIG. 3 is executed for the moving element as described above. In this image abnormality determination process, first, a feature point estimated as an image of a moving object is calculated by comparing frames before and after among a plurality of images constituting a moving image (S110). The number of feature points calculated in S110 may be any number as long as it is a number according to the calculation performance of the ECU 1, but it is preferable that there are several or more points in order to improve reliability. Subsequently, the moving direction from the previous frame is calculated for the feature point calculated in S110 (S120), and the convergence point of the moving vector of the feature point is calculated as a vanishing point (S130).

補正画像の中からいくつかの移動要素を抽出した場合、それらの移動要素それぞれの移動方向に基づいて、各移動要素に対応付けて消失点が存在すると推定される方向を特定することができる。S130では、上述のような手法により、移動要素ごとに消失点が存在する方向を推定し、それら推定された消失点の方向が所定の位置に収束するか否かを判断する。この判断では、画像処理時のノイズや誤差を考慮して、ある程度の範囲内に消失点が収束すれば、画像補正部21が正常に機能しているものと判断すればよい。   When several moving elements are extracted from the corrected image, the direction in which the vanishing point is estimated to be associated with each moving element can be specified based on the moving direction of each moving element. In S130, the direction in which the vanishing point exists for each moving element is estimated by the above-described method, and it is determined whether or not the estimated vanishing point direction converges to a predetermined position. In this determination, in consideration of noise and errors during image processing, if the vanishing point converges within a certain range, it may be determined that the image correction unit 21 is functioning normally.

また、S110−S130では、図6に示すように、補正画像全体を複数(図6では9つ)のセグメントに分割して、収束点が補正画像中央のセグメント(図6中に示す有効セグメント。)から逸脱するものは使用しないようにしてもよい。例えば、車両がカーブした道路を走行している場合、収束点が補正画像の中央付近に収束しなくなる可能性がある。   In S110 to S130, as shown in FIG. 6, the entire corrected image is divided into a plurality of segments (9 in FIG. 6), and the convergence point is a segment in the center of the corrected image (an effective segment shown in FIG. 6). Anything that deviates from) may not be used. For example, when the vehicle is traveling on a curved road, the convergence point may not converge near the center of the correction image.

したがって、カーブでは補正画像中央に収束しないと予想される移動要素が出現する可能性があるエリア(例えば、図6中に示す有効セグメント以外のセグメント。)を、補正画像上であらかじめ規定し、そのような移動要素については判定対象から外すようにしてもよい。また、車速センサ11、舵角センサ13、及び姿勢センサ15などから得られる情報に基づき、車両がカーブした道路を走行していると推定される場合には、消失点の算出を一時的に見合わせるように構成してもよい。   Therefore, an area (for example, a segment other than the effective segment shown in FIG. 6) where a moving element that is expected not to converge at the center of the corrected image in the curve may appear is defined in advance on the corrected image. Such moving elements may be excluded from determination targets. Further, when it is estimated that the vehicle is traveling on a curved road based on information obtained from the vehicle speed sensor 11, the rudder angle sensor 13, the attitude sensor 15, and the like, the vanishing point calculation is temporarily suspended. You may comprise as follows.

また、車速センサ11、舵角センサ13、及び姿勢センサ15などから得られる車両状態の情報やサスペンションの負荷情報などに基づき、突発的な振動や衝撃が検知された場合には、その間の画像を故障判定の対象から除外する。   In addition, when sudden vibration or impact is detected based on vehicle state information or suspension load information obtained from the vehicle speed sensor 11, the steering angle sensor 13, the attitude sensor 15, etc., an image between them is displayed. Exclude from failure judgment.

以上のような手順で、特徴点の収束点を求めた結果、ある程度の範囲内に消失点が収束しない場合は、画像補正部21による補正画像の画像異常と診断し(S140)、ダイアグ処理部9に対して異常判定結果を通知する(S150)。   If the vanishing point does not converge within a certain range as a result of obtaining the convergence point of the feature points in the above procedure, the image correction unit 21 diagnoses an image abnormality of the corrected image (S140), and the diagnosis processing unit 9 is notified of the abnormality determination result (S150).

また、上述のS40では、例えば、上述のような線状要素を対象として、図4に例示するような画像異常判定処理を実行することもできる。この画像異常判定処理では、まず、動画を構成する複数の画像それぞれに対して画像処理を施して、エッジ(線状要素)を抽出する(S210)。そして、抽出したエッジのうち、消失点算出に使えるエッジを判断する(S220)。S220では、消失点算出に使えるエッジとして、エッジが延びる方向を特定できる程度の長さがあり、かつ、その位置や向きが、概ね消失点との関係で妥当な範囲内にあるものが選ばれる。   In S40 described above, for example, the image abnormality determination process illustrated in FIG. 4 can be executed for the linear element as described above. In this image abnormality determination process, first, image processing is performed on each of a plurality of images constituting a moving image to extract edges (linear elements) (S210). Then, of the extracted edges, an edge that can be used for vanishing point calculation is determined (S220). In S220, as an edge that can be used for vanishing point calculation, an edge that has a length that can specify the extending direction of the edge and that has a position and orientation within a reasonable range in relation to the vanishing point is selected. .

続いて、S220において使えると判断したエッジから、収束点を消失点として算出する(S230)。S230では、抽出されたエッジが延びる方向に基づいて、消失点が存在すると推定される方向を特定する。S210−S230においても、路面の白線等、カーブでは画面中央に収束しないと予想される要素について、上述のような有効セグメントなどを利用する手法で除外することが好ましい。また、S210−S230においても、突発的な振動や衝撃が検知された場合に、その間の画像を故障判定の対象から除外することが好ましい。   Subsequently, the convergence point is calculated as the vanishing point from the edge determined to be usable in S220 (S230). In S230, the direction in which the vanishing point is estimated is specified based on the direction in which the extracted edge extends. Also in S210-S230, it is preferable to exclude elements that are expected not to converge to the center of the screen in the curve, such as a white line on the road surface, by a method using an effective segment as described above. Also in S210-S230, when sudden vibrations or shocks are detected, it is preferable to exclude the image during the period from the failure determination target.

そして、特徴点の収束点を求めた結果、ある程度の範囲内に消失点が収束しない場合は、画像補正部21による補正画像の画像異常と診断し(S240)、ダイアグ処理部9に対して異常判定結果を通知する(S250)。   If the vanishing point does not converge within a certain range as a result of obtaining the convergence point of the feature point, the image correction unit 21 diagnoses an image abnormality of the corrected image (S240), and the diagnosis processing unit 9 is abnormal. The determination result is notified (S250).

図2に示すS40において、上述のような画像異常判定処理(図3及び図4に示す処理)を実行したら、引き続いて、故障診断部25は、外的要因判定を実行する(S50)。S50では、カメラ3の取付位置の経年変化や、路面凹凸等の一時的な異常を判定する。これにより、S40において消失点が算出できない場合でも、S50において、何らかの問題が検出された場合には、直ちに画像補正部21の故障とは判断しないようにすることができる。例えば、特定のフレーム間だけ消失点が求められなくても、その後は消失点が求められる場合は、路面凹凸等の一時的な異常に起因する可能性があるので、画像補正部21の故障とは判断しないようにする。あるいは、消失点が予期しない位置に算出されるものの、その状態が定常的に続く場合は、カメラ3の取付位置の経年変化による可能性があるので、画像補正部21の故障とは判断しないようにする。   In S40 shown in FIG. 2, when the above-described image abnormality determination processing (the processing shown in FIGS. 3 and 4) is executed, the failure diagnosis unit 25 subsequently executes external factor determination (S50). In S50, a temporal abnormality such as a secular change of the mounting position of the camera 3 or road surface unevenness is determined. As a result, even if the vanishing point cannot be calculated in S40, if any problem is detected in S50, it is not possible to immediately determine that the image correction unit 21 is out of order. For example, even if the vanishing point is not calculated only between specific frames, if the vanishing point is calculated after that, it may be caused by a temporary abnormality such as road surface unevenness, so that the failure of the image correction unit 21 Do not judge. Alternatively, if the vanishing point is calculated at an unexpected position, but the state continues steadily, there is a possibility that the attachment position of the camera 3 may change over time, so that it is not determined that the image correction unit 21 is out of order. To.

そして、S50を終えたら、故障診断部25は、画像補正部21におけるハード異常を判定する(S60)。S60では、S50等による判定で例外ケースを除外しても、一定時間以上にわたって異常が検出される状態が継続している場合に、画像補正部21の故障と判定する。そして、その場合は、ダイアグ処理部9に対して故障診断結果を通知する(S70)。   When S50 ends, the failure diagnosis unit 25 determines a hardware abnormality in the image correction unit 21 (S60). In S60, even if an exceptional case is excluded in the determination in S50 or the like, if the state in which the abnormality is detected continues for a certain time or more, it is determined that the image correction unit 21 is out of order. In that case, the diagnosis processing result is notified to the diagnosis processing unit 9 (S70).

次に、始動時故障検出処理について説明する。始動時故障検出処理は、車両の始動時に初期処理として一度だけ実行される。あるいは、上述のようなリアルタイム故障検出処理を採用している場合は、車両の工場出荷時や整備点検時に特別に実行される処理として、始動時故障検出処理が実行されるように構成してもよい。   Next, the start-up failure detection process will be described. The start-up failure detection process is executed only once as an initial process when the vehicle is started. Alternatively, when the above-described real-time failure detection process is employed, the start-up failure detection process may be executed as a process that is specially executed at the time of vehicle shipment or maintenance inspection. Good.

始動時故障検出処理を開始すると、まず、画像補正部21は、メモリ25A内に保存された評価用画像を入力する(S310)。すなわち、上述のリアルタイム故障検出処理において、S10ではカメラ3からカメラ画像を入力していたが、これに代えて、S310では、メモリ25A内に保存された評価用画像を入力する。評価用画像は、カメラ3で撮影した場合と同様な歪みを有する画像である。   When the start-up failure detection process is started, first, the image correction unit 21 inputs an evaluation image stored in the memory 25A (S310). That is, in the real-time failure detection process described above, the camera image is input from the camera 3 in S10. Instead, in S310, the evaluation image stored in the memory 25A is input. The image for evaluation is an image having the same distortion as that taken by the camera 3.

S310を終えたら、続いて、画像補正部21において画像補正を実行し(S320)、故障診断部25は、その補正画像に基づいて画像補正部21におけるハード異常を判定する(S330)。メモリ25A内には、上述の評価用画像の他に、画像補正部21が正常であった場合に得られるべき補正画像が、基準画像としてあらかじめ記憶されている。S330では、S320において得られた補正画像と、メモリ内に記憶されている基準画像との整合を判定し、同等な画像ではなかった場合に、画像補正部21におけるハード異常と判定する。画像補正部21におけるハード異常が検出された場合は、ダイアグ処理部9に対して故障診断結果を通知する(S340)。   When S310 ends, the image correction unit 21 executes image correction (S320), and the failure diagnosis unit 25 determines a hardware abnormality in the image correction unit 21 based on the corrected image (S330). In the memory 25A, in addition to the evaluation image described above, a correction image that should be obtained when the image correction unit 21 is normal is stored in advance as a reference image. In S330, the matching between the corrected image obtained in S320 and the reference image stored in the memory is determined. If the images are not equivalent, it is determined that the image correction unit 21 has a hardware abnormality. When a hardware abnormality is detected in the image correction unit 21, a failure diagnosis result is notified to the diagnosis processing unit 9 (S340).

[効果]
以上説明したように、上記車載画像処理システムによれば、画像補正部21が故障して、歪補正が正しくできない状態に陥っている場合に、故障診断部25は、画像補正部21で補正された補正画像からは消失点が正しく求められないことを利用して、画像補正部21が故障していると判定する。
[effect]
As described above, according to the on-vehicle image processing system, when the image correction unit 21 is out of order and the distortion correction cannot be performed correctly, the failure diagnosis unit 25 is corrected by the image correction unit 21. Based on the fact that the vanishing point cannot be correctly obtained from the corrected image, it is determined that the image correction unit 21 is malfunctioning.

したがって、補正画像から消失点が正しく求められるか否かには着目していない技術とは異なり、画像補正部21において補正画像を生成する段階で(すなわち、カメラ3の異常とは別の段階で)、何らかの障害が発生していることを特定できる。よって、例えば、そのような補正画像を生成する画像補正部21に異常があることを利用者に対して報知することができる。あるいは、例えば、そのような異常な補正画像に基づく制御を中止するなどの対処をすることができる。   Therefore, unlike the technique that does not focus on whether or not the vanishing point is correctly obtained from the corrected image, at the stage of generating the corrected image in the image correction unit 21 (that is, at a stage different from the abnormality of the camera 3). ), It can be identified that some kind of failure has occurred. Therefore, for example, it is possible to notify the user that there is an abnormality in the image correction unit 21 that generates such a corrected image. Alternatively, for example, it is possible to take measures such as stopping the control based on such an abnormal corrected image.

また、故障診断部25は、S110−S150により、移動している撮影対象物の画像と推定される移動要素が含まれている場合に、その移動要素の移動状態から消失点を推定可能か否かに基づいて、画像補正部21が故障しているか否かを判定可能に構成されている。したがって、動画を用いて、フレーム間での特徴点の移動から消失点を演算し、画像補正部21の故障を判定することができる。   In addition, when the failure diagnosis unit 25 includes a moving element that is estimated to be an image of the moving imaging object in S110 to S150, whether or not the vanishing point can be estimated from the moving state of the moving element. Based on the above, it is possible to determine whether or not the image correction unit 21 is out of order. Therefore, the vanishing point can be calculated from the movement of the feature points between frames using a moving image, and a failure of the image correction unit 21 can be determined.

また、故障診断部25は、S210−S250により、カメラ3による撮影領域の奥行き方向に向かって線状に延びている撮影対象物の画像と推定される線状要素が含まれている場合に、線状要素が延びる方向から消失点を推定可能か否かに基づいて、画像補正部21が故障しているか否かを判定可能に構成されている。したがって、静止画のエッジを抽出することで消失点を演算し、画像補正部21の故障を判定することができる。   In addition, the failure diagnosis unit 25 includes a linear element that is estimated to be an image of the imaging target extending linearly in the depth direction of the imaging region by the camera 3 in S210 to S250. Based on whether or not the vanishing point can be estimated from the direction in which the linear elements extend, it is possible to determine whether or not the image correction unit 21 has failed. Therefore, it is possible to calculate the vanishing point by extracting the edge of the still image and determine the failure of the image correction unit 21.

故障診断部25は、図6に示したように、補正画像中に含まれる一部の範囲を有効セグメントとして選択し、選択された範囲において補正画像中の消失点に異常があるか否かに基づいて、画像補正部21が故障しているか否かを判定可能に構成されている。したがって、車両がカーブを走行中でも、予期しない箇所に消失点があると誤認識するのを抑制することができる。   As shown in FIG. 6, the failure diagnosis unit 25 selects a part of the range included in the corrected image as an effective segment, and determines whether or not the vanishing point in the corrected image is abnormal in the selected range. Based on this, it is possible to determine whether or not the image correction unit 21 is out of order. Therefore, even when the vehicle is traveling on a curve, erroneous recognition that there is a vanishing point at an unexpected location can be suppressed.

また、上記車載画像処理システムは、カメラ3とともに車両に搭載され、画像補正部21は、車両の移動中に、カメラ3により撮影されたカメラ画像の歪みを補正してその歪みが補正された補正画像を出力可能に構成され、故障診断部25は、車両の移動中に、画像補正部21から出力される補正画像中の消失点に異常があるか否かに基づいて、画像補正部21が故障しているか否かを判定可能に構成されている。したがって、車両の走行中にリアルタイムに画像補正部21の故障を検出することができる。   The in-vehicle image processing system is mounted on the vehicle together with the camera 3, and the image correction unit 21 corrects the distortion of the camera image taken by the camera 3 while the vehicle is moving to correct the distortion. The failure diagnosis unit 25 is configured to be able to output an image, and the image correction unit 21 determines whether the vanishing point in the corrected image output from the image correction unit 21 is abnormal while the vehicle is moving. It is configured to be able to determine whether or not a failure has occurred. Therefore, the failure of the image correction unit 21 can be detected in real time while the vehicle is traveling.

また、上記車載画像処理システムでは、車速センサ11、舵角センサ13、及び姿勢センサ15(これらが本明細書でいう検出部の一例に相当。)などから得られる車両状態の情報やサスペンションの負荷情報などに基づき、突発的な振動や衝撃が検知された場合には、その間の画像を故障判定の対象から除外している。したがって、車両の振動で、画像が大きく揺れた場合などには、その画像を判定対象から外すことができ、これにより、故障診断の精度向上を図ることができる。   Further, in the above-described in-vehicle image processing system, vehicle state information and suspension load obtained from the vehicle speed sensor 11, the steering angle sensor 13, and the attitude sensor 15 (these correspond to an example of a detection unit in the present specification) and the like. When sudden vibrations or shocks are detected based on information or the like, the images in the meantime are excluded from the targets of failure determination. Therefore, when the image is greatly shaken by the vibration of the vehicle, the image can be removed from the determination target, thereby improving the accuracy of failure diagnosis.

また、上記車載画像処理システムは、故障診断用としてあらかじめ用意された評価用画像を記憶するメモリ25A(本明細書でいう記憶部の一例に相当。)を有し、S310−S340により、画像補正部21は、メモリ25Aに記憶された評価用画像の歪みを補正して、その歪みが補正された診断用補正画像を出力可能に構成され、故障診断部25は、画像補正部21から出力される診断用補正画像の異常状態に基づいて、画像補正部21の故障を判定可能に構成されている。したがって、工場検査時や始動時には、あらかじめ用意されている評価用画像を用いて、故障診断を実施することができ、リアルタイム故障検出処理とは別に、カメラ3の経年変化や車両の走行状態などの影響を排除して、より高精度な故障診断を実施することができる。   The in-vehicle image processing system includes a memory 25A (corresponding to an example of a storage unit in the present specification) that stores an evaluation image prepared in advance for failure diagnosis, and performs image correction according to S310 to S340. The unit 21 is configured to be able to correct the distortion of the evaluation image stored in the memory 25 </ b> A and to output a diagnostic correction image in which the distortion is corrected. The failure diagnosis unit 25 is output from the image correction unit 21. The failure of the image correction unit 21 can be determined based on the abnormal state of the diagnostic correction image. Therefore, at the time of factory inspection or start-up, it is possible to carry out a failure diagnosis using an evaluation image prepared in advance, and in addition to the real-time failure detection processing, such as the secular change of the camera 3 and the running state of the vehicle The influence can be eliminated and more accurate fault diagnosis can be performed.

[他の実施形態]
以上、画像処理装置、及び画像処理装置の故障診断方法について、例示的な実施形態を挙げて説明したが、本発明は、上述の例示的な実施形態に限定されることなく、種々の形態を採用し得る。
[Other Embodiments]
As described above, the image processing apparatus and the failure diagnosis method for the image processing apparatus have been described with reference to exemplary embodiments. However, the present invention is not limited to the exemplary embodiments described above, and various forms are possible. Can be adopted.

例えば、上記実施形態では、リアルタイム故障検出処理と始動時故障検出処理の双方を採用している例を示したが、これらはいずれか一方だけを採用してもよい。
また、上記実施形態では、補正画像を所定の位置で9つのセグメントに分割する例を示したが、セグメントの分割位置や分割数は任意であり、例示したものに限られない。
For example, in the above-described embodiment, an example in which both the real-time failure detection process and the start-up failure detection process are employed has been described, but only one of them may be employed.
Moreover, although the example which divides | segments a correction image into nine segments in the predetermined position was shown in the said embodiment, the division position and division number of a segment are arbitrary and are not restricted to what was illustrated.

また、上記実施形態では、図示の都合上、便宜的にメモリ25Aを故障診断部25が備える構成として図示してあるが、画像補正部21及び故障診断部25がアクセス可能なメモリであればよく、画像補正部21が備えるメモリであっても、画像補正部21及び故障診断部25からは独立したECU1内のメモリであってもよい。あるいは、ECU1がECU1の外部にあるメモリにアクセス可能な構成を備えていれば、ECU1の外部にあるメモリであってもよい。   In the above embodiment, for convenience of illustration, the memory 25A is illustrated as a configuration provided in the failure diagnosis unit 25 for convenience. However, any memory that can be accessed by the image correction unit 21 and the failure diagnosis unit 25 may be used. The memory provided in the image correction unit 21 may be a memory in the ECU 1 that is independent from the image correction unit 21 and the failure diagnosis unit 25. Alternatively, as long as the ECU 1 has a configuration capable of accessing a memory outside the ECU 1, a memory outside the ECU 1 may be used.

また、上記実施形態では、車載画像処理システムを例示したが、車両以外に同等なシステムを搭載してもよい。
また、上記実施形態において、一つの構成要素で実現していた所定の機能を、複数の構成要素が協働して実現するように構成してあってもよい。あるいは、上記実施形態では、複数の構成要素それぞれが有していた複数の機能や、複数の構成要素が協働して実現していた所定の機能を、一つの構成要素が実現するように構成してあってもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
Moreover, in the said embodiment, although the vehicle-mounted image processing system was illustrated, you may mount an equivalent system other than a vehicle.
In the above embodiment, a predetermined function realized by one component may be configured so that a plurality of components cooperate to realize it. Or in the said embodiment, it is comprised so that one component may implement | achieve the several function which each of several component each had, and the predetermined function which the plurality of component realized in cooperation It may be. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

また、上述した画像処理装置、及び画像処理装置の故障診断方法の他、当該画像処理装置を構成要素とするシステム、当該画像処理装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体など、種々の形態で本発明を実現することもできる。   In addition to the above-described image processing apparatus and image processing apparatus failure diagnosis method, a system including the image processing apparatus as a constituent element, a program for causing a computer to function as the image processing apparatus, a medium storing the program, and the like The present invention can also be realized in various forms.

1…電子制御装置(ECU)、3…カメラ、5…外的要因判定部、7…表示部、9…ダイアグ処理部、11…車速センサ、13…舵角センサ、15…姿勢センサ、17…CAN、21…画像補正部、23…認識部、25…故障診断部、25A…メモリ。   DESCRIPTION OF SYMBOLS 1 ... Electronic control unit (ECU), 3 ... Camera, 5 ... External factor determination part, 7 ... Display part, 9 ... Diag processing part, 11 ... Vehicle speed sensor, 13 ... Steering angle sensor, 15 ... Attitude sensor, 17 ... CAN, 21... Image correction unit, 23... Recognition unit, 25.

Claims (8)

カメラ(3)により撮影されたカメラ画像の歪みを補正し、当該歪みが補正された画像であって少なくとも一つの消失点を有する画像である補正画像を出力する画像補正部(21,S30)と、
前記画像補正部から出力される前記補正画像中の前記消失点に異常があるか否かに基づいて、前記画像補正部が故障しているか否かを判定する故障診断部(25,S40−S60)と
を有する画像処理装置。
An image correction unit (21, S30) that corrects distortion of the camera image captured by the camera (3) and outputs a corrected image that is an image in which the distortion is corrected and that has at least one vanishing point; ,
A failure diagnosis unit (25, S40-S60) that determines whether or not the image correction unit is out of order based on whether or not the vanishing point in the corrected image output from the image correction unit is abnormal. And an image processing apparatus.
請求項1に記載の画像処理装置であって、
前記画像補正部は、前記カメラによって撮影される動画中に含まれる複数の前記カメラ画像それぞれの歪みを補正することにより、複数の前記補正画像を出力するように構成され、
前記故障診断部は、複数の前記補正画像に含まれる特徴要素として、移動している撮影対象物の画像と推定される移動要素が含まれている場合に、当該移動要素の移動状態から前記消失点を推定可能か否かに基づいて、前記画像補正部が故障しているか否かを判定可能に構成されている(S110−S140)
画像処理装置。
The image processing apparatus according to claim 1,
The image correction unit is configured to output a plurality of the corrected images by correcting distortion of each of the plurality of camera images included in a moving image shot by the camera,
When the failure diagnosis unit includes a moving element estimated as an image of a moving object to be photographed as a feature element included in the plurality of corrected images, the disappearance from the moving state of the moving element Based on whether or not the point can be estimated, it is possible to determine whether or not the image correction unit is out of order (S110 to S140).
Image processing device.
請求項1又は請求項2に記載の画像処理装置であって、
前記故障診断部は、前記補正画像に含まれる特徴要素として、前記カメラによる撮影領域の奥行き方向に向かって線状に延びている撮影対象物の画像と推定される線状要素が含まれている場合に、前記線状要素が延びる方向から前記消失点を推定可能か否かに基づいて、前記画像補正部が故障しているか否かを判定可能に構成されている(S210−S240)
画像処理装置。
The image processing apparatus according to claim 1 or 2,
The failure diagnosis unit includes, as characteristic elements included in the corrected image, a linear element that is estimated to be an image of an object to be imaged that extends linearly in the depth direction of the imaging region of the camera. In this case, it is possible to determine whether or not the image correction unit is out of order based on whether or not the vanishing point can be estimated from the direction in which the linear element extends (S210 to S240).
Image processing device.
請求項1−請求項3のいずれか一項に記載の画像処理装置であって、
前記故障診断部は、前記補正画像中に含まれる一部の範囲を選択し、選択された範囲において前記補正画像中の前記消失点に異常があるか否かに基づいて、前記画像補正部が故障しているか否かを判定可能に構成されている(S110−S130,S210−S230)
画像処理装置。
An image processing apparatus according to any one of claims 1 to 3, wherein
The failure diagnosis unit selects a part of the range included in the corrected image, and based on whether the vanishing point in the corrected image is abnormal in the selected range, the image correction unit It is configured to be able to determine whether or not a failure has occurred (S110-S130, S210-S230).
Image processing device.
請求項1−請求項4のいずれか一項に記載の画像処理装置であって、
前記画像処理装置は、前記カメラとともに、少なくとも車両を含む移動体に搭載され、
前記画像補正部は、前記移動体の移動中に、前記カメラにより撮影されたカメラ画像の歪みを補正して当該歪みが補正された補正画像を出力可能に構成され、
前記故障診断部は、前記移動体の移動中に、前記画像補正部から出力される前記補正画像中の前記消失点に異常があるか否かに基づいて、前記画像補正部が故障しているか否かを判定可能に構成されている(S10−S70)
画像処理装置。
An image processing apparatus according to any one of claims 1 to 4, wherein
The image processing apparatus is mounted on a moving body including at least a vehicle together with the camera,
The image correction unit is configured to be able to output a corrected image in which the distortion is corrected by correcting distortion of the camera image captured by the camera while the moving body is moving,
The failure diagnosis unit determines whether the image correction unit has failed based on whether or not the vanishing point in the corrected image output from the image correction unit is abnormal while the moving body is moving. It is comprised so that determination can be made (S10-S70).
Image processing device.
請求項1−請求項5のいずれか一項に記載の画像処理装置であって、
前記カメラによる撮影に影響を及ぼす外乱を検出可能な検出部を有し、
前記検出部で前記外乱を検出した時点で前記カメラによって撮影された前記カメラ画像は、前記故障診断部による判定対象から除外されるように構成されている(S110−S130,S210−S230)
画像処理装置。
An image processing apparatus according to any one of claims 1 to 5, wherein
A detection unit capable of detecting a disturbance affecting the shooting by the camera;
The camera image captured by the camera when the disturbance is detected by the detection unit is configured to be excluded from the determination target by the failure diagnosis unit (S110-S130, S210-S230).
Image processing device.
請求項1−請求項6のいずれか一項に記載の画像処理装置であって、
故障診断用としてあらかじめ用意された評価用画像を記憶する記憶部(25A)を有し、
前記画像補正部は、前記記憶部に記憶された前記評価用画像の歪みを補正して、当該歪みが補正された診断用補正画像を出力可能に構成され(S320)、
前記故障診断部は、前記画像補正部から出力される前記診断用補正画像の異常状態に基づいて、前記画像補正部の故障を判定可能に構成されている(S330)
画像処理装置。
An image processing apparatus according to any one of claims 1 to 6, comprising:
A storage unit (25A) for storing an evaluation image prepared in advance for failure diagnosis;
The image correction unit is configured to correct distortion of the evaluation image stored in the storage unit and to output a diagnostic correction image in which the distortion is corrected (S320),
The failure diagnosis unit is configured to be able to determine a failure of the image correction unit based on an abnormal state of the diagnostic correction image output from the image correction unit (S330).
Image processing device.
カメラにより撮影されたカメラ画像の歪みを補正し、当該歪みが補正された画像であって少なくとも一つの消失点を有する画像である補正画像を出力する画像補正部(21)を有する画像処理装置(1)を対象にして、前記画像補正部の故障を判定する方法であって、
前記画像補正部から出力される前記補正画像中の前記消失点に異常があるか否かに基づいて、前記画像補正部が故障しているか否かを判定する手順を含む
画像処理装置の故障診断方法。
An image processing apparatus having an image correction unit (21) that corrects distortion of a camera image taken by a camera and outputs a corrected image that is an image in which the distortion is corrected and that has at least one vanishing point. A method for determining a failure of the image correction unit for 1),
A failure diagnosis of an image processing apparatus including a procedure for determining whether or not the image correction unit is out of order based on whether or not the vanishing point in the corrected image output from the image correction unit is abnormal Method.
JP2014169555A 2014-08-22 2014-08-22 Image processing apparatus and fault diagnosis method for image processing apparatus Active JP6350113B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014169555A JP6350113B2 (en) 2014-08-22 2014-08-22 Image processing apparatus and fault diagnosis method for image processing apparatus
PCT/JP2015/003554 WO2016027408A1 (en) 2014-08-22 2015-07-14 Image processing apparatus, and failure diagnosis method for image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014169555A JP6350113B2 (en) 2014-08-22 2014-08-22 Image processing apparatus and fault diagnosis method for image processing apparatus

Publications (2)

Publication Number Publication Date
JP2016045716A true JP2016045716A (en) 2016-04-04
JP6350113B2 JP6350113B2 (en) 2018-07-04

Family

ID=55350381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014169555A Active JP6350113B2 (en) 2014-08-22 2014-08-22 Image processing apparatus and fault diagnosis method for image processing apparatus

Country Status (2)

Country Link
JP (1) JP6350113B2 (en)
WO (1) WO2016027408A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018117218A (en) * 2017-01-17 2018-07-26 トヨタ自動車株式会社 Vehicle driving support device
JP2020060927A (en) * 2018-10-10 2020-04-16 三菱電機株式会社 Image processing device
JP6840294B1 (en) * 2020-02-21 2021-03-10 三菱電機株式会社 Programmable display, control system and analysis method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017216517A (en) * 2016-05-30 2017-12-07 アイシン精機株式会社 Image display system
JP6891460B2 (en) * 2016-11-17 2021-06-18 株式会社デンソー Vehicle display system and freeze detector
CN107862883B (en) * 2017-12-21 2023-06-30 天津市中环系统工程有限责任公司 Fault detection, alarm and operation management system of traffic signal lamp and implementation method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012156672A (en) * 2011-01-25 2012-08-16 Clarion Co Ltd Vehicle periphery monitoring device
WO2014045344A1 (en) * 2012-09-18 2014-03-27 トヨタ自動車株式会社 Foe setting device and foe setting method for on-vehicle camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012156672A (en) * 2011-01-25 2012-08-16 Clarion Co Ltd Vehicle periphery monitoring device
WO2014045344A1 (en) * 2012-09-18 2014-03-27 トヨタ自動車株式会社 Foe setting device and foe setting method for on-vehicle camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018117218A (en) * 2017-01-17 2018-07-26 トヨタ自動車株式会社 Vehicle driving support device
JP2020060927A (en) * 2018-10-10 2020-04-16 三菱電機株式会社 Image processing device
JP6840294B1 (en) * 2020-02-21 2021-03-10 三菱電機株式会社 Programmable display, control system and analysis method

Also Published As

Publication number Publication date
JP6350113B2 (en) 2018-07-04
WO2016027408A1 (en) 2016-02-25

Similar Documents

Publication Publication Date Title
JP6350113B2 (en) Image processing apparatus and fault diagnosis method for image processing apparatus
JP4803450B2 (en) On-vehicle camera calibration device and vehicle production method using the device
US6310546B1 (en) Stereo type vehicle monitoring apparatus with a fail-safe function
WO2016056197A1 (en) In-vehicle camera calibration device, image generation device, in-vehicle camera calibration method, and image generation method
US10152890B2 (en) On-vehicle camera device
US10165265B2 (en) Online sensor calibration verification system
US20170103546A1 (en) Installation error display control apparatus and installation error detection apparatus of onboard camera
JP2019105872A5 (en)
JP6458579B2 (en) Image processing device
JP2019191806A (en) Abnormality detection device and abnormality detection method
US20180162389A1 (en) Vehicle control device and vehicle control method
JP7184779B2 (en) Apparatus and method for inspecting playback of video sequences of mirror replacement cameras
US9852502B2 (en) Image processing apparatus
JP7270499B2 (en) Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system
JP2019191807A (en) Abnormality detection device and abnormality detection method
US9928430B2 (en) Dynamic stixel estimation using a single moving camera
JP2019191808A (en) Abnormality detection device and abnormality detection method
JP7183729B2 (en) Imaging abnormality diagnosis device
US10668858B2 (en) Around view monitoring system and operating method thereof
JP2019121030A (en) Camera deviation detection device, camera deviation detection method, and irregularity detection device
JP2018113622A (en) Image processing apparatus, image processing system, and image processing method
JP6986962B2 (en) Camera misalignment detection device and camera misalignment detection method
KR101437743B1 (en) System and method for detecting traffic lane in real time, navigation and black-box for vechicle using the same
CN112902947A (en) Apparatus for diagnosing abnormality of vehicle sensor and method thereof
JP2020042323A (en) Driving support device, driving support system, and driving support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R151 Written notification of patent or utility model registration

Ref document number: 6350113

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250