JP2012109789A - Detection device and detection method - Google Patents

Detection device and detection method Download PDF

Info

Publication number
JP2012109789A
JP2012109789A JP2010256952A JP2010256952A JP2012109789A JP 2012109789 A JP2012109789 A JP 2012109789A JP 2010256952 A JP2010256952 A JP 2010256952A JP 2010256952 A JP2010256952 A JP 2010256952A JP 2012109789 A JP2012109789 A JP 2012109789A
Authority
JP
Japan
Prior art keywords
vehicle
image
stop position
outside
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010256952A
Other languages
Japanese (ja)
Inventor
Tetsuyo Kato
徹洋 加藤
Kimitaka Murashita
君孝 村下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2010256952A priority Critical patent/JP2012109789A/en
Publication of JP2012109789A publication Critical patent/JP2012109789A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide technique for easily detecting the position deviation of a camera, based on only vehicle exterior images captured by the camera.SOLUTION: A detection device easily determines the stop of a vehicle, based on only vehicle exterior images since the stop of another vehicle is determined based on the images of the other vehicle, which are included in respective multiple vehicle exterior images captured by a camera and temporally continuing. When the stop of the other vehicle is determined, the detection device easily detects position deviation in the optical axis of the camera, based on only the vehicle exterior images, since the position deviation is detected based on a comparison result between the derived stop position of the image of the other vehicle in the vehicle exterior images and a reference stop position.

Description

本発明は、車両に搭載されたカメラの光軸の位置ズレを検知する技術に関する。   The present invention relates to a technique for detecting a positional shift of an optical axis of a camera mounted on a vehicle.

近年、車両に搭載されたカメラが撮影した車外画像を車両に搭載されたディスプレイへ表示する画像表示装置が開発されている。このような画像表示装置によれば、ユーザはディスプレイに表示された車外画像を参考にして車両を運転することができる。   2. Description of the Related Art In recent years, an image display device has been developed that displays an external image taken by a camera mounted on a vehicle on a display mounted on the vehicle. According to such an image display device, the user can drive the vehicle with reference to the outside image displayed on the display.

画像表示装置がその機能を適切に発揮するためには、車両に搭載されたカメラの光軸が予定された角度で設定されなければならない。   In order for the image display apparatus to properly perform its function, the optical axis of the camera mounted on the vehicle must be set at a predetermined angle.

従って、予定された角度で設定されたカメラの光軸が経年とともにズレてしまった場合などには、画像表示装置はそのズレを検知してユーザに知らせるとともにユーザにカメラの光軸を予定していた角度に再設定させる必要がある。   Therefore, when the optical axis of the camera set at a predetermined angle has shifted with the passage of time, the image display device detects the shift and informs the user, and schedules the optical axis of the camera to the user. It is necessary to reset the angle.

その位置ズレを検知する画像処理装置として次のようなものが知られている。つまり、基準となる車外画像に映る車両の一部分が初期の位置とズレている場合に、カメラの光軸の位置ズレを検知する画像処理装置が知られている。このため、画像処理装置は車外画像のみに基づいてその位置ズレを簡易に検知することができる。係る技術は、例えば、特許文献1に記載されている。   The following is known as an image processing apparatus for detecting the positional deviation. That is, there is known an image processing apparatus that detects a positional shift of the optical axis of a camera when a part of a vehicle shown in a reference image outside the vehicle is shifted from an initial position. For this reason, the image processing apparatus can easily detect the positional deviation based only on the outside image. Such a technique is described in Patent Document 1, for example.

なお、このような画像表示装置は、カメラの光軸の位置ズレを検知する機能を備えているため検知装置であるともいえる。従って、以降、検知装置として説明をする。   Note that such an image display device can be said to be a detection device because it has a function of detecting a positional shift of the optical axis of the camera. Accordingly, the following description will be given as a detection device.

特開2004−173037号公報JP 2004-173037 A

しかし、そのような検知装置は、車外画像に映る車両の一部分を基準にしてその位置ズレ検知を行うため、車外画像において車両の一部分が映るようにカメラを車両に搭載させる必要がある。つまり、カメラの車両に対する搭載位置が制約されてしまうという問題がある。   However, since such a detection apparatus detects the positional deviation based on a part of the vehicle shown in the vehicle outside image, it is necessary to mount a camera on the vehicle so that a part of the vehicle appears in the vehicle outside image. That is, there is a problem that the mounting position of the camera with respect to the vehicle is restricted.

本発明は、上記課題に鑑みてなされたものであり、カメラの車両に対する搭載位置が制約されず、かつ、カメラが撮影した車外画像のみに基づいてカメラの位置ズレを簡易に検知できる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique capable of easily detecting a positional shift of a camera based on only an image outside the vehicle captured by the camera without limiting the mounting position of the camera with respect to the vehicle. The purpose is to do.

上記課題を解決するため、請求項1の発明は、車両の前方及び後方の何れかに搭載されたカメラの光軸の位置ズレを検知する検知装置であって、前記カメラが撮影した時間的に連続する複数の車外画像の夫々に含まれる他の車両の像に基づいて、前記他の車両の停車を判断する判断手段と、前記他の車両の停車が判断された場合に、前記車外画像中の前記他の車両の像の停止位置を導出する導出手段と、導出された前記停止位置と基準停止位置とを比較した結果に基づいて前記位置ズレを検知する検知手段と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the invention of claim 1 is a detection device for detecting a positional deviation of an optical axis of a camera mounted either on the front side or the rear side of a vehicle, wherein the camera captures the time. Based on an image of another vehicle included in each of a plurality of consecutive outside images, a determination unit that determines whether the other vehicle is stopped, and when it is determined that the other vehicle is stopped, Derivation means for deriving a stop position of the image of the other vehicle, and detection means for detecting the positional deviation based on a result of comparing the derived stop position with a reference stop position. And

また、請求項2の発明は、請求項1に記載の検知装置において、前記判断手段は、前記複数の車外画像の夫々に含まれる前記他の車両の像の変化に基づいて前記他の車両の停車を判断することを特徴とする。   According to a second aspect of the present invention, in the detection apparatus according to the first aspect, the determination unit is configured to detect the other vehicle based on a change in the image of the other vehicle included in each of the plurality of outside-vehicle images. It is characterized by determining stop.

また、請求項3の発明は、請求項2に記載の検知装置において、前記判断手段は、前記変化を前記他の車両の像の特徴点に基づいて判断することを特徴とする。   According to a third aspect of the present invention, in the detection apparatus according to the second aspect, the determination unit determines the change based on a feature point of an image of the other vehicle.

また、請求項4の発明は、請求項2又は3の何れかに記載の検知装置において、前記判断手段は、前記変化がなくなった場合に前記他の車両の停車を判断し、前記導出手段は、前記変化がなくなった場合の前記他の車両の像の位置を前記停止位置として導出することを特徴とする。   According to a fourth aspect of the present invention, in the detection device according to the second or third aspect, the determination unit determines that the other vehicle is stopped when the change is lost, and the derivation unit includes: The position of the image of the other vehicle when the change disappears is derived as the stop position.

また、請求項5の発明は、請求項2又は3の何れかに記載の検知装置において、前記判断手段は、前記変化が始まる直前を前記他の車両の停車であると判断し、前記導出手段は、前記変化が始まる直前の前記他の車両の像の位置を前記停止位置として導出することを特徴とする。   According to a fifth aspect of the present invention, in the detection device according to the second or third aspect, the determination unit determines that the vehicle immediately before the change is a stop of the other vehicle, and the derivation unit. Is characterized in that the position of the image of the other vehicle immediately before the start of the change is derived as the stop position.

また、請求項6の発明は、請求項1乃至5の何れかに記載の検知装置において、前記車両が停車している場合に前記導出手段を有効化させる有効化手段を更に備えることを特徴とする。   The invention according to claim 6 is the detection device according to any one of claims 1 to 5, further comprising validation means for validating the derivation means when the vehicle is stopped. To do.

また、請求項7の発明は、請求項1乃至6の何れかに記載の検知装置において、前記基準停止位置は、前記カメラが車両の適切な位置へ搭載されたときから所定期間を経過するまでに、複数回にわたって前記導出手段によって導出された前記停止位置の統計データに基づいて設定されることを特徴とする。   The invention according to claim 7 is the detection device according to any one of claims 1 to 6, wherein the reference stop position is from when the camera is mounted at an appropriate position of the vehicle until a predetermined period elapses. Further, it is set based on statistical data of the stop position derived by the deriving means a plurality of times.

また、請求項8の発明は、請求項1乃至7の何れかに記載の検知装置において、前記検知手段は、現在から過去の所定期間以内に複数回にわたって前記導出手段によって導出された前記停止位置の統計データに基づく値を、前記基準停止位置との比較に用いることを特徴とする。   The invention according to claim 8 is the detection apparatus according to any one of claims 1 to 7, wherein the detection means is the stop position derived by the derivation means a plurality of times within a predetermined period in the past from the present. A value based on the statistical data is used for comparison with the reference stop position.

また、請求項9の発明は、車両の前方及び後方の何れかに搭載されたカメラの光軸の位置ズレを検知する検知方法であって、(a)前記カメラが撮影した時間的に連続する複数の車外画像の夫々に含まれる他の車両の像に基づいて、前記他の車両の停車を判断する工程と、(b)前記他の車両の停車が判断された場合に、前記車外画像中の前記他の車両の像の停止位置を導出する工程と、(c)導出された前記停止位置と基準停止位置とを比較した結果に基づいて前記位置ズレを検知する工程と、を備えることを特徴とする。   The invention according to claim 9 is a detection method for detecting a positional deviation of an optical axis of a camera mounted either on the front side or the rear side of a vehicle, and (a) continuous in time taken by the camera. A step of determining stopping of the other vehicle based on an image of another vehicle included in each of the plurality of images outside the vehicle; and (b) when the stop of the other vehicle is determined, Deriving a stop position of the image of the other vehicle, and (c) detecting the positional deviation based on a result of comparing the derived stop position with a reference stop position. Features.

請求項1ないし9の発明によれば、カメラが撮影した時間的に連続する複数の車外画像の夫々に含まれる他の車両の像に基づいて、他の車両の停車を判断するため、その停止を車外画像のみで簡易に判断することができる。   According to the first to ninth aspects of the present invention, the stop of the other vehicle is determined based on the image of the other vehicle included in each of a plurality of temporally continuous images taken by the camera. Can be easily determined from only the outside image.

更に、他の車両の停車を判断した場合に、導出した車外画像中の他の車両の像の停止位置と基準停止位置とを比較した結果に基づいてカメラの光軸の位置ズレを検知するため、車外画像のみに基づいてその位置ズレを簡易に検知することができる。   Further, when it is determined that the other vehicle is stopped, the positional deviation of the optical axis of the camera is detected based on the result of comparing the stop position of the image of the other vehicle in the derived outside image and the reference stop position. The positional deviation can be easily detected based only on the outside image.

また、請求項2の発明によれば、カメラが撮影した複数の車外画像の夫々に含まれる他の車両の像の変化に基づいて他の車両の停車を判断するため、その停車を車外画像のみに基づいて簡易に判断することができる。   According to the second aspect of the present invention, since the stop of the other vehicle is determined based on the change in the image of the other vehicle included in each of the plurality of outside images taken by the camera, the stop is performed only for the outside image. It can be easily determined based on the above.

また、請求項3の発明によれば、他の車両の像の変化を他の車両の特徴点に基づいて判断するため、その判断する処理負荷を低減させることができる。   According to the invention of claim 3, since the change in the image of the other vehicle is determined based on the feature point of the other vehicle, the processing load to be determined can be reduced.

また、請求項4の発明によれば、他の車両の像の変化がなくなった場合に他の車両の停車を判断するとともに、その変化がなくなった場合の車外画像中の他の車両の像の位置を他の車両の像の停止位置とするため、その停止位置をより精度良く導出できる。   According to the invention of claim 4, when there is no change in the image of the other vehicle, the stop of the other vehicle is determined, and the image of the other vehicle in the outside image when the change is lost. Since the position is set as the stop position of the image of another vehicle, the stop position can be derived with higher accuracy.

また、請求項5の発明によれば、他の車両の像の変化が始まる直前を他の車両の停止と判断するとともに、その変化が始まる直前の車外画像中の他の車両の像の位置を他の車両の像の停止位置とするため、その停止位置をより精度良く導出できる。   According to the invention of claim 5, it is determined that the stop of the other vehicle is immediately before the change of the image of the other vehicle starts, and the position of the image of the other vehicle in the outside image immediately before the start of the change is determined. Since it is set as the stop position of the image of another vehicle, the stop position can be derived with higher accuracy.

また、請求項6の発明によれば、車両が停止している場合に、他の車両の像の停止位置を導出するため、他の車両の像の停止位置をより精度良く導出できる。   According to the sixth aspect of the present invention, since the stop position of the image of the other vehicle is derived when the vehicle is stopped, the stop position of the image of the other vehicle can be derived with higher accuracy.

また、請求項7の発明によれば、基準停止位置は、カメラが車両の適切な位置へ搭載されたときから所定期間を経過するまでに、複数回にわたって導出された停止位置の統計データに基づいて設定されるため、より精度良くその位置ズレの検知ができる。   According to the invention of claim 7, the reference stop position is based on statistical data of the stop position derived a plurality of times from when the camera is mounted at an appropriate position of the vehicle until a predetermined period elapses. Therefore, the positional deviation can be detected with higher accuracy.

また、請求項8の発明によれば、前記検知手段は、現在から過去の所定期間内に複数回にわたって導出された停止位置の統計データに基づく値を基準停止位置との比較に用いるため、より精度良くその位置ズレの検知ができる。   Further, according to the invention of claim 8, the detection means uses a value based on statistical data of the stop position derived a plurality of times within a predetermined period in the past from the present for comparison with the reference stop position. The displacement can be detected with high accuracy.

図1は、検知装置のシステムブロックを示す図である。FIG. 1 is a diagram illustrating a system block of the detection apparatus. 図2は、車両を示す図である。FIG. 2 is a diagram illustrating the vehicle. 図3は、車両を示す図である。FIG. 3 is a diagram illustrating the vehicle. 図4は、車両及び車外画像を示す図である。FIG. 4 is a diagram illustrating a vehicle and an outside image. 図5は、合成画像を説明する図である。FIG. 5 is a diagram for explaining a composite image. 図6は、車外画像から他の車両の像の抽出を説明する図である。FIG. 6 is a diagram for explaining extraction of an image of another vehicle from the outside image. 図7は、車外画像から他の車両の像の抽出を説明する図である。FIG. 7 is a diagram for explaining extraction of an image of another vehicle from the outside image. 図8は、他の車両の像の停止の判断方法を説明するである。FIG. 8 is a diagram for explaining a method for determining stop of an image of another vehicle. 図9は、他の車両の像の停止位置と基準停止位置との比較を示す図である。FIG. 9 is a diagram showing a comparison between a stop position of an image of another vehicle and a reference stop position. 図10は、検知装置が実行する制御のフローを示す図である。FIG. 10 is a diagram illustrating a control flow executed by the detection apparatus. 図11は、検知装置が実行する制御のフローを示す図である。FIG. 11 is a diagram illustrating a control flow executed by the detection apparatus. 図12は、他の車両の像の停止の判断方法を説明するである。FIG. 12 is a diagram for explaining a method for determining stop of an image of another vehicle. 図13は、車外画像から他の車両の像の抽出を説明する図である。FIG. 13 is a diagram for explaining extraction of an image of another vehicle from the outside image. 図14は、他の車両の像の停止位置と基準停止位置との比較を示す図である。FIG. 14 is a diagram showing a comparison between a stop position of an image of another vehicle and a reference stop position.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施の形態>
図1は、第1の実施の形態の検知装置のシステムブロック図である。この検知装置2は、車両1の前方に搭載されたフロントカメラ3の光軸の位置ズレを検知する処理を実行する。そして、検知装置2は、そのズレを検知した場合にその旨を知らせる処理を実行する。
<First Embodiment>
FIG. 1 is a system block diagram of the detection apparatus according to the first embodiment. The detection device 2 executes a process of detecting a positional deviation of the optical axis of the front camera 3 mounted in front of the vehicle 1. And the detection apparatus 2 performs the process which notifies that, when the deviation is detected.

なお、検知装置2は、車両1の側方、前方、後方に搭載されたカメラが撮影した車外画像に基づいて合成画像を生成する処理を実行する。従って、検知装置2は画像処理装置であるともいえる。   In addition, the detection apparatus 2 performs the process which produces | generates a synthesized image based on the vehicle exterior image image | photographed with the camera mounted in the side of the vehicle 1, the front, and back. Therefore, it can be said that the detection device 2 is an image processing device.

検知装置2が実行するこれらの処理を説明するために、まず、図1に基づいて検知装置2の構成を説明する。   In order to describe these processes executed by the detection device 2, first, the configuration of the detection device 2 will be described based on FIG.

(検知装置の構成)
検知装置2は、フロントカメラ3、左サイドカメラ4、右サイドカメラ5、リヤカメラ6(以降において、全てのカメラを単体で説明する場合はカメラ3〜6という)、車速センサ7、シフトポジションセンサ8、ディスプレイ9、及び、音出力部10などとケーブルによって電気的に接続されている。
(Configuration of detection device)
The detection device 2 includes a front camera 3, a left side camera 4, a right side camera 5, a rear camera 6 (hereinafter referred to as cameras 3 to 6 when all cameras are described as a single unit), a vehicle speed sensor 7, and a shift position sensor 8. The display 9 and the sound output unit 10 are electrically connected by a cable.

図1のシステムブロック図に示すように検知装置2は、画像処理部21、制御部27、入力部20、及び、出力部29などを備える。   As shown in the system block diagram of FIG. 1, the detection apparatus 2 includes an image processing unit 21, a control unit 27, an input unit 20, an output unit 29, and the like.

画像処理部21は、例えば、ASICなどのハード回路である。画像処理部21は、合成画像生成部22、判断部23、導出部24、検知部25、及び、記憶部26などを備える。   The image processing unit 21 is a hardware circuit such as an ASIC, for example. The image processing unit 21 includes a composite image generation unit 22, a determination unit 23, a derivation unit 24, a detection unit 25, a storage unit 26, and the like.

合成画像生成部22は、カメラ3〜6が撮影した車外画像に基づいて合成画像を生成する処理を実行する(以降、合成画像生成部22が実行するこの処理を合成画像生成処理という)。合成画像生成処理の詳細については後述する。   The composite image generation unit 22 executes a process of generating a composite image based on the outside images taken by the cameras 3 to 6 (hereinafter, this process executed by the composite image generation unit 22 is referred to as a composite image generation process). Details of the composite image generation processing will be described later.

判断部23は、フロントカメラ3が撮影した時間的に連続する複数の車外画像に含まれる他の車両の像に基づいて、他の車両の停車を判断する処理を実行する(以降、判断部23が実行するこの処理を判断処理という)。判断処理の詳細については後述する。   The determination unit 23 executes processing for determining stop of another vehicle based on images of other vehicles included in a plurality of temporally continuous images taken by the front camera 3 (hereinafter, the determination unit 23). This process executed by is called determination process). Details of the determination process will be described later.

導出部24は、判断部23が判断処理を実行したことにより他の車両の停車が判断された場合に、車外画像中の他の車両の像の停止位置を導出する処理を実行する(以降、導出部24が実行するこの処理を導出処理という)。導出処理の詳細については後述する。   The deriving unit 24 performs a process of deriving a stop position of an image of another vehicle in the outside image when it is determined that the other vehicle is stopped by the determination unit 23 executing the determination process (hereinafter, This process executed by the derivation unit 24 is referred to as a derivation process). Details of the derivation process will be described later.

検知部25は、フロントカメラ3の光軸の位置ズレを検知する処理を実行する(以降、検知部25が実行するこの処理を検知処理という)。検知処理の詳細については後述する。   The detection unit 25 executes a process of detecting a positional deviation of the optical axis of the front camera 3 (hereinafter, this process executed by the detection unit 25 is referred to as a detection process). Details of the detection process will be described later.

記憶部26は、検知部25が検知処理を実行する際に利用する基準停止位置などのデータを記憶する。   The storage unit 26 stores data such as a reference stop position used when the detection unit 25 executes the detection process.

制御部27は、例えば、マイクロコンピュータなどを備える。マイクロコンピュータは、例えば、CPU、ROM、及び、RAMなどを備える。CPUは、ROMに記憶された種々のプログラムに従って演算処理を行うことで種々の機能を実現させる。また、制御部27は、報知部28などを備えている。   The control unit 27 includes, for example, a microcomputer. The microcomputer includes, for example, a CPU, a ROM, a RAM, and the like. The CPU realizes various functions by performing arithmetic processing according to various programs stored in the ROM. The control unit 27 includes a notification unit 28 and the like.

報知部28は、フロントカメラ3の光軸の位置ズレを検知部25が検知した場合に、その旨をディスプレイ9に表示させるとともに、音出力部10を制御することによって音を出力してユーザへその旨を知らせる処理を実行する(以降、報知部28が実行するこの処理を報知処理という)。報知処理の詳細については後述する。   When the detection unit 25 detects the positional deviation of the optical axis of the front camera 3, the notification unit 28 displays the fact on the display 9 and controls the sound output unit 10 to output a sound to the user. A process for informing that effect is executed (hereinafter, this process executed by the notification unit 28 is referred to as a notification process). Details of the notification process will be described later.

入力部20は、例えば、外部装置と電気的に接続されるインターフェースである。入力部20は、カメラ3〜6が撮影した車外画像を画像処理部21及び制御部27などへ入力させる処理を実行する。   The input unit 20 is an interface that is electrically connected to an external device, for example. The input unit 20 executes a process of causing the outside image taken by the cameras 3 to 6 to be input to the image processing unit 21 and the control unit 27.

出力部29は、例えば、外部装置と電気的に接続されるインターフェースである。出力部29は、画像処理部21が処理した車外画像などをディスプレイ9へ出力して表示させる処理を実行する。   The output unit 29 is an interface that is electrically connected to an external device, for example. The output unit 29 executes a process of outputting and displaying an image outside the vehicle processed by the image processing unit 21 on the display 9.

ディスプレイ9は、車両1の運転席と助手席との間のセンターコンソール上部に備わっている。   The display 9 is provided in the upper part of the center console between the driver's seat and the passenger seat of the vehicle 1.

フロントカメラ3は、図2に示すように車両1の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸は車両1の前進方向へ向けられている。   As shown in FIG. 2, the front camera 3 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 1, and its optical axis is directed in the forward direction of the vehicle 1.

左サイドカメラ4は、図2に示すように左サイドミラー30に設けられており、その光軸は車両1の前進方向を基準にした左方向に沿って外部へ向けられている。   As shown in FIG. 2, the left side camera 4 is provided on the left side mirror 30, and its optical axis is directed to the outside along the left direction with reference to the forward direction of the vehicle 1.

右サイドカメラ5は、図2に示すように右サイドミラー31に設けられており、その光軸は車両1の前進方向を基準にした右方向に沿って外部へ向けられている。   As shown in FIG. 2, the right side camera 5 is provided on the right side mirror 31, and its optical axis is directed to the outside along the right direction with reference to the forward direction of the vehicle 1.

リヤカメラ6は、図2に示すように車両1の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸は車両1の前進方向の逆方向へ向けられている。   As shown in FIG. 2, the rear camera 6 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 1, and its optical axis is directed in the direction opposite to the forward direction of the vehicle 1.

なお、フロントカメラ3やリヤカメラ6の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。   Note that the attachment position of the front camera 3 and the rear camera 6 is preferably approximately the center in the left-right direction, but may be a position slightly shifted in the left-right direction from the center in the left-right direction.

カメラ3〜6のレンズとしては魚眼レンズが採用されており、その魚眼レンズは180度以上の画角を有している。このため、カメラ3〜6を利用することで、車両1の全周囲の撮影が可能となっている。   A fisheye lens is employed as the lens of the cameras 3 to 6, and the fisheye lens has an angle of view of 180 degrees or more. For this reason, it is possible to capture the entire periphery of the vehicle 1 by using the cameras 3 to 6.

車速センサ7は、車両1が移動した際に車輪が回転する速度を車速信号として検知装置2へ出力する。車速センサ7は、車両1のエンジンルーム内に設置される。   The vehicle speed sensor 7 outputs the speed at which the wheel rotates when the vehicle 1 moves to the detection device 2 as a vehicle speed signal. The vehicle speed sensor 7 is installed in the engine room of the vehicle 1.

シフトポジションセンサ8は、車両1に備わる変速ギヤを変更するシフトがユーザによって操作可能になっており、このシフトポジションを検知してシフトポジションを示す信号を検知装置2へ出力する。シフトポジションセンサ8は、車両1のセンターコンソール中央部に備わるシフトレバー近傍に設定される。   The shift position sensor 8 can be operated by a user to shift to change the transmission gear provided in the vehicle 1, detects this shift position, and outputs a signal indicating the shift position to the detection device 2. The shift position sensor 8 is set in the vicinity of a shift lever provided in the center portion of the center console of the vehicle 1.

次に、画像処理部21が備える各部が実行する「合成画像生成処理」、「判断処理」、「導出処理」、及び、「検知処理」、並びに、制御部27が備える報知部28が実行する「報知処理」の詳細について説明する。   Next, the “composite image generation process”, “determination process”, “derivation process”, and “detection process” executed by each unit included in the image processing unit 21 and the notification unit 28 included in the control unit 27 execute. Details of the “notification process” will be described.

(合成画像生成処理)
まず、合成画像生成部22が実行する合成画像生成処理について説明する。
(Composite image generation processing)
First, the composite image generation process executed by the composite image generation unit 22 will be described.

合成画像生成部22は、カメラ3〜6が撮影した、図4に示すような、車外画像G1〜G4をカメラ3〜6より取得する。合成画像生成部22は、取得した車外画像G1〜G4を検知装置2へ出力する。   The composite image generation unit 22 acquires the outside-vehicle images G1 to G4 taken by the cameras 3 to 6 as shown in FIG. The composite image generation unit 22 outputs the acquired outside-vehicle images G <b> 1 to G <b> 4 to the detection device 2.

検知装置2は、入力した車外画像G1〜G4を記憶部26へ記憶する。   The detection device 2 stores the input outside-vehicle images G1 to G4 in the storage unit 26.

検知装置2が備える合成画像生成部22は、記憶部26に記憶された、車外画像G1〜G4を、図5に示すような、仮想的な三次元空間における立体曲面Pに投影する。立体曲面Pは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両1が存在する位置として定められている。車外画像G1〜G4に含まれる各画素の位置と、この立体曲面Pの各画素の位置とは予め対応関係が定められている。このため、立体曲面Pの各画素の値は、この対応関係と車外画像G1〜G4に含まれる各画素の値とに基づいて決定される。   The composite image generation unit 22 included in the detection device 2 projects the outside-vehicle images G1 to G4 stored in the storage unit 26 onto a three-dimensional curved surface P in a virtual three-dimensional space as illustrated in FIG. The three-dimensional curved surface P has, for example, a substantially hemispherical shape (a bowl shape), and a central portion (a bottom portion of the bowl) is determined as a position where the vehicle 1 exists. A correspondence relationship is determined in advance between the position of each pixel included in the outside-vehicle images G1 to G4 and the position of each pixel of the solid curved surface P. For this reason, the value of each pixel of the three-dimensional curved surface P is determined based on this correspondence and the value of each pixel included in the outside-vehicle images G1 to G4.

車外画像G1〜G4の各画素の位置と立体曲面Pの各画素の位置との対応関係は、車両1における4つの車載カメラであるカメラ3〜6の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、記憶部26に記憶された車種別データに含まれている。   The correspondence between the positions of the pixels in the images G1 to G4 outside the vehicle and the positions of the pixels on the three-dimensional curved surface P is determined by the arrangement of the cameras 3 to 6 that are the four on-vehicle cameras in the vehicle 1 (the distance between each other, the height above the ground, the light Depending on the shaft angle. Therefore, the table data indicating this correspondence is included in the vehicle type data stored in the storage unit 26.

また、車種別データに含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両1の三次元形状を示すポリゴンモデルである車両1の像が仮想的に構成される。構成された車両1の像は、立体曲面Pが設定される三次元空間において、車両1の位置と定められた略半球状の中心部分に配置される。   Further, polygon data indicating the shape and size of the vehicle body included in the vehicle type data is used, and an image of the vehicle 1 that is a polygon model indicating the three-dimensional shape of the vehicle 1 is virtually configured. The configured image of the vehicle 1 is arranged in a substantially hemispherical center portion defined as the position of the vehicle 1 in the three-dimensional space in which the three-dimensional curved surface P is set.

さらに、立体曲面Pが存在する三次元空間に対して、合成画像生成部22により仮想視点AGLが設定される。仮想視点AGLは、視点位置と視野方向とで規定され、この三次元空間における車両1の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。   Furthermore, the virtual viewpoint AGL is set by the composite image generation unit 22 for the three-dimensional space where the three-dimensional curved surface P exists. The virtual viewpoint AGL is defined by the viewpoint position and the viewing direction, and is set at an arbitrary viewpoint position corresponding to the periphery of the vehicle 1 in this three-dimensional space toward an arbitrary viewing direction.

そして、設定された仮想視点AGLに応じて、立体曲面Pにおける必要な領域が画像として切り出される。仮想視点AGLと、立体曲面Pにおける必要な領域との関係は予め定められており、テーブルデータとして記憶部26等に予め記憶されている。一方で、設定された仮想視点AGLに応じてポリゴンのモデルに関してレンダリングがなされ、その結果となる二次元の車両1の像が、切り出された画像に対して重畳される。これにより、車両1及びその車両1の周辺を任意の仮想視点AGLからみた様子を示す合成画像が生成されることになる。   Then, according to the set virtual viewpoint AGL, a necessary area on the three-dimensional curved surface P is cut out as an image. The relationship between the virtual viewpoint AGL and the necessary area on the three-dimensional curved surface P is determined in advance, and is stored in advance in the storage unit 26 as table data. On the other hand, rendering is performed with respect to a polygon model in accordance with the set virtual viewpoint AGL, and the resulting image of the two-dimensional vehicle 1 is superimposed on the clipped image. As a result, a composite image showing a state in which the vehicle 1 and the periphery of the vehicle 1 are viewed from an arbitrary virtual viewpoint AGL is generated.

例えば、視点位置が車両1の位置の略中央の直上で、視野方向が直下方向とした仮想視点AGL1を設定した場合は、車両1の略直上から車両1を見下ろすように、車両1及び車両1の周辺の領域を示す合成画像G5が生成される。また、図中に示すように、視点位置が車両1の位置の左後方で、視野方向が車両1における略前方方向とした仮想視点AGL2を設定した場合は、車両1の左後方からその周辺全体を見渡すように、車両1及び車両1の周辺の領域を示す合成画像G6が生成される。   For example, when the virtual viewpoint AGL1 in which the viewpoint position is just above the center of the position of the vehicle 1 and the visual field direction is directly below is set, the vehicle 1 and the vehicle 1 so that the vehicle 1 is looked down from almost directly above the vehicle 1. A composite image G5 showing a peripheral area of the image is generated. Further, as shown in the figure, when the virtual viewpoint AGL2 in which the viewpoint position is the left rear of the position of the vehicle 1 and the visual field direction is a substantially forward direction in the vehicle 1 is set, the entire periphery from the left rear of the vehicle 1 is set. A composite image G6 showing the vehicle 1 and the area around the vehicle 1 is generated so as to overlook the vehicle.

なお、実際に合成画像を生成する場合においては、立体曲面Pの全ての画素の値を決定する必要はなく、設定された仮想視点AGLに対応して必要となる領域の画素の値のみを車外画像G1〜G4に基づいて決定することで、処理速度を向上できる。   In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface P, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint AGL are outside the vehicle. By determining based on the images G1 to G4, the processing speed can be improved.

検知装置2では、このような合成画像生成部22の機能を利用することで、車両1の周辺の任意の視点からみた合成画像を生成して、ディスプレイ9へ生成した合成画像を出力して表示させることができる。   In the detection device 2, by using such a function of the composite image generation unit 22, a composite image viewed from an arbitrary viewpoint around the vehicle 1 is generated, and the generated composite image is output and displayed on the display 9. Can be made.

(判断処理)
次に、判断部23が実行する判断処理について説明する。
(Judgment process)
Next, determination processing executed by the determination unit 23 will be described.

判断処理とは、フロントカメラ3が撮影した時間的に連続する複数の車外画像に含まれる他の車両1の像に基づいて、他の車両の停車を判断する処理である。   The determination process is a process of determining the stop of another vehicle based on images of the other vehicle 1 included in a plurality of temporally continuous images taken by the front camera 3.

判断処理をより具体的に説明する。まず、複数の車外画像夫々に含まれる他の車両の像を判断部23が抽出する。図6は、複数の車外画像のうち一の車外画像に含まれる他の車両Cを判断部23が抽出する方法を説明する図である。   The determination process will be described more specifically. First, the determination unit 23 extracts images of other vehicles included in each of the plurality of outside-vehicle images. FIG. 6 is a diagram illustrating a method in which the determination unit 23 extracts another vehicle C included in one vehicle outside image among a plurality of vehicle outside images.

なお、説明の便宜上、図中において車外画像の左右方向をX軸方向、車外画像の前後方向をY軸方向として方向を示す。   For convenience of explanation, in the figure, the left-right direction of the vehicle exterior image is the X-axis direction, and the front-rear direction of the vehicle exterior image is the Y-axis direction.

フロントカメラ3が撮影した車外画像G7aを判断部23が入力する。そして、入力した車外画像G7aに対して例えば、ソベルフィルタなどの処理を施して車外画像G7aに含まれる物体のエッジを抽出する。   The determination unit 23 inputs the outside-vehicle image G7a photographed by the front camera 3. Then, for example, processing such as a Sobel filter is performed on the input outside-vehicle image G7a to extract the edge of the object included in the outside-vehicle image G7a.

次に、車外画像G7bの左右中央の近傍に含まれる物体の像のエッジを判断部23が抽出する。具体的には、図6に示す車外画像G7bに含まれる複数の矢印線が示すように、車外画像G7bの横方向(図6に示すX軸の+方向)の輝度の差を分析してそのエッジを抽出する処理を判断部23が縦方向へ複数回繰り返し実行する。   Next, the determination unit 23 extracts the edge of the object image included in the vicinity of the center of the left and right sides of the vehicle outside image G7b. Specifically, as indicated by a plurality of arrow lines included in the vehicle exterior image G7b shown in FIG. 6, the difference in luminance in the lateral direction of the vehicle exterior image G7b (the + direction of the X axis shown in FIG. 6) is analyzed. The determination unit 23 repeatedly executes the process of extracting the edge in the vertical direction a plurality of times.

次に、車外画像G7cの左右中央の近傍に含まれる物体の像のエッジを判断部23が抽出する。具体的には、図6に示す車外画像G7cに含まれる複数の矢印線が示すように、車外画像G7cの縦方向(図6に示すY軸の−方向)の輝度の差を分析してそのエッジを抽出する処理を判断部23が横方向へ複数回繰り返し実行する。   Next, the determination unit 23 extracts the edge of the image of the object included in the vicinity of the center of the left and right of the vehicle outside image G7c. Specifically, as indicated by a plurality of arrow lines included in the outside image G7c shown in FIG. 6, the difference in luminance in the vertical direction (the negative direction of the Y axis shown in FIG. 6) of the outside image G7c is analyzed. The determination unit 23 repeatedly executes the process of extracting the edge in the horizontal direction a plurality of times.

次に、車外画像G7bで抽出した車外画像の左右中央の近傍に含まれる物体の像のエッジ及び車外画像G7cで抽出した車外画像の左右中央の近傍に含まれる物体の像のエッジが重複するポイントを判断部23が抽出する。これにより、判断部23が、車外画像G7dの左右中央の近傍に含まれる物体の像の角のポイントを抽出することができる。この物体の像の角のポイントはその物体の特徴点であるともいえる。   Next, the point where the edge of the object image included in the vicinity of the left and right center of the vehicle outside image extracted in the vehicle outside image G7b and the edge of the object image included in the vicinity of the center of the vehicle outside image extracted in the vehicle outside image G7c overlap. Is extracted by the determination unit 23. Thereby, the determination part 23 can extract the corner point of the image of the object contained in the vicinity of the center of the left and right of the outside image G7d. It can be said that the corner point of the image of the object is a feature point of the object.

次に、車外画像G7dの左右中央の近傍に含まれる物体の像の角のポイントを線により繋いで定まる領域を判断部23が抽出する。   Next, the determination unit 23 extracts an area determined by connecting the corner points of the object image included in the vicinity of the center of the left and right sides of the vehicle outside image G7d with a line.

車外画像の左右中央の近傍において含まれる物体の像に基づく領域を抽出する理由は、他の車両Cに基づく領域のみを目的として抽出するためであり、車外画像G7dにおいて車両1の前方を走行する他の車両Cの像がよく映る位置は、車外画像G7dの左右中央の近傍だからである。   The reason for extracting the region based on the image of the object included in the vicinity of the left and right center of the vehicle outside image is to extract only the region based on the other vehicle C, and travels ahead of the vehicle 1 in the vehicle outside image G7d. This is because the position where the image of the other vehicle C is well reflected is near the center of the left and right sides of the outside image G7d.

なお、車外画像G7dは、他の車両Cを表しやすいように建物の像などの他の物体を省略している。   In addition, in the outside image G7d, other objects such as a building image are omitted so as to easily represent the other vehicle C.

車外画像G7dの左右中央の近傍に存在する領域の定め方について、図7に基づいてより具体的に説明する。   A method for determining a region existing in the vicinity of the left and right center of the outside-vehicle image G7d will be described more specifically with reference to FIG.

まず、図7のSS1に示すように、他の車両Cの像に含まれる全ての角のポイントを判断部23が抽出する。   First, as shown in SS1 of FIG. 7, the determination unit 23 extracts all corner points included in the image of the other vehicle C.

そして、図7のSS2に示すように、全ての角のポイントのうち横方向(図7に示すX軸の+方向及び−方向)の最も端側のポイントを含んだ矩形を成す車外画像の横方向(図7に示すX軸)と平行する線L1を判断部23が抽出する。   Then, as shown in SS2 of FIG. 7, the lateral image of the outside image forming a rectangle including the most end point in the horizontal direction (the X direction + direction and − direction shown in FIG. 7) among all corner points. The determination unit 23 extracts a line L1 parallel to the direction (X axis shown in FIG. 7).

そして、図7のSS2に示すように、全ての角のポイントのうち縦方向(図7に示すY軸の+方向及び−方向)の最も端側のポイントを含んだ矩形を成す車外画像の縦方向(図7に示すY軸)と平行する線L2を判断部23が抽出する。   Then, as shown at SS2 in FIG. 7, the vertical direction of the outside image that forms a rectangle including the most end point in the vertical direction (the + direction and the − direction of the Y axis shown in FIG. 7) among all the corner points. The determination unit 23 extracts a line L2 parallel to the direction (Y axis shown in FIG. 7).

そして、図7のSS3に示すように、それらの線L1、L2から構成される矩形の領域Sを判断部23が抽出する。   Then, as shown by SS3 in FIG. 7, the determination unit 23 extracts a rectangular area S composed of the lines L1 and L2.

以上のような抽出処理を、図8に示す、フロントカメラ3が撮影した時間的に連続する複数の車外画像G7〜G10の全てに対して判断部23が実行する。つまり、車外画像G7〜G10の夫々に含まれる他の車両Cの像に基づいて矩形の領域S1〜S4を判断部23が抽出する。   The above-described extraction process is performed by the determination unit 23 for all of the plurality of images outside the vehicle G7 to G10 that are temporally continuous and photographed by the front camera 3 shown in FIG. That is, the determination part 23 extracts the rectangular area | regions S1-S4 based on the image of the other vehicle C contained in each of the outside images G7-G10.

なお、車外画像G7〜G10は、矩形の領域S1〜S4を表しやすいように建物の像などの他の物体を省略している。   In addition, other objects, such as an image of a building, are abbreviate | omitted so that it may be easy to represent the rectangular area | regions S1-S4 from the vehicle outside images G7-G10.

そして、複数の車外画像G7〜G10夫々に含まれる他の車両Cの像に基づいて抽出された複数の矩形の領域S1〜S4に基づいて、矩形の領域の大きさの変化を導出部24が解析する。   And the derivation | leading-out part 24 carries out the change of the magnitude | size of a rectangular area | region based on several rectangular area | region S1-S4 extracted based on the image of the other vehicle C contained in each of several external image G7-G10. To analyze.

図8に示すように、矩形の領域Sが領域S1からS4へと大きくなって変化し、その変化がなくなったことを解析した場合で、かつ、車速センサ7から受信する信号に基づいて車両1の像が停止していることを判断した場合に、他の車両Cの停車を判断部23が判断する。   As shown in FIG. 8, the vehicle 1 is analyzed based on the signal received from the vehicle speed sensor 7 when it is analyzed that the rectangular area S changes from the area S <b> 1 to the area S <b> 4 and changes. When it is determined that this image is stopped, the determination unit 23 determines that the other vehicle C is stopped.

なお、領域S1からS4へと大きくなって変化しその変化がなくなった場合とは、ユーザが車両1を前方に停車している他の車両Cの後ろまで移動させて停車させた場合である。   In addition, the case where it changes from area | region S1 to S4 and it changes and the change is lose | eliminated is a case where the user moves the vehicle 1 to the back of the other vehicle C which has stopped ahead, and stops.

また、判断部23によるその判断において、車両1が停車していることの条件が必要な理由は、車両1と前方の他の車両1とが等速で走行していると、その変化がしなくなる場合があり、車外画像のみではこの場合もその判断を行ってしまう虞があるからである。   In addition, in the determination by the determination unit 23, the reason that the condition that the vehicle 1 is stopped is necessary when the vehicle 1 and another vehicle 1 in front of the vehicle 1 are traveling at a constant speed. This is because there is a possibility that the determination may be made in this case only with the image outside the vehicle.

このような処理、つまり、フロントカメラ3が撮影した時間的に連続する複数の車外画像に含まれる他の車両Cに基づいて抽出される矩形の領域Sはその形状が単純であるため、判断部23は矩形の領域Sの大きさの変化を解析する処理の負荷を低減することができる。また、判断部23は矩形の領域Sの大きさの変化に基づく他の車両Cの停車の判断についての精度を向上させることができる。   Since the rectangular region S extracted based on the other vehicle C included in a plurality of temporally continuous images taken by the front camera 3 in this process is simple in shape, the determination unit No. 23 can reduce the processing load for analyzing the change in the size of the rectangular region S. Moreover, the determination part 23 can improve the precision about determination of the stop of the other vehicle C based on the change of the magnitude | size of the rectangular area | region S. FIG.

また、車外画像の左右中央の近傍に含まれる他の車両Cの変化に基づいて他の車両Cの停車を判断する理由は、車外画像の左右中央の近傍において、他の車両Cの像が動いている状態から停止している状態へ遷移したことによって他の車両Cの停車を判断すれば、前方の物体が他の車両Cであること及びその停車であることを精度良く推定できるからである。   Further, the reason for determining the stop of the other vehicle C based on the change of the other vehicle C included in the vicinity of the left and right center of the outside image is that the image of the other vehicle C moves in the vicinity of the left and right center of the outside image. This is because if the stop of the other vehicle C is determined by the transition from the stopped state to the stopped state, it can be accurately estimated that the object ahead is the other vehicle C and the stop. .

(導出処理)
次に、導出部24が実行する導出処理について説明する。
(Derivation process)
Next, the derivation process executed by the derivation unit 24 will be described.

導出処理とは、判断部23が実行した導出処理によって他の車両Cの停車が判断された場合に、車外画像中の他の車両Cの像の停止位置を導出する処理である。   The derivation process is a process of deriving the stop position of the image of the other vehicle C in the outside image when the stop of the other vehicle C is determined by the derivation process executed by the determination unit 23.

導出処理をより具体的に説明する。判断部23が実行した判断処理によって他の車両Cの停車が判断されたときの車外画像に含まれる他の車両1の像の車外画像中の停止位置を導出する。つまり、図8に示される矩形の領域Sが、領域S1からS4へと変化して、その変化がなくなった矩形の領域S、即ち、領域S4が含まれる車外画像G10中の矩形の領域S4の位置を導出部24が導出する。   The derivation process will be described more specifically. The stop position in the image outside the vehicle of the image of the other vehicle 1 included in the image outside the vehicle when the stop of the other vehicle C is determined by the determination process executed by the determination unit 23 is derived. That is, the rectangular area S shown in FIG. 8 is changed from the area S1 to S4, and the rectangular area S in which the change has disappeared, that is, the rectangular area S4 in the outside image G10 including the area S4, is changed. The derivation unit 24 derives the position.

つまり、車外画像G10中の他の車両Cに基づいて抽出された矩形の領域S4の下方(図8に示すY軸−方向)の2つの角のポイントP1、P2を導出部24が導出する。   That is, the deriving unit 24 derives two corner points P1 and P2 below (Y-axis-direction shown in FIG. 8) the rectangular region S4 extracted based on the other vehicle C in the outside-vehicle image G10.

矩形の領域S4の下の2つの角のポイントP1、P2を導出部24が導出する理由は、その2つの角のポイントP1、P2は車種が異なっても路面との位置関係が略同じとなる車両に備わるバンパーやタイヤの近傍であるからである。より詳しく言えば、フロントカメラ3の光軸の位置が適切に設定されていれば、その2つの角のポイントP1、P2P1、P2が車外画像中において出現する位置は毎回略同じ位置に出現するため、その2つの角のポイントの位置に基づけば、後述する検知処理によって検知されるフロントカメラ3の光軸の位置ズレを検知することができるからである。   The reason why the derivation unit 24 derives the two corner points P1 and P2 below the rectangular region S4 is that the two corner points P1 and P2 have substantially the same positional relationship with the road surface even if the vehicle types are different. This is because it is in the vicinity of bumpers and tires on the vehicle. More specifically, if the position of the optical axis of the front camera 3 is set appropriately, the positions where the two corner points P1, P2P1, and P2 appear in the outside image appear at substantially the same position every time. This is because, based on the positions of the two corner points, it is possible to detect the positional deviation of the optical axis of the front camera 3 detected by the detection process described later.

(検知処理)
次に、検知部25が実行する検知処理について説明する。
(Detection process)
Next, detection processing executed by the detection unit 25 will be described.

検知処理とは、導出部24が導出処理を実行することにより導出した車外画像中の他の車両Cの像の停止位置と、基準停止位置とを比較した結果に基づいてフロントカメラ3の光軸の位置ズレを検知する処理である。   The detection process refers to the optical axis of the front camera 3 based on the result of comparing the stop position of the image of the other vehicle C in the outside image derived by the derivation unit 24 executing the derivation process with the reference stop position. This is a process for detecting the positional deviation.

検知処理をより具体的に説明する。まず、基準停止位置について具体的に説明する。フロントカメラ3の光軸の位置が、検知装置2の機能が発揮できるよう車両1の適切な位置に設定されている場合に、フロントカメラ3が撮影した車外画像中の他の車両Cの像の停止位置を所定の期間(例えば、2ヶ月)にわたって検知部25が記録する。そして、記録したその停止位置の統計データに基づいて検知部25が基準停止位置を設定する。   The detection process will be described more specifically. First, the reference stop position will be specifically described. When the position of the optical axis of the front camera 3 is set to an appropriate position of the vehicle 1 so that the function of the detection device 2 can be exhibited, the image of the other vehicle C in the outside image captured by the front camera 3 is displayed. The detection unit 25 records the stop position over a predetermined period (for example, two months). And the detection part 25 sets a reference | standard stop position based on the statistical data of the recorded stop position.

図9は停止位置とその発生数、即ち、度数との関係を示す統計データであるヒストグラムSDを示している。例えば、図9に示すように、ヒストグラムSDにおいて度数が比較的多い部分の範囲にある停止位置を基準停止位置BSPとして検知部25が設定する。   FIG. 9 shows a histogram SD which is statistical data indicating the relationship between the stop position and the number of occurrences, that is, the frequency. For example, as illustrated in FIG. 9, the detection unit 25 sets a stop position in a range of a relatively high frequency in the histogram SD as a reference stop position BSP.

基準停止位置BSPをこのような統計データに基づいて設定する理由は、停車した車両1と前方に停車する他の車両Cとの車間距離は、運転するユーザによって異なるとともに基準停止位置BSPもユーザによって異なるため、ユーザに応じた基準停止位置BSPを設定する必要があるからである。   The reason why the reference stop position BSP is set based on such statistical data is that the inter-vehicle distance between the stopped vehicle 1 and the other vehicle C that stops ahead differs depending on the driving user, and the reference stop position BSP also depends on the user. This is because it is necessary to set a reference stop position BSP according to the user because they are different.

このように設定された基準停止位置BSPと、所定の期間を経過した後に他の車両Cの停止が判断された場合に、導出された車外画像中の他の車両Cの像の停止位置とを検知部25が比較する。停止位置が基準停止位置BSPの何れかと比較して一致しないという比較結果が所定回数(例えば、10回)よりも多くなった場合は、検知部25はフロントカメラ3の光軸の位置ズレを検知する。   The reference stop position BSP set in this way and the stop position of the image of the other vehicle C in the derived outside image when it is determined that the other vehicle C has stopped after a predetermined period has elapsed. The detection part 25 compares. When the comparison result that the stop position does not coincide with any of the reference stop positions BSP is greater than a predetermined number (for example, 10 times), the detection unit 25 detects the positional deviation of the optical axis of the front camera 3. To do.

その一致しないという比較結果が所定回数よりも多い場合にその位置ズレを検知する理由は、同一のユーザであっても前方に停車する他の車両Cとの車間距離を常に一定にして車両1を停車させるとは限らないからである。   The reason why the positional deviation is detected when the comparison result that there is no coincidence is greater than the predetermined number of times is that the vehicle 1 is kept constant with the inter-vehicle distance from the other vehicle C stopping ahead even if the same user. It is because it does not necessarily stop.

このような処理、つまり、基準停止位置BSPの何れかと、他の車両Cの停車が判断された場合に、導出された車外画像中の他の車両Cの像の停止位置とが一致しないという比較結果が所定回数より多い場合に、フロントカメラ3の光軸の位置ズレを検知する検知処理を実行するため、検知部25はその位置ズレの検知精度を向上させることができる。   Such a process, that is, a comparison that any one of the reference stop positions BSP and the stop position of the image of the other vehicle C in the derived outside image does not match when the stop of the other vehicle C is determined. When the result is more than the predetermined number of times, since the detection process for detecting the positional deviation of the optical axis of the front camera 3 is executed, the detection unit 25 can improve the detection accuracy of the positional deviation.

(報知処理)
次に、報知部28が実行する報知処理について説明する。検知処理を実行することによってフロントカメラ3の光軸の位置ズレを検知した場合に、検知部25は報知部28へその旨を示す信号を送信する。
(Notification process)
Next, the notification process performed by the notification unit 28 will be described. When the positional deviation of the optical axis of the front camera 3 is detected by executing the detection process, the detection unit 25 transmits a signal indicating that to the notification unit 28.

その旨を示す信号を受信した場合に、報知部28は音出力部及びディスプレイ9の何れかを制御してユーザへフロントカメラ3の光軸の位置がズレていることを知らせる。   When a signal indicating that is received, the notification unit 28 controls either the sound output unit or the display 9 to notify the user that the position of the optical axis of the front camera 3 is shifted.

以上に説明した、判断処理、導出処理、検知処理、及び、報知処理を検知装置2が備える各部が実行することにより、検知装置2は車外画像のみに基づいてその位置ズレを簡易に検知することができる。   By executing the determination process, the derivation process, the detection process, and the notification process, which are described above, by each unit included in the detection apparatus 2, the detection apparatus 2 can easily detect the positional deviation based only on the outside image. Can do.

(制御フロー)
次に、検知装置2が実行する制御フローについて説明する。
検知装置2は、ユーザにより電源が投入されて、その機能を開始させる開始ボタンが操作された場合に、図11に示す第1フローを所定の周期(以降、第1の周期という)で実行する。また、検知装置2は、その場合に図12に示す第2フローを第1の周期よりも長い周期(以降、第2の周期という)で実行する。
(Control flow)
Next, a control flow executed by the detection device 2 will be described.
The detection device 2 executes the first flow shown in FIG. 11 in a predetermined cycle (hereinafter referred to as the first cycle) when the user turns on the power and operates the start button for starting the function. . In this case, the detection device 2 executes the second flow shown in FIG. 12 in a cycle longer than the first cycle (hereinafter referred to as the second cycle).

なお、第1の周期は、例えば、10msであり、第2の周期は、例えば、20msである。   The first cycle is, for example, 10 ms, and the second cycle is, for example, 20 ms.

(第1フロー)
検知装置2は、第1の周期ごとに図11に示す第1フローのステップSA1の処理を実行する。
(First flow)
The detection device 2 executes the process of step SA1 of the first flow shown in FIG. 11 for each first period.

制御部27は、シフトポジションセンサ8からシフトポジションが”R”を示す信号を受信したか否かを判定する(ステップSA1)。   The control unit 27 determines whether or not a signal indicating that the shift position is “R” has been received from the shift position sensor 8 (step SA1).

シフトポジションが”R”を示す信号を受信した旨の信号を制御部27から受信した場合は、合成画像生成部22は前述した合成画像生成処理を実行する。(ステップSA2)。これにより、合成画像生成部22は車両1を仮想的に俯瞰した合成画像を生成する。   When the signal indicating that the signal indicating that the shift position is “R” has been received from the control unit 27, the composite image generation unit 22 executes the above-described composite image generation processing. (Step SA2). Thereby, the composite image generation unit 22 generates a composite image in which the vehicle 1 is virtually viewed.

次に、合成画像生成部22はその合成画像をディスプレイ9へ表示する処理を実行する(ステップSA3)。   Next, the composite image generation unit 22 executes processing for displaying the composite image on the display 9 (step SA3).

つまり、ユーザがシフトポジションを”R”にして車両1を後進させる際に、検知装置2がユーザに対し合成画像を表示する。このため、ユーザは車両1を後進させる際に認識しにくい車両1の周辺の障害物を認識することができる。   That is, when the user reverses the vehicle 1 with the shift position set to “R”, the detection device 2 displays a composite image to the user. For this reason, the user can recognize obstacles around the vehicle 1 that are difficult to recognize when the vehicle 1 is moved backward.

次に、検知装置2は図11に示す第2フローに基づく処理を終了する。   Next, the detection apparatus 2 ends the process based on the second flow shown in FIG.

なお、シフトポジションが”R”を示す信号を受信した旨の信号を制御部27から受信しない場合は、検知装置2は図11に示す第2フローに基づく処理を終了する。   Note that when the signal indicating that the signal indicating that the shift position is “R” has not been received from the control unit 27, the detection device 2 ends the processing based on the second flow illustrated in FIG.

(第2フロー)
検知装置2は、第2の周期ごとに図12に示す第2フローのステップSB1の処理を実行する。
(Second flow)
The detection device 2 executes the process of step SB1 of the second flow shown in FIG. 12 every second period.

まず、フロントカメラ3が撮影した時間的に連続する複数の車外画像を入力部20を介して画像処理部21が入力する(ステップSB1)。複数の車外画像は一時的に記憶部26が記憶する。   First, the image processing unit 21 inputs a plurality of temporally continuous images taken by the front camera 3 via the input unit 20 (step SB1). The storage unit 26 temporarily stores a plurality of outside-vehicle images.

次に、記憶部26によって記憶されている複数の車外画像に基づいて、前述した判断処理を実行することによって、他の車両Cの停車の判断を判断部23が実行する(ステップSB2)。   Next, based on the plurality of outside images stored in the storage unit 26, the determination unit 23 determines whether the other vehicle C is stopped by executing the above-described determination process (step SB2).

次に、車速センサから受信する信号に基づいて車両1が停車したか否かを制御部27が判断する(ステップSB3)。例えば、車速センサから受信する信号に基づいて車速が0km/hであるか否かを制御部27が判断する。更に、シフトポジションセンサ8から受信する信号に基づいて車両1が停車したか否かを制御部27が判断しても良い。例えば、シフトポジションセンサ8から受信する信号に基づいてシフトポジションが”N”及び、”P”の何れかであるか否かを制御部27が判断する。   Next, the control unit 27 determines whether the vehicle 1 has stopped based on a signal received from the vehicle speed sensor (step SB3). For example, the control unit 27 determines whether or not the vehicle speed is 0 km / h based on a signal received from the vehicle speed sensor. Furthermore, the control unit 27 may determine whether or not the vehicle 1 has stopped based on a signal received from the shift position sensor 8. For example, the control unit 27 determines whether the shift position is “N” or “P” based on a signal received from the shift position sensor 8.

制御部27によって車両1が停車していると判断された場合(ステップSB4においてYESの場合)に、前述した導出処理を実行することによって、車外画像中の他の車両Cの像の停止位置を導出部24が導出する(ステップSB4)。つまり、車両1が停車していると判断した場合に、制御部27は導出部24による導出処理を有効化させる。   When it is determined by the control unit 27 that the vehicle 1 is stopped (YES in step SB4), the above-described derivation process is executed to determine the stop position of the image of the other vehicle C in the outside image. The deriving unit 24 derives (step SB4). That is, when it is determined that the vehicle 1 is stopped, the control unit 27 enables the derivation process by the derivation unit 24.

次に、導出された停止位置と基準停止位置とに基づいて、前述した検知処理を検知部25が実行する(ステップSB5)。   Next, based on the derived stop position and reference stop position, the detection unit 25 executes the detection process described above (step SB5).

検知部が実行する検知処理に基づいて停止位置が基準停止位置と一致しない場合(ステップSB5においてNOの場合)に、制御部27はカウンタCTをカウントアップする(ステップSB6)。なお、このカウンタCTは検知装置2が備える開始ボタンを操作された場合に0にされる。   When the stop position does not coincide with the reference stop position based on the detection process executed by the detection unit (NO in step SB5), the control unit 27 counts up the counter CT (step SB6). The counter CT is set to 0 when a start button provided in the detection device 2 is operated.

カウンタCTが所定の回数XT(例えば、10回)より多い場合(ステップSB7においてYESの場合)に報知部28が前述した報知処理を実行して、フロントカメラ3の光軸がズレたことをユーザへ知らせる(ステップSB8)。   When the counter CT is greater than a predetermined number of times XT (for example, 10 times) (in the case of YES in step SB7), the notification unit 28 executes the above-described notification process, and the user indicates that the optical axis of the front camera 3 has shifted. (Step SB8).

停止位置と基準停止位置とが一致しない場合にカウンタCTをカウントアップして、カウンタCTが所定回数XTより多い場合にユーザへその位置ズレを検知をしたことを報知する理由は、ユーザが前方の他の車両Cとの車間距離を気分的に通常よりも広くして駐車したような場合にユーザへその報知がされないようにするためである。   The reason why the counter CT is counted up when the stop position and the reference stop position do not coincide with each other and when the counter CT exceeds the predetermined number of times XT is notified to the user that the positional deviation has been detected is This is to prevent the user from being notified when the vehicle is parked with the distance between the other vehicles C being larger than usual.

なお、ステップSB3において車両1が停車していると判断しない場合(ステップSB4においてNOの場合)、ステップSB5において停止位置が基準停止位置と一致する場合(ステップSB5においてYESの場合)、及び、ステップSB7においてカウンタCTが所定の回数XTより多くない場合(ステップSB7においてNOの場合)は、検知装置2はその処理を終了する。   If it is not determined in step SB3 that the vehicle 1 is stopped (NO in step SB4), if the stop position matches the reference stop position in step SB5 (YES in step SB5), and step If the counter CT is not greater than the predetermined number XT in SB7 (NO in step SB7), the detection device 2 ends the process.

以上のような、処理を実行することにより、検知装置2はフロントカメラ3が撮影した複数の車外画像の夫々に含まれる他の車両Cの像に基づいて、他の車両Cの停車を判断するため、その停車を車外画像のみに基づいて簡易に判断することができる。   By executing the processing as described above, the detection device 2 determines the stop of the other vehicle C based on the image of the other vehicle C included in each of the plurality of outside images taken by the front camera 3. Therefore, the stop can be easily determined based only on the outside image.

更に、検知装置2は、他の車両Cの停車を判断した場合に、導出した車外画像中の他の車両Cの像の停止位置と基準停止位置とを比較した結果に基づいてフロントカメラ3の光軸の位置ズレを検知するため、車外画像のみに基づいてその位置ズレを簡易に検知することができる。   Further, when the detection device 2 determines that the other vehicle C has stopped, the detection device 2 compares the stop position of the image of the other vehicle C in the derived outside vehicle image with the reference stop position, based on the result of the comparison of the front camera 3. Since the positional deviation of the optical axis is detected, the positional deviation can be easily detected based only on the outside image.

<第2の実施の形態>
次に、第2の実施の形態について説明する。なお、以降の説明においては、第1の実施の形態と第2の実施の形態とにおいて相違する点を主に説明する。
<Second Embodiment>
Next, a second embodiment will be described. In the following description, differences between the first embodiment and the second embodiment will be mainly described.

第1の実施の形態において、判断処理は、「図8に示す矩形の領域Sが領域S1からS4へと大きくなって変化し、その変化がなくなったことを解析して他の車両Cの停車を判断部23が判断する。なお、領域S1からS4へと大きくなって変化しその変化がなくなった場合とは、ユーザが車両1を前方に停車している他の車両Cの後ろまで移動させて停車させた場合である。」と説明した。   In the first embodiment, the determination process is as follows: “A rectangular region S shown in FIG. 8 changes from the region S1 to S4 and changes, and the change is lost and the other vehicle C stops. The determination unit 23 determines that the change from the region S1 to the region S4 increases and the change disappears when the user moves the vehicle 1 to the back of the other vehicle C parked forward. This is the case where the vehicle is stopped. "

第2の実施の形態の判断処理においては、図12に示す矩形の領域Sが領域S1XからS4Xへと小さくなって変化し、その変化がなくなったことを解析した場合で、かつ、車速センサ7から受信する信号に基づいて車両1が停車していることを判断した場合に、他の車両Cの停車を判断部23が判断する。   In the determination process according to the second embodiment, the rectangular area S shown in FIG. 12 is changed from the area S1X to the area S4X, and the vehicle speed sensor 7 is analyzed. When it is determined that the vehicle 1 is stopped based on the signal received from, the determination unit 23 determines that the other vehicle C is stopped.

なお、領域S1XからS4Xへと小さくなって変化しその変化がなくなった場合とは、ユーザが停車させている車両1の前方に停車している他の車両Cが発進して遠のいて行く場合である。   In addition, the case where it changes small from area | region S1X to S4X, and the change is lose | eliminated is the case where the other vehicle C stopped ahead of the vehicle 1 which the user has stopped starts and goes away. is there.

このような場合において、複数の車外画像に基づいて解析したその変化が始まる直前にフロントカメラ3が撮影した車外画像に含まれる他の車両Cの像の車外画像中の停止位置を導出部24が導出する。   In such a case, the deriving unit 24 calculates a stop position in the outside image of the image of the other vehicle C included in the outside image captured by the front camera 3 immediately before the start of the change analyzed based on the plurality of outside images. To derive.

以上のような処理を判断部23及び導出部24が実行することによって、ユーザが停車させている車両1の前方に停車している他の車両Cが発進して遠のいて行く場合にフロントカメラ3が撮影した車外画像に基づいて、フロントカメラ3の光軸のズレを検知することができる。   When the determination unit 23 and the derivation unit 24 execute the above processing, the front camera 3 is started when another vehicle C stopped in front of the vehicle 1 stopped by the user starts and moves away. The deviation of the optical axis of the front camera 3 can be detected based on the image outside the vehicle taken by.

<第3の実施の形態>
次に、第3の実施の形態について説明する。なお、以降の説明においては、第1の実施の形態と第3の実施の形態とにおいて相違する点を主に説明する。
<Third Embodiment>
Next, a third embodiment will be described. In the following description, differences between the first embodiment and the third embodiment will be mainly described.

第1の実施の形態の判断処理において、「フロントカメラ3が撮影した時間的に連続する複数の車外画像に基づいて、他の車両Cの停車を判断部23が判断する」と説明した。   In the determination process according to the first embodiment, it has been described that “the determination unit 23 determines whether the other vehicle C is stopped based on a plurality of temporally continuous images taken by the front camera 3”.

第3の実施の形態においては、リヤカメラ6が撮影した時間的に連続する複数の車外画像に基づいて、他の車両Cの停車を判断部23が判断する。   In the third embodiment, the determination unit 23 determines whether the other vehicle C is stopped based on a plurality of temporally continuous images taken by the rear camera 6.

リヤカメラ6が撮影した車外画像G7aXを判断部23が入力する。そして、入力した車外画像G7aXに対して例えば、ソベルフィルタなどの処理を施して車外画像G7aXに含まれる物体のエッジを抽出する。   The determination unit 23 inputs the outside-vehicle image G7aX taken by the rear camera 6. Then, for example, processing such as a Sobel filter is performed on the input outside-vehicle image G7aX to extract the edge of the object included in the outside-vehicle image G7aX.

次に、車外画像G7bXの左右中央の近傍に含まれる物体の像のエッジを判断部23が抽出する。具体的には、図13に示す車外画像G7bXに含まれる複数の矢印線が示すように、車外画像G7bXの横方向(図13に示すX軸の+方向)の輝度の差を分析してそのエッジを抽出する処理を判断部23が縦方向へ複数回繰り返し実行する。   Next, the determination unit 23 extracts the edge of the object image included in the vicinity of the center of the left and right sides of the vehicle outside image G7bX. Specifically, as indicated by a plurality of arrow lines included in the outside image G7bX shown in FIG. 13, the difference in luminance in the lateral direction (the + direction of the X axis shown in FIG. 13) of the outside image G7bX is analyzed and The determination unit 23 repeatedly executes the process of extracting the edge in the vertical direction a plurality of times.

次に、車外画像G7cXの左右中央の近傍に含まれる物体の像のエッジを判断部23が抽出する。具体的には、図13に示す車外画像G7cXに含まれる複数の矢印線が示すように、車外画像G7cXの縦方向(図13に示すY軸の−方向)の輝度の差を分析してそのエッジを抽出する処理を判断部23が横方向へ複数回繰り返し実行する。   Next, the determination unit 23 extracts the edge of the object image included in the vicinity of the center of the left and right sides of the vehicle outside image G7cX. Specifically, as indicated by a plurality of arrow lines included in the outside image G7cX shown in FIG. 13, the difference in luminance in the vertical direction (the negative direction of the Y axis shown in FIG. 13) of the outside image G7cX is analyzed. The determination unit 23 repeatedly executes the process of extracting the edge in the horizontal direction a plurality of times.

次に、車外画像G7bXで抽出した車外画像の左右中央の近傍に含まれる物体の像のエッジ及び車外画像G7cXで抽出した車外画像の左右中央の近傍に含まれる物体の像のエッジが重複するポイントを判断部23が抽出する。これにより、判断部23が、車外画像G7dXの左右中央の近傍に含まれる物体の像の角のポイントを抽出することができる。この物体の像の角のポイントはその物体の特徴点であるともいえる。   Next, the point where the edge of the image of the object included in the vicinity of the left and right center of the vehicle outside image extracted from the vehicle outside image G7bX overlaps the edge of the image of the object included in the vicinity of the center of the left and right of the vehicle outside image extracted from the vehicle outside image G7cX. Is extracted by the determination unit 23. Accordingly, the determination unit 23 can extract the corner point of the image of the object included in the vicinity of the center of the left and right sides of the vehicle outside image G7dX. It can be said that the corner point of the image of the object is a feature point of the object.

次に、車外画像G7dXの左右中央の近傍に含まれる物体の像の角のポイントを線により繋いで定まる領域を判断部23が抽出する。   Next, the determination unit 23 extracts a region determined by connecting the corner points of the image of the object included in the vicinity of the center of the left and right sides of the outside image G7dX with a line.

車外画像の左右中央の近傍に含まれる物体の像に基づく領域を抽出する理由は、他の車両Cに基づく領域のみを目的として抽出するためであり、車外画像G7dXにおいて車両1の後方を走行する他の車両Cの像がよく映る位置は、車外画像G7dXの左右中央の近傍だからである。   The reason why the region based on the image of the object included in the vicinity of the center of the left and right sides of the outside image is extracted is to extract only the region based on the other vehicle C, and travels behind the vehicle 1 in the outside image G7dX. This is because the position where the image of the other vehicle C is well reflected is near the center of the left and right sides of the outside image G7dX.

なお、車外画像G7dXは、他の車両Cを表しやすいように建物の像などの他の物体を省略している。   In addition, in the outside image G7dX, other objects such as a building image are omitted so as to easily represent the other vehicle C.

以上のような処理を判断部23が実行することによって、リヤカメラ6が撮影した車外画像のみに基づいて、リヤカメラ6の光軸のズレを検知することができる。   When the determination unit 23 executes the processing as described above, it is possible to detect the deviation of the optical axis of the rear camera 6 based only on the outside image captured by the rear camera 6.

<第4の実施の形態>
次に、第4の実施の形態について説明する。なお、以降の説明においては、第1の実施の形態と第4の実施の形態とにおいて相違する点を主に説明する。
<Fourth embodiment>
Next, a fourth embodiment will be described. In the following description, differences between the first embodiment and the fourth embodiment will be mainly described.

第4の実施の形態における検知処理は、第1の実施の形態における検知処理とは異なり現在から過去の所定期間内に複数回にわたって導出された停止位置の統計データに基づいて導出部24が導出した値を基準停止位置と比較するようになっている。   Unlike the detection process in the first embodiment, the deriving unit 24 derives the detection process in the fourth embodiment based on the statistical data of the stop position derived multiple times within a predetermined period from the present to the present. The measured value is compared with the reference stop position.

まず、停止位置について具体的に説明する。検知処理が実行される日の所定の期間(例えば、2ヶ月)前から検知処理が実行される日までに導出部24により導出された他の車両Cの像の停止位置は、検知部25によって記録されている。そして、記録されたそれらの停止位置の統計データに基づいて、検知部25が比較に用いる値(停止位置)を導出部24が導出する。   First, the stop position will be specifically described. The stop position of the image of the other vehicle C derived by the deriving unit 24 from a predetermined period (for example, two months) before the day when the detection process is performed to the day when the detection process is performed is detected by the detection unit 25. It is recorded. Then, based on the recorded statistical data of those stop positions, the deriving unit 24 derives a value (stop position) used by the detection unit 25 for comparison.

比較に用いる停止位置をこのような統計データに基づいて導出する理由は、停車した車両1と前方の他の車両Cとの車間距離は、同じユーザであっても運転するたびにバラつきがあるため、そのユーザが頻繁にとる車間距離に応じた停止位置を導出する必要があるからである。   The reason for deriving the stop position for comparison based on such statistical data is that the inter-vehicle distance between the stopped vehicle 1 and the other vehicle C ahead varies every time even the same user drives. This is because it is necessary to derive a stop position corresponding to the inter-vehicle distance that the user frequently takes.

具体的には、図14に示すように、設定された基準停止位置のヒストグラムD1のピークDP1と、導出された停止位置の統計データであるヒストグラムD2のピークDP2とを検知部25が比較する。それらのピーク同士を比較した結果、それらの差が所定値よりも大きい場合に、検知部25はフロントカメラ3の光軸の位置ズレを検知する。   Specifically, as shown in FIG. 14, the detection unit 25 compares the peak DP1 of the set reference stop position histogram D1 with the peak DP2 of the histogram D2 that is statistical data of the derived stop position. As a result of comparing these peaks, when the difference between them is larger than a predetermined value, the detection unit 25 detects the positional deviation of the optical axis of the front camera 3.

このような処理、つまり、設定された基準停止位置のヒストグラムD1のピークDP1の値と導出された停止位置のヒストグラムD2のピークDP2の値との差が所定値よりも大きい場合に、フロントカメラ3の光軸の位置ズレを検知部25が検知するため、検知部25はその位置ズレの検知精度を向上させることができる。   In such a process, that is, when the difference between the value of the peak DP1 of the set reference stop position histogram D1 and the value of the derived stop position histogram D2 of the peak DP2 is larger than a predetermined value, the front camera 3 Since the detection unit 25 detects the positional deviation of the optical axis, the detection unit 25 can improve the detection accuracy of the positional deviation.

<変形例>
以上、本発明の第1の実施の形態について説明してきたが、この発明は上記第1の実施の形態に限定されるものではなく様々な変形が可能である。以下では他の実施形態である変形例について説明する。もちろん、以下で説明する形態を適宜組み合わせても良い。
<Modification>
The first embodiment of the present invention has been described above. However, the present invention is not limited to the first embodiment, and various modifications can be made. Below, the modification which is other embodiment is demonstrated. Of course, you may combine the form demonstrated below suitably.

<変形例1>
上記第1の実施の形態の検知装置2は、「カメラ3〜6が備えるレンズは魚眼レンズである」と説明したが、魚眼レンズが備える画角よりも狭いレンズをカメラ3〜6に備えても良い。例えば、画角が45度の標準レンズをカメラ3〜6に備えても良く、画角が45度よりも広く180度よりも狭い広角レンズをカメラ3〜6に備えても良い。
<Modification 1>
Although the detection apparatus 2 according to the first embodiment has been described as “the lenses included in the cameras 3 to 6 are fisheye lenses”, the cameras 3 to 6 may include lenses that are narrower than the angle of view included in the fisheye lenses. . For example, the cameras 3 to 6 may be provided with standard lenses having an angle of view of 45 degrees, and the cameras 3 to 6 may be provided with wide angle lenses having an angle of view larger than 45 degrees and narrower than 180 degrees.

<変形例2>
上記第1の実施の形態において、「基準停止位置は、フロントカメラ3が車両1の適切な位置へ搭載されたときから所定期間を経過するまでに複数回にわたって導出部24により導出された車外画像に含まれる他の車両の像の車外画像中の停止位置の統計データに基づいて設定される」と説明したが、その停止位置の統計データは平均したデータであっても良い。
<Modification 2>
In the first embodiment, “the reference stop position is an image outside the vehicle derived by the deriving unit 24 a plurality of times from when the front camera 3 is mounted at an appropriate position of the vehicle 1 until a predetermined period elapses. It is set based on the statistical data of the stop position in the outside image of the image of the other vehicle included in the above ", but the statistical data of the stop position may be averaged data.

2 検知装置
21 画像処理部
23 判断部
24 導出部
25 検知部
27 制御部
28 報知部
3 フロントカメラ
4 左サイドカメラ
5 右サイドカメラ
6 リヤカメラ
DESCRIPTION OF SYMBOLS 2 Detection apparatus 21 Image processing part 23 Judgment part 24 Derivation part 25 Detection part 27 Control part 28 Notification part 3 Front camera 4 Left side camera 5 Right side camera 6 Rear camera

Claims (9)

車両の前方及び後方の何れかに搭載されたカメラの光軸の位置ズレを検知する検知装置であって、
前記カメラが撮影した時間的に連続する複数の車外画像の夫々に含まれる他の車両の像に基づいて、前記他の車両の停車を判断する判断手段と、
前記他の車両の停車が判断された場合に、前記車外画像中の前記他の車両の像の停止位置を導出する導出手段と、
導出された前記停止位置と基準停止位置とを比較した結果に基づいて前記位置ズレを検知する検知手段と、
を備えることを特徴とする検知装置。
A detection device that detects a positional shift of an optical axis of a camera mounted on either the front or rear of a vehicle,
A determination means for determining stopping of the other vehicle based on an image of the other vehicle included in each of a plurality of images outside the vehicle taken in time taken by the camera;
Deriving means for deriving a stop position of an image of the other vehicle in the outside image when it is determined that the other vehicle is stopped;
Detecting means for detecting the positional deviation based on a result of comparing the derived stop position and a reference stop position;
A detection device comprising:
請求項1に記載の検知装置において、
前記判断手段は、前記複数の車外画像の夫々に含まれる前記他の車両の像の変化に基づいて前記他の車両の停車を判断することを特徴とする検知装置。
The detection device according to claim 1,
The determination device determines whether the other vehicle is stopped based on a change in an image of the other vehicle included in each of the plurality of images outside the vehicle.
請求項2に記載の検知装置において、
前記判断手段は、前記変化を前記他の車両の像の特徴点に基づいて判断することを特徴とする検知装置。
The detection device according to claim 2,
The determination unit determines the change based on a feature point of an image of the other vehicle.
請求項2又は3の何れかに記載の検知装置において、
前記判断手段は、前記変化がなくなった場合に前記他の車両の停車を判断し、
前記導出手段は、前記変化がなくなった場合の前記他の車両の像の位置を前記停止位置として導出することを特徴とする検知装置。
In the detection apparatus in any one of Claim 2 or 3,
The determination means determines the stop of the other vehicle when the change is lost,
The deriving means derives the position of the image of the other vehicle when the change is lost as the stop position.
請求項2又は3の何れかに記載の検知装置において、
前記判断手段は、前記変化が始まる直前を前記他の車両の停車であると判断し、
前記導出手段は、前記変化が始まる直前の前記他の車両の像の位置を前記停止位置として導出することを特徴とする検知装置。
In the detection apparatus in any one of Claim 2 or 3,
The determining means determines that the other vehicle is stopped immediately before the start of the change,
The deriving means derives the position of the image of the other vehicle immediately before the change starts as the stop position.
請求項1乃至5の何れかに記載の検知装置において、
前記車両が停車している場合に前記導出手段を有効化させる有効化手段を更に備えることを特徴とする検知装置。
In the detection apparatus in any one of Claims 1 thru | or 5,
The detection apparatus further comprising an enabling means for enabling the derivation means when the vehicle is stopped.
請求項1乃至6の何れかに記載の検知装置において、
前記基準停止位置は、前記カメラが車両の適切な位置へ搭載されたときから所定期間を経過するまでに、複数回にわたって前記導出手段によって導出された前記停止位置の統計データに基づいて設定されることを特徴とする検知装置。
The detection device according to any one of claims 1 to 6,
The reference stop position is set based on statistical data of the stop position derived by the deriving means a plurality of times from when the camera is mounted at an appropriate position of the vehicle until a predetermined period elapses. A detection device characterized by that.
請求項1乃至7の何れかに記載の検知装置において、
前記検知手段は、現在から過去の所定期間以内に複数回にわたって前記導出手段によって導出された前記停止位置の統計データに基づく値を、前記基準停止位置との比較に用いることを特徴とする検知装置。
The detection device according to any one of claims 1 to 7,
The detection unit uses a value based on statistical data of the stop position derived by the deriving unit a plurality of times within a predetermined period in the past from the present for comparison with the reference stop position. .
車両の前方及び後方の何れかに搭載されたカメラの光軸の位置ズレを検知する検知方法であって、
(a)前記カメラが撮影した時間的に連続する複数の車外画像の夫々に含まれる他の車両の像に基づいて、前記他の車両の停車を判断する工程と、
(b)前記他の車両の停車が判断された場合に、前記車外画像中の前記他の車両の像の停止位置を導出する工程と、
(c)導出された前記停止位置と基準停止位置とを比較した結果に基づいて前記位置ズレを検知する工程と、
を備えることを特徴とする検知方法。
A detection method for detecting a positional shift of an optical axis of a camera mounted on either the front or rear of a vehicle,
(A) determining a stop of the other vehicle based on an image of the other vehicle included in each of a plurality of temporally continuous images taken by the camera;
(B) deriving a stop position of an image of the other vehicle in the outside image when it is determined that the other vehicle is stopped;
(C) detecting the positional deviation based on a result of comparing the derived stop position and a reference stop position;
A detection method comprising:
JP2010256952A 2010-11-17 2010-11-17 Detection device and detection method Withdrawn JP2012109789A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010256952A JP2012109789A (en) 2010-11-17 2010-11-17 Detection device and detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010256952A JP2012109789A (en) 2010-11-17 2010-11-17 Detection device and detection method

Publications (1)

Publication Number Publication Date
JP2012109789A true JP2012109789A (en) 2012-06-07

Family

ID=46494943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010256952A Withdrawn JP2012109789A (en) 2010-11-17 2010-11-17 Detection device and detection method

Country Status (1)

Country Link
JP (1) JP2012109789A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016168877A (en) * 2015-03-11 2016-09-23 株式会社東海理化電機製作所 Visual recognition device for vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016168877A (en) * 2015-03-11 2016-09-23 株式会社東海理化電機製作所 Visual recognition device for vehicle

Similar Documents

Publication Publication Date Title
CN105308620B (en) Information processing apparatus, proximity object notification method, and program
JP5099451B2 (en) Vehicle periphery confirmation device
JP5190712B2 (en) Obstacle detection device
EP2919197A1 (en) Object detection device and object detection method
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
JP4816923B2 (en) Vehicle peripheral image providing apparatus and method
EP2928178B1 (en) On-board control device
EP3153356A1 (en) Display device for vehicle and display method for vehicle
EP3150443A1 (en) Display device for vehicle and display method for vehicle
JP6291866B2 (en) Driving support device and driving support method
EP2848475A1 (en) Overhead view image display device
JP2017520133A (en) Vehicle periphery image generation apparatus and method
TWI533694B (en) Obstacle detection and display system for vehicle
WO2016092967A1 (en) Image generation device and image generation method
JP2010044561A (en) Monitoring device to be mounted on vehicle
JP2020068515A (en) Image processing apparatus
JP2010264945A (en) Parking support device, parking support method and parking support program
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP5861449B2 (en) Obstacle alarm device
JP5477394B2 (en) Vehicle periphery monitoring device
KR101849326B1 (en) Camera system for vehicle
JP2012109789A (en) Detection device and detection method
EP3200445B1 (en) Image capture device, vehicle, and fluctuation detecting method
JP6775285B2 (en) Rear side vehicle detection alarm device
JP2012158227A (en) Image processor, parking control system, and image processing method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140204