JP2012109789A - Detection device and detection method - Google Patents
Detection device and detection method Download PDFInfo
- Publication number
- JP2012109789A JP2012109789A JP2010256952A JP2010256952A JP2012109789A JP 2012109789 A JP2012109789 A JP 2012109789A JP 2010256952 A JP2010256952 A JP 2010256952A JP 2010256952 A JP2010256952 A JP 2010256952A JP 2012109789 A JP2012109789 A JP 2012109789A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- stop position
- outside
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、車両に搭載されたカメラの光軸の位置ズレを検知する技術に関する。 The present invention relates to a technique for detecting a positional shift of an optical axis of a camera mounted on a vehicle.
近年、車両に搭載されたカメラが撮影した車外画像を車両に搭載されたディスプレイへ表示する画像表示装置が開発されている。このような画像表示装置によれば、ユーザはディスプレイに表示された車外画像を参考にして車両を運転することができる。 2. Description of the Related Art In recent years, an image display device has been developed that displays an external image taken by a camera mounted on a vehicle on a display mounted on the vehicle. According to such an image display device, the user can drive the vehicle with reference to the outside image displayed on the display.
画像表示装置がその機能を適切に発揮するためには、車両に搭載されたカメラの光軸が予定された角度で設定されなければならない。 In order for the image display apparatus to properly perform its function, the optical axis of the camera mounted on the vehicle must be set at a predetermined angle.
従って、予定された角度で設定されたカメラの光軸が経年とともにズレてしまった場合などには、画像表示装置はそのズレを検知してユーザに知らせるとともにユーザにカメラの光軸を予定していた角度に再設定させる必要がある。 Therefore, when the optical axis of the camera set at a predetermined angle has shifted with the passage of time, the image display device detects the shift and informs the user, and schedules the optical axis of the camera to the user. It is necessary to reset the angle.
その位置ズレを検知する画像処理装置として次のようなものが知られている。つまり、基準となる車外画像に映る車両の一部分が初期の位置とズレている場合に、カメラの光軸の位置ズレを検知する画像処理装置が知られている。このため、画像処理装置は車外画像のみに基づいてその位置ズレを簡易に検知することができる。係る技術は、例えば、特許文献1に記載されている。
The following is known as an image processing apparatus for detecting the positional deviation. That is, there is known an image processing apparatus that detects a positional shift of the optical axis of a camera when a part of a vehicle shown in a reference image outside the vehicle is shifted from an initial position. For this reason, the image processing apparatus can easily detect the positional deviation based only on the outside image. Such a technique is described in
なお、このような画像表示装置は、カメラの光軸の位置ズレを検知する機能を備えているため検知装置であるともいえる。従って、以降、検知装置として説明をする。 Note that such an image display device can be said to be a detection device because it has a function of detecting a positional shift of the optical axis of the camera. Accordingly, the following description will be given as a detection device.
しかし、そのような検知装置は、車外画像に映る車両の一部分を基準にしてその位置ズレ検知を行うため、車外画像において車両の一部分が映るようにカメラを車両に搭載させる必要がある。つまり、カメラの車両に対する搭載位置が制約されてしまうという問題がある。 However, since such a detection apparatus detects the positional deviation based on a part of the vehicle shown in the vehicle outside image, it is necessary to mount a camera on the vehicle so that a part of the vehicle appears in the vehicle outside image. That is, there is a problem that the mounting position of the camera with respect to the vehicle is restricted.
本発明は、上記課題に鑑みてなされたものであり、カメラの車両に対する搭載位置が制約されず、かつ、カメラが撮影した車外画像のみに基づいてカメラの位置ズレを簡易に検知できる技術を提供することを目的とする。 The present invention has been made in view of the above problems, and provides a technique capable of easily detecting a positional shift of a camera based on only an image outside the vehicle captured by the camera without limiting the mounting position of the camera with respect to the vehicle. The purpose is to do.
上記課題を解決するため、請求項1の発明は、車両の前方及び後方の何れかに搭載されたカメラの光軸の位置ズレを検知する検知装置であって、前記カメラが撮影した時間的に連続する複数の車外画像の夫々に含まれる他の車両の像に基づいて、前記他の車両の停車を判断する判断手段と、前記他の車両の停車が判断された場合に、前記車外画像中の前記他の車両の像の停止位置を導出する導出手段と、導出された前記停止位置と基準停止位置とを比較した結果に基づいて前記位置ズレを検知する検知手段と、を備えることを特徴とする。
In order to solve the above-mentioned problem, the invention of
また、請求項2の発明は、請求項1に記載の検知装置において、前記判断手段は、前記複数の車外画像の夫々に含まれる前記他の車両の像の変化に基づいて前記他の車両の停車を判断することを特徴とする。 According to a second aspect of the present invention, in the detection apparatus according to the first aspect, the determination unit is configured to detect the other vehicle based on a change in the image of the other vehicle included in each of the plurality of outside-vehicle images. It is characterized by determining stop.
また、請求項3の発明は、請求項2に記載の検知装置において、前記判断手段は、前記変化を前記他の車両の像の特徴点に基づいて判断することを特徴とする。 According to a third aspect of the present invention, in the detection apparatus according to the second aspect, the determination unit determines the change based on a feature point of an image of the other vehicle.
また、請求項4の発明は、請求項2又は3の何れかに記載の検知装置において、前記判断手段は、前記変化がなくなった場合に前記他の車両の停車を判断し、前記導出手段は、前記変化がなくなった場合の前記他の車両の像の位置を前記停止位置として導出することを特徴とする。 According to a fourth aspect of the present invention, in the detection device according to the second or third aspect, the determination unit determines that the other vehicle is stopped when the change is lost, and the derivation unit includes: The position of the image of the other vehicle when the change disappears is derived as the stop position.
また、請求項5の発明は、請求項2又は3の何れかに記載の検知装置において、前記判断手段は、前記変化が始まる直前を前記他の車両の停車であると判断し、前記導出手段は、前記変化が始まる直前の前記他の車両の像の位置を前記停止位置として導出することを特徴とする。 According to a fifth aspect of the present invention, in the detection device according to the second or third aspect, the determination unit determines that the vehicle immediately before the change is a stop of the other vehicle, and the derivation unit. Is characterized in that the position of the image of the other vehicle immediately before the start of the change is derived as the stop position.
また、請求項6の発明は、請求項1乃至5の何れかに記載の検知装置において、前記車両が停車している場合に前記導出手段を有効化させる有効化手段を更に備えることを特徴とする。
The invention according to
また、請求項7の発明は、請求項1乃至6の何れかに記載の検知装置において、前記基準停止位置は、前記カメラが車両の適切な位置へ搭載されたときから所定期間を経過するまでに、複数回にわたって前記導出手段によって導出された前記停止位置の統計データに基づいて設定されることを特徴とする。
The invention according to
また、請求項8の発明は、請求項1乃至7の何れかに記載の検知装置において、前記検知手段は、現在から過去の所定期間以内に複数回にわたって前記導出手段によって導出された前記停止位置の統計データに基づく値を、前記基準停止位置との比較に用いることを特徴とする。
The invention according to claim 8 is the detection apparatus according to any one of
また、請求項9の発明は、車両の前方及び後方の何れかに搭載されたカメラの光軸の位置ズレを検知する検知方法であって、(a)前記カメラが撮影した時間的に連続する複数の車外画像の夫々に含まれる他の車両の像に基づいて、前記他の車両の停車を判断する工程と、(b)前記他の車両の停車が判断された場合に、前記車外画像中の前記他の車両の像の停止位置を導出する工程と、(c)導出された前記停止位置と基準停止位置とを比較した結果に基づいて前記位置ズレを検知する工程と、を備えることを特徴とする。 The invention according to claim 9 is a detection method for detecting a positional deviation of an optical axis of a camera mounted either on the front side or the rear side of a vehicle, and (a) continuous in time taken by the camera. A step of determining stopping of the other vehicle based on an image of another vehicle included in each of the plurality of images outside the vehicle; and (b) when the stop of the other vehicle is determined, Deriving a stop position of the image of the other vehicle, and (c) detecting the positional deviation based on a result of comparing the derived stop position with a reference stop position. Features.
請求項1ないし9の発明によれば、カメラが撮影した時間的に連続する複数の車外画像の夫々に含まれる他の車両の像に基づいて、他の車両の停車を判断するため、その停止を車外画像のみで簡易に判断することができる。 According to the first to ninth aspects of the present invention, the stop of the other vehicle is determined based on the image of the other vehicle included in each of a plurality of temporally continuous images taken by the camera. Can be easily determined from only the outside image.
更に、他の車両の停車を判断した場合に、導出した車外画像中の他の車両の像の停止位置と基準停止位置とを比較した結果に基づいてカメラの光軸の位置ズレを検知するため、車外画像のみに基づいてその位置ズレを簡易に検知することができる。 Further, when it is determined that the other vehicle is stopped, the positional deviation of the optical axis of the camera is detected based on the result of comparing the stop position of the image of the other vehicle in the derived outside image and the reference stop position. The positional deviation can be easily detected based only on the outside image.
また、請求項2の発明によれば、カメラが撮影した複数の車外画像の夫々に含まれる他の車両の像の変化に基づいて他の車両の停車を判断するため、その停車を車外画像のみに基づいて簡易に判断することができる。 According to the second aspect of the present invention, since the stop of the other vehicle is determined based on the change in the image of the other vehicle included in each of the plurality of outside images taken by the camera, the stop is performed only for the outside image. It can be easily determined based on the above.
また、請求項3の発明によれば、他の車両の像の変化を他の車両の特徴点に基づいて判断するため、その判断する処理負荷を低減させることができる。
According to the invention of
また、請求項4の発明によれば、他の車両の像の変化がなくなった場合に他の車両の停車を判断するとともに、その変化がなくなった場合の車外画像中の他の車両の像の位置を他の車両の像の停止位置とするため、その停止位置をより精度良く導出できる。
According to the invention of
また、請求項5の発明によれば、他の車両の像の変化が始まる直前を他の車両の停止と判断するとともに、その変化が始まる直前の車外画像中の他の車両の像の位置を他の車両の像の停止位置とするため、その停止位置をより精度良く導出できる。
According to the invention of
また、請求項6の発明によれば、車両が停止している場合に、他の車両の像の停止位置を導出するため、他の車両の像の停止位置をより精度良く導出できる。 According to the sixth aspect of the present invention, since the stop position of the image of the other vehicle is derived when the vehicle is stopped, the stop position of the image of the other vehicle can be derived with higher accuracy.
また、請求項7の発明によれば、基準停止位置は、カメラが車両の適切な位置へ搭載されたときから所定期間を経過するまでに、複数回にわたって導出された停止位置の統計データに基づいて設定されるため、より精度良くその位置ズレの検知ができる。
According to the invention of
また、請求項8の発明によれば、前記検知手段は、現在から過去の所定期間内に複数回にわたって導出された停止位置の統計データに基づく値を基準停止位置との比較に用いるため、より精度良くその位置ズレの検知ができる。 Further, according to the invention of claim 8, the detection means uses a value based on statistical data of the stop position derived a plurality of times within a predetermined period in the past from the present for comparison with the reference stop position. The displacement can be detected with high accuracy.
以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<第1の実施の形態>
図1は、第1の実施の形態の検知装置のシステムブロック図である。この検知装置2は、車両1の前方に搭載されたフロントカメラ3の光軸の位置ズレを検知する処理を実行する。そして、検知装置2は、そのズレを検知した場合にその旨を知らせる処理を実行する。
<First Embodiment>
FIG. 1 is a system block diagram of the detection apparatus according to the first embodiment. The
なお、検知装置2は、車両1の側方、前方、後方に搭載されたカメラが撮影した車外画像に基づいて合成画像を生成する処理を実行する。従って、検知装置2は画像処理装置であるともいえる。
In addition, the
検知装置2が実行するこれらの処理を説明するために、まず、図1に基づいて検知装置2の構成を説明する。
In order to describe these processes executed by the
(検知装置の構成)
検知装置2は、フロントカメラ3、左サイドカメラ4、右サイドカメラ5、リヤカメラ6(以降において、全てのカメラを単体で説明する場合はカメラ3〜6という)、車速センサ7、シフトポジションセンサ8、ディスプレイ9、及び、音出力部10などとケーブルによって電気的に接続されている。
(Configuration of detection device)
The
図1のシステムブロック図に示すように検知装置2は、画像処理部21、制御部27、入力部20、及び、出力部29などを備える。
As shown in the system block diagram of FIG. 1, the
画像処理部21は、例えば、ASICなどのハード回路である。画像処理部21は、合成画像生成部22、判断部23、導出部24、検知部25、及び、記憶部26などを備える。
The
合成画像生成部22は、カメラ3〜6が撮影した車外画像に基づいて合成画像を生成する処理を実行する(以降、合成画像生成部22が実行するこの処理を合成画像生成処理という)。合成画像生成処理の詳細については後述する。
The composite
判断部23は、フロントカメラ3が撮影した時間的に連続する複数の車外画像に含まれる他の車両の像に基づいて、他の車両の停車を判断する処理を実行する(以降、判断部23が実行するこの処理を判断処理という)。判断処理の詳細については後述する。
The
導出部24は、判断部23が判断処理を実行したことにより他の車両の停車が判断された場合に、車外画像中の他の車両の像の停止位置を導出する処理を実行する(以降、導出部24が実行するこの処理を導出処理という)。導出処理の詳細については後述する。
The deriving
検知部25は、フロントカメラ3の光軸の位置ズレを検知する処理を実行する(以降、検知部25が実行するこの処理を検知処理という)。検知処理の詳細については後述する。
The
記憶部26は、検知部25が検知処理を実行する際に利用する基準停止位置などのデータを記憶する。
The
制御部27は、例えば、マイクロコンピュータなどを備える。マイクロコンピュータは、例えば、CPU、ROM、及び、RAMなどを備える。CPUは、ROMに記憶された種々のプログラムに従って演算処理を行うことで種々の機能を実現させる。また、制御部27は、報知部28などを備えている。
The control unit 27 includes, for example, a microcomputer. The microcomputer includes, for example, a CPU, a ROM, a RAM, and the like. The CPU realizes various functions by performing arithmetic processing according to various programs stored in the ROM. The control unit 27 includes a
報知部28は、フロントカメラ3の光軸の位置ズレを検知部25が検知した場合に、その旨をディスプレイ9に表示させるとともに、音出力部10を制御することによって音を出力してユーザへその旨を知らせる処理を実行する(以降、報知部28が実行するこの処理を報知処理という)。報知処理の詳細については後述する。
When the
入力部20は、例えば、外部装置と電気的に接続されるインターフェースである。入力部20は、カメラ3〜6が撮影した車外画像を画像処理部21及び制御部27などへ入力させる処理を実行する。
The
出力部29は、例えば、外部装置と電気的に接続されるインターフェースである。出力部29は、画像処理部21が処理した車外画像などをディスプレイ9へ出力して表示させる処理を実行する。
The
ディスプレイ9は、車両1の運転席と助手席との間のセンターコンソール上部に備わっている。
The display 9 is provided in the upper part of the center console between the driver's seat and the passenger seat of the
フロントカメラ3は、図2に示すように車両1の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸は車両1の前進方向へ向けられている。
As shown in FIG. 2, the
左サイドカメラ4は、図2に示すように左サイドミラー30に設けられており、その光軸は車両1の前進方向を基準にした左方向に沿って外部へ向けられている。
As shown in FIG. 2, the
右サイドカメラ5は、図2に示すように右サイドミラー31に設けられており、その光軸は車両1の前進方向を基準にした右方向に沿って外部へ向けられている。
As shown in FIG. 2, the
リヤカメラ6は、図2に示すように車両1の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸は車両1の前進方向の逆方向へ向けられている。
As shown in FIG. 2, the
なお、フロントカメラ3やリヤカメラ6の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
Note that the attachment position of the
カメラ3〜6のレンズとしては魚眼レンズが採用されており、その魚眼レンズは180度以上の画角を有している。このため、カメラ3〜6を利用することで、車両1の全周囲の撮影が可能となっている。
A fisheye lens is employed as the lens of the
車速センサ7は、車両1が移動した際に車輪が回転する速度を車速信号として検知装置2へ出力する。車速センサ7は、車両1のエンジンルーム内に設置される。
The
シフトポジションセンサ8は、車両1に備わる変速ギヤを変更するシフトがユーザによって操作可能になっており、このシフトポジションを検知してシフトポジションを示す信号を検知装置2へ出力する。シフトポジションセンサ8は、車両1のセンターコンソール中央部に備わるシフトレバー近傍に設定される。
The shift position sensor 8 can be operated by a user to shift to change the transmission gear provided in the
次に、画像処理部21が備える各部が実行する「合成画像生成処理」、「判断処理」、「導出処理」、及び、「検知処理」、並びに、制御部27が備える報知部28が実行する「報知処理」の詳細について説明する。
Next, the “composite image generation process”, “determination process”, “derivation process”, and “detection process” executed by each unit included in the
(合成画像生成処理)
まず、合成画像生成部22が実行する合成画像生成処理について説明する。
(Composite image generation processing)
First, the composite image generation process executed by the composite
合成画像生成部22は、カメラ3〜6が撮影した、図4に示すような、車外画像G1〜G4をカメラ3〜6より取得する。合成画像生成部22は、取得した車外画像G1〜G4を検知装置2へ出力する。
The composite
検知装置2は、入力した車外画像G1〜G4を記憶部26へ記憶する。
The
検知装置2が備える合成画像生成部22は、記憶部26に記憶された、車外画像G1〜G4を、図5に示すような、仮想的な三次元空間における立体曲面Pに投影する。立体曲面Pは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両1が存在する位置として定められている。車外画像G1〜G4に含まれる各画素の位置と、この立体曲面Pの各画素の位置とは予め対応関係が定められている。このため、立体曲面Pの各画素の値は、この対応関係と車外画像G1〜G4に含まれる各画素の値とに基づいて決定される。
The composite
車外画像G1〜G4の各画素の位置と立体曲面Pの各画素の位置との対応関係は、車両1における4つの車載カメラであるカメラ3〜6の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、記憶部26に記憶された車種別データに含まれている。
The correspondence between the positions of the pixels in the images G1 to G4 outside the vehicle and the positions of the pixels on the three-dimensional curved surface P is determined by the arrangement of the
また、車種別データに含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両1の三次元形状を示すポリゴンモデルである車両1の像が仮想的に構成される。構成された車両1の像は、立体曲面Pが設定される三次元空間において、車両1の位置と定められた略半球状の中心部分に配置される。
Further, polygon data indicating the shape and size of the vehicle body included in the vehicle type data is used, and an image of the
さらに、立体曲面Pが存在する三次元空間に対して、合成画像生成部22により仮想視点AGLが設定される。仮想視点AGLは、視点位置と視野方向とで規定され、この三次元空間における車両1の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。
Furthermore, the virtual viewpoint AGL is set by the composite
そして、設定された仮想視点AGLに応じて、立体曲面Pにおける必要な領域が画像として切り出される。仮想視点AGLと、立体曲面Pにおける必要な領域との関係は予め定められており、テーブルデータとして記憶部26等に予め記憶されている。一方で、設定された仮想視点AGLに応じてポリゴンのモデルに関してレンダリングがなされ、その結果となる二次元の車両1の像が、切り出された画像に対して重畳される。これにより、車両1及びその車両1の周辺を任意の仮想視点AGLからみた様子を示す合成画像が生成されることになる。
Then, according to the set virtual viewpoint AGL, a necessary area on the three-dimensional curved surface P is cut out as an image. The relationship between the virtual viewpoint AGL and the necessary area on the three-dimensional curved surface P is determined in advance, and is stored in advance in the
例えば、視点位置が車両1の位置の略中央の直上で、視野方向が直下方向とした仮想視点AGL1を設定した場合は、車両1の略直上から車両1を見下ろすように、車両1及び車両1の周辺の領域を示す合成画像G5が生成される。また、図中に示すように、視点位置が車両1の位置の左後方で、視野方向が車両1における略前方方向とした仮想視点AGL2を設定した場合は、車両1の左後方からその周辺全体を見渡すように、車両1及び車両1の周辺の領域を示す合成画像G6が生成される。
For example, when the virtual viewpoint AGL1 in which the viewpoint position is just above the center of the position of the
なお、実際に合成画像を生成する場合においては、立体曲面Pの全ての画素の値を決定する必要はなく、設定された仮想視点AGLに対応して必要となる領域の画素の値のみを車外画像G1〜G4に基づいて決定することで、処理速度を向上できる。 In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface P, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint AGL are outside the vehicle. By determining based on the images G1 to G4, the processing speed can be improved.
検知装置2では、このような合成画像生成部22の機能を利用することで、車両1の周辺の任意の視点からみた合成画像を生成して、ディスプレイ9へ生成した合成画像を出力して表示させることができる。
In the
(判断処理)
次に、判断部23が実行する判断処理について説明する。
(Judgment process)
Next, determination processing executed by the
判断処理とは、フロントカメラ3が撮影した時間的に連続する複数の車外画像に含まれる他の車両1の像に基づいて、他の車両の停車を判断する処理である。
The determination process is a process of determining the stop of another vehicle based on images of the
判断処理をより具体的に説明する。まず、複数の車外画像夫々に含まれる他の車両の像を判断部23が抽出する。図6は、複数の車外画像のうち一の車外画像に含まれる他の車両Cを判断部23が抽出する方法を説明する図である。
The determination process will be described more specifically. First, the
なお、説明の便宜上、図中において車外画像の左右方向をX軸方向、車外画像の前後方向をY軸方向として方向を示す。 For convenience of explanation, in the figure, the left-right direction of the vehicle exterior image is the X-axis direction, and the front-rear direction of the vehicle exterior image is the Y-axis direction.
フロントカメラ3が撮影した車外画像G7aを判断部23が入力する。そして、入力した車外画像G7aに対して例えば、ソベルフィルタなどの処理を施して車外画像G7aに含まれる物体のエッジを抽出する。
The
次に、車外画像G7bの左右中央の近傍に含まれる物体の像のエッジを判断部23が抽出する。具体的には、図6に示す車外画像G7bに含まれる複数の矢印線が示すように、車外画像G7bの横方向(図6に示すX軸の+方向)の輝度の差を分析してそのエッジを抽出する処理を判断部23が縦方向へ複数回繰り返し実行する。
Next, the
次に、車外画像G7cの左右中央の近傍に含まれる物体の像のエッジを判断部23が抽出する。具体的には、図6に示す車外画像G7cに含まれる複数の矢印線が示すように、車外画像G7cの縦方向(図6に示すY軸の−方向)の輝度の差を分析してそのエッジを抽出する処理を判断部23が横方向へ複数回繰り返し実行する。
Next, the
次に、車外画像G7bで抽出した車外画像の左右中央の近傍に含まれる物体の像のエッジ及び車外画像G7cで抽出した車外画像の左右中央の近傍に含まれる物体の像のエッジが重複するポイントを判断部23が抽出する。これにより、判断部23が、車外画像G7dの左右中央の近傍に含まれる物体の像の角のポイントを抽出することができる。この物体の像の角のポイントはその物体の特徴点であるともいえる。
Next, the point where the edge of the object image included in the vicinity of the left and right center of the vehicle outside image extracted in the vehicle outside image G7b and the edge of the object image included in the vicinity of the center of the vehicle outside image extracted in the vehicle outside image G7c overlap. Is extracted by the
次に、車外画像G7dの左右中央の近傍に含まれる物体の像の角のポイントを線により繋いで定まる領域を判断部23が抽出する。
Next, the
車外画像の左右中央の近傍において含まれる物体の像に基づく領域を抽出する理由は、他の車両Cに基づく領域のみを目的として抽出するためであり、車外画像G7dにおいて車両1の前方を走行する他の車両Cの像がよく映る位置は、車外画像G7dの左右中央の近傍だからである。
The reason for extracting the region based on the image of the object included in the vicinity of the left and right center of the vehicle outside image is to extract only the region based on the other vehicle C, and travels ahead of the
なお、車外画像G7dは、他の車両Cを表しやすいように建物の像などの他の物体を省略している。 In addition, in the outside image G7d, other objects such as a building image are omitted so as to easily represent the other vehicle C.
車外画像G7dの左右中央の近傍に存在する領域の定め方について、図7に基づいてより具体的に説明する。 A method for determining a region existing in the vicinity of the left and right center of the outside-vehicle image G7d will be described more specifically with reference to FIG.
まず、図7のSS1に示すように、他の車両Cの像に含まれる全ての角のポイントを判断部23が抽出する。
First, as shown in SS1 of FIG. 7, the
そして、図7のSS2に示すように、全ての角のポイントのうち横方向(図7に示すX軸の+方向及び−方向)の最も端側のポイントを含んだ矩形を成す車外画像の横方向(図7に示すX軸)と平行する線L1を判断部23が抽出する。
Then, as shown in SS2 of FIG. 7, the lateral image of the outside image forming a rectangle including the most end point in the horizontal direction (the X direction + direction and − direction shown in FIG. 7) among all corner points. The
そして、図7のSS2に示すように、全ての角のポイントのうち縦方向(図7に示すY軸の+方向及び−方向)の最も端側のポイントを含んだ矩形を成す車外画像の縦方向(図7に示すY軸)と平行する線L2を判断部23が抽出する。
Then, as shown at SS2 in FIG. 7, the vertical direction of the outside image that forms a rectangle including the most end point in the vertical direction (the + direction and the − direction of the Y axis shown in FIG. 7) among all the corner points. The
そして、図7のSS3に示すように、それらの線L1、L2から構成される矩形の領域Sを判断部23が抽出する。
Then, as shown by SS3 in FIG. 7, the
以上のような抽出処理を、図8に示す、フロントカメラ3が撮影した時間的に連続する複数の車外画像G7〜G10の全てに対して判断部23が実行する。つまり、車外画像G7〜G10の夫々に含まれる他の車両Cの像に基づいて矩形の領域S1〜S4を判断部23が抽出する。
The above-described extraction process is performed by the
なお、車外画像G7〜G10は、矩形の領域S1〜S4を表しやすいように建物の像などの他の物体を省略している。 In addition, other objects, such as an image of a building, are abbreviate | omitted so that it may be easy to represent the rectangular area | regions S1-S4 from the vehicle outside images G7-G10.
そして、複数の車外画像G7〜G10夫々に含まれる他の車両Cの像に基づいて抽出された複数の矩形の領域S1〜S4に基づいて、矩形の領域の大きさの変化を導出部24が解析する。
And the derivation | leading-out
図8に示すように、矩形の領域Sが領域S1からS4へと大きくなって変化し、その変化がなくなったことを解析した場合で、かつ、車速センサ7から受信する信号に基づいて車両1の像が停止していることを判断した場合に、他の車両Cの停車を判断部23が判断する。
As shown in FIG. 8, the
なお、領域S1からS4へと大きくなって変化しその変化がなくなった場合とは、ユーザが車両1を前方に停車している他の車両Cの後ろまで移動させて停車させた場合である。
In addition, the case where it changes from area | region S1 to S4 and it changes and the change is lose | eliminated is a case where the user moves the
また、判断部23によるその判断において、車両1が停車していることの条件が必要な理由は、車両1と前方の他の車両1とが等速で走行していると、その変化がしなくなる場合があり、車外画像のみではこの場合もその判断を行ってしまう虞があるからである。
In addition, in the determination by the
このような処理、つまり、フロントカメラ3が撮影した時間的に連続する複数の車外画像に含まれる他の車両Cに基づいて抽出される矩形の領域Sはその形状が単純であるため、判断部23は矩形の領域Sの大きさの変化を解析する処理の負荷を低減することができる。また、判断部23は矩形の領域Sの大きさの変化に基づく他の車両Cの停車の判断についての精度を向上させることができる。
Since the rectangular region S extracted based on the other vehicle C included in a plurality of temporally continuous images taken by the
また、車外画像の左右中央の近傍に含まれる他の車両Cの変化に基づいて他の車両Cの停車を判断する理由は、車外画像の左右中央の近傍において、他の車両Cの像が動いている状態から停止している状態へ遷移したことによって他の車両Cの停車を判断すれば、前方の物体が他の車両Cであること及びその停車であることを精度良く推定できるからである。 Further, the reason for determining the stop of the other vehicle C based on the change of the other vehicle C included in the vicinity of the left and right center of the outside image is that the image of the other vehicle C moves in the vicinity of the left and right center of the outside image. This is because if the stop of the other vehicle C is determined by the transition from the stopped state to the stopped state, it can be accurately estimated that the object ahead is the other vehicle C and the stop. .
(導出処理)
次に、導出部24が実行する導出処理について説明する。
(Derivation process)
Next, the derivation process executed by the
導出処理とは、判断部23が実行した導出処理によって他の車両Cの停車が判断された場合に、車外画像中の他の車両Cの像の停止位置を導出する処理である。
The derivation process is a process of deriving the stop position of the image of the other vehicle C in the outside image when the stop of the other vehicle C is determined by the derivation process executed by the
導出処理をより具体的に説明する。判断部23が実行した判断処理によって他の車両Cの停車が判断されたときの車外画像に含まれる他の車両1の像の車外画像中の停止位置を導出する。つまり、図8に示される矩形の領域Sが、領域S1からS4へと変化して、その変化がなくなった矩形の領域S、即ち、領域S4が含まれる車外画像G10中の矩形の領域S4の位置を導出部24が導出する。
The derivation process will be described more specifically. The stop position in the image outside the vehicle of the image of the
つまり、車外画像G10中の他の車両Cに基づいて抽出された矩形の領域S4の下方(図8に示すY軸−方向)の2つの角のポイントP1、P2を導出部24が導出する。
That is, the deriving
矩形の領域S4の下の2つの角のポイントP1、P2を導出部24が導出する理由は、その2つの角のポイントP1、P2は車種が異なっても路面との位置関係が略同じとなる車両に備わるバンパーやタイヤの近傍であるからである。より詳しく言えば、フロントカメラ3の光軸の位置が適切に設定されていれば、その2つの角のポイントP1、P2P1、P2が車外画像中において出現する位置は毎回略同じ位置に出現するため、その2つの角のポイントの位置に基づけば、後述する検知処理によって検知されるフロントカメラ3の光軸の位置ズレを検知することができるからである。
The reason why the
(検知処理)
次に、検知部25が実行する検知処理について説明する。
(Detection process)
Next, detection processing executed by the
検知処理とは、導出部24が導出処理を実行することにより導出した車外画像中の他の車両Cの像の停止位置と、基準停止位置とを比較した結果に基づいてフロントカメラ3の光軸の位置ズレを検知する処理である。
The detection process refers to the optical axis of the
検知処理をより具体的に説明する。まず、基準停止位置について具体的に説明する。フロントカメラ3の光軸の位置が、検知装置2の機能が発揮できるよう車両1の適切な位置に設定されている場合に、フロントカメラ3が撮影した車外画像中の他の車両Cの像の停止位置を所定の期間(例えば、2ヶ月)にわたって検知部25が記録する。そして、記録したその停止位置の統計データに基づいて検知部25が基準停止位置を設定する。
The detection process will be described more specifically. First, the reference stop position will be specifically described. When the position of the optical axis of the
図9は停止位置とその発生数、即ち、度数との関係を示す統計データであるヒストグラムSDを示している。例えば、図9に示すように、ヒストグラムSDにおいて度数が比較的多い部分の範囲にある停止位置を基準停止位置BSPとして検知部25が設定する。
FIG. 9 shows a histogram SD which is statistical data indicating the relationship between the stop position and the number of occurrences, that is, the frequency. For example, as illustrated in FIG. 9, the
基準停止位置BSPをこのような統計データに基づいて設定する理由は、停車した車両1と前方に停車する他の車両Cとの車間距離は、運転するユーザによって異なるとともに基準停止位置BSPもユーザによって異なるため、ユーザに応じた基準停止位置BSPを設定する必要があるからである。
The reason why the reference stop position BSP is set based on such statistical data is that the inter-vehicle distance between the stopped
このように設定された基準停止位置BSPと、所定の期間を経過した後に他の車両Cの停止が判断された場合に、導出された車外画像中の他の車両Cの像の停止位置とを検知部25が比較する。停止位置が基準停止位置BSPの何れかと比較して一致しないという比較結果が所定回数(例えば、10回)よりも多くなった場合は、検知部25はフロントカメラ3の光軸の位置ズレを検知する。
The reference stop position BSP set in this way and the stop position of the image of the other vehicle C in the derived outside image when it is determined that the other vehicle C has stopped after a predetermined period has elapsed. The
その一致しないという比較結果が所定回数よりも多い場合にその位置ズレを検知する理由は、同一のユーザであっても前方に停車する他の車両Cとの車間距離を常に一定にして車両1を停車させるとは限らないからである。
The reason why the positional deviation is detected when the comparison result that there is no coincidence is greater than the predetermined number of times is that the
このような処理、つまり、基準停止位置BSPの何れかと、他の車両Cの停車が判断された場合に、導出された車外画像中の他の車両Cの像の停止位置とが一致しないという比較結果が所定回数より多い場合に、フロントカメラ3の光軸の位置ズレを検知する検知処理を実行するため、検知部25はその位置ズレの検知精度を向上させることができる。
Such a process, that is, a comparison that any one of the reference stop positions BSP and the stop position of the image of the other vehicle C in the derived outside image does not match when the stop of the other vehicle C is determined. When the result is more than the predetermined number of times, since the detection process for detecting the positional deviation of the optical axis of the
(報知処理)
次に、報知部28が実行する報知処理について説明する。検知処理を実行することによってフロントカメラ3の光軸の位置ズレを検知した場合に、検知部25は報知部28へその旨を示す信号を送信する。
(Notification process)
Next, the notification process performed by the
その旨を示す信号を受信した場合に、報知部28は音出力部及びディスプレイ9の何れかを制御してユーザへフロントカメラ3の光軸の位置がズレていることを知らせる。
When a signal indicating that is received, the
以上に説明した、判断処理、導出処理、検知処理、及び、報知処理を検知装置2が備える各部が実行することにより、検知装置2は車外画像のみに基づいてその位置ズレを簡易に検知することができる。
By executing the determination process, the derivation process, the detection process, and the notification process, which are described above, by each unit included in the
(制御フロー)
次に、検知装置2が実行する制御フローについて説明する。
検知装置2は、ユーザにより電源が投入されて、その機能を開始させる開始ボタンが操作された場合に、図11に示す第1フローを所定の周期(以降、第1の周期という)で実行する。また、検知装置2は、その場合に図12に示す第2フローを第1の周期よりも長い周期(以降、第2の周期という)で実行する。
(Control flow)
Next, a control flow executed by the
The
なお、第1の周期は、例えば、10msであり、第2の周期は、例えば、20msである。 The first cycle is, for example, 10 ms, and the second cycle is, for example, 20 ms.
(第1フロー)
検知装置2は、第1の周期ごとに図11に示す第1フローのステップSA1の処理を実行する。
(First flow)
The
制御部27は、シフトポジションセンサ8からシフトポジションが”R”を示す信号を受信したか否かを判定する(ステップSA1)。 The control unit 27 determines whether or not a signal indicating that the shift position is “R” has been received from the shift position sensor 8 (step SA1).
シフトポジションが”R”を示す信号を受信した旨の信号を制御部27から受信した場合は、合成画像生成部22は前述した合成画像生成処理を実行する。(ステップSA2)。これにより、合成画像生成部22は車両1を仮想的に俯瞰した合成画像を生成する。
When the signal indicating that the signal indicating that the shift position is “R” has been received from the control unit 27, the composite
次に、合成画像生成部22はその合成画像をディスプレイ9へ表示する処理を実行する(ステップSA3)。
Next, the composite
つまり、ユーザがシフトポジションを”R”にして車両1を後進させる際に、検知装置2がユーザに対し合成画像を表示する。このため、ユーザは車両1を後進させる際に認識しにくい車両1の周辺の障害物を認識することができる。
That is, when the user reverses the
次に、検知装置2は図11に示す第2フローに基づく処理を終了する。
Next, the
なお、シフトポジションが”R”を示す信号を受信した旨の信号を制御部27から受信しない場合は、検知装置2は図11に示す第2フローに基づく処理を終了する。
Note that when the signal indicating that the signal indicating that the shift position is “R” has not been received from the control unit 27, the
(第2フロー)
検知装置2は、第2の周期ごとに図12に示す第2フローのステップSB1の処理を実行する。
(Second flow)
The
まず、フロントカメラ3が撮影した時間的に連続する複数の車外画像を入力部20を介して画像処理部21が入力する(ステップSB1)。複数の車外画像は一時的に記憶部26が記憶する。
First, the
次に、記憶部26によって記憶されている複数の車外画像に基づいて、前述した判断処理を実行することによって、他の車両Cの停車の判断を判断部23が実行する(ステップSB2)。
Next, based on the plurality of outside images stored in the
次に、車速センサから受信する信号に基づいて車両1が停車したか否かを制御部27が判断する(ステップSB3)。例えば、車速センサから受信する信号に基づいて車速が0km/hであるか否かを制御部27が判断する。更に、シフトポジションセンサ8から受信する信号に基づいて車両1が停車したか否かを制御部27が判断しても良い。例えば、シフトポジションセンサ8から受信する信号に基づいてシフトポジションが”N”及び、”P”の何れかであるか否かを制御部27が判断する。
Next, the control unit 27 determines whether the
制御部27によって車両1が停車していると判断された場合(ステップSB4においてYESの場合)に、前述した導出処理を実行することによって、車外画像中の他の車両Cの像の停止位置を導出部24が導出する(ステップSB4)。つまり、車両1が停車していると判断した場合に、制御部27は導出部24による導出処理を有効化させる。
When it is determined by the control unit 27 that the
次に、導出された停止位置と基準停止位置とに基づいて、前述した検知処理を検知部25が実行する(ステップSB5)。
Next, based on the derived stop position and reference stop position, the
検知部が実行する検知処理に基づいて停止位置が基準停止位置と一致しない場合(ステップSB5においてNOの場合)に、制御部27はカウンタCTをカウントアップする(ステップSB6)。なお、このカウンタCTは検知装置2が備える開始ボタンを操作された場合に0にされる。
When the stop position does not coincide with the reference stop position based on the detection process executed by the detection unit (NO in step SB5), the control unit 27 counts up the counter CT (step SB6). The counter CT is set to 0 when a start button provided in the
カウンタCTが所定の回数XT(例えば、10回)より多い場合(ステップSB7においてYESの場合)に報知部28が前述した報知処理を実行して、フロントカメラ3の光軸がズレたことをユーザへ知らせる(ステップSB8)。
When the counter CT is greater than a predetermined number of times XT (for example, 10 times) (in the case of YES in step SB7), the
停止位置と基準停止位置とが一致しない場合にカウンタCTをカウントアップして、カウンタCTが所定回数XTより多い場合にユーザへその位置ズレを検知をしたことを報知する理由は、ユーザが前方の他の車両Cとの車間距離を気分的に通常よりも広くして駐車したような場合にユーザへその報知がされないようにするためである。 The reason why the counter CT is counted up when the stop position and the reference stop position do not coincide with each other and when the counter CT exceeds the predetermined number of times XT is notified to the user that the positional deviation has been detected is This is to prevent the user from being notified when the vehicle is parked with the distance between the other vehicles C being larger than usual.
なお、ステップSB3において車両1が停車していると判断しない場合(ステップSB4においてNOの場合)、ステップSB5において停止位置が基準停止位置と一致する場合(ステップSB5においてYESの場合)、及び、ステップSB7においてカウンタCTが所定の回数XTより多くない場合(ステップSB7においてNOの場合)は、検知装置2はその処理を終了する。
If it is not determined in step SB3 that the
以上のような、処理を実行することにより、検知装置2はフロントカメラ3が撮影した複数の車外画像の夫々に含まれる他の車両Cの像に基づいて、他の車両Cの停車を判断するため、その停車を車外画像のみに基づいて簡易に判断することができる。
By executing the processing as described above, the
更に、検知装置2は、他の車両Cの停車を判断した場合に、導出した車外画像中の他の車両Cの像の停止位置と基準停止位置とを比較した結果に基づいてフロントカメラ3の光軸の位置ズレを検知するため、車外画像のみに基づいてその位置ズレを簡易に検知することができる。
Further, when the
<第2の実施の形態>
次に、第2の実施の形態について説明する。なお、以降の説明においては、第1の実施の形態と第2の実施の形態とにおいて相違する点を主に説明する。
<Second Embodiment>
Next, a second embodiment will be described. In the following description, differences between the first embodiment and the second embodiment will be mainly described.
第1の実施の形態において、判断処理は、「図8に示す矩形の領域Sが領域S1からS4へと大きくなって変化し、その変化がなくなったことを解析して他の車両Cの停車を判断部23が判断する。なお、領域S1からS4へと大きくなって変化しその変化がなくなった場合とは、ユーザが車両1を前方に停車している他の車両Cの後ろまで移動させて停車させた場合である。」と説明した。
In the first embodiment, the determination process is as follows: “A rectangular region S shown in FIG. 8 changes from the region S1 to S4 and changes, and the change is lost and the other vehicle C stops. The
第2の実施の形態の判断処理においては、図12に示す矩形の領域Sが領域S1XからS4Xへと小さくなって変化し、その変化がなくなったことを解析した場合で、かつ、車速センサ7から受信する信号に基づいて車両1が停車していることを判断した場合に、他の車両Cの停車を判断部23が判断する。
In the determination process according to the second embodiment, the rectangular area S shown in FIG. 12 is changed from the area S1X to the area S4X, and the
なお、領域S1XからS4Xへと小さくなって変化しその変化がなくなった場合とは、ユーザが停車させている車両1の前方に停車している他の車両Cが発進して遠のいて行く場合である。
In addition, the case where it changes small from area | region S1X to S4X, and the change is lose | eliminated is the case where the other vehicle C stopped ahead of the
このような場合において、複数の車外画像に基づいて解析したその変化が始まる直前にフロントカメラ3が撮影した車外画像に含まれる他の車両Cの像の車外画像中の停止位置を導出部24が導出する。
In such a case, the deriving
以上のような処理を判断部23及び導出部24が実行することによって、ユーザが停車させている車両1の前方に停車している他の車両Cが発進して遠のいて行く場合にフロントカメラ3が撮影した車外画像に基づいて、フロントカメラ3の光軸のズレを検知することができる。
When the
<第3の実施の形態>
次に、第3の実施の形態について説明する。なお、以降の説明においては、第1の実施の形態と第3の実施の形態とにおいて相違する点を主に説明する。
<Third Embodiment>
Next, a third embodiment will be described. In the following description, differences between the first embodiment and the third embodiment will be mainly described.
第1の実施の形態の判断処理において、「フロントカメラ3が撮影した時間的に連続する複数の車外画像に基づいて、他の車両Cの停車を判断部23が判断する」と説明した。
In the determination process according to the first embodiment, it has been described that “the
第3の実施の形態においては、リヤカメラ6が撮影した時間的に連続する複数の車外画像に基づいて、他の車両Cの停車を判断部23が判断する。
In the third embodiment, the
リヤカメラ6が撮影した車外画像G7aXを判断部23が入力する。そして、入力した車外画像G7aXに対して例えば、ソベルフィルタなどの処理を施して車外画像G7aXに含まれる物体のエッジを抽出する。
The
次に、車外画像G7bXの左右中央の近傍に含まれる物体の像のエッジを判断部23が抽出する。具体的には、図13に示す車外画像G7bXに含まれる複数の矢印線が示すように、車外画像G7bXの横方向(図13に示すX軸の+方向)の輝度の差を分析してそのエッジを抽出する処理を判断部23が縦方向へ複数回繰り返し実行する。
Next, the
次に、車外画像G7cXの左右中央の近傍に含まれる物体の像のエッジを判断部23が抽出する。具体的には、図13に示す車外画像G7cXに含まれる複数の矢印線が示すように、車外画像G7cXの縦方向(図13に示すY軸の−方向)の輝度の差を分析してそのエッジを抽出する処理を判断部23が横方向へ複数回繰り返し実行する。
Next, the
次に、車外画像G7bXで抽出した車外画像の左右中央の近傍に含まれる物体の像のエッジ及び車外画像G7cXで抽出した車外画像の左右中央の近傍に含まれる物体の像のエッジが重複するポイントを判断部23が抽出する。これにより、判断部23が、車外画像G7dXの左右中央の近傍に含まれる物体の像の角のポイントを抽出することができる。この物体の像の角のポイントはその物体の特徴点であるともいえる。
Next, the point where the edge of the image of the object included in the vicinity of the left and right center of the vehicle outside image extracted from the vehicle outside image G7bX overlaps the edge of the image of the object included in the vicinity of the center of the left and right of the vehicle outside image extracted from the vehicle outside image G7cX. Is extracted by the
次に、車外画像G7dXの左右中央の近傍に含まれる物体の像の角のポイントを線により繋いで定まる領域を判断部23が抽出する。
Next, the
車外画像の左右中央の近傍に含まれる物体の像に基づく領域を抽出する理由は、他の車両Cに基づく領域のみを目的として抽出するためであり、車外画像G7dXにおいて車両1の後方を走行する他の車両Cの像がよく映る位置は、車外画像G7dXの左右中央の近傍だからである。
The reason why the region based on the image of the object included in the vicinity of the center of the left and right sides of the outside image is extracted is to extract only the region based on the other vehicle C, and travels behind the
なお、車外画像G7dXは、他の車両Cを表しやすいように建物の像などの他の物体を省略している。 In addition, in the outside image G7dX, other objects such as a building image are omitted so as to easily represent the other vehicle C.
以上のような処理を判断部23が実行することによって、リヤカメラ6が撮影した車外画像のみに基づいて、リヤカメラ6の光軸のズレを検知することができる。
When the
<第4の実施の形態>
次に、第4の実施の形態について説明する。なお、以降の説明においては、第1の実施の形態と第4の実施の形態とにおいて相違する点を主に説明する。
<Fourth embodiment>
Next, a fourth embodiment will be described. In the following description, differences between the first embodiment and the fourth embodiment will be mainly described.
第4の実施の形態における検知処理は、第1の実施の形態における検知処理とは異なり現在から過去の所定期間内に複数回にわたって導出された停止位置の統計データに基づいて導出部24が導出した値を基準停止位置と比較するようになっている。
Unlike the detection process in the first embodiment, the deriving
まず、停止位置について具体的に説明する。検知処理が実行される日の所定の期間(例えば、2ヶ月)前から検知処理が実行される日までに導出部24により導出された他の車両Cの像の停止位置は、検知部25によって記録されている。そして、記録されたそれらの停止位置の統計データに基づいて、検知部25が比較に用いる値(停止位置)を導出部24が導出する。
First, the stop position will be specifically described. The stop position of the image of the other vehicle C derived by the deriving
比較に用いる停止位置をこのような統計データに基づいて導出する理由は、停車した車両1と前方の他の車両Cとの車間距離は、同じユーザであっても運転するたびにバラつきがあるため、そのユーザが頻繁にとる車間距離に応じた停止位置を導出する必要があるからである。
The reason for deriving the stop position for comparison based on such statistical data is that the inter-vehicle distance between the stopped
具体的には、図14に示すように、設定された基準停止位置のヒストグラムD1のピークDP1と、導出された停止位置の統計データであるヒストグラムD2のピークDP2とを検知部25が比較する。それらのピーク同士を比較した結果、それらの差が所定値よりも大きい場合に、検知部25はフロントカメラ3の光軸の位置ズレを検知する。
Specifically, as shown in FIG. 14, the
このような処理、つまり、設定された基準停止位置のヒストグラムD1のピークDP1の値と導出された停止位置のヒストグラムD2のピークDP2の値との差が所定値よりも大きい場合に、フロントカメラ3の光軸の位置ズレを検知部25が検知するため、検知部25はその位置ズレの検知精度を向上させることができる。
In such a process, that is, when the difference between the value of the peak DP1 of the set reference stop position histogram D1 and the value of the derived stop position histogram D2 of the peak DP2 is larger than a predetermined value, the
<変形例>
以上、本発明の第1の実施の形態について説明してきたが、この発明は上記第1の実施の形態に限定されるものではなく様々な変形が可能である。以下では他の実施形態である変形例について説明する。もちろん、以下で説明する形態を適宜組み合わせても良い。
<Modification>
The first embodiment of the present invention has been described above. However, the present invention is not limited to the first embodiment, and various modifications can be made. Below, the modification which is other embodiment is demonstrated. Of course, you may combine the form demonstrated below suitably.
<変形例1>
上記第1の実施の形態の検知装置2は、「カメラ3〜6が備えるレンズは魚眼レンズである」と説明したが、魚眼レンズが備える画角よりも狭いレンズをカメラ3〜6に備えても良い。例えば、画角が45度の標準レンズをカメラ3〜6に備えても良く、画角が45度よりも広く180度よりも狭い広角レンズをカメラ3〜6に備えても良い。
<
Although the
<変形例2>
上記第1の実施の形態において、「基準停止位置は、フロントカメラ3が車両1の適切な位置へ搭載されたときから所定期間を経過するまでに複数回にわたって導出部24により導出された車外画像に含まれる他の車両の像の車外画像中の停止位置の統計データに基づいて設定される」と説明したが、その停止位置の統計データは平均したデータであっても良い。
<
In the first embodiment, “the reference stop position is an image outside the vehicle derived by the deriving unit 24 a plurality of times from when the
2 検知装置
21 画像処理部
23 判断部
24 導出部
25 検知部
27 制御部
28 報知部
3 フロントカメラ
4 左サイドカメラ
5 右サイドカメラ
6 リヤカメラ
DESCRIPTION OF
Claims (9)
前記カメラが撮影した時間的に連続する複数の車外画像の夫々に含まれる他の車両の像に基づいて、前記他の車両の停車を判断する判断手段と、
前記他の車両の停車が判断された場合に、前記車外画像中の前記他の車両の像の停止位置を導出する導出手段と、
導出された前記停止位置と基準停止位置とを比較した結果に基づいて前記位置ズレを検知する検知手段と、
を備えることを特徴とする検知装置。 A detection device that detects a positional shift of an optical axis of a camera mounted on either the front or rear of a vehicle,
A determination means for determining stopping of the other vehicle based on an image of the other vehicle included in each of a plurality of images outside the vehicle taken in time taken by the camera;
Deriving means for deriving a stop position of an image of the other vehicle in the outside image when it is determined that the other vehicle is stopped;
Detecting means for detecting the positional deviation based on a result of comparing the derived stop position and a reference stop position;
A detection device comprising:
前記判断手段は、前記複数の車外画像の夫々に含まれる前記他の車両の像の変化に基づいて前記他の車両の停車を判断することを特徴とする検知装置。 The detection device according to claim 1,
The determination device determines whether the other vehicle is stopped based on a change in an image of the other vehicle included in each of the plurality of images outside the vehicle.
前記判断手段は、前記変化を前記他の車両の像の特徴点に基づいて判断することを特徴とする検知装置。 The detection device according to claim 2,
The determination unit determines the change based on a feature point of an image of the other vehicle.
前記判断手段は、前記変化がなくなった場合に前記他の車両の停車を判断し、
前記導出手段は、前記変化がなくなった場合の前記他の車両の像の位置を前記停止位置として導出することを特徴とする検知装置。 In the detection apparatus in any one of Claim 2 or 3,
The determination means determines the stop of the other vehicle when the change is lost,
The deriving means derives the position of the image of the other vehicle when the change is lost as the stop position.
前記判断手段は、前記変化が始まる直前を前記他の車両の停車であると判断し、
前記導出手段は、前記変化が始まる直前の前記他の車両の像の位置を前記停止位置として導出することを特徴とする検知装置。 In the detection apparatus in any one of Claim 2 or 3,
The determining means determines that the other vehicle is stopped immediately before the start of the change,
The deriving means derives the position of the image of the other vehicle immediately before the change starts as the stop position.
前記車両が停車している場合に前記導出手段を有効化させる有効化手段を更に備えることを特徴とする検知装置。 In the detection apparatus in any one of Claims 1 thru | or 5,
The detection apparatus further comprising an enabling means for enabling the derivation means when the vehicle is stopped.
前記基準停止位置は、前記カメラが車両の適切な位置へ搭載されたときから所定期間を経過するまでに、複数回にわたって前記導出手段によって導出された前記停止位置の統計データに基づいて設定されることを特徴とする検知装置。 The detection device according to any one of claims 1 to 6,
The reference stop position is set based on statistical data of the stop position derived by the deriving means a plurality of times from when the camera is mounted at an appropriate position of the vehicle until a predetermined period elapses. A detection device characterized by that.
前記検知手段は、現在から過去の所定期間以内に複数回にわたって前記導出手段によって導出された前記停止位置の統計データに基づく値を、前記基準停止位置との比較に用いることを特徴とする検知装置。 The detection device according to any one of claims 1 to 7,
The detection unit uses a value based on statistical data of the stop position derived by the deriving unit a plurality of times within a predetermined period in the past from the present for comparison with the reference stop position. .
(a)前記カメラが撮影した時間的に連続する複数の車外画像の夫々に含まれる他の車両の像に基づいて、前記他の車両の停車を判断する工程と、
(b)前記他の車両の停車が判断された場合に、前記車外画像中の前記他の車両の像の停止位置を導出する工程と、
(c)導出された前記停止位置と基準停止位置とを比較した結果に基づいて前記位置ズレを検知する工程と、
を備えることを特徴とする検知方法。 A detection method for detecting a positional shift of an optical axis of a camera mounted on either the front or rear of a vehicle,
(A) determining a stop of the other vehicle based on an image of the other vehicle included in each of a plurality of temporally continuous images taken by the camera;
(B) deriving a stop position of an image of the other vehicle in the outside image when it is determined that the other vehicle is stopped;
(C) detecting the positional deviation based on a result of comparing the derived stop position and a reference stop position;
A detection method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010256952A JP2012109789A (en) | 2010-11-17 | 2010-11-17 | Detection device and detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010256952A JP2012109789A (en) | 2010-11-17 | 2010-11-17 | Detection device and detection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012109789A true JP2012109789A (en) | 2012-06-07 |
Family
ID=46494943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010256952A Withdrawn JP2012109789A (en) | 2010-11-17 | 2010-11-17 | Detection device and detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012109789A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016168877A (en) * | 2015-03-11 | 2016-09-23 | 株式会社東海理化電機製作所 | Visual recognition device for vehicle |
-
2010
- 2010-11-17 JP JP2010256952A patent/JP2012109789A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016168877A (en) * | 2015-03-11 | 2016-09-23 | 株式会社東海理化電機製作所 | Visual recognition device for vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105308620B (en) | Information processing apparatus, proximity object notification method, and program | |
JP5099451B2 (en) | Vehicle periphery confirmation device | |
JP5190712B2 (en) | Obstacle detection device | |
EP2919197A1 (en) | Object detection device and object detection method | |
JP4687411B2 (en) | Vehicle peripheral image processing apparatus and program | |
JP4816923B2 (en) | Vehicle peripheral image providing apparatus and method | |
EP2928178B1 (en) | On-board control device | |
EP3153356A1 (en) | Display device for vehicle and display method for vehicle | |
EP3150443A1 (en) | Display device for vehicle and display method for vehicle | |
JP6291866B2 (en) | Driving support device and driving support method | |
EP2848475A1 (en) | Overhead view image display device | |
JP2017520133A (en) | Vehicle periphery image generation apparatus and method | |
TWI533694B (en) | Obstacle detection and display system for vehicle | |
WO2016092967A1 (en) | Image generation device and image generation method | |
JP2010044561A (en) | Monitoring device to be mounted on vehicle | |
JP2020068515A (en) | Image processing apparatus | |
JP2010264945A (en) | Parking support device, parking support method and parking support program | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP5861449B2 (en) | Obstacle alarm device | |
JP5477394B2 (en) | Vehicle periphery monitoring device | |
KR101849326B1 (en) | Camera system for vehicle | |
JP2012109789A (en) | Detection device and detection method | |
EP3200445B1 (en) | Image capture device, vehicle, and fluctuation detecting method | |
JP6775285B2 (en) | Rear side vehicle detection alarm device | |
JP2012158227A (en) | Image processor, parking control system, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140204 |