JP2018074411A - Object detection device and object detection method - Google Patents

Object detection device and object detection method Download PDF

Info

Publication number
JP2018074411A
JP2018074411A JP2016212946A JP2016212946A JP2018074411A JP 2018074411 A JP2018074411 A JP 2018074411A JP 2016212946 A JP2016212946 A JP 2016212946A JP 2016212946 A JP2016212946 A JP 2016212946A JP 2018074411 A JP2018074411 A JP 2018074411A
Authority
JP
Japan
Prior art keywords
image
vehicle
object detection
resolution
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016212946A
Other languages
Japanese (ja)
Inventor
裕生 松本
Hiroo Matsumoto
裕生 松本
敦 三野
Atsushi Mino
敦 三野
直士 垣田
Naoshi Kakita
直士 垣田
博丈 須佐美
Hirotake Susami
博丈 須佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2016212946A priority Critical patent/JP2018074411A/en
Publication of JP2018074411A publication Critical patent/JP2018074411A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology that improves detection accuracy when an object is detected by comparing images.SOLUTION: In an object detection system 10, an image display device 2 includes a movement amount detection unit 23 that detects movement of a vehicle, an image obtaining unit 21 that is mounted on the vehicle ans obtains a first image and a second image that have been captured at different times through a camera 1 that captures the surroundings of the vehicle on the basis of movement of the vehicle, a resolution correction unit 24 that reduces a resolution of the second image and corrects the second image in accordance with a resolution of the first image, and an object detection unit 25 that detects an object that has been captured in the first image and the second image on the basis of a difference between the corrected first image and second image.SELECTED DRAWING: Figure 1

Description

本発明は、物体検出装置及び物体検出方法に関する。   The present invention relates to an object detection device and an object detection method.

従来、車両走行の障害となりうる物体を検出し、その物体との衝突を回避する技術が開発されてきている。そこで、そのような車両周辺にある障害物の候補となるような物体を検出するために、カメラなどを用いて車両周辺を撮像しておき、撮像した画像を処理する技術が存在する。その画像内に映し出された物体を検出する一方法として背景差分法(フレーム間差分法とも称す)がある。   2. Description of the Related Art Conventionally, techniques for detecting an object that can be an obstacle to vehicle travel and avoiding a collision with the object have been developed. Therefore, in order to detect such an object that is a candidate for an obstacle around the vehicle, there is a technique for capturing the periphery of the vehicle using a camera or the like and processing the captured image. There is a background difference method (also referred to as an inter-frame difference method) as one method for detecting an object displayed in the image.

背景差分法では、異なる時刻に撮影した2枚の画像(現在フレーム、過去フレーム)について、過去フレームを取得してから現在フレームを取得するまでに移動した距離を求め、この移動した距離に基づいて、過去フレームと現在フレームとの撮影位置の差を補正(位置補正)し、補正後の画像の差分から物体を検出する。なお、本発明と関連する技術としては、例えば、特許文献1〜2がある。   In the background subtraction method, for two images (current frame and past frame) taken at different times, the distance moved from the acquisition of the past frame to the acquisition of the current frame is obtained, and based on the moved distance Then, the difference between the shooting positions of the past frame and the current frame is corrected (position correction), and an object is detected from the difference between the corrected images. In addition, as a technique relevant to this invention, there exist patent documents 1-2, for example.

特開2011−198241号公報JP 2011-198241 A 特開2009−76030号公報JP 2009-76030 A

上記のように背景差分法によって物体を検出する場合、過去フレームと現在フレームとで解像度が異なるため、位置補正の精度が高くても、これらの差分から物体を検出しようとすると、精度良く物体を検出することが難しい。   When an object is detected by the background difference method as described above, the resolution differs between the past frame and the current frame, so even if the accuracy of position correction is high, if an object is detected from these differences, the object is accurately detected. It is difficult to detect.

例えば、過去フレームでは遠方に写っている物体(路面や障害物等)が、現在フレームでは近くに写っていると、同じ物体であっても、過去フレームでは当該物体の解像度が低いため、ぼやけて写り、現在フレームでは当該物体の解像度が高いため、鮮明に写る。このため、これらを比較すると、路面などの本来差分が現れないはずの物体であっても、差分が残ってしまい、路面等を障害物として誤検知してしまうことがある。   For example, if an object (road surface, obstacle, etc.) that is far away in the past frame appears near in the current frame, even if it is the same object, the resolution of the object is low in the past frame, so it is blurred The image is clear in the current frame because the resolution of the object is high. For this reason, when these are compared, even if an object such as a road surface where a difference should not originally appear, the difference remains, and the road surface or the like may be erroneously detected as an obstacle.

そこで、本発明は、画像を比較して物体を検出する際の検出精度を向上させる技術の提供を目的とする。   Therefore, an object of the present invention is to provide a technique for improving detection accuracy when an object is detected by comparing images.

本発明の物体検出装置は、上述した課題を解決するため、
車両の移動を検出する移動検出部と、
前記車両に搭載され、前記車両の周囲を撮影する撮影装置から前記車両の移動に基づいて異なる時刻に撮影した第一の画像と第二の画像を取得する画像取得部と、
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正する解像度補正部と、
前記第一の画像内及び前記第二の画像内に撮影された物体を前記補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出する物体検出部と、
を備える。
また、本発明の物体検出装置は、上述した課題を解決するため、
車両に搭載され、前記車両の周囲を撮影する撮影装置から所定の時間を隔てて異なる時刻に撮影した第一の画像と第二の画像を取得する画像取得部と、
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正する解像度補正部と、
前記第一の画像内及び前記第二の画像内に撮影された物体を前記補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出する物体検出部と、
を備える。
The object detection apparatus of the present invention solves the above-described problem,
A movement detector for detecting movement of the vehicle;
An image acquisition unit that is mounted on the vehicle and acquires a first image and a second image captured at different times based on movement of the vehicle from an imaging device that captures the surroundings of the vehicle;
A resolution correction unit that corrects the resolution of the second image by reducing the resolution according to the resolution of the first image;
An object detection unit that detects an object photographed in the first image and the second image based on a difference between the corrected first image and the second image;
Is provided.
In addition, the object detection device of the present invention solves the above-described problem,
An image acquisition unit that is mounted on a vehicle and acquires a first image and a second image that are captured at different times from a photographing device that photographs the surroundings of the vehicle;
A resolution correction unit that corrects the resolution of the second image by reducing the resolution according to the resolution of the first image;
An object detection unit that detects an object photographed in the first image and the second image based on a difference between the corrected first image and the second image;
Is provided.

本発明によれば、画像を比較して物体を検出する際の検出精度を向上させる技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which improves the detection accuracy at the time of detecting an object by comparing an image can be provided.

図1は、実施形態1に係る物体検出システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an object detection system according to the first embodiment. 図2は、カメラの配置と、カメラが撮影する方向を示す図である。FIG. 2 is a diagram illustrating the arrangement of the cameras and the direction in which the camera captures images. 図3は、位置補正部による位置補正の説明図である。FIG. 3 is an explanatory diagram of position correction by the position correction unit. 図4は、物体検出装置のハードウェア構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of a hardware configuration of the object detection apparatus. 図5は、物体検出装置が実行する物体検出方法の説明図である。FIG. 5 is an explanatory diagram of an object detection method executed by the object detection apparatus. 図6は、本実機形態の物体検出方法おける解像度補正の効果を説明する図である。FIG. 6 is a diagram for explaining the effect of resolution correction in the object detection method according to the present embodiment. 図7は、カメラを車両の前部に設けた場合の物体検出方法の説明図である。FIG. 7 is an explanatory diagram of an object detection method when a camera is provided at the front of the vehicle. 図8は、実施形態2に係る物体検出装置が実行する物体検出方法の説明図である。FIG. 8 is an explanatory diagram of an object detection method executed by the object detection apparatus according to the second embodiment. 図9は、カメラを車両の前部に設けた場合の物体検出方法の説明図である。FIG. 9 is an explanatory diagram of an object detection method when a camera is provided at the front of the vehicle.

以下、図面を参照して本発明の実施形態について説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
<実施形態1>
<システムの構成>
まず、本実施形態の物体検出システム10の構成について説明する。図1は、実施形態1に係る物体検出システム10の構成を示すブロック図である。物体検出システム10は、カメラ1や、物体検出装置2、表示装置3を備えている。この物体検出システム10は、自動車などの車両に搭載され、当該車両の後方の画像を表示することで、後進時の運転支援を行う機能を有している。物体検出システム10は、例えば、車両に搭載したオーディオ・ビジュアル・ナビゲーション一体型の電子機器(以下、AVN機とも称す)であってもよい。また、物体検出システム10は、車両後方の画像に、例えば駐車支援としてのガイド線を重畳して表示する等の機能を有していてもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The configuration of the following embodiment is an exemplification, and the present invention is not limited to the configuration of the embodiment.
<Embodiment 1>
<System configuration>
First, the configuration of the object detection system 10 of the present embodiment will be described. FIG. 1 is a block diagram illustrating a configuration of an object detection system 10 according to the first embodiment. The object detection system 10 includes a camera 1, an object detection device 2, and a display device 3. The object detection system 10 is mounted on a vehicle such as an automobile, and has a function of performing driving assistance during reverse travel by displaying an image behind the vehicle. The object detection system 10 may be, for example, an audio / visual / navigation integrated electronic device (hereinafter also referred to as an AVN machine) mounted on a vehicle. In addition, the object detection system 10 may have a function of, for example, displaying a guide line as parking assistance superimposed on an image behind the vehicle.

カメラ1は、車両の後方を撮影して撮影画像を得る撮影装置である。このカメラ1は、レンズと撮像素子とを備えており、電子的に撮影画像を取得する。カメラ1は、所定の周期(例えば、1/30秒周期)で撮影画像を取得し、各撮影画像を動画像の1つのフレームとする映像信号を物体検出装置2へ入力する。   The camera 1 is a photographing device that obtains a photographed image by photographing the rear of the vehicle. The camera 1 includes a lens and an image sensor and electronically acquires a captured image. The camera 1 acquires captured images at a predetermined cycle (for example, 1/30 second cycle), and inputs a video signal having each captured image as one frame of a moving image to the object detection device 2.

図2は、カメラ1の配置と、カメラ1が撮影する方向を示す図である。図2に示すように、カメラ1は、車両の後端の背面ドア92に設けられ、その光軸15は車両の前後方向に沿って後方に向けられ、水平又は水平よりも下側へ向けて設けられる。即ち、本例のカメラ1は、車両の後方の様子を撮影するバックカメラであり、例えば、後進して駐車する際に、駐車枠や当該駐車枠の周囲の画像を取得するように設置される。また、このカメラ
1のレンズには魚眼レンズが採用されており、例えば、180〜150度の画角θを有している。なお、カメラ1のレンズは魚眼レンズに限らず、所要の領域を撮影できる画角(例えば150〜100度の広角レンズ)を有するものであればよい。
FIG. 2 is a diagram illustrating the arrangement of the camera 1 and the direction in which the camera 1 captures images. As shown in FIG. 2, the camera 1 is provided on a rear door 92 at the rear end of the vehicle, and its optical axis 15 is directed rearward along the front-rear direction of the vehicle and is directed horizontally or below the horizontal. Provided. That is, the camera 1 of this example is a back camera that captures the state of the rear of the vehicle, and is installed so as to acquire a parking frame and an image around the parking frame, for example, when moving backward and parking. . Further, a fish-eye lens is adopted as the lens of the camera 1 and has an angle of view θ of 180 to 150 degrees, for example. The lens of the camera 1 is not limited to a fisheye lens, but may be any lens having an angle of view (for example, a wide-angle lens of 150 to 100 degrees) that can capture a required region.

図1に戻り、物体検出装置2は、カメラ1で取得した撮影画像に基づいて車両周辺の物体を検出し、運転に支障を及ぼすような障害物と判定した場合には、ユーザ(主に運転者)に注意を促す表示を行う。この物体検出装置2は、画像取得部21、位置補正部22、移動量検出部23、解像度補正部24、物体検出部25、シフトポジション取得部26、障害物判定部27、出力制御部28を備えている。なお、移動量検出部23とシフトポジション取得部(移動方向検出部)26は、本発明の移動検出部を構成する。   Returning to FIG. 1, when the object detection device 2 detects an object around the vehicle based on a captured image acquired by the camera 1 and determines that the obstacle is an obstacle to driving, the object detection device 2 (mainly driving) Display to call attention. The object detection device 2 includes an image acquisition unit 21, a position correction unit 22, a movement amount detection unit 23, a resolution correction unit 24, an object detection unit 25, a shift position acquisition unit 26, an obstacle determination unit 27, and an output control unit 28. I have. The movement amount detection unit 23 and the shift position acquisition unit (movement direction detection unit) 26 constitute a movement detection unit of the present invention.

画像取得部21は、カメラ1から撮影画像を取得し、この撮影画像から車両の移動に基づいて異なる時刻に撮影した第一の画像と第二の画像を取得する。例えば、画像取得部21は、車両の移動方向が後進のときには、第二の画像よりも前の時刻に撮影された画像を第一の画像として取得し、前記車両の移動方向が前進のときには、第二の画像よりも後の時刻に撮影された画像を第一の画像として取得する。   The image acquisition unit 21 acquires a captured image from the camera 1, and acquires a first image and a second image captured at different times based on the movement of the vehicle from the captured image. For example, when the moving direction of the vehicle is backward, the image acquisition unit 21 acquires an image taken at a time before the second image as the first image, and when the moving direction of the vehicle is forward, An image taken at a time later than the second image is acquired as the first image.

位置補正部22は、画像取得部21が取得した第一の画像の視点位置を第二の画像に合わせるように補正する。図3は、この位置補正部22による位置補正の説明図である。第一の画像と第二の画像とは、撮影の時刻が異なるため、この間に車両が移動すると、図3(A)に示すように、第一の画像を撮影したときのカメラ1の位置(視点位置とも称す)81と、第二の画像を撮影したときのカメラ1の位置(視点位置)82が異なる。このため、第一の画像と第二の画像で共通の被写体を撮影した場合でも、当該被写体は第一の画像と第二の画像で異なって撮影される。   The position correction unit 22 corrects the viewpoint position of the first image acquired by the image acquisition unit 21 so as to match the second image. FIG. 3 is an explanatory diagram of position correction by the position correction unit 22. Since the first image and the second image have different shooting times, when the vehicle moves during this time, as shown in FIG. 3A, the position of the camera 1 when the first image is shot ( A position 81 (also referred to as a viewpoint position) is different from a position (viewpoint position) 82 of the camera 1 when the second image is taken. For this reason, even when a common subject is photographed in the first image and the second image, the subject is photographed differently in the first image and the second image.

図3(B)は、第一の画像と第二の画像に共通して撮影される被写体83の一例を示す。被写体83は、路面84上に描かれたパターンであり、本例では正方形を縦横に3分割した形状である。この被写体83を視点位置81から撮影した場合、図3(C)に示すように、路面84に対して光軸15が傾いているため、第一の画像71に写る被写体83Aは、カメラ1から遠い辺a1〜a4が近い辺d1〜d4より短く変形して撮影される。また、被写体83を視点位置82から撮影した場合、図3(D)に示すように、第二の画像72に写る被写体83Bは、第一の画像71の被写体83Aと比べて、カメラ1に近い位置、即ち第二の画像72の下端側に写り、辺A1〜A4等の変形の程度も少なくなっている。なお、視点位置81と視点位置82との距離は、例えば75mmであり、第一の画像71上の被写体83Aと第二の画像72上の被写体83Bとの差異は、大きなものではないが、図3では、説明のため誇張して示している。   FIG. 3B shows an example of a subject 83 that is photographed in common for the first image and the second image. The subject 83 is a pattern drawn on the road surface 84. In this example, the subject 83 has a shape obtained by dividing a square into three vertically and horizontally. When the subject 83 is photographed from the viewpoint position 81, the optical axis 15 is inclined with respect to the road surface 84 as shown in FIG. The far sides a <b> 1 to a <b> 4 are deformed shorter than the near sides d <b> 1 to d <b> 4 and photographed. When the subject 83 is photographed from the viewpoint position 82, the subject 83B shown in the second image 72 is closer to the camera 1 than the subject 83A of the first image 71, as shown in FIG. It appears in the position, that is, the lower end side of the second image 72, and the degree of deformation of the sides A1 to A4 and the like is reduced. Note that the distance between the viewpoint position 81 and the viewpoint position 82 is, for example, 75 mm, and the difference between the subject 83A on the first image 71 and the subject 83B on the second image 72 is not large. 3 is exaggerated for the sake of explanation.

そして、位置補正部22は、図3(E)に示すように第一の画像71の被写体83Aの各点a1〜a4,b1〜b4、c1〜c4が、第二の画像72の対応する各点A1〜A4,B1〜B4,C1〜C4の位置となるように、それぞれの座標を変換することで、第一の画像71の被写体83Aが第二の画像72の被写体83Bと同じ形状となる。このように第一の画像71と第二の画像72との差異に基づいて、第一の画像71における各画素の座標を変換することで、第一の画像71が第二の画像72の視点位置82で撮影された画像のように変換される。以下、この処理を視点変換又は位置補正と称す。   Then, the position correction unit 22 is configured so that the points a1 to a4, b1 to b4, and c1 to c4 of the subject 83A of the first image 71 correspond to the second image 72 as illustrated in FIG. The subject 83A of the first image 71 has the same shape as the subject 83B of the second image 72 by converting the coordinates so that the positions of the points A1 to A4, B1 to B4, and C1 to C4 are obtained. . As described above, by converting the coordinates of each pixel in the first image 71 based on the difference between the first image 71 and the second image 72, the first image 71 can be viewed from the viewpoint of the second image 72. The image is converted like an image photographed at the position 82. Hereinafter, this process is referred to as viewpoint conversion or position correction.

また、第一の画像71や第二の画像72が、魚眼レンズや広角レンズで撮影され、歪曲収差によって、直線状の被写体が湾曲して撮影される場合に、位置補正部22は、この歪みを直線状に戻すように歪み補正を行ってもよい。   In addition, when the first image 71 and the second image 72 are photographed with a fish-eye lens or a wide-angle lens and a linear subject is curved and photographed due to distortion, the position correction unit 22 corrects this distortion. You may correct | amend distortion so that it may return to linear form.

移動量検出部23は、カメラ1で撮影した撮影画像を用いて車両の移動量を検出する機
能を有している。例えば、移動量検出部23は、時間的に前後する撮影画像において、同一の被写体を表示している部分を抽出し、各表示位置の関係に基づいて車両の移動量を導出する。
The movement amount detection unit 23 has a function of detecting the movement amount of the vehicle using a captured image taken by the camera 1. For example, the movement amount detection unit 23 extracts a portion displaying the same subject in the captured images that change in time, and derives the movement amount of the vehicle based on the relationship between the display positions.

同一の被写体を表示している画素を抽出する方法としては、例えば、テンプレートマッチング手法を用いることができる。テンプレートマッチング手法とは、画像の中から、予め指定したテンプレート画像と似ている位置を探す手法である。本実施形態で用いる場合には、例えば、前フレームの撮影画像の一部分の画像をテンプレートとして、後フレームの撮影画像と比較するといった処理を画像全体に渡って実行すればよい。このようなテンプレートマッチング手法としては、例えば、SAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)等の手法を用いることができる。   As a method for extracting pixels displaying the same subject, for example, a template matching method can be used. The template matching method is a method for searching a position similar to a template image designated in advance from images. When used in the present embodiment, for example, a process of comparing a captured image of a previous frame using a partial image of a captured image of the previous frame as a template may be executed over the entire image. As such a template matching method, for example, a method such as SAD (Sum of Absolute Difference) or SSD (Sum of Squared Difference) can be used.

テンプレートマッチング手法以外にも特徴点方式を用いることもできる。特徴点方式とは、いわゆる、オプティカルフローを用いた方式である。つまり、互いに異なる時点に取得された複数の撮影画像のそれぞれから特徴点を抽出し、複数の俯瞰画像間での特徴点の動きを示すオプティカルフローを導出する。特徴点とは、画像から際立って検出できる点であり、例えば、物体のコーナー(エッジの交点)などの点である。そして、特徴点方式では、直近の俯瞰画像から抽出した特徴点と、過去の俯瞰画像から抽出した特徴点とを対応づけ、この対応付けられた各特徴点の位置に基づいて移動ベクトルを導出する。   In addition to the template matching method, a feature point method can also be used. The feature point method is a method using so-called optical flow. That is, feature points are extracted from each of a plurality of photographed images acquired at different points in time, and an optical flow indicating the movement of the feature points between the plurality of overhead images is derived. A feature point is a point that can be detected prominently from an image, for example, a point such as a corner of an object (intersection of edges). In the feature point method, the feature points extracted from the latest bird's-eye view image are associated with the feature points extracted from the past bird's-eye view image, and a movement vector is derived based on the positions of the associated feature points. .

また、撮影画像には、路面を撮影した部分と、自動車等の立体物を表示した部分との双方が含まれていることが多い。路面は、平面であり移動物ではないため、路面の移動ベクトルは、全て略同じ方向及び略同じ大きさの移動ベクトルになる。一方、立体物の移動ベクトルは、その立体物の移動方向や高さなどに応じて、方向及び大きさの異なる移動ベクトルとなる。   In many cases, a captured image includes both a portion where a road surface is captured and a portion where a three-dimensional object such as an automobile is displayed. Since the road surface is a plane and not a moving object, all the movement vectors of the road surface are movement vectors having substantially the same direction and the same size. On the other hand, the movement vector of the three-dimensional object is a movement vector having a different direction and size depending on the movement direction and height of the three-dimensional object.

このため、立体物の移動ベクトルは、車両の移動量を正確に反映したものではなく、路面の移動ベクトルが車両の移動量を正確に反映したものとなる。したがって、移動量検出部23が導出した移動ベクトルには、種々の方向及び大きさの移動ベクトルが含まれていることになるが、車両の移動量を正確に導出するためには、その中から例えば路面の移動ベクトルを抽出することが望ましい。   For this reason, the movement vector of the three-dimensional object does not accurately reflect the movement amount of the vehicle, and the movement vector of the road surface accurately reflects the movement amount of the vehicle. Therefore, the movement vector derived by the movement amount detection unit 23 includes movement vectors of various directions and sizes. In order to accurately derive the movement amount of the vehicle, the movement vector is determined from among them. For example, it is desirable to extract a road movement vector.

一般的には、車両周辺を撮影した画像には、路面を表示する部分が最も多く含まれているため、通常は、路面に関する移動ベクトルが最も多い。そこで、本実施形態では、全ての移動ベクトルについて大きさに関するヒストグラムを生成し、数が最も多い部分の移動ベクトルを、路面の移動ベクトルとして抽出する。   In general, an image obtained by photographing the periphery of a vehicle includes the most part for displaying the road surface, and thus usually has the largest number of movement vectors related to the road surface. Therefore, in the present embodiment, a size-related histogram is generated for all the movement vectors, and the movement vector having the largest number is extracted as a road surface movement vector.

そして、移動量検出部23は、撮影画像の上部、即ち図3(A)において遠くの路面が撮影される部分の特徴点が、撮影画像の下部、即ち図3(A)において近くの路面が撮影される部分へ移動するベクトルが検出された場合、車両の移動ベクトルが後方に向かうベクトルであること、即ち車両が後進したことと、その量(移動量)を検出する。反対に撮影画像の下部に撮影された特徴点が、撮影画像の上部へ移動した場合、車両が前進したことと、その量(移動量)を検出する。   Then, the movement amount detection unit 23 has the feature points of the upper part of the photographed image, that is, the part where the distant road surface is photographed in FIG. 3A, and the lower part of the photographed image, that is, the nearby road surface in FIG. When a vector that moves to a portion to be photographed is detected, it is detected that the movement vector of the vehicle is a backward vector, that is, that the vehicle has moved backward and its amount (movement amount). On the contrary, when the feature point photographed at the lower part of the photographed image moves to the upper part of the photographed image, it is detected that the vehicle has moved forward and its amount (movement amount).

なお、移動量検出部23は、撮影画像を用いて車両の移動ベクトルを検出したが、これに限らず、例えばAVN機に備えられた加速度センサ等によって車両の移動量を検出しても良いし、車両のECUから車速パルスやシフトポジションを取得して移動量を求めても良い。   Although the movement amount detection unit 23 detects the movement vector of the vehicle using the captured image, the present invention is not limited to this. For example, the movement amount detection unit 23 may detect the movement amount of the vehicle using an acceleration sensor provided in the AVN machine. Alternatively, the movement amount may be obtained by obtaining a vehicle speed pulse or a shift position from the ECU of the vehicle.

解像度補正部24は、第一の画像及び第二の画像に共通して撮影された被写体と車両と
の距離が、第一の画像を撮影した時刻よりも第二の画像を撮影した時刻において短い場合に、第二の画像の解像度にあわせて前記第一の画像の解像度を低下させて補正する。例えば、第一の画像を平均化フィルタやガウシアンフィルタ、メディアンフィルタ等の空間フィルタによって処理することにより、解像度を低下させる。
In the resolution correction unit 24, the distance between the subject photographed in common with the first image and the second image and the vehicle is shorter at the time when the second image is photographed than when the first image is photographed. In this case, correction is performed by reducing the resolution of the first image in accordance with the resolution of the second image. For example, the resolution is lowered by processing the first image with a spatial filter such as an averaging filter, a Gaussian filter, or a median filter.

物体検出部25は、解像度補正後の第一の画像と第二の画像とを比較し、各画素の差分から第一の画像内及び前記第二の画像内に撮影された物体(例えば、駐車の障害となる立体物)を検出する。なお、物体検出部25は、前記差分が、所定の閾値を超えた場合に物体として検出してもよい。前述の図3の例では、第一の画像の被写体83Aが第二の画像の被写体83Bと同じになるように位置補正が行われた。この被写体83A,83Bは路面84に描かれたパターンのため、路面に描かれた標識や駐車枠など、路面と略同じ高さにあるものは、第一の画像と第二の画像とで一致するが、路面と異なる高さに存在するもの、即ち立体物は、第一の画像と第二の画像とで一致しない。このため、物体検出部25は、第一の画像と第二の画像とで差が生じた部分を物体の画像として検出する。即ち、この画像上の差が生じた部分と対応する物体面上の位置に物体(立体物)が存在することを検出する。なお、本実施形態の物体検出部25は、第一の画像と第二の画像のうち、後で撮影した第二の画像上で、検出した物体の位置を特定している。   The object detection unit 25 compares the first image after the resolution correction with the second image, and the object (for example, parking) taken in the first image and the second image from the difference of each pixel. A three-dimensional object that becomes an obstacle to the above. The object detection unit 25 may detect the object as an object when the difference exceeds a predetermined threshold. In the example of FIG. 3 described above, the position correction is performed so that the subject 83A of the first image is the same as the subject 83B of the second image. Since the subjects 83A and 83B are a pattern drawn on the road surface 84, signs and parking frames drawn on the road surface, which are almost at the same height as the road surface, match between the first image and the second image. However, what exists at a height different from the road surface, that is, a three-dimensional object, does not match between the first image and the second image. For this reason, the object detection unit 25 detects a portion where a difference has occurred between the first image and the second image as an object image. That is, it is detected that an object (a three-dimensional object) exists at a position on the object plane corresponding to the portion where the difference occurs on the image. Note that the object detection unit 25 of the present embodiment specifies the position of the detected object on the second image that is captured later, out of the first image and the second image.

シフトポジション取得部26は、ECU(不図示)等から自車両のシフトポジションを示す信号を取得する。シフトポジションは、シフトレバー(シフトノブ、シフター、セレクトレバー、チェンジレバー等とも称す)の位置、即ちシフトレバーによって操作されるトランスミッションの状態を示す。即ち、シフトポジションによって車両の移動方向が示される。本実施形態において、シフトポジション取得部26は、移動方向検出部に相当する。   The shift position acquisition unit 26 acquires a signal indicating the shift position of the host vehicle from an ECU (not shown) or the like. The shift position indicates the position of a shift lever (also referred to as a shift knob, shifter, select lever, change lever, etc.), that is, the state of the transmission operated by the shift lever. That is, the moving direction of the vehicle is indicated by the shift position. In the present embodiment, the shift position acquisition unit 26 corresponds to a movement direction detection unit.

障害物判定部27は、物体検出部25によって、検出された物体のうち、運転の障害となる物体を障害物として検出する。例えば、ECUから車両の舵角を取得し、車両の走路を予測して、当該走路上及び近接する物体を障害物と検出する。なお、物体検出部25で検出した物体(立体物)から障害物の絞り込みを行わず、全て障害物とする場合には、障害物判定部27を省略してもよい。   The obstacle determination unit 27 uses the object detection unit 25 to detect an object that becomes a driving obstacle among the detected objects as an obstacle. For example, the rudder angle of the vehicle is acquired from the ECU, the traveling path of the vehicle is predicted, and an object on and near the traveling path is detected as an obstacle. Note that the obstacle determination unit 27 may be omitted in the case where all the obstacles are not narrowed down from the object (three-dimensional object) detected by the object detection unit 25.

出力制御部28は、第一の画像又は第二の画像(本実施形態では、第一の画像)を取得し、映像信号として表示装置3へ出力して表示させる。このとき出力制御部28は、当該画像から検出した障害物の情報を障害物判定部27から取得し、当該画像のうち、障害物として抽出した物体の部分に、障害物であることを示す印(以下、警告パターンとも称す)を合成する。警告パターンは、例えば当該物体を囲む線や網掛け、図形、色又は輝度の変更等である。また、出力制御部28は、撮影画像や俯瞰画像に駐車誘導線を合成するものであっても良い。   The output control unit 28 acquires the first image or the second image (in the present embodiment, the first image), outputs it to the display device 3 as a video signal, and displays it. At this time, the output control unit 28 acquires the information of the obstacle detected from the image from the obstacle determination unit 27, and in the image, the mark indicating the obstacle is displayed on the part of the object extracted as the obstacle. (Hereinafter also referred to as a warning pattern). The warning pattern is, for example, a line, shading, a figure, a color, or a luminance change surrounding the object. Moreover, the output control part 28 may synthesize | combine a parking guide line with a picked-up image or a bird's-eye view image.

また、本実施形態の出力制御部28は、シフトポジションが、Rレンジ、即ち車両の後進を示す場合に前記第二の画像を表示装置3に表示させ、シフトポジションが、Rレンジ以外の場合には、第二の画像以外の画像、例えばAVN機のナビゲーション画面やオーディオ機能の操作画面等を表示装置3に表示させる。   Further, the output control unit 28 of the present embodiment displays the second image on the display device 3 when the shift position indicates the R range, that is, the reverse of the vehicle, and when the shift position is other than the R range. Causes the display device 3 to display an image other than the second image, for example, a navigation screen of an AVN machine, an operation screen of an audio function, or the like.

表示装置3は、車両の車室内におけるユーザ(主にドライバ)が視認可能な位置に配置され、各種の情報をユーザに表示する。表示装置3は、目的地までのルートを案内するナビゲーション機能や音楽を再生するオーディオ機能を備えたAVN機の表示装置であっても良い。   The display device 3 is arranged at a position where a user (mainly a driver) can visually recognize the vehicle interior of the vehicle, and displays various types of information to the user. The display device 3 may be an AVN display device having a navigation function for guiding a route to a destination and an audio function for reproducing music.

図4は、物体検出装置2のハードウェア構成の一例を示す図である。物体検出装置2は
、図4に例示のように、接続バス210によって相互に接続されたCPU(Central Processing Unit)201、メモリ202、入出力IF203を有する。CPU201は、物
体検出装置2全体の制御を行う中央処理演算装置である。CPU201はプロセッサとも呼ばれる。ただし、CPU201は、単一のプロセッサに限定される訳ではなく、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のCPU201がマルチコア構成であってもよい。
FIG. 4 is a diagram illustrating an example of a hardware configuration of the object detection device 2. As illustrated in FIG. 4, the object detection apparatus 2 includes a CPU (Central Processing Unit) 201, a memory 202, and an input / output IF 203 that are connected to each other via a connection bus 210. The CPU 201 is a central processing unit that controls the entire object detection apparatus 2. The CPU 201 is also called a processor. However, the CPU 201 is not limited to a single processor and may have a multiprocessor configuration. A single CPU 201 connected by a single socket may have a multi-core configuration.

メモリ202は、主記憶装置と補助記憶装置とを含む。主記憶装置は、CPU201の作業領域,プログラムやデータの記憶領域,通信データのバッファ領域として使用される。主記憶装置は、例えば、Random Access Memory(RAM),或いはRAMとRead Only Memory(ROM)との組み合わせで形成される。主記憶装置は、CPU201がプログラムやデータをキャッシュしたり、作業領域を展開したりする記憶媒体である。主記憶装置は、例えば、フラッシュメモリ、RAM(Random Access Memory)やROM(Read Only Memory)を含む。補助記憶部は、CPU201により実行されるプログラムや、動作の設定情報などを記憶する記憶媒体である。補助記憶装置は、例えば、HDD(Hard-disk Drive)やSSD(Solid State Drive)、EPROM(Erasable Programmable ROM)、フ
ラッシュメモリ、USBメモリ、メモリカード等である。
The memory 202 includes a main storage device and an auxiliary storage device. The main storage device is used as a work area for the CPU 201, a storage area for programs and data, and a buffer area for communication data. The main storage device is formed by, for example, a random access memory (RAM) or a combination of a RAM and a read only memory (ROM). The main storage device is a storage medium in which the CPU 201 caches programs and data and expands a work area. The main storage device includes, for example, a flash memory, a RAM (Random Access Memory), and a ROM (Read Only Memory). The auxiliary storage unit is a storage medium that stores programs executed by the CPU 201, operation setting information, and the like. The auxiliary storage device is, for example, an HDD (Hard-disk Drive), an SSD (Solid State Drive), an EPROM (Erasable Programmable ROM), a flash memory, a USB memory, a memory card, or the like.

入出力IF203は、物体検出装置2に接続するセンサや操作部、通信モジュール、ECU等の機器との間でデータの入出力を行うインターフェースである。物体検出システム10においては、ユーザによる選択操作が操作部から入出力IF203を介して、物体検出装置2に入力される。また、なお、上記の構成要素はそれぞれ複数に設けられてもよいし、一部の構成要素を設けないようにしてもよい。また、上記の構成要素は、AVN機の構成要素に含まれるとしてもよい。   The input / output IF 203 is an interface for inputting / outputting data to / from devices such as sensors, operation units, communication modules, and ECUs connected to the object detection device 2. In the object detection system 10, a selection operation by the user is input from the operation unit to the object detection device 2 via the input / output IF 203. In addition, a plurality of the above-described components may be provided, or some of the components may not be provided. Further, the above-described components may be included in the components of the AVN machine.

物体検出装置2では、CPU201がプログラムを実行することにより、図1に示す画像取得部21、位置補正部22、移動量検出部23、解像度補正部24、物体検出部25、シフトポジション取得部26、障害物判定部27、出力制御部28の各処理部として機能する。但し、上記各処理部の少なくとも一部の処理がDSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)等によって提供されても
よい。また、上記各処理部の少なくとも一部が、FPGA(Field-Programmable Gate Array)等の専用LSI(large scale integration)、その他のデジタル回路であってもよい。また、上記各処理部の少なくとも一部にアナログ回路を含む構成としてもよい。
In the object detection device 2, the CPU 201 executes the program, whereby the image acquisition unit 21, the position correction unit 22, the movement amount detection unit 23, the resolution correction unit 24, the object detection unit 25, and the shift position acquisition unit 26 illustrated in FIG. 1. It functions as each processing unit of the obstacle determination unit 27 and the output control unit 28. However, at least a part of the processing of each processing unit may be provided by a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or the like. Further, at least a part of each of the processing units may be a dedicated LSI (large scale integration) such as an FPGA (Field-Programmable Gate Array) or other digital circuit. Moreover, it is good also as a structure which includes an analog circuit in at least one part of each said process part.

<表示制御方法>
図5は、物体検出装置2が実行する物体検出方法の説明図である。物体検出装置2は、開始指示の入力があった場合や、車両のACC電源がオンとなった場合に、周期的に図5の処理を実行させる。
<Display control method>
FIG. 5 is an explanatory diagram of an object detection method executed by the object detection device 2. The object detection device 2 periodically executes the process of FIG. 5 when a start instruction is input or when the ACC power supply of the vehicle is turned on.

先ず、物体検出装置2は、シフトポジションを取得し、車両の移動方向が後進か否かを判定する。車両の移動方向が後進であれば(ステップS10、Yes)、物体検出装置2は、カメラ1から取得した撮影画像から、第一の画像を取得する(ステップS20)。   First, the object detection device 2 acquires a shift position and determines whether the moving direction of the vehicle is reverse. If the moving direction of the vehicle is reverse (step S10, Yes), the object detection device 2 acquires the first image from the captured image acquired from the camera 1 (step S20).

また、物体検出装置2は、カメラ1から取得した撮影画像のオプティカルフローに基づいて車両の移動量を求めて、第一の画像が撮影された時刻から起算した車両の移動量を求める(ステップS30)。そして、物体検出装置2は、車両の移動量が所定の閾値(例えば75mm)に達したか否かを判定する(ステップS40)。なお、この閾値は、75mmに限らず、30〜100mmなど、要求する精度や、カメラの仕様、車両の速度などに応じて任意に設定できる。   Further, the object detection device 2 obtains the amount of movement of the vehicle based on the optical flow of the photographed image acquired from the camera 1, and obtains the amount of movement of the vehicle calculated from the time when the first image was photographed (step S30). ). Then, the object detection device 2 determines whether or not the movement amount of the vehicle has reached a predetermined threshold (for example, 75 mm) (step S40). The threshold value is not limited to 75 mm, and can be arbitrarily set according to required accuracy, camera specifications, vehicle speed, and the like, such as 30 to 100 mm.

車両の移動量が所定の閾値に達したか場合、この時刻に撮影された撮影画像を第二の画像として取得する(ステップS50)。   If the amount of movement of the vehicle has reached a predetermined threshold value, the captured image captured at this time is acquired as the second image (step S50).

物体検出装置2は、ステップS50で取得した第二の画像を空間フィルタで処理して解像度を低下させ、第二の画像の解像度を第一の画像に合わせるように補正する(ステップS60)。即ち、ステップS60では、車両が後進しているため、ステップS20で先に取得した第一の画像よりもステップS50で取得した第二の画像の方が共通の被写体に近づいて撮影しており、第二の画像の方が解像度が高いため第一の画像に合わせて解像度を低下させている。   The object detection device 2 processes the second image acquired in step S50 with a spatial filter to reduce the resolution, and corrects the resolution of the second image to match the first image (step S60). That is, in step S60, since the vehicle is moving backward, the second image acquired in step S50 is photographed closer to the common subject than the first image acquired in step S20 first. Since the resolution of the second image is higher, the resolution is lowered according to the first image.

次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された立体物(物体)を検出する(ステップS70)。また、物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップ70で検出された物体のうち、当該走路上に存在する物体及び当該走路と近接する物体を障害物として検出する(ステップS80)。   Next, the object detection device 2 compares the first image with the second image, and detects a three-dimensional object (object) photographed in the first image and the second image by the background subtraction method. (Step S70). In addition, the object detection device 2 predicts the travel path of the vehicle based on the moving direction and the steering angle of the vehicle, and among the objects detected in step 70, the object existing on the travel path and the object close to the travel path. Is detected as an obstacle (step S80).

そして、物体検出装置2は、ステップS80で検出した障害物の情報に基づき、第二の画像のうち、障害物として抽出した物体の部分に、障害物であることを示す警告パターンを合成する(ステップS90)。また、物体検出装置2は、警告パターンを合成した第二の画像を映像信号として表示装置3へ出力し、表示装置3に表示させる(ステップS100)。   And the object detection apparatus 2 synthesize | combines the warning pattern which shows that it is an obstruction in the part of the object extracted as an obstruction in a 2nd image based on the information of the obstruction detected by step S80 ( Step S90). Moreover, the object detection apparatus 2 outputs the 2nd image which synthesize | combined the warning pattern to the display apparatus 3 as a video signal, and displays it on the display apparatus 3 (step S100).

一方、ステップS10で車両の移動方向が後進でなければ(ステップS10、No)、物体検出装置2は、カメラ1から取得した撮影画像から、第二の画像を取得する(ステップS120)。   On the other hand, if the moving direction of the vehicle is not reverse in step S10 (No in step S10), the object detection device 2 acquires a second image from the captured image acquired from the camera 1 (step S120).

また、物体検出装置2は、カメラ1から取得した撮影画像のオプティカルフローに基づいて車両の移動量を求めて、第二の画像が撮影された時刻から起算した車両の移動量を求める(ステップS130)。そして、物体検出装置2は、車両の移動量が所定の閾値(例えば75mm)に達したか否かを判定する(ステップS140)。   Further, the object detection device 2 obtains the amount of movement of the vehicle based on the optical flow of the photographed image acquired from the camera 1, and obtains the amount of movement of the vehicle calculated from the time when the second image was photographed (step S130). ). Then, the object detection device 2 determines whether or not the amount of movement of the vehicle has reached a predetermined threshold (for example, 75 mm) (step S140).

車両の移動量が所定の閾値に達したか場合、この時刻に撮影された撮影画像を第一の画像として取得する(ステップS150)。   If the amount of movement of the vehicle has reached a predetermined threshold value, the captured image captured at this time is acquired as the first image (step S150).

物体検出装置2は、ステップS120で取得した第二の画像を空間フィルタで処理して解像度を低下させ、第二の画像の解像度を第一の画像に合わせるように補正する(ステップS160)。即ち、ステップS160では、車両が前進しているため、ステップS150で取得した第一の画像よりもステップS120で取得した第二の画像の方が共通の被写体の近くで撮影しており、第二の画像の方が解像度が高いため第一の画像に合わせて解像度を低下させている。   The object detection device 2 processes the second image acquired in step S120 with a spatial filter to reduce the resolution, and corrects the resolution of the second image to match the first image (step S160). That is, in step S160, since the vehicle is moving forward, the second image acquired in step S120 is taken closer to the common subject than the first image acquired in step S150. Since the image has a higher resolution, the resolution is lowered in accordance with the first image.

次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された立体物(物体)を検出する(ステップS170)。また、物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップ170で検出された物体のうち、当該走路上に存在する物体及び当該走路と近接する物体を障害物として検出する(ステップS180)。   Next, the object detection device 2 compares the first image with the second image, and detects a three-dimensional object (object) photographed in the first image and the second image by the background subtraction method. (Step S170). In addition, the object detection device 2 predicts the road of the vehicle based on the moving direction and the steering angle of the vehicle, and among the objects detected in step 170, the object existing on the road and the object close to the road Is detected as an obstacle (step S180).

なお、本実施形態では、車両の移動方向が前進の場合、カメラ1で撮影した画像を表示装置3に表示させないため、障害物を検出するまでの処理(ステップS120〜S180)は行うが、警告パターンの合成や表示装置3への出力の処理は行わない。これにより例
えば、駐車時に切り返しのため、シフトポジションが後進から前進に切り替えられ、再び後進に戻された場合でも、前進時に求めた障害物の情報を用いて後進に切り替えた直後の撮影画像に警告パターンを合成して表示装置3へ出力することができる。
In the present embodiment, when the moving direction of the vehicle is forward, the image captured by the camera 1 is not displayed on the display device 3, so the processing until the obstacle is detected (steps S 120 to S 180) is performed. Processing for pattern synthesis and output to the display device 3 is not performed. As a result, for example, even when the shift position is switched from reverse to forward because of switching back when parked, and back again, the captured image immediately after switching to reverse using the information on obstacles obtained during forward is warned. Patterns can be synthesized and output to the display device 3.

また、本実施形態の物体検出システム10は、障害物を表示する専用の表示装置を備え、同様に前進時にもステップS180で検出した障害物の情報を用い、更新時のステップS90、S100と同様に第二の画像に警告パターンを合成して専用の表示装置へ出力し、表示させてもよい。   Further, the object detection system 10 of the present embodiment includes a dedicated display device that displays an obstacle, and similarly uses the information on the obstacle detected in step S180 during advance, and is similar to steps S90 and S100 during update. Alternatively, a warning pattern may be combined with the second image and output to a dedicated display device for display.

<解像度補正の効果>
図6は、本実機形態の物体検出方法おける解像度補正の効果を説明する図である。図6では、第一の画像41、第二の画像43のそれぞれ路面上の同じ位置を拡大して拡大画像42,44として示している。即ち、拡大画像42,44は、共通の被写体を撮影した部分である。
<Effect of resolution correction>
FIG. 6 is a diagram for explaining the effect of resolution correction in the object detection method according to the present embodiment. In FIG. 6, the same positions on the road surface of the first image 41 and the second image 43 are enlarged and shown as enlarged images 42 and 44. That is, the enlarged images 42 and 44 are portions where a common subject is photographed.

拡大画像42,44を比較した場合、拡大画像42の輪郭が、ぼやけているのに対し、拡大画像44では輪郭の細かな形状が表示されている。このため拡大画像42,44を比較して物体を検出した場合、拡大画像45のように、輪郭部分の差異が物体として誤検知されてしまう。   When the enlarged images 42 and 44 are compared, the outline of the enlarged image 42 is blurred, whereas the enlarged image 44 displays a fine outline shape. For this reason, when the enlarged images 42 and 44 are compared with each other and an object is detected, a difference in the contour portion is erroneously detected as an object as in the enlarged image 45.

そこで、図5の処理により、第二の画像43を空間フィルタによって処理し、拡大画像46のように解像度を低下させて第一の画像の解像度と合わせている。これにより拡大画像46では、輪郭部分が拡大画像42と同程度にぼやけ、差異が少なくなっている。このため拡大画像42,46を比較して物体を検出した場合、拡大画像47のように、輪郭部分に誤検知が生じなくなる。   Therefore, the second image 43 is processed by the spatial filter by the process of FIG. 5, and the resolution is lowered to match the resolution of the first image as in the enlarged image 46. Thereby, in the enlarged image 46, the outline portion is blurred as much as the enlarged image 42, and the difference is reduced. For this reason, when the enlarged images 42 and 46 are compared to detect an object, erroneous detection does not occur in the contour portion as in the enlarged image 47.

<実施形態の作用効果>
以上のように、本実施形態1によれば、第一の画像の解像度にあわせて第二の画像の解像度を低下させて補正し、補正後の第一の画像と第二の画像を比較した差分に基づいて、第一の画像内及び第二の画像内に撮影された物体を検出する。
<Effects of Embodiment>
As described above, according to the first embodiment, the correction is performed by reducing the resolution of the second image in accordance with the resolution of the first image, and the corrected first image and the second image are compared. Based on the difference, an object photographed in the first image and the second image is detected.

これにより、本実施形態の物体検出装置2は、第一の画像と第二の画像の撮影位置が異なることによる解像度の違いを抑え、第一の画像と第二の画像を比較して物体を検出する際の検出精度を向上させることができる。   Thereby, the object detection apparatus 2 of the present embodiment suppresses the difference in resolution due to the shooting positions of the first image and the second image being different, and compares the first image with the second image to detect the object. The detection accuracy at the time of detection can be improved.

また、本実施形態1の物体検出装置2は、車両の移動方向を検出するシフトポジション取得部26(移動方向検出部)を備え、カメラ1が車両の後方を撮影するように設置され、画像取得部21が、シフトポジション取得部26によって検出されたシフトポジション(車両の移動方向)に基づき、車両の移動方向が後進のときには、第二の画像よりも前の時刻に撮影された画像を第一の画像として取得し、前記車両の移動方向が前進のときには、第二の画像よりも後の時刻に撮影された画像を第一の画像として取得する。   Further, the object detection device 2 of the first embodiment includes a shift position acquisition unit 26 (movement direction detection unit) that detects the moving direction of the vehicle, and is installed so that the camera 1 captures the rear of the vehicle and acquires an image. Based on the shift position (movement direction of the vehicle) detected by the shift position acquisition unit 26, the unit 21 uses the first image captured at a time before the second image when the vehicle movement direction is reverse. When the moving direction of the vehicle is forward, an image taken at a time later than the second image is acquired as the first image.

これにより、本実施形態の物体検出装置2は、車両の移動方向に基づいて第一の画像と第二の画像とを適切に取得し、第一の画像と比べて、共通の被写体を近い位置で撮影した第二の画像の解像度を低下させ、第一の画像と第二の画像を比較して物体を検出する際の検出精度を向上させることができる。   Thereby, the object detection device 2 of the present embodiment appropriately acquires the first image and the second image based on the moving direction of the vehicle, and positions the common subject closer to the first image than the first image. It is possible to reduce the resolution of the second image photographed in step 1 and improve the detection accuracy when detecting the object by comparing the first image and the second image.

また、本実施形態1の物体検出装置2は、シフトポジション取得部(移動方向検出部)26が、車両のシフトポジションに基づいて、車両の移動方向を検出する。   In the object detection device 2 according to the first embodiment, the shift position acquisition unit (movement direction detection unit) 26 detects the movement direction of the vehicle based on the shift position of the vehicle.

これにより、本実施形態の物体検出装置2は、切り返し時などに、車両の移動方向を確実に検出することができる。   Thereby, the object detection apparatus 2 of this embodiment can detect the moving direction of a vehicle reliably at the time of a turnback.

また、本実施形態1の物体検出装置2は、車両の移動量を検出する移動量検出部23を備え、画像取得部21は、第一の画像及び第二の画像のうち、一方の画像が撮影された時刻から起算した車両の移動量が閾値に達した時刻に撮影された画像を他方の画像として取得する。   In addition, the object detection device 2 of the first embodiment includes a movement amount detection unit 23 that detects the movement amount of the vehicle, and the image acquisition unit 21 has one of the first image and the second image. An image captured at the time when the moving amount of the vehicle calculated from the captured time reaches the threshold is acquired as the other image.

これにより、本実施形態の物体検出装置2は、適切なタイミングで第一の画像と第二の画像を取得し、第一の画像と第二の画像を比較して物体を検出する際の検出精度を向上させることができる。例えば静止している物体は、車両側に動きがなければ異なる時刻の画像を比較しても差異が少ないため、この差異が適切な大きさとなるように、車両の移動量が閾値に達した時に物体検出を行うことで、適切に静止している物体を検出することができる。   Thereby, the object detection apparatus 2 according to the present embodiment acquires the first image and the second image at appropriate timing, and detects the object by comparing the first image and the second image. Accuracy can be improved. For example, if there is no movement on the vehicle side, there is little difference even when comparing images at different times, so that when the amount of movement of the vehicle reaches a threshold value, this difference will have an appropriate magnitude. By performing object detection, an object that is stationary properly can be detected.

<変形例>
前述の実施形態1では、カメラ1を車両の後部に設けて、車両後方の障害物を検出する構成としたが、これに限らず、カメラ(撮影装置)を車両の前部に設けて、車両前方の障害物を検出する構成としてもよい。図7は、カメラを車両の前部に設けた場合の物体検出方法の説明図である。本変形例は、前述の実施形態1とくらべて、カメラ1を車両の前部設け、前進時にも表示装置3にカメラ1で撮影した画像を表示させる構成と図7に示す一部の処理が異なり、その他の構成は同じである。このため同一の要素については、再度の説明を省略する。
<Modification>
In the first embodiment, the camera 1 is provided at the rear of the vehicle to detect an obstacle behind the vehicle. However, the present invention is not limited to this, and the camera (imaging device) is provided at the front of the vehicle. It may be configured to detect a front obstacle. FIG. 7 is an explanatory diagram of an object detection method when a camera is provided at the front of the vehicle. Compared with the above-described first embodiment, the present modified example has a configuration in which the camera 1 is provided at the front of the vehicle and the image captured by the camera 1 is displayed on the display device 3 even when moving forward, and a part of the processing shown in FIG. Different, other configurations are the same. For this reason, the description of the same element is omitted.

本変形例では、車両前部にカメラが設けられているため、図7の処理は前述の実施形態1に係る図5と比べて、前進で行う処理と後進で行う処理が反対になっている。例えば、図7では、ステップS10Aにおいて、車両の移動方向が前進と判定した場合にステップS20へ移行し、ステップS10Aにおいて、車両の移動方向が前進と判定した場合にステップS120へ移行する。ステップS20〜S100,ステップS120〜S180の処理は、図5と同じである。なお、図7の処理では、後進時に、ステップ180で、障害物を検出した後、物体検出装置2は、障害物の情報に基づき、第二の画像のうち、障害物として抽出した物体の部分に、障害物であることを示す警告パターンを合成する(ステップS190)。また、物体検出装置2は、警告パターンを合成した第二の画像を映像信号として表示装置3へ出力し、表示装置3に表示させる(ステップS100)。   In this modified example, since the camera is provided in the front part of the vehicle, the process in FIG. 7 is opposite to the process in the forward direction and the process in the reverse direction as compared to FIG. 5 according to the first embodiment. . For example, in FIG. 7, when it is determined in step S10A that the moving direction of the vehicle is forward, the process proceeds to step S20. In step S10A, when it is determined that the moving direction of the vehicle is forward, the process proceeds to step S120. The processes in steps S20 to S100 and steps S120 to S180 are the same as those in FIG. In the process of FIG. 7, at the time of reverse travel, after detecting an obstacle at Step 180, the object detection device 2 extracts the part of the object extracted as an obstacle from the second image based on the obstacle information. Then, a warning pattern indicating an obstacle is synthesized (step S190). Moreover, the object detection apparatus 2 outputs the 2nd image which synthesize | combined the warning pattern to the display apparatus 3 as a video signal, and displays it on the display apparatus 3 (step S100).

このように本変形例によれば、カメラ1が車両の前方を撮影するように設置され、画像取得部21が、シフトポジション取得部26によって検出された車両の移動方向に基づき、車両の移動方向が前進のときには、第二の画像よりも前の時刻に撮影された画像を第一の画像として取得し、前記車両の移動方向が後進のときには、第二の画像よりも後の時刻に撮影された画像を第一の画像として取得する。   As described above, according to this modification, the camera 1 is installed so as to capture the front of the vehicle, and the image acquisition unit 21 is based on the vehicle movement direction detected by the shift position acquisition unit 26. When the vehicle is moving forward, an image taken at a time earlier than the second image is acquired as the first image, and when the vehicle is moving backward, the image is taken at a time later than the second image. The acquired image is acquired as the first image.

これにより、本変形例の物体検出装置2は、カメラ1を車両部に設けて車両前方の物体を検出する場合においても、車両の移動方向に基づいて第一の画像と第二の画像とを適切に取得し、第一の画像と比べて、共通の被写体を近い位置で撮影した第二の画像の解像度を低下させ、第一の画像と第二の画像を比較して物体を検出する際の検出精度を向上させることができる。   As a result, the object detection device 2 of the present modified example generates the first image and the second image based on the moving direction of the vehicle even when the camera 1 is provided in the vehicle unit to detect an object in front of the vehicle. When properly detecting and reducing the resolution of the second image taken at a close position of a common subject compared to the first image, and comparing the first image with the second image to detect the object Detection accuracy can be improved.

<実施形態2>
前述の実施形態1では、車両の移動量が所定の閾値に達した場合に物体の検出を行う処理を示しており、主に静止物を対象としていた。本実施形態2は、前述の実施形態1の構
成に加え、移動物の検出も行う構成としている。本実施形態2において、前述の実施形態1と同一の要素は、同符号を付す等して再度の説明を省略する。
<Embodiment 2>
In the first embodiment described above, a process for detecting an object when the amount of movement of the vehicle reaches a predetermined threshold is shown, and mainly a stationary object. The second embodiment is configured to detect a moving object in addition to the configuration of the first embodiment described above. In the second embodiment, the same elements as those of the first embodiment are denoted by the same reference numerals and the description thereof is omitted.

図8は、本実施形態2に係る物体検出装置2が実行する物体検出方法の説明図である。先ず、物体検出装置2は、シフトポジションを取得し、車両の移動方向が後進か否かを判定する。車両の移動方向が後進であれば(ステップS210、Yes)、物体検出装置2は、カメラ1から取得した撮影画像から、第二の画像を取得する(ステップS220)。   FIG. 8 is an explanatory diagram of an object detection method executed by the object detection device 2 according to the second embodiment. First, the object detection device 2 acquires a shift position and determines whether the moving direction of the vehicle is reverse. If the moving direction of the vehicle is reverse (step S210, Yes), the object detection device 2 acquires a second image from the captured image acquired from the camera 1 (step S220).

また、物体検出装置2は、カメラ1から取得した撮影画像のうち、ステップS220で取得した第二の画像の一つ前のフレームである撮影画像を第一の画像として取得する(ステップS230)。なお、本実施形態では、第二の画像の一つ前のフレームを第一の画像としたが、これに限らず、第二の画像の所定数前のフレームを第一の画像としてもよい。即ち、第二の画像に対して所定の時間を隔てて第一の画像を取得してもよい。   Further, the object detection device 2 acquires a captured image that is a frame immediately before the second image acquired in step S220 among the captured images acquired from the camera 1 as a first image (step S230). In the present embodiment, the frame immediately before the second image is the first image. However, the present invention is not limited to this, and a predetermined number of frames before the second image may be the first image. That is, the first image may be acquired with a predetermined time interval from the second image.

物体検出装置2は、カメラ1から取得した撮影画像のオプティカルフローに基づいて、第一の画像が撮影された時刻から第二の画像が撮影された時刻までの車両の移動量を求める(ステップS240)。   The object detection device 2 obtains the amount of movement of the vehicle from the time when the first image was captured to the time when the second image was captured based on the optical flow of the captured image acquired from the camera 1 (step S240). ).

物体検出装置2は、ステップS230で取得した第二の画像を空間フィルタで処理して解像度を低下させる。ここで物体検出装置2は、ステップS240で求めた車両の移動量に基づいてフィルタ係数を決定し、この車両の移動量に応じた係数の空間フィルタで第二の画像の解像度を第一の画像に合わせるように補正する(ステップS250)。例えば、車両の移動量が大きく、第一の画像と第二の画像の解像度の差が大きい場合には、解像度を低下させる程度を大きくし、車両の移動量が大きく、第一の画像と第二の画像の解像度の差が小さい場合には、解像度を低下させる程度を小さくするようにフィルタ係数を設定する。   The object detection apparatus 2 processes the second image acquired in step S230 with a spatial filter to reduce the resolution. Here, the object detection device 2 determines a filter coefficient based on the movement amount of the vehicle obtained in step S240, and sets the resolution of the second image to the first image with a spatial filter having a coefficient corresponding to the movement amount of the vehicle. (Step S250). For example, when the amount of movement of the vehicle is large and the difference between the resolutions of the first image and the second image is large, the degree to which the resolution is reduced is increased, the amount of movement of the vehicle is large, and the first image and the first image When the difference between the resolutions of the two images is small, the filter coefficient is set so as to reduce the degree of lowering the resolution.

次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された立体物(物体)を検出し、メモリに記憶する(ステップS260)。また、物体検出装置2は、ステップ260で検出された物体のうち、メモリに記憶した過去の検出結果と比較して移動している物体を移動物として検出する(ステップS270)。   Next, the object detection device 2 compares the first image with the second image, and detects a three-dimensional object (object) photographed in the first image and the second image by the background subtraction method. And stored in the memory (step S260). Moreover, the object detection apparatus 2 detects the moving object compared with the past detection result memorize | stored in memory among the objects detected by step 260 as a moving object (step S270).

物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップS270で検出された移動物のうち、当該走路上に存在する物体及び当該走路に向かって移動している物体を障害物として検出する(ステップS280)。   The object detection device 2 predicts the traveling path of the vehicle based on the moving direction and the steering angle of the vehicle, and moves toward the traveling object detected on the traveling path among the moving objects detected in step S270. The detected object is detected as an obstacle (step S280).

また、物体検出装置2は、前回静止物の検出を行った時刻から起算した車両の移動量が所定の閾値(例えば75mm)以上か否かを判定する(ステップS290)。   Further, the object detection device 2 determines whether or not the moving amount of the vehicle calculated from the time when the stationary object was detected last time is greater than or equal to a predetermined threshold (for example, 75 mm) (step S290).

この車両の移動量が所定の閾値以上でなければ(ステップS290,No)、物体検出装置2は、ステップS340へ移行し、車両の移動量が所定の閾値以上であれば(ステップS290,Yes)、前回静止物の検出を行った時刻に撮影した撮影画像を第一の画像として取得する(ステップS300)。   If the amount of movement of the vehicle is not equal to or greater than the predetermined threshold value (step S290, No), the object detection device 2 proceeds to step S340, and if the amount of movement of the vehicle is equal to or greater than the predetermined threshold value (step S290, Yes). Then, the photographed image taken at the time when the stationary object was detected last time is acquired as the first image (step S300).

物体検出装置2は、ステップS220で取得した第二の画像を空間フィルタで処理して解像度を低下させ、第二の画像の解像度を第一の画像に合わせるように補正する(ステップS310)。このステップS310の空間フィルタのフィルタ係数は、ステップS250における空間フィルタのフィルタ係数よりも解像度を低下させる程度を大きくするように設定してもよい。   The object detection device 2 processes the second image acquired in step S220 with a spatial filter to reduce the resolution, and corrects the resolution of the second image to match the first image (step S310). The filter coefficient of the spatial filter in step S310 may be set to be larger than the filter coefficient of the spatial filter in step S250.

次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された物体(主に静止物)を検出する(ステップS320)。また、物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップ320で検出された物体のうち、当該走路上に存在する物体及び当該走路と近接する物体を障害物として検出する(ステップS330)。   Next, the object detection device 2 compares the first image with the second image, and the object (mainly a stationary object) photographed in the first image and the second image by the background difference method. It detects (step S320). Further, the object detection device 2 predicts the road of the vehicle based on the moving direction and the steering angle of the vehicle, and among the objects detected in step 320, the object existing on the road and the object close to the road Is detected as an obstacle (step S330).

そして、物体検出装置2は、ステップS280,S330で検出した障害物の情報に基づいて、第二の画像のうち、障害物として抽出した物体の部分に、障害物であることを示す警告パターンを合成する(ステップS340)。また、物体検出装置2は、ステップS280で検出した移動物である障害物と、ステップS330で検出した静止物である障害物とで警告パターンを異ならせてもよい。なお、ステップS290で、車両の移動量が所定の閾値以上でない(ステップS290,No)と判定され、ステップS290からステップS340へ移行した場合には、ステップS280で検出した障害物の情報に基づいて、警告パターンを合成する。   Then, the object detection device 2 displays a warning pattern indicating an obstacle on the part of the object extracted as an obstacle in the second image based on the obstacle information detected in steps S280 and S330. These are synthesized (step S340). Further, the object detection device 2 may change the warning pattern between the obstacle that is the moving object detected in step S280 and the obstacle that is the stationary object detected in step S330. If it is determined in step S290 that the amount of movement of the vehicle is not equal to or greater than the predetermined threshold (No in step S290) and the process proceeds from step S290 to step S340, based on the obstacle information detected in step S280. Synthesize a warning pattern.

物体検出装置2は、警告パターンを合成した第二の画像を映像信号として表示装置3へ出力し、表示装置3に表示させる(ステップS350)。   The object detection device 2 outputs the second image obtained by synthesizing the warning pattern to the display device 3 as a video signal and displays the second image on the display device 3 (step S350).

一方、ステップS210で車両の移動方向が後進でなければ(ステップS210、No)、物体検出装置2は、カメラ1から取得した撮影画像から、第一の画像を取得する(ステップS420)。   On the other hand, if the moving direction of the vehicle is not reverse in step S210 (No in step S210), the object detection device 2 acquires a first image from the captured image acquired from the camera 1 (step S420).

また、物体検出装置2は、カメラ1から取得した撮影画像のうち、ステップS420で取得した第一の画像の一つ前のフレームである撮影画像を第二の画像として取得する(ステップS430)。なお、本実施形態では、第一の画像の一つ前のフレームを第二の画像としたが、これに限らず、第一の画像の所定数前のフレームを第二の画像としてもよい。即ち、第一の画像に対して所定の間隔を空けて第二の画像を取得してもよい。   Further, the object detection device 2 acquires a captured image that is a frame immediately before the first image acquired in step S420 among the captured images acquired from the camera 1 as a second image (step S430). In the present embodiment, the frame immediately before the first image is the second image. However, the present invention is not limited to this, and a predetermined number of frames before the first image may be the second image. That is, the second image may be acquired with a predetermined interval from the first image.

物体検出装置2は、カメラ1から取得した撮影画像のオプティカルフローに基づいて、第一の画像が撮影された時刻から第二の画像が撮影された時刻までの車両の移動量を求める(ステップS440)。   The object detection device 2 obtains the amount of movement of the vehicle from the time when the first image was captured to the time when the second image was captured based on the optical flow of the captured image acquired from the camera 1 (step S440). ).

物体検出装置2は、ステップS420で取得した第二の画像を空間フィルタで処理して解像度を低下させる。ここで物体検出装置2は、ステップS440で求めた車両の移動量に基づいてフィルタ係数を決定し、この車両の移動量に応じた係数の空間フィルタで第二の画像の解像度を第一の画像に合わせるように補正する(ステップS450)。   The object detection apparatus 2 processes the second image acquired in step S420 with a spatial filter to reduce the resolution. Here, the object detection device 2 determines a filter coefficient based on the movement amount of the vehicle obtained in step S440, and sets the resolution of the second image to the first image with a spatial filter having a coefficient corresponding to the movement amount of the vehicle. (Step S450).

次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された立体物(物体)を検出し、メモリに記憶する(ステップS460)。また、物体検出装置2は、ステップ460で検出された物体のうち、メモリに記憶した過去の検出結果と比較して移動している物体を移動物として検出する(ステップS470)。   Next, the object detection device 2 compares the first image with the second image, and detects a three-dimensional object (object) photographed in the first image and the second image by the background subtraction method. And stored in the memory (step S460). Further, the object detection device 2 detects, as a moving object, an object that is moving in comparison with the past detection result stored in the memory among the objects detected in step 460 (step S470).

物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップS470で検出された移動物のうち、当該走路上に存在する物体及び当該走路に向かって移動している物体を障害物として検出する(ステップS480)。   The object detection device 2 predicts the traveling path of the vehicle based on the moving direction and the rudder angle of the vehicle, and moves toward the traveling path and the object present on the traveling path among the moving objects detected in step S470. The detected object is detected as an obstacle (step S480).

また、物体検出装置2は、前回静止物の検出を行った時刻から起算した車両の移動量が所定の閾値(例えば75mm)以上か否かを判定する(ステップS490)。   Further, the object detection device 2 determines whether or not the moving amount of the vehicle calculated from the time when the stationary object was detected last time is greater than or equal to a predetermined threshold (for example, 75 mm) (step S490).

この車両の移動量が所定の閾値以上でなければ(ステップS490,No)、物体検出装置2は、図8の処理を終了し、車両の移動量が所定の閾値以上であれば(ステップS490,Yes)、前回静止物の検出を行った時刻に撮影した撮影画像を第二の画像として取得する(ステップS500)。   If the amount of movement of the vehicle is not greater than or equal to the predetermined threshold (No at step S490), the object detection device 2 ends the process of FIG. 8, and if the amount of movement of the vehicle is greater than or equal to the predetermined threshold (step S490, Yes), a captured image captured at the time when the stationary object was detected last time is acquired as a second image (step S500).

物体検出装置2は、ステップS500で取得した第二の画像を空間フィルタで処理して解像度を低下させ、第二の画像の解像度を第一の画像に合わせるように補正する(ステップS510)。このステップS510の空間フィルタのフィルタ係数は、ステップS450における空間フィルタのフィルタ係数よりも解像度を低下させる程度を大きくするように設定してもよい。   The object detection apparatus 2 processes the second image acquired in step S500 with a spatial filter to reduce the resolution, and corrects the second image so that the resolution matches the first image (step S510). The filter coefficient of the spatial filter in step S510 may be set to be larger than the filter coefficient of the spatial filter in step S450.

次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された静止物を検出する(ステップS520)。また、物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップ520で検出された物体のうち、当該走路上に存在する物体及び当該走路と近接する物体を障害物として検出する(ステップS530)。   Next, the object detection device 2 compares the first image with the second image, and detects a stationary object photographed in the first image and the second image by the background subtraction method (step S520). ). In addition, the object detection device 2 predicts the road of the vehicle based on the moving direction and the steering angle of the vehicle, and among the objects detected in step 520, the object existing on the road and the object close to the road Is detected as an obstacle (step S530).

このように本実施形態2によれば、移動する障害物と静止している障害物とを検出できる。特に、カメラ1で撮影した撮影画像の毎フレームについて、障害物検出を行うことで、移動する障害物を精度良く検出できると共に、車両の移動量が閾値に達する毎に、障害物検出を行うことで、静止物の差分が適当な大きさとなるタイミングで静止している障害物を検出できる。   Thus, according to the second embodiment, it is possible to detect a moving obstacle and a stationary obstacle. In particular, by performing obstacle detection for each frame of a photographed image taken by the camera 1, it is possible to accurately detect a moving obstacle, and to perform obstacle detection every time the amount of movement of the vehicle reaches a threshold value. Thus, the stationary obstacle can be detected at a timing when the difference between the stationary objects becomes an appropriate size.

また、本実施形態2の物体検出装置2は、解像度補正部24が、第一の画像及び第二の画像に共通して撮影された被写体と車両との距離(撮影距離)に応じて、第二の画像の解像度を低下させる程度を異ならせる。例えば、当該撮影距離に応じて、第二の画像を処理する空間フィルタのフィルタ係数を異ならせている。   Further, in the object detection device 2 according to the second embodiment, the resolution correction unit 24 performs the first operation according to the distance (shooting distance) between the subject and the vehicle shot in common with the first image and the second image. The degree of lowering the resolution of the second image is varied. For example, the filter coefficient of the spatial filter for processing the second image is varied according to the shooting distance.

これにより、本実施形態2の物体検出装置2は、車両の移動量が大きく、第一の画像と第二の画像の解像度の差が大きい場合には、解像度を低下させる程度を大きくし、車両の移動量が大きく、第一の画像と第二の画像の解像度の差が小さい場合には、解像度を低下させる程度を小さくするようにフィルタ係数を設定して、適切に第二の画像の解像度を補正し、物体を検出する際の検出精度を向上させることができる。   As a result, the object detection device 2 of the second embodiment increases the degree to which the resolution is reduced when the amount of movement of the vehicle is large and the difference in resolution between the first image and the second image is large. If the amount of movement is large and the difference in resolution between the first image and the second image is small, the filter coefficient is set so as to reduce the degree of resolution reduction, and the resolution of the second image is appropriately set. And the detection accuracy when detecting an object can be improved.

<変形例>
前述の実施形態2では、カメラ1を車両の後部に設けて、車両後方の障害物を検出する構成としたが、これに限らず、カメラ(撮影装置)を車両の前部に設けて、車両前方の障害物を検出する構成としてもよい。図9は、カメラを車両の前部に設けた場合の物体検出方法の説明図である。本変形例は、前述の実施形態2とくらべて、カメラ1を車両の前部設け、前進時にも表示装置3にカメラ1で撮影した画像を表示させる構成と図9に示す一部の処理が異なり、その他の構成は同じである。このため同一の要素については、再度の説明を省略する。
<Modification>
In Embodiment 2 described above, the camera 1 is provided at the rear of the vehicle to detect obstacles behind the vehicle. However, the present invention is not limited to this, and the camera (imaging device) is provided at the front of the vehicle. It may be configured to detect a front obstacle. FIG. 9 is an explanatory diagram of an object detection method when a camera is provided at the front of the vehicle. Compared with the above-described second embodiment, the present modified example has a configuration in which the camera 1 is provided at the front of the vehicle and the image captured by the camera 1 is displayed on the display device 3 even when moving forward, and a part of the processing shown in FIG. Different, other configurations are the same. For this reason, the description of the same element is omitted.

本変形例では、車両前部にカメラが設けられているため、図9の処理は前述の実施形態2に係る図8と比べて、前進で行う処理と後進で行う処理が反対になっている。例えば、図9では、ステップS210Aにおいて、車両の移動方向が前進と判定した場合にステップS220へ移行し、ステップS210Aにおいて、車両の移動方向が後進と判定した場合にステップS420へ移行する。ステップS220〜S350,ステップS420〜S530の処理は、図8と同じである。なお、図7の処理では、後進時に、ステップ530
で、障害物を検出した後、物体検出装置2は、障害物の情報に基づき、第二の画像のうち、障害物として抽出した物体の部分に、障害物であることを示す警告パターンを合成する(ステップS540)。また、物体検出装置2は、ステップS480,S530で検出した障害物の情報に基づいて、第二の画像のうち、障害物として抽出した物体の部分に、障害物であることを示す警告パターンを合成する(ステップS540)。なお、ステップS490で、車両の移動量が所定の閾値以上でない(ステップS490,No)と判定され、ステップS490からステップS540へ移行した場合には、ステップS480で検出した障害物の情報に基づいて、警告パターンを合成する。
In this modified example, since a camera is provided in the front part of the vehicle, the process in FIG. 9 is opposite to the process in the forward direction and the process in the reverse direction as compared to FIG. 8 according to the second embodiment. . For example, in FIG. 9, when it is determined in step S210A that the moving direction of the vehicle is forward, the process proceeds to step S220. In step S210A, when it is determined that the moving direction of the vehicle is reverse, the process proceeds to step S420. The processes in steps S220 to S350 and steps S420 to S530 are the same as those in FIG. In the process of FIG. 7, step 530 is performed during reverse travel.
Then, after detecting the obstacle, the object detection device 2 synthesizes a warning pattern indicating the obstacle in the portion of the object extracted as the obstacle in the second image based on the obstacle information. (Step S540). Further, the object detection device 2 displays a warning pattern indicating an obstacle on the part of the object extracted as an obstacle in the second image based on the obstacle information detected in steps S480 and S530. These are synthesized (step S540). If it is determined in step S490 that the amount of movement of the vehicle is not equal to or greater than the predetermined threshold (No in step S490) and the process proceeds from step S490 to step S540, based on the obstacle information detected in step S480. Synthesize a warning pattern.

そして、物体検出装置2は、ステップS350へ移行し、警告パターンを合成した第二の画像を映像信号として表示装置3へ出力し、表示装置3に表示させる。   Then, the object detection device 2 proceeds to step S350, outputs the second image obtained by synthesizing the warning pattern to the display device 3 as a video signal, and causes the display device 3 to display the second image.

これにより、本変形例の物体検出装置2は、カメラ1を車両部に設けて車両前方の物体を検出する場合においても、車両の移動方向に基づいて第一の画像と第二の画像とを適切に取得し、第一の画像と比べて、共通の被写体を近い位置で撮影した第二の画像の解像度を低下させ、第一の画像と第二の画像を比較して物体を検出する際の検出精度を向上させることができる。   As a result, the object detection device 2 of the present modified example generates the first image and the second image based on the moving direction of the vehicle even when the camera 1 is provided in the vehicle unit to detect an object in front of the vehicle. When properly detecting and reducing the resolution of the second image taken at a close position of a common subject compared to the first image, and comparing the first image with the second image to detect the object Detection accuracy can be improved.

上記実施形態2及び変形例では、主に移動物を検出する処理(ステップS220〜S280、S420〜S480)と主に静止物を検出する処理(ステップS290〜S330、S490〜S530)とを実行する構成としたが、ステップS220〜S280、S420〜S480で移動物と静止物の両方を検出し、ステップS290〜S330、S490〜S530を省略しても良い。この場合、ステップS260、S460で検出した立体物のうち、ステップS270,S470で検出した移動物以外を静止物として検出し、この移動物と静止物についてステップS280,S480で障害物を検出しても良い。また、ステップS270,S470を省略し、移動物と静止物を区別せずにステップS260、S460で検出した全ての立体物についてステップS280,S480で障害物を検出しても良い。   In the said Embodiment 2 and a modification, the process which mainly detects a moving object (step S220-S280, S420-S480) and the process which mainly detects a stationary object (step S290-S330, S490-S530) are performed. Although it was set as the structure, both a moving object and a stationary object may be detected by step S220-S280, S420-S480, and step S290-S330, S490-S530 may be abbreviate | omitted. In this case, among the three-dimensional objects detected in steps S260 and S460, the moving objects detected in steps S270 and S470 are detected as stationary objects, and obstacles are detected in steps S280 and S480 for these moving objects and stationary objects. Also good. Alternatively, steps S270 and S470 may be omitted, and obstacles may be detected in steps S280 and S480 for all three-dimensional objects detected in steps S260 and S460 without distinguishing between moving objects and stationary objects.

上述した本発明の実施形態及び変形例はあくまでも例示であり、本発明はこれに限定されるものではない。また、上述した実施形態及び変形例において示した特徴的な構成は、本発明の趣旨を逸脱しない範囲において当然にその組み合わせが可能である。   The above-described embodiments and modifications of the present invention are merely examples, and the present invention is not limited thereto. The characteristic configurations shown in the above-described embodiments and modifications can naturally be combined without departing from the spirit of the present invention.

1 カメラ
2 物体検出装置
3 表示装置
10 物体検出システム
15 光軸
21 画像取得部
22 位置補正部
23 移動量検出部
24 解像度補正部
25 物体検出部
26 シフトポジション取得部
27 障害物判定部
28 出力制御部
DESCRIPTION OF SYMBOLS 1 Camera 2 Object detection apparatus 3 Display apparatus 10 Object detection system 15 Optical axis 21 Image acquisition part 22 Position correction part 23 Movement amount detection part 24 Resolution correction part 25 Object detection part 26 Shift position acquisition part 27 Obstacle determination part 28 Output control Part

Claims (9)

車両の移動を検出する移動検出部と、
前記車両に搭載され、前記車両の周囲を撮影する撮影装置から前記車両の移動に基づいて異なる時刻に撮影した第一の画像と第二の画像を取得する画像取得部と、
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正する解像度補正部と、
前記第一の画像内及び前記第二の画像内に撮影された物体を前記補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出する物体検出部と、
を備える物体検出装置。
A movement detector for detecting movement of the vehicle;
An image acquisition unit that is mounted on the vehicle and acquires a first image and a second image captured at different times based on movement of the vehicle from an imaging device that captures the surroundings of the vehicle;
A resolution correction unit that corrects the resolution of the second image by reducing the resolution according to the resolution of the first image;
An object detection unit that detects an object photographed in the first image and the second image based on a difference between the corrected first image and the second image;
An object detection apparatus comprising:
前記撮影装置が前記車両の後方を撮影するように設置され、
前記移動検出部が、前記車両の移動方向を検出し、
前記画像取得部が、前記移動検出部によって検出された前記車両の移動方向に基づき、前記車両の移動方向が後進のときには、前記第二の画像よりも前の時刻に撮影された画像を前記第一の画像として取得し、前記車両の移動方向が前進のときには、前記第二の画像よりも後の時刻に撮影された画像を前記第一の画像として取得する請求項1に記載の物体検出装置。
The photographing device is installed so as to photograph the rear of the vehicle;
The movement detecting unit detects a moving direction of the vehicle;
When the moving direction of the vehicle is reverse based on the moving direction of the vehicle detected by the movement detecting unit, the image acquiring unit captures an image taken at a time before the second image. The object detection device according to claim 1, wherein the object detection device acquires an image captured as a first image and an image captured at a time later than the second image when the moving direction of the vehicle is forward. .
前記撮影装置が前記車両の前方を撮影するように設置され、
前記移動検出部が、前記車両の移動方向を検出し、
前記画像取得部が、前記移動検出部によって検出された前記車両の移動方向に基づき、前記車両の移動方向が前進のときには、前記第二の画像よりも前の時刻に撮影された画像を前記第一の画像として取得し、前記車両の移動方向が後進のときには、前記第二の画像よりも後の時刻に撮影された画像を前記第一の画像として取得する請求項1に記載の物体検出装置。
The photographing device is installed so as to photograph the front of the vehicle;
The movement detecting unit detects a moving direction of the vehicle;
When the moving direction of the vehicle is forward based on the moving direction of the vehicle detected by the movement detecting unit, the image acquiring unit captures an image taken at a time before the second image. The object detection device according to claim 1, wherein the first image is acquired as a first image and an image taken at a time later than the second image is acquired when the moving direction of the vehicle is backward. .
前記移動検出部が、前記車両のシフトポジションに基づいて前記車両の移動方向を検出する請求項2又は3に記載の物体検出装置。   The object detection device according to claim 2, wherein the movement detection unit detects a moving direction of the vehicle based on a shift position of the vehicle. 前記移動検出部が、前記車両の移動量を検出し、
前記画像取得部は、前記第一の画像及び前記第二の画像のうち、一方の画像が撮影された時刻から起算した前記車両の移動量が閾値に達した時刻に撮影された画像を他方の画像として取得する請求項1〜4の何れか1項に記載の物体検出装置。
The movement detection unit detects a movement amount of the vehicle;
The image acquisition unit obtains an image captured at a time when a movement amount of the vehicle calculated from a time when one of the first image and the second image is captured reaches a threshold value. The object detection apparatus of any one of Claims 1-4 acquired as an image.
車両に搭載され、前記車両の周囲を撮影する撮影装置から所定の時間を隔てて異なる時刻に撮影した第一の画像と第二の画像を取得する画像取得部と、
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正する解像度補正部と、
前記第一の画像内及び前記第二の画像内に撮影された物体を前記補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出する物体検出部と、
を備える物体検出装置。
An image acquisition unit that is mounted on a vehicle and acquires a first image and a second image that are captured at different times from a photographing device that photographs the surroundings of the vehicle;
A resolution correction unit that corrects the resolution of the second image by reducing the resolution according to the resolution of the first image;
An object detection unit that detects an object photographed in the first image and the second image based on a difference between the corrected first image and the second image;
An object detection apparatus comprising:
前記解像度補正部は、前記第一の画像及び前記第二の画像に共通して撮影された被写体と前記車両との距離に応じて、前記第二の画像の解像度を低下させる程度を異ならせる請求項1〜6の何れか1項に記載の物体検出装置。   The resolution correction unit varies a degree of reducing the resolution of the second image according to a distance between a subject photographed in common with the first image and the second image and the vehicle. Item 7. The object detection device according to any one of Items 1 to 6. 車両の移動を検出するステップと、
車両に搭載され、前記車両の周囲を撮影する撮影装置から前記車両の移動に基づいて異なる時刻に撮影した第一の画像と第二の画像を取得するステップと、
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正するステップと、
前記第一の画像内及び前記第二の画像内に撮影された物体を補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出するステップと、
をコンピュータが実行する物体検出方法。
Detecting the movement of the vehicle;
Acquiring a first image and a second image captured at different times based on movement of the vehicle from an imaging device mounted on the vehicle and imaging the surroundings of the vehicle;
Correcting by reducing the resolution of the second image in accordance with the resolution of the first image; and
Detecting the object imaged in the first image and the second image based on a difference between the corrected first image and the second image;
An object detection method in which a computer executes.
車両に搭載され、前記車両の周囲を撮影する撮影装置から所定の時間を隔てて異なる時刻に撮影した第一の画像と第二の画像を取得するステップと、
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正するステップと、
前記第一の画像内及び前記第二の画像内に撮影された物体を前記補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出するステップと、
をコンピュータが実行する物体検出方法。
Obtaining a first image and a second image taken at different times from a photographing device mounted on a vehicle and photographing the surroundings of the vehicle; and
Correcting by reducing the resolution of the second image in accordance with the resolution of the first image; and
Detecting an object photographed in the first image and the second image based on a difference between the corrected first image and the second image;
An object detection method in which a computer executes.
JP2016212946A 2016-10-31 2016-10-31 Object detection device and object detection method Pending JP2018074411A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016212946A JP2018074411A (en) 2016-10-31 2016-10-31 Object detection device and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016212946A JP2018074411A (en) 2016-10-31 2016-10-31 Object detection device and object detection method

Publications (1)

Publication Number Publication Date
JP2018074411A true JP2018074411A (en) 2018-05-10

Family

ID=62111699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016212946A Pending JP2018074411A (en) 2016-10-31 2016-10-31 Object detection device and object detection method

Country Status (1)

Country Link
JP (1) JP2018074411A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020011675A (en) * 2018-07-20 2020-01-23 株式会社デンソーテン Image processing device and image processing method
JP2021135934A (en) * 2020-02-28 2021-09-13 パナソニックIpマネジメント株式会社 Detecting device, detecting method and program
JP2021174124A (en) * 2020-04-22 2021-11-01 三菱電機株式会社 Obstacle detection device, obstacle detection system including the same, and obstacle detection method
JP2021179849A (en) * 2020-05-14 2021-11-18 日立Astemo株式会社 Image processing device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020011675A (en) * 2018-07-20 2020-01-23 株式会社デンソーテン Image processing device and image processing method
JP7116613B2 (en) 2018-07-20 2022-08-10 株式会社デンソーテン Image processing device and image processing method
JP2021135934A (en) * 2020-02-28 2021-09-13 パナソニックIpマネジメント株式会社 Detecting device, detecting method and program
JP7481785B2 (en) 2020-02-28 2024-05-13 パナソニックオートモーティブシステムズ株式会社 DETECTION APPARATUS, DETECTION METHOD, AND PROGRAM
JP2021174124A (en) * 2020-04-22 2021-11-01 三菱電機株式会社 Obstacle detection device, obstacle detection system including the same, and obstacle detection method
JP2021179849A (en) * 2020-05-14 2021-11-18 日立Astemo株式会社 Image processing device
WO2021229866A1 (en) * 2020-05-14 2021-11-18 日立Astemo株式会社 Image processing device

Similar Documents

Publication Publication Date Title
JP6406159B2 (en) In-vehicle display control device, in-vehicle display control method
JP2009288867A (en) Lane marking detection device and lane marking detection method
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP5054612B2 (en) Approaching object detection device and approaching object detection method
WO2017022497A1 (en) Device for presenting assistance images to driver, and method therefor
CN107950023B (en) Vehicle display device and vehicle display method
JP2018074411A (en) Object detection device and object detection method
JP2020068515A (en) Image processing apparatus
JP2015186085A (en) Travel derivation apparatus and travel derivation method
JP4853444B2 (en) Moving object detection device
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2018116431A (en) Division line detection device, division line detection system, and division line detection method
JP6407596B2 (en) Image processing apparatus and driving support system
JP2006127083A (en) Image processing method, and image processor
JP5541099B2 (en) Road marking line recognition device
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP5493705B2 (en) Vehicle position detection device, vehicle position detection method, and vehicle position detection program
JP5395373B2 (en) Perimeter monitoring device
JP6677141B2 (en) Parking frame recognition device
JP2007317128A (en) Device and method for detecting moving distance
JP2018147241A (en) Image processing device, image processing method, and image processing program
JP4529768B2 (en) On-vehicle object detection device and object detection method
JP2009214790A (en) Apparatus and method for imaging, and apparatus and method for processing image
JP6677142B2 (en) Parking frame recognition device
JP6781010B2 (en) Image display device and image processing method