JP2018074411A - Object detection device and object detection method - Google Patents
Object detection device and object detection method Download PDFInfo
- Publication number
- JP2018074411A JP2018074411A JP2016212946A JP2016212946A JP2018074411A JP 2018074411 A JP2018074411 A JP 2018074411A JP 2016212946 A JP2016212946 A JP 2016212946A JP 2016212946 A JP2016212946 A JP 2016212946A JP 2018074411 A JP2018074411 A JP 2018074411A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- object detection
- resolution
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、物体検出装置及び物体検出方法に関する。 The present invention relates to an object detection device and an object detection method.
従来、車両走行の障害となりうる物体を検出し、その物体との衝突を回避する技術が開発されてきている。そこで、そのような車両周辺にある障害物の候補となるような物体を検出するために、カメラなどを用いて車両周辺を撮像しておき、撮像した画像を処理する技術が存在する。その画像内に映し出された物体を検出する一方法として背景差分法(フレーム間差分法とも称す)がある。 2. Description of the Related Art Conventionally, techniques for detecting an object that can be an obstacle to vehicle travel and avoiding a collision with the object have been developed. Therefore, in order to detect such an object that is a candidate for an obstacle around the vehicle, there is a technique for capturing the periphery of the vehicle using a camera or the like and processing the captured image. There is a background difference method (also referred to as an inter-frame difference method) as one method for detecting an object displayed in the image.
背景差分法では、異なる時刻に撮影した2枚の画像(現在フレーム、過去フレーム)について、過去フレームを取得してから現在フレームを取得するまでに移動した距離を求め、この移動した距離に基づいて、過去フレームと現在フレームとの撮影位置の差を補正(位置補正)し、補正後の画像の差分から物体を検出する。なお、本発明と関連する技術としては、例えば、特許文献1〜2がある。 In the background subtraction method, for two images (current frame and past frame) taken at different times, the distance moved from the acquisition of the past frame to the acquisition of the current frame is obtained, and based on the moved distance Then, the difference between the shooting positions of the past frame and the current frame is corrected (position correction), and an object is detected from the difference between the corrected images. In addition, as a technique relevant to this invention, there exist patent documents 1-2, for example.
上記のように背景差分法によって物体を検出する場合、過去フレームと現在フレームとで解像度が異なるため、位置補正の精度が高くても、これらの差分から物体を検出しようとすると、精度良く物体を検出することが難しい。 When an object is detected by the background difference method as described above, the resolution differs between the past frame and the current frame, so even if the accuracy of position correction is high, if an object is detected from these differences, the object is accurately detected. It is difficult to detect.
例えば、過去フレームでは遠方に写っている物体(路面や障害物等)が、現在フレームでは近くに写っていると、同じ物体であっても、過去フレームでは当該物体の解像度が低いため、ぼやけて写り、現在フレームでは当該物体の解像度が高いため、鮮明に写る。このため、これらを比較すると、路面などの本来差分が現れないはずの物体であっても、差分が残ってしまい、路面等を障害物として誤検知してしまうことがある。 For example, if an object (road surface, obstacle, etc.) that is far away in the past frame appears near in the current frame, even if it is the same object, the resolution of the object is low in the past frame, so it is blurred The image is clear in the current frame because the resolution of the object is high. For this reason, when these are compared, even if an object such as a road surface where a difference should not originally appear, the difference remains, and the road surface or the like may be erroneously detected as an obstacle.
そこで、本発明は、画像を比較して物体を検出する際の検出精度を向上させる技術の提供を目的とする。 Therefore, an object of the present invention is to provide a technique for improving detection accuracy when an object is detected by comparing images.
本発明の物体検出装置は、上述した課題を解決するため、
車両の移動を検出する移動検出部と、
前記車両に搭載され、前記車両の周囲を撮影する撮影装置から前記車両の移動に基づいて異なる時刻に撮影した第一の画像と第二の画像を取得する画像取得部と、
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正する解像度補正部と、
前記第一の画像内及び前記第二の画像内に撮影された物体を前記補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出する物体検出部と、
を備える。
また、本発明の物体検出装置は、上述した課題を解決するため、
車両に搭載され、前記車両の周囲を撮影する撮影装置から所定の時間を隔てて異なる時刻に撮影した第一の画像と第二の画像を取得する画像取得部と、
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正する解像度補正部と、
前記第一の画像内及び前記第二の画像内に撮影された物体を前記補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出する物体検出部と、
を備える。
The object detection apparatus of the present invention solves the above-described problem,
A movement detector for detecting movement of the vehicle;
An image acquisition unit that is mounted on the vehicle and acquires a first image and a second image captured at different times based on movement of the vehicle from an imaging device that captures the surroundings of the vehicle;
A resolution correction unit that corrects the resolution of the second image by reducing the resolution according to the resolution of the first image;
An object detection unit that detects an object photographed in the first image and the second image based on a difference between the corrected first image and the second image;
Is provided.
In addition, the object detection device of the present invention solves the above-described problem,
An image acquisition unit that is mounted on a vehicle and acquires a first image and a second image that are captured at different times from a photographing device that photographs the surroundings of the vehicle;
A resolution correction unit that corrects the resolution of the second image by reducing the resolution according to the resolution of the first image;
An object detection unit that detects an object photographed in the first image and the second image based on a difference between the corrected first image and the second image;
Is provided.
本発明によれば、画像を比較して物体を検出する際の検出精度を向上させる技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which improves the detection accuracy at the time of detecting an object by comparing an image can be provided.
以下、図面を参照して本発明の実施形態について説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
<実施形態1>
<システムの構成>
まず、本実施形態の物体検出システム10の構成について説明する。図1は、実施形態1に係る物体検出システム10の構成を示すブロック図である。物体検出システム10は、カメラ1や、物体検出装置2、表示装置3を備えている。この物体検出システム10は、自動車などの車両に搭載され、当該車両の後方の画像を表示することで、後進時の運転支援を行う機能を有している。物体検出システム10は、例えば、車両に搭載したオーディオ・ビジュアル・ナビゲーション一体型の電子機器(以下、AVN機とも称す)であってもよい。また、物体検出システム10は、車両後方の画像に、例えば駐車支援としてのガイド線を重畳して表示する等の機能を有していてもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The configuration of the following embodiment is an exemplification, and the present invention is not limited to the configuration of the embodiment.
<Embodiment 1>
<System configuration>
First, the configuration of the
カメラ1は、車両の後方を撮影して撮影画像を得る撮影装置である。このカメラ1は、レンズと撮像素子とを備えており、電子的に撮影画像を取得する。カメラ1は、所定の周期(例えば、1/30秒周期)で撮影画像を取得し、各撮影画像を動画像の1つのフレームとする映像信号を物体検出装置2へ入力する。
The camera 1 is a photographing device that obtains a photographed image by photographing the rear of the vehicle. The camera 1 includes a lens and an image sensor and electronically acquires a captured image. The camera 1 acquires captured images at a predetermined cycle (for example, 1/30 second cycle), and inputs a video signal having each captured image as one frame of a moving image to the
図2は、カメラ1の配置と、カメラ1が撮影する方向を示す図である。図2に示すように、カメラ1は、車両の後端の背面ドア92に設けられ、その光軸15は車両の前後方向に沿って後方に向けられ、水平又は水平よりも下側へ向けて設けられる。即ち、本例のカメラ1は、車両の後方の様子を撮影するバックカメラであり、例えば、後進して駐車する際に、駐車枠や当該駐車枠の周囲の画像を取得するように設置される。また、このカメラ
1のレンズには魚眼レンズが採用されており、例えば、180〜150度の画角θを有している。なお、カメラ1のレンズは魚眼レンズに限らず、所要の領域を撮影できる画角(例えば150〜100度の広角レンズ)を有するものであればよい。
FIG. 2 is a diagram illustrating the arrangement of the camera 1 and the direction in which the camera 1 captures images. As shown in FIG. 2, the camera 1 is provided on a
図1に戻り、物体検出装置2は、カメラ1で取得した撮影画像に基づいて車両周辺の物体を検出し、運転に支障を及ぼすような障害物と判定した場合には、ユーザ(主に運転者)に注意を促す表示を行う。この物体検出装置2は、画像取得部21、位置補正部22、移動量検出部23、解像度補正部24、物体検出部25、シフトポジション取得部26、障害物判定部27、出力制御部28を備えている。なお、移動量検出部23とシフトポジション取得部(移動方向検出部)26は、本発明の移動検出部を構成する。
Returning to FIG. 1, when the
画像取得部21は、カメラ1から撮影画像を取得し、この撮影画像から車両の移動に基づいて異なる時刻に撮影した第一の画像と第二の画像を取得する。例えば、画像取得部21は、車両の移動方向が後進のときには、第二の画像よりも前の時刻に撮影された画像を第一の画像として取得し、前記車両の移動方向が前進のときには、第二の画像よりも後の時刻に撮影された画像を第一の画像として取得する。
The
位置補正部22は、画像取得部21が取得した第一の画像の視点位置を第二の画像に合わせるように補正する。図3は、この位置補正部22による位置補正の説明図である。第一の画像と第二の画像とは、撮影の時刻が異なるため、この間に車両が移動すると、図3(A)に示すように、第一の画像を撮影したときのカメラ1の位置(視点位置とも称す)81と、第二の画像を撮影したときのカメラ1の位置(視点位置)82が異なる。このため、第一の画像と第二の画像で共通の被写体を撮影した場合でも、当該被写体は第一の画像と第二の画像で異なって撮影される。
The
図3(B)は、第一の画像と第二の画像に共通して撮影される被写体83の一例を示す。被写体83は、路面84上に描かれたパターンであり、本例では正方形を縦横に3分割した形状である。この被写体83を視点位置81から撮影した場合、図3(C)に示すように、路面84に対して光軸15が傾いているため、第一の画像71に写る被写体83Aは、カメラ1から遠い辺a1〜a4が近い辺d1〜d4より短く変形して撮影される。また、被写体83を視点位置82から撮影した場合、図3(D)に示すように、第二の画像72に写る被写体83Bは、第一の画像71の被写体83Aと比べて、カメラ1に近い位置、即ち第二の画像72の下端側に写り、辺A1〜A4等の変形の程度も少なくなっている。なお、視点位置81と視点位置82との距離は、例えば75mmであり、第一の画像71上の被写体83Aと第二の画像72上の被写体83Bとの差異は、大きなものではないが、図3では、説明のため誇張して示している。
FIG. 3B shows an example of a subject 83 that is photographed in common for the first image and the second image. The subject 83 is a pattern drawn on the
そして、位置補正部22は、図3(E)に示すように第一の画像71の被写体83Aの各点a1〜a4,b1〜b4、c1〜c4が、第二の画像72の対応する各点A1〜A4,B1〜B4,C1〜C4の位置となるように、それぞれの座標を変換することで、第一の画像71の被写体83Aが第二の画像72の被写体83Bと同じ形状となる。このように第一の画像71と第二の画像72との差異に基づいて、第一の画像71における各画素の座標を変換することで、第一の画像71が第二の画像72の視点位置82で撮影された画像のように変換される。以下、この処理を視点変換又は位置補正と称す。
Then, the
また、第一の画像71や第二の画像72が、魚眼レンズや広角レンズで撮影され、歪曲収差によって、直線状の被写体が湾曲して撮影される場合に、位置補正部22は、この歪みを直線状に戻すように歪み補正を行ってもよい。
In addition, when the
移動量検出部23は、カメラ1で撮影した撮影画像を用いて車両の移動量を検出する機
能を有している。例えば、移動量検出部23は、時間的に前後する撮影画像において、同一の被写体を表示している部分を抽出し、各表示位置の関係に基づいて車両の移動量を導出する。
The movement
同一の被写体を表示している画素を抽出する方法としては、例えば、テンプレートマッチング手法を用いることができる。テンプレートマッチング手法とは、画像の中から、予め指定したテンプレート画像と似ている位置を探す手法である。本実施形態で用いる場合には、例えば、前フレームの撮影画像の一部分の画像をテンプレートとして、後フレームの撮影画像と比較するといった処理を画像全体に渡って実行すればよい。このようなテンプレートマッチング手法としては、例えば、SAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)等の手法を用いることができる。 As a method for extracting pixels displaying the same subject, for example, a template matching method can be used. The template matching method is a method for searching a position similar to a template image designated in advance from images. When used in the present embodiment, for example, a process of comparing a captured image of a previous frame using a partial image of a captured image of the previous frame as a template may be executed over the entire image. As such a template matching method, for example, a method such as SAD (Sum of Absolute Difference) or SSD (Sum of Squared Difference) can be used.
テンプレートマッチング手法以外にも特徴点方式を用いることもできる。特徴点方式とは、いわゆる、オプティカルフローを用いた方式である。つまり、互いに異なる時点に取得された複数の撮影画像のそれぞれから特徴点を抽出し、複数の俯瞰画像間での特徴点の動きを示すオプティカルフローを導出する。特徴点とは、画像から際立って検出できる点であり、例えば、物体のコーナー(エッジの交点)などの点である。そして、特徴点方式では、直近の俯瞰画像から抽出した特徴点と、過去の俯瞰画像から抽出した特徴点とを対応づけ、この対応付けられた各特徴点の位置に基づいて移動ベクトルを導出する。 In addition to the template matching method, a feature point method can also be used. The feature point method is a method using so-called optical flow. That is, feature points are extracted from each of a plurality of photographed images acquired at different points in time, and an optical flow indicating the movement of the feature points between the plurality of overhead images is derived. A feature point is a point that can be detected prominently from an image, for example, a point such as a corner of an object (intersection of edges). In the feature point method, the feature points extracted from the latest bird's-eye view image are associated with the feature points extracted from the past bird's-eye view image, and a movement vector is derived based on the positions of the associated feature points. .
また、撮影画像には、路面を撮影した部分と、自動車等の立体物を表示した部分との双方が含まれていることが多い。路面は、平面であり移動物ではないため、路面の移動ベクトルは、全て略同じ方向及び略同じ大きさの移動ベクトルになる。一方、立体物の移動ベクトルは、その立体物の移動方向や高さなどに応じて、方向及び大きさの異なる移動ベクトルとなる。 In many cases, a captured image includes both a portion where a road surface is captured and a portion where a three-dimensional object such as an automobile is displayed. Since the road surface is a plane and not a moving object, all the movement vectors of the road surface are movement vectors having substantially the same direction and the same size. On the other hand, the movement vector of the three-dimensional object is a movement vector having a different direction and size depending on the movement direction and height of the three-dimensional object.
このため、立体物の移動ベクトルは、車両の移動量を正確に反映したものではなく、路面の移動ベクトルが車両の移動量を正確に反映したものとなる。したがって、移動量検出部23が導出した移動ベクトルには、種々の方向及び大きさの移動ベクトルが含まれていることになるが、車両の移動量を正確に導出するためには、その中から例えば路面の移動ベクトルを抽出することが望ましい。
For this reason, the movement vector of the three-dimensional object does not accurately reflect the movement amount of the vehicle, and the movement vector of the road surface accurately reflects the movement amount of the vehicle. Therefore, the movement vector derived by the movement
一般的には、車両周辺を撮影した画像には、路面を表示する部分が最も多く含まれているため、通常は、路面に関する移動ベクトルが最も多い。そこで、本実施形態では、全ての移動ベクトルについて大きさに関するヒストグラムを生成し、数が最も多い部分の移動ベクトルを、路面の移動ベクトルとして抽出する。 In general, an image obtained by photographing the periphery of a vehicle includes the most part for displaying the road surface, and thus usually has the largest number of movement vectors related to the road surface. Therefore, in the present embodiment, a size-related histogram is generated for all the movement vectors, and the movement vector having the largest number is extracted as a road surface movement vector.
そして、移動量検出部23は、撮影画像の上部、即ち図3(A)において遠くの路面が撮影される部分の特徴点が、撮影画像の下部、即ち図3(A)において近くの路面が撮影される部分へ移動するベクトルが検出された場合、車両の移動ベクトルが後方に向かうベクトルであること、即ち車両が後進したことと、その量(移動量)を検出する。反対に撮影画像の下部に撮影された特徴点が、撮影画像の上部へ移動した場合、車両が前進したことと、その量(移動量)を検出する。
Then, the movement
なお、移動量検出部23は、撮影画像を用いて車両の移動ベクトルを検出したが、これに限らず、例えばAVN機に備えられた加速度センサ等によって車両の移動量を検出しても良いし、車両のECUから車速パルスやシフトポジションを取得して移動量を求めても良い。
Although the movement
解像度補正部24は、第一の画像及び第二の画像に共通して撮影された被写体と車両と
の距離が、第一の画像を撮影した時刻よりも第二の画像を撮影した時刻において短い場合に、第二の画像の解像度にあわせて前記第一の画像の解像度を低下させて補正する。例えば、第一の画像を平均化フィルタやガウシアンフィルタ、メディアンフィルタ等の空間フィルタによって処理することにより、解像度を低下させる。
In the
物体検出部25は、解像度補正後の第一の画像と第二の画像とを比較し、各画素の差分から第一の画像内及び前記第二の画像内に撮影された物体(例えば、駐車の障害となる立体物)を検出する。なお、物体検出部25は、前記差分が、所定の閾値を超えた場合に物体として検出してもよい。前述の図3の例では、第一の画像の被写体83Aが第二の画像の被写体83Bと同じになるように位置補正が行われた。この被写体83A,83Bは路面84に描かれたパターンのため、路面に描かれた標識や駐車枠など、路面と略同じ高さにあるものは、第一の画像と第二の画像とで一致するが、路面と異なる高さに存在するもの、即ち立体物は、第一の画像と第二の画像とで一致しない。このため、物体検出部25は、第一の画像と第二の画像とで差が生じた部分を物体の画像として検出する。即ち、この画像上の差が生じた部分と対応する物体面上の位置に物体(立体物)が存在することを検出する。なお、本実施形態の物体検出部25は、第一の画像と第二の画像のうち、後で撮影した第二の画像上で、検出した物体の位置を特定している。
The
シフトポジション取得部26は、ECU(不図示)等から自車両のシフトポジションを示す信号を取得する。シフトポジションは、シフトレバー(シフトノブ、シフター、セレクトレバー、チェンジレバー等とも称す)の位置、即ちシフトレバーによって操作されるトランスミッションの状態を示す。即ち、シフトポジションによって車両の移動方向が示される。本実施形態において、シフトポジション取得部26は、移動方向検出部に相当する。
The shift
障害物判定部27は、物体検出部25によって、検出された物体のうち、運転の障害となる物体を障害物として検出する。例えば、ECUから車両の舵角を取得し、車両の走路を予測して、当該走路上及び近接する物体を障害物と検出する。なお、物体検出部25で検出した物体(立体物)から障害物の絞り込みを行わず、全て障害物とする場合には、障害物判定部27を省略してもよい。
The
出力制御部28は、第一の画像又は第二の画像(本実施形態では、第一の画像)を取得し、映像信号として表示装置3へ出力して表示させる。このとき出力制御部28は、当該画像から検出した障害物の情報を障害物判定部27から取得し、当該画像のうち、障害物として抽出した物体の部分に、障害物であることを示す印(以下、警告パターンとも称す)を合成する。警告パターンは、例えば当該物体を囲む線や網掛け、図形、色又は輝度の変更等である。また、出力制御部28は、撮影画像や俯瞰画像に駐車誘導線を合成するものであっても良い。
The
また、本実施形態の出力制御部28は、シフトポジションが、Rレンジ、即ち車両の後進を示す場合に前記第二の画像を表示装置3に表示させ、シフトポジションが、Rレンジ以外の場合には、第二の画像以外の画像、例えばAVN機のナビゲーション画面やオーディオ機能の操作画面等を表示装置3に表示させる。
Further, the
表示装置3は、車両の車室内におけるユーザ(主にドライバ)が視認可能な位置に配置され、各種の情報をユーザに表示する。表示装置3は、目的地までのルートを案内するナビゲーション機能や音楽を再生するオーディオ機能を備えたAVN機の表示装置であっても良い。
The
図4は、物体検出装置2のハードウェア構成の一例を示す図である。物体検出装置2は
、図4に例示のように、接続バス210によって相互に接続されたCPU(Central Processing Unit)201、メモリ202、入出力IF203を有する。CPU201は、物
体検出装置2全体の制御を行う中央処理演算装置である。CPU201はプロセッサとも呼ばれる。ただし、CPU201は、単一のプロセッサに限定される訳ではなく、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のCPU201がマルチコア構成であってもよい。
FIG. 4 is a diagram illustrating an example of a hardware configuration of the
メモリ202は、主記憶装置と補助記憶装置とを含む。主記憶装置は、CPU201の作業領域,プログラムやデータの記憶領域,通信データのバッファ領域として使用される。主記憶装置は、例えば、Random Access Memory(RAM),或いはRAMとRead Only Memory(ROM)との組み合わせで形成される。主記憶装置は、CPU201がプログラムやデータをキャッシュしたり、作業領域を展開したりする記憶媒体である。主記憶装置は、例えば、フラッシュメモリ、RAM(Random Access Memory)やROM(Read Only Memory)を含む。補助記憶部は、CPU201により実行されるプログラムや、動作の設定情報などを記憶する記憶媒体である。補助記憶装置は、例えば、HDD(Hard-disk Drive)やSSD(Solid State Drive)、EPROM(Erasable Programmable ROM)、フ
ラッシュメモリ、USBメモリ、メモリカード等である。
The
入出力IF203は、物体検出装置2に接続するセンサや操作部、通信モジュール、ECU等の機器との間でデータの入出力を行うインターフェースである。物体検出システム10においては、ユーザによる選択操作が操作部から入出力IF203を介して、物体検出装置2に入力される。また、なお、上記の構成要素はそれぞれ複数に設けられてもよいし、一部の構成要素を設けないようにしてもよい。また、上記の構成要素は、AVN機の構成要素に含まれるとしてもよい。
The input / output IF 203 is an interface for inputting / outputting data to / from devices such as sensors, operation units, communication modules, and ECUs connected to the
物体検出装置2では、CPU201がプログラムを実行することにより、図1に示す画像取得部21、位置補正部22、移動量検出部23、解像度補正部24、物体検出部25、シフトポジション取得部26、障害物判定部27、出力制御部28の各処理部として機能する。但し、上記各処理部の少なくとも一部の処理がDSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)等によって提供されても
よい。また、上記各処理部の少なくとも一部が、FPGA(Field-Programmable Gate Array)等の専用LSI(large scale integration)、その他のデジタル回路であってもよい。また、上記各処理部の少なくとも一部にアナログ回路を含む構成としてもよい。
In the
<表示制御方法>
図5は、物体検出装置2が実行する物体検出方法の説明図である。物体検出装置2は、開始指示の入力があった場合や、車両のACC電源がオンとなった場合に、周期的に図5の処理を実行させる。
<Display control method>
FIG. 5 is an explanatory diagram of an object detection method executed by the
先ず、物体検出装置2は、シフトポジションを取得し、車両の移動方向が後進か否かを判定する。車両の移動方向が後進であれば(ステップS10、Yes)、物体検出装置2は、カメラ1から取得した撮影画像から、第一の画像を取得する(ステップS20)。
First, the
また、物体検出装置2は、カメラ1から取得した撮影画像のオプティカルフローに基づいて車両の移動量を求めて、第一の画像が撮影された時刻から起算した車両の移動量を求める(ステップS30)。そして、物体検出装置2は、車両の移動量が所定の閾値(例えば75mm)に達したか否かを判定する(ステップS40)。なお、この閾値は、75mmに限らず、30〜100mmなど、要求する精度や、カメラの仕様、車両の速度などに応じて任意に設定できる。
Further, the
車両の移動量が所定の閾値に達したか場合、この時刻に撮影された撮影画像を第二の画像として取得する(ステップS50)。 If the amount of movement of the vehicle has reached a predetermined threshold value, the captured image captured at this time is acquired as the second image (step S50).
物体検出装置2は、ステップS50で取得した第二の画像を空間フィルタで処理して解像度を低下させ、第二の画像の解像度を第一の画像に合わせるように補正する(ステップS60)。即ち、ステップS60では、車両が後進しているため、ステップS20で先に取得した第一の画像よりもステップS50で取得した第二の画像の方が共通の被写体に近づいて撮影しており、第二の画像の方が解像度が高いため第一の画像に合わせて解像度を低下させている。
The
次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された立体物(物体)を検出する(ステップS70)。また、物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップ70で検出された物体のうち、当該走路上に存在する物体及び当該走路と近接する物体を障害物として検出する(ステップS80)。
Next, the
そして、物体検出装置2は、ステップS80で検出した障害物の情報に基づき、第二の画像のうち、障害物として抽出した物体の部分に、障害物であることを示す警告パターンを合成する(ステップS90)。また、物体検出装置2は、警告パターンを合成した第二の画像を映像信号として表示装置3へ出力し、表示装置3に表示させる(ステップS100)。
And the
一方、ステップS10で車両の移動方向が後進でなければ(ステップS10、No)、物体検出装置2は、カメラ1から取得した撮影画像から、第二の画像を取得する(ステップS120)。
On the other hand, if the moving direction of the vehicle is not reverse in step S10 (No in step S10), the
また、物体検出装置2は、カメラ1から取得した撮影画像のオプティカルフローに基づいて車両の移動量を求めて、第二の画像が撮影された時刻から起算した車両の移動量を求める(ステップS130)。そして、物体検出装置2は、車両の移動量が所定の閾値(例えば75mm)に達したか否かを判定する(ステップS140)。
Further, the
車両の移動量が所定の閾値に達したか場合、この時刻に撮影された撮影画像を第一の画像として取得する(ステップS150)。 If the amount of movement of the vehicle has reached a predetermined threshold value, the captured image captured at this time is acquired as the first image (step S150).
物体検出装置2は、ステップS120で取得した第二の画像を空間フィルタで処理して解像度を低下させ、第二の画像の解像度を第一の画像に合わせるように補正する(ステップS160)。即ち、ステップS160では、車両が前進しているため、ステップS150で取得した第一の画像よりもステップS120で取得した第二の画像の方が共通の被写体の近くで撮影しており、第二の画像の方が解像度が高いため第一の画像に合わせて解像度を低下させている。
The
次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された立体物(物体)を検出する(ステップS170)。また、物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップ170で検出された物体のうち、当該走路上に存在する物体及び当該走路と近接する物体を障害物として検出する(ステップS180)。
Next, the
なお、本実施形態では、車両の移動方向が前進の場合、カメラ1で撮影した画像を表示装置3に表示させないため、障害物を検出するまでの処理(ステップS120〜S180)は行うが、警告パターンの合成や表示装置3への出力の処理は行わない。これにより例
えば、駐車時に切り返しのため、シフトポジションが後進から前進に切り替えられ、再び後進に戻された場合でも、前進時に求めた障害物の情報を用いて後進に切り替えた直後の撮影画像に警告パターンを合成して表示装置3へ出力することができる。
In the present embodiment, when the moving direction of the vehicle is forward, the image captured by the camera 1 is not displayed on the
また、本実施形態の物体検出システム10は、障害物を表示する専用の表示装置を備え、同様に前進時にもステップS180で検出した障害物の情報を用い、更新時のステップS90、S100と同様に第二の画像に警告パターンを合成して専用の表示装置へ出力し、表示させてもよい。
Further, the
<解像度補正の効果>
図6は、本実機形態の物体検出方法おける解像度補正の効果を説明する図である。図6では、第一の画像41、第二の画像43のそれぞれ路面上の同じ位置を拡大して拡大画像42,44として示している。即ち、拡大画像42,44は、共通の被写体を撮影した部分である。
<Effect of resolution correction>
FIG. 6 is a diagram for explaining the effect of resolution correction in the object detection method according to the present embodiment. In FIG. 6, the same positions on the road surface of the
拡大画像42,44を比較した場合、拡大画像42の輪郭が、ぼやけているのに対し、拡大画像44では輪郭の細かな形状が表示されている。このため拡大画像42,44を比較して物体を検出した場合、拡大画像45のように、輪郭部分の差異が物体として誤検知されてしまう。
When the
そこで、図5の処理により、第二の画像43を空間フィルタによって処理し、拡大画像46のように解像度を低下させて第一の画像の解像度と合わせている。これにより拡大画像46では、輪郭部分が拡大画像42と同程度にぼやけ、差異が少なくなっている。このため拡大画像42,46を比較して物体を検出した場合、拡大画像47のように、輪郭部分に誤検知が生じなくなる。
Therefore, the
<実施形態の作用効果>
以上のように、本実施形態1によれば、第一の画像の解像度にあわせて第二の画像の解像度を低下させて補正し、補正後の第一の画像と第二の画像を比較した差分に基づいて、第一の画像内及び第二の画像内に撮影された物体を検出する。
<Effects of Embodiment>
As described above, according to the first embodiment, the correction is performed by reducing the resolution of the second image in accordance with the resolution of the first image, and the corrected first image and the second image are compared. Based on the difference, an object photographed in the first image and the second image is detected.
これにより、本実施形態の物体検出装置2は、第一の画像と第二の画像の撮影位置が異なることによる解像度の違いを抑え、第一の画像と第二の画像を比較して物体を検出する際の検出精度を向上させることができる。
Thereby, the
また、本実施形態1の物体検出装置2は、車両の移動方向を検出するシフトポジション取得部26(移動方向検出部)を備え、カメラ1が車両の後方を撮影するように設置され、画像取得部21が、シフトポジション取得部26によって検出されたシフトポジション(車両の移動方向)に基づき、車両の移動方向が後進のときには、第二の画像よりも前の時刻に撮影された画像を第一の画像として取得し、前記車両の移動方向が前進のときには、第二の画像よりも後の時刻に撮影された画像を第一の画像として取得する。
Further, the
これにより、本実施形態の物体検出装置2は、車両の移動方向に基づいて第一の画像と第二の画像とを適切に取得し、第一の画像と比べて、共通の被写体を近い位置で撮影した第二の画像の解像度を低下させ、第一の画像と第二の画像を比較して物体を検出する際の検出精度を向上させることができる。
Thereby, the
また、本実施形態1の物体検出装置2は、シフトポジション取得部(移動方向検出部)26が、車両のシフトポジションに基づいて、車両の移動方向を検出する。
In the
これにより、本実施形態の物体検出装置2は、切り返し時などに、車両の移動方向を確実に検出することができる。
Thereby, the
また、本実施形態1の物体検出装置2は、車両の移動量を検出する移動量検出部23を備え、画像取得部21は、第一の画像及び第二の画像のうち、一方の画像が撮影された時刻から起算した車両の移動量が閾値に達した時刻に撮影された画像を他方の画像として取得する。
In addition, the
これにより、本実施形態の物体検出装置2は、適切なタイミングで第一の画像と第二の画像を取得し、第一の画像と第二の画像を比較して物体を検出する際の検出精度を向上させることができる。例えば静止している物体は、車両側に動きがなければ異なる時刻の画像を比較しても差異が少ないため、この差異が適切な大きさとなるように、車両の移動量が閾値に達した時に物体検出を行うことで、適切に静止している物体を検出することができる。
Thereby, the
<変形例>
前述の実施形態1では、カメラ1を車両の後部に設けて、車両後方の障害物を検出する構成としたが、これに限らず、カメラ(撮影装置)を車両の前部に設けて、車両前方の障害物を検出する構成としてもよい。図7は、カメラを車両の前部に設けた場合の物体検出方法の説明図である。本変形例は、前述の実施形態1とくらべて、カメラ1を車両の前部設け、前進時にも表示装置3にカメラ1で撮影した画像を表示させる構成と図7に示す一部の処理が異なり、その他の構成は同じである。このため同一の要素については、再度の説明を省略する。
<Modification>
In the first embodiment, the camera 1 is provided at the rear of the vehicle to detect an obstacle behind the vehicle. However, the present invention is not limited to this, and the camera (imaging device) is provided at the front of the vehicle. It may be configured to detect a front obstacle. FIG. 7 is an explanatory diagram of an object detection method when a camera is provided at the front of the vehicle. Compared with the above-described first embodiment, the present modified example has a configuration in which the camera 1 is provided at the front of the vehicle and the image captured by the camera 1 is displayed on the
本変形例では、車両前部にカメラが設けられているため、図7の処理は前述の実施形態1に係る図5と比べて、前進で行う処理と後進で行う処理が反対になっている。例えば、図7では、ステップS10Aにおいて、車両の移動方向が前進と判定した場合にステップS20へ移行し、ステップS10Aにおいて、車両の移動方向が前進と判定した場合にステップS120へ移行する。ステップS20〜S100,ステップS120〜S180の処理は、図5と同じである。なお、図7の処理では、後進時に、ステップ180で、障害物を検出した後、物体検出装置2は、障害物の情報に基づき、第二の画像のうち、障害物として抽出した物体の部分に、障害物であることを示す警告パターンを合成する(ステップS190)。また、物体検出装置2は、警告パターンを合成した第二の画像を映像信号として表示装置3へ出力し、表示装置3に表示させる(ステップS100)。
In this modified example, since the camera is provided in the front part of the vehicle, the process in FIG. 7 is opposite to the process in the forward direction and the process in the reverse direction as compared to FIG. 5 according to the first embodiment. . For example, in FIG. 7, when it is determined in step S10A that the moving direction of the vehicle is forward, the process proceeds to step S20. In step S10A, when it is determined that the moving direction of the vehicle is forward, the process proceeds to step S120. The processes in steps S20 to S100 and steps S120 to S180 are the same as those in FIG. In the process of FIG. 7, at the time of reverse travel, after detecting an obstacle at
このように本変形例によれば、カメラ1が車両の前方を撮影するように設置され、画像取得部21が、シフトポジション取得部26によって検出された車両の移動方向に基づき、車両の移動方向が前進のときには、第二の画像よりも前の時刻に撮影された画像を第一の画像として取得し、前記車両の移動方向が後進のときには、第二の画像よりも後の時刻に撮影された画像を第一の画像として取得する。
As described above, according to this modification, the camera 1 is installed so as to capture the front of the vehicle, and the
これにより、本変形例の物体検出装置2は、カメラ1を車両部に設けて車両前方の物体を検出する場合においても、車両の移動方向に基づいて第一の画像と第二の画像とを適切に取得し、第一の画像と比べて、共通の被写体を近い位置で撮影した第二の画像の解像度を低下させ、第一の画像と第二の画像を比較して物体を検出する際の検出精度を向上させることができる。
As a result, the
<実施形態2>
前述の実施形態1では、車両の移動量が所定の閾値に達した場合に物体の検出を行う処理を示しており、主に静止物を対象としていた。本実施形態2は、前述の実施形態1の構
成に加え、移動物の検出も行う構成としている。本実施形態2において、前述の実施形態1と同一の要素は、同符号を付す等して再度の説明を省略する。
<
In the first embodiment described above, a process for detecting an object when the amount of movement of the vehicle reaches a predetermined threshold is shown, and mainly a stationary object. The second embodiment is configured to detect a moving object in addition to the configuration of the first embodiment described above. In the second embodiment, the same elements as those of the first embodiment are denoted by the same reference numerals and the description thereof is omitted.
図8は、本実施形態2に係る物体検出装置2が実行する物体検出方法の説明図である。先ず、物体検出装置2は、シフトポジションを取得し、車両の移動方向が後進か否かを判定する。車両の移動方向が後進であれば(ステップS210、Yes)、物体検出装置2は、カメラ1から取得した撮影画像から、第二の画像を取得する(ステップS220)。
FIG. 8 is an explanatory diagram of an object detection method executed by the
また、物体検出装置2は、カメラ1から取得した撮影画像のうち、ステップS220で取得した第二の画像の一つ前のフレームである撮影画像を第一の画像として取得する(ステップS230)。なお、本実施形態では、第二の画像の一つ前のフレームを第一の画像としたが、これに限らず、第二の画像の所定数前のフレームを第一の画像としてもよい。即ち、第二の画像に対して所定の時間を隔てて第一の画像を取得してもよい。
Further, the
物体検出装置2は、カメラ1から取得した撮影画像のオプティカルフローに基づいて、第一の画像が撮影された時刻から第二の画像が撮影された時刻までの車両の移動量を求める(ステップS240)。
The
物体検出装置2は、ステップS230で取得した第二の画像を空間フィルタで処理して解像度を低下させる。ここで物体検出装置2は、ステップS240で求めた車両の移動量に基づいてフィルタ係数を決定し、この車両の移動量に応じた係数の空間フィルタで第二の画像の解像度を第一の画像に合わせるように補正する(ステップS250)。例えば、車両の移動量が大きく、第一の画像と第二の画像の解像度の差が大きい場合には、解像度を低下させる程度を大きくし、車両の移動量が大きく、第一の画像と第二の画像の解像度の差が小さい場合には、解像度を低下させる程度を小さくするようにフィルタ係数を設定する。
The
次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された立体物(物体)を検出し、メモリに記憶する(ステップS260)。また、物体検出装置2は、ステップ260で検出された物体のうち、メモリに記憶した過去の検出結果と比較して移動している物体を移動物として検出する(ステップS270)。
Next, the
物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップS270で検出された移動物のうち、当該走路上に存在する物体及び当該走路に向かって移動している物体を障害物として検出する(ステップS280)。
The
また、物体検出装置2は、前回静止物の検出を行った時刻から起算した車両の移動量が所定の閾値(例えば75mm)以上か否かを判定する(ステップS290)。
Further, the
この車両の移動量が所定の閾値以上でなければ(ステップS290,No)、物体検出装置2は、ステップS340へ移行し、車両の移動量が所定の閾値以上であれば(ステップS290,Yes)、前回静止物の検出を行った時刻に撮影した撮影画像を第一の画像として取得する(ステップS300)。
If the amount of movement of the vehicle is not equal to or greater than the predetermined threshold value (step S290, No), the
物体検出装置2は、ステップS220で取得した第二の画像を空間フィルタで処理して解像度を低下させ、第二の画像の解像度を第一の画像に合わせるように補正する(ステップS310)。このステップS310の空間フィルタのフィルタ係数は、ステップS250における空間フィルタのフィルタ係数よりも解像度を低下させる程度を大きくするように設定してもよい。
The
次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された物体(主に静止物)を検出する(ステップS320)。また、物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップ320で検出された物体のうち、当該走路上に存在する物体及び当該走路と近接する物体を障害物として検出する(ステップS330)。
Next, the
そして、物体検出装置2は、ステップS280,S330で検出した障害物の情報に基づいて、第二の画像のうち、障害物として抽出した物体の部分に、障害物であることを示す警告パターンを合成する(ステップS340)。また、物体検出装置2は、ステップS280で検出した移動物である障害物と、ステップS330で検出した静止物である障害物とで警告パターンを異ならせてもよい。なお、ステップS290で、車両の移動量が所定の閾値以上でない(ステップS290,No)と判定され、ステップS290からステップS340へ移行した場合には、ステップS280で検出した障害物の情報に基づいて、警告パターンを合成する。
Then, the
物体検出装置2は、警告パターンを合成した第二の画像を映像信号として表示装置3へ出力し、表示装置3に表示させる(ステップS350)。
The
一方、ステップS210で車両の移動方向が後進でなければ(ステップS210、No)、物体検出装置2は、カメラ1から取得した撮影画像から、第一の画像を取得する(ステップS420)。
On the other hand, if the moving direction of the vehicle is not reverse in step S210 (No in step S210), the
また、物体検出装置2は、カメラ1から取得した撮影画像のうち、ステップS420で取得した第一の画像の一つ前のフレームである撮影画像を第二の画像として取得する(ステップS430)。なお、本実施形態では、第一の画像の一つ前のフレームを第二の画像としたが、これに限らず、第一の画像の所定数前のフレームを第二の画像としてもよい。即ち、第一の画像に対して所定の間隔を空けて第二の画像を取得してもよい。
Further, the
物体検出装置2は、カメラ1から取得した撮影画像のオプティカルフローに基づいて、第一の画像が撮影された時刻から第二の画像が撮影された時刻までの車両の移動量を求める(ステップS440)。
The
物体検出装置2は、ステップS420で取得した第二の画像を空間フィルタで処理して解像度を低下させる。ここで物体検出装置2は、ステップS440で求めた車両の移動量に基づいてフィルタ係数を決定し、この車両の移動量に応じた係数の空間フィルタで第二の画像の解像度を第一の画像に合わせるように補正する(ステップS450)。
The
次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された立体物(物体)を検出し、メモリに記憶する(ステップS460)。また、物体検出装置2は、ステップ460で検出された物体のうち、メモリに記憶した過去の検出結果と比較して移動している物体を移動物として検出する(ステップS470)。
Next, the
物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップS470で検出された移動物のうち、当該走路上に存在する物体及び当該走路に向かって移動している物体を障害物として検出する(ステップS480)。
The
また、物体検出装置2は、前回静止物の検出を行った時刻から起算した車両の移動量が所定の閾値(例えば75mm)以上か否かを判定する(ステップS490)。
Further, the
この車両の移動量が所定の閾値以上でなければ(ステップS490,No)、物体検出装置2は、図8の処理を終了し、車両の移動量が所定の閾値以上であれば(ステップS490,Yes)、前回静止物の検出を行った時刻に撮影した撮影画像を第二の画像として取得する(ステップS500)。
If the amount of movement of the vehicle is not greater than or equal to the predetermined threshold (No at step S490), the
物体検出装置2は、ステップS500で取得した第二の画像を空間フィルタで処理して解像度を低下させ、第二の画像の解像度を第一の画像に合わせるように補正する(ステップS510)。このステップS510の空間フィルタのフィルタ係数は、ステップS450における空間フィルタのフィルタ係数よりも解像度を低下させる程度を大きくするように設定してもよい。
The
次に、物体検出装置2は、第一の画像と第二の画像を比較し、背景差分法によって第一の画像内及び前記第二の画像内に撮影された静止物を検出する(ステップS520)。また、物体検出装置2は、車両の移動方向や舵角に基づいて、車両の走路を予測し、ステップ520で検出された物体のうち、当該走路上に存在する物体及び当該走路と近接する物体を障害物として検出する(ステップS530)。
Next, the
このように本実施形態2によれば、移動する障害物と静止している障害物とを検出できる。特に、カメラ1で撮影した撮影画像の毎フレームについて、障害物検出を行うことで、移動する障害物を精度良く検出できると共に、車両の移動量が閾値に達する毎に、障害物検出を行うことで、静止物の差分が適当な大きさとなるタイミングで静止している障害物を検出できる。 Thus, according to the second embodiment, it is possible to detect a moving obstacle and a stationary obstacle. In particular, by performing obstacle detection for each frame of a photographed image taken by the camera 1, it is possible to accurately detect a moving obstacle, and to perform obstacle detection every time the amount of movement of the vehicle reaches a threshold value. Thus, the stationary obstacle can be detected at a timing when the difference between the stationary objects becomes an appropriate size.
また、本実施形態2の物体検出装置2は、解像度補正部24が、第一の画像及び第二の画像に共通して撮影された被写体と車両との距離(撮影距離)に応じて、第二の画像の解像度を低下させる程度を異ならせる。例えば、当該撮影距離に応じて、第二の画像を処理する空間フィルタのフィルタ係数を異ならせている。
Further, in the
これにより、本実施形態2の物体検出装置2は、車両の移動量が大きく、第一の画像と第二の画像の解像度の差が大きい場合には、解像度を低下させる程度を大きくし、車両の移動量が大きく、第一の画像と第二の画像の解像度の差が小さい場合には、解像度を低下させる程度を小さくするようにフィルタ係数を設定して、適切に第二の画像の解像度を補正し、物体を検出する際の検出精度を向上させることができる。
As a result, the
<変形例>
前述の実施形態2では、カメラ1を車両の後部に設けて、車両後方の障害物を検出する構成としたが、これに限らず、カメラ(撮影装置)を車両の前部に設けて、車両前方の障害物を検出する構成としてもよい。図9は、カメラを車両の前部に設けた場合の物体検出方法の説明図である。本変形例は、前述の実施形態2とくらべて、カメラ1を車両の前部設け、前進時にも表示装置3にカメラ1で撮影した画像を表示させる構成と図9に示す一部の処理が異なり、その他の構成は同じである。このため同一の要素については、再度の説明を省略する。
<Modification>
In
本変形例では、車両前部にカメラが設けられているため、図9の処理は前述の実施形態2に係る図8と比べて、前進で行う処理と後進で行う処理が反対になっている。例えば、図9では、ステップS210Aにおいて、車両の移動方向が前進と判定した場合にステップS220へ移行し、ステップS210Aにおいて、車両の移動方向が後進と判定した場合にステップS420へ移行する。ステップS220〜S350,ステップS420〜S530の処理は、図8と同じである。なお、図7の処理では、後進時に、ステップ530
で、障害物を検出した後、物体検出装置2は、障害物の情報に基づき、第二の画像のうち、障害物として抽出した物体の部分に、障害物であることを示す警告パターンを合成する(ステップS540)。また、物体検出装置2は、ステップS480,S530で検出した障害物の情報に基づいて、第二の画像のうち、障害物として抽出した物体の部分に、障害物であることを示す警告パターンを合成する(ステップS540)。なお、ステップS490で、車両の移動量が所定の閾値以上でない(ステップS490,No)と判定され、ステップS490からステップS540へ移行した場合には、ステップS480で検出した障害物の情報に基づいて、警告パターンを合成する。
In this modified example, since a camera is provided in the front part of the vehicle, the process in FIG. 9 is opposite to the process in the forward direction and the process in the reverse direction as compared to FIG. 8 according to the second embodiment. . For example, in FIG. 9, when it is determined in step S210A that the moving direction of the vehicle is forward, the process proceeds to step S220. In step S210A, when it is determined that the moving direction of the vehicle is reverse, the process proceeds to step S420. The processes in steps S220 to S350 and steps S420 to S530 are the same as those in FIG. In the process of FIG. 7,
Then, after detecting the obstacle, the
そして、物体検出装置2は、ステップS350へ移行し、警告パターンを合成した第二の画像を映像信号として表示装置3へ出力し、表示装置3に表示させる。
Then, the
これにより、本変形例の物体検出装置2は、カメラ1を車両部に設けて車両前方の物体を検出する場合においても、車両の移動方向に基づいて第一の画像と第二の画像とを適切に取得し、第一の画像と比べて、共通の被写体を近い位置で撮影した第二の画像の解像度を低下させ、第一の画像と第二の画像を比較して物体を検出する際の検出精度を向上させることができる。
As a result, the
上記実施形態2及び変形例では、主に移動物を検出する処理(ステップS220〜S280、S420〜S480)と主に静止物を検出する処理(ステップS290〜S330、S490〜S530)とを実行する構成としたが、ステップS220〜S280、S420〜S480で移動物と静止物の両方を検出し、ステップS290〜S330、S490〜S530を省略しても良い。この場合、ステップS260、S460で検出した立体物のうち、ステップS270,S470で検出した移動物以外を静止物として検出し、この移動物と静止物についてステップS280,S480で障害物を検出しても良い。また、ステップS270,S470を省略し、移動物と静止物を区別せずにステップS260、S460で検出した全ての立体物についてステップS280,S480で障害物を検出しても良い。
In the said
上述した本発明の実施形態及び変形例はあくまでも例示であり、本発明はこれに限定されるものではない。また、上述した実施形態及び変形例において示した特徴的な構成は、本発明の趣旨を逸脱しない範囲において当然にその組み合わせが可能である。 The above-described embodiments and modifications of the present invention are merely examples, and the present invention is not limited thereto. The characteristic configurations shown in the above-described embodiments and modifications can naturally be combined without departing from the spirit of the present invention.
1 カメラ
2 物体検出装置
3 表示装置
10 物体検出システム
15 光軸
21 画像取得部
22 位置補正部
23 移動量検出部
24 解像度補正部
25 物体検出部
26 シフトポジション取得部
27 障害物判定部
28 出力制御部
DESCRIPTION OF SYMBOLS 1
Claims (9)
前記車両に搭載され、前記車両の周囲を撮影する撮影装置から前記車両の移動に基づいて異なる時刻に撮影した第一の画像と第二の画像を取得する画像取得部と、
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正する解像度補正部と、
前記第一の画像内及び前記第二の画像内に撮影された物体を前記補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出する物体検出部と、
を備える物体検出装置。 A movement detector for detecting movement of the vehicle;
An image acquisition unit that is mounted on the vehicle and acquires a first image and a second image captured at different times based on movement of the vehicle from an imaging device that captures the surroundings of the vehicle;
A resolution correction unit that corrects the resolution of the second image by reducing the resolution according to the resolution of the first image;
An object detection unit that detects an object photographed in the first image and the second image based on a difference between the corrected first image and the second image;
An object detection apparatus comprising:
前記移動検出部が、前記車両の移動方向を検出し、
前記画像取得部が、前記移動検出部によって検出された前記車両の移動方向に基づき、前記車両の移動方向が後進のときには、前記第二の画像よりも前の時刻に撮影された画像を前記第一の画像として取得し、前記車両の移動方向が前進のときには、前記第二の画像よりも後の時刻に撮影された画像を前記第一の画像として取得する請求項1に記載の物体検出装置。 The photographing device is installed so as to photograph the rear of the vehicle;
The movement detecting unit detects a moving direction of the vehicle;
When the moving direction of the vehicle is reverse based on the moving direction of the vehicle detected by the movement detecting unit, the image acquiring unit captures an image taken at a time before the second image. The object detection device according to claim 1, wherein the object detection device acquires an image captured as a first image and an image captured at a time later than the second image when the moving direction of the vehicle is forward. .
前記移動検出部が、前記車両の移動方向を検出し、
前記画像取得部が、前記移動検出部によって検出された前記車両の移動方向に基づき、前記車両の移動方向が前進のときには、前記第二の画像よりも前の時刻に撮影された画像を前記第一の画像として取得し、前記車両の移動方向が後進のときには、前記第二の画像よりも後の時刻に撮影された画像を前記第一の画像として取得する請求項1に記載の物体検出装置。 The photographing device is installed so as to photograph the front of the vehicle;
The movement detecting unit detects a moving direction of the vehicle;
When the moving direction of the vehicle is forward based on the moving direction of the vehicle detected by the movement detecting unit, the image acquiring unit captures an image taken at a time before the second image. The object detection device according to claim 1, wherein the first image is acquired as a first image and an image taken at a time later than the second image is acquired when the moving direction of the vehicle is backward. .
前記画像取得部は、前記第一の画像及び前記第二の画像のうち、一方の画像が撮影された時刻から起算した前記車両の移動量が閾値に達した時刻に撮影された画像を他方の画像として取得する請求項1〜4の何れか1項に記載の物体検出装置。 The movement detection unit detects a movement amount of the vehicle;
The image acquisition unit obtains an image captured at a time when a movement amount of the vehicle calculated from a time when one of the first image and the second image is captured reaches a threshold value. The object detection apparatus of any one of Claims 1-4 acquired as an image.
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正する解像度補正部と、
前記第一の画像内及び前記第二の画像内に撮影された物体を前記補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出する物体検出部と、
を備える物体検出装置。 An image acquisition unit that is mounted on a vehicle and acquires a first image and a second image that are captured at different times from a photographing device that photographs the surroundings of the vehicle;
A resolution correction unit that corrects the resolution of the second image by reducing the resolution according to the resolution of the first image;
An object detection unit that detects an object photographed in the first image and the second image based on a difference between the corrected first image and the second image;
An object detection apparatus comprising:
車両に搭載され、前記車両の周囲を撮影する撮影装置から前記車両の移動に基づいて異なる時刻に撮影した第一の画像と第二の画像を取得するステップと、
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正するステップと、
前記第一の画像内及び前記第二の画像内に撮影された物体を補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出するステップと、
をコンピュータが実行する物体検出方法。 Detecting the movement of the vehicle;
Acquiring a first image and a second image captured at different times based on movement of the vehicle from an imaging device mounted on the vehicle and imaging the surroundings of the vehicle;
Correcting by reducing the resolution of the second image in accordance with the resolution of the first image; and
Detecting the object imaged in the first image and the second image based on a difference between the corrected first image and the second image;
An object detection method in which a computer executes.
前記第一の画像の解像度にあわせて前記第二の画像の解像度を低下させて補正するステップと、
前記第一の画像内及び前記第二の画像内に撮影された物体を前記補正後の前記第一の画像と前記第二の画像を比較した差分に基づいて検出するステップと、
をコンピュータが実行する物体検出方法。 Obtaining a first image and a second image taken at different times from a photographing device mounted on a vehicle and photographing the surroundings of the vehicle; and
Correcting by reducing the resolution of the second image in accordance with the resolution of the first image; and
Detecting an object photographed in the first image and the second image based on a difference between the corrected first image and the second image;
An object detection method in which a computer executes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016212946A JP2018074411A (en) | 2016-10-31 | 2016-10-31 | Object detection device and object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016212946A JP2018074411A (en) | 2016-10-31 | 2016-10-31 | Object detection device and object detection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018074411A true JP2018074411A (en) | 2018-05-10 |
Family
ID=62111699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016212946A Pending JP2018074411A (en) | 2016-10-31 | 2016-10-31 | Object detection device and object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018074411A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020011675A (en) * | 2018-07-20 | 2020-01-23 | 株式会社デンソーテン | Image processing device and image processing method |
JP2021135934A (en) * | 2020-02-28 | 2021-09-13 | パナソニックIpマネジメント株式会社 | Detecting device, detecting method and program |
JP2021174124A (en) * | 2020-04-22 | 2021-11-01 | 三菱電機株式会社 | Obstacle detection device, obstacle detection system including the same, and obstacle detection method |
JP2021179849A (en) * | 2020-05-14 | 2021-11-18 | 日立Astemo株式会社 | Image processing device |
-
2016
- 2016-10-31 JP JP2016212946A patent/JP2018074411A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020011675A (en) * | 2018-07-20 | 2020-01-23 | 株式会社デンソーテン | Image processing device and image processing method |
JP7116613B2 (en) | 2018-07-20 | 2022-08-10 | 株式会社デンソーテン | Image processing device and image processing method |
JP2021135934A (en) * | 2020-02-28 | 2021-09-13 | パナソニックIpマネジメント株式会社 | Detecting device, detecting method and program |
JP7481785B2 (en) | 2020-02-28 | 2024-05-13 | パナソニックオートモーティブシステムズ株式会社 | DETECTION APPARATUS, DETECTION METHOD, AND PROGRAM |
JP2021174124A (en) * | 2020-04-22 | 2021-11-01 | 三菱電機株式会社 | Obstacle detection device, obstacle detection system including the same, and obstacle detection method |
JP2021179849A (en) * | 2020-05-14 | 2021-11-18 | 日立Astemo株式会社 | Image processing device |
WO2021229866A1 (en) * | 2020-05-14 | 2021-11-18 | 日立Astemo株式会社 | Image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6406159B2 (en) | In-vehicle display control device, in-vehicle display control method | |
JP2009288867A (en) | Lane marking detection device and lane marking detection method | |
JP5003395B2 (en) | Vehicle periphery image processing apparatus and vehicle periphery state presentation method | |
JP5054612B2 (en) | Approaching object detection device and approaching object detection method | |
WO2017022497A1 (en) | Device for presenting assistance images to driver, and method therefor | |
CN107950023B (en) | Vehicle display device and vehicle display method | |
JP2018074411A (en) | Object detection device and object detection method | |
JP2020068515A (en) | Image processing apparatus | |
JP2015186085A (en) | Travel derivation apparatus and travel derivation method | |
JP4853444B2 (en) | Moving object detection device | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP2018116431A (en) | Division line detection device, division line detection system, and division line detection method | |
JP6407596B2 (en) | Image processing apparatus and driving support system | |
JP2006127083A (en) | Image processing method, and image processor | |
JP5541099B2 (en) | Road marking line recognition device | |
JP6032141B2 (en) | Travel road marking detection device and travel road marking detection method | |
JP5493705B2 (en) | Vehicle position detection device, vehicle position detection method, and vehicle position detection program | |
JP5395373B2 (en) | Perimeter monitoring device | |
JP6677141B2 (en) | Parking frame recognition device | |
JP2007317128A (en) | Device and method for detecting moving distance | |
JP2018147241A (en) | Image processing device, image processing method, and image processing program | |
JP4529768B2 (en) | On-vehicle object detection device and object detection method | |
JP2009214790A (en) | Apparatus and method for imaging, and apparatus and method for processing image | |
JP6677142B2 (en) | Parking frame recognition device | |
JP6781010B2 (en) | Image display device and image processing method |